La Nature
-
-
- LA NATURE
- REVUE DES SCIENCES ET DE LEURS APPLICATIONS
- p.n.n. - vue 1/527
-
-
-
- p.n.n. - vue 2/527
-
-
-
- LA NATURE
- REVUE DES SCIENCES ET DE LEURS APPLICATIONS
- QUATRE-VINGT-SIXIÈME ANNÉE 1958
- DUNOD ÉDITEUR
- n, RUE BONAPARTE, PARIS
- Page de titre n.n. - vue 3/527
-
-
-
- SUPPLÉMENT AU No 3284 (DÉCEMBRE 1958)
- Le gérant : F. DUNOD.
- Laval.
- Imprimerie Barnéoud S. A.
- Imprimé en France.
- p.n.n. - vue 4/527
-
-
-
- N° 3273
- Janvier 1958
- Aij-Cu
- LA NATURE
- Le radiotélescope géant de Jodrell Bank
- Fig. 1. — Le radiotélescope de 76 m de Jodrell Bank.
- Remai’Cfuer la grande roue stabilisatrice solidaire du miroir et, au centre de celui-ci, le mât porte-antenne. A. l’époque où fut prise cette photographie, le miroir n’avait pas reçu tout son revêtement en plaques de tôle d’acier. La construction métallique est très audacieuse et d’une grande complexité. Sous le miroir, on voit le petit laboratoire suspendu où sont installés les récepteurs.
- (Photo aimablement communiquée par l’Ambassade de Grande-Bretagne).
- On a beaucoup parlé de la construction, au centre radio-astronomique de Jodrell Bank près de Manchester (Angleterre), d’un gigantesque miroir parabolique dont le diamètre ne mesure pas moins de 76 m. Peu de gens savent cependant que cette entreprise, dont l’idée fut lancée en 19/18, vient enfin d’être menée à terme et que les radioastronomes du monde entier, réunis l’été dernier en congrès à Boulder (Colorado) ont eu en mains les premiers enregistrements de l’émission radioélectrique céleste obtenus sur 5o cm de longueur d’onde au moyen de cet instrument. Il fallut, pour aboutir à cette grande réussite, toute la persévérance des radioastronomes anglais
- dirigés par le professeur Lowell et de la firme eonstructrice Ilus-band and Co., car à l’époque où fut ouvert le chantier peu de gens croyaient la construction réalisable. Sans être en fait le plus grand du monde par sa surface, le radiotélescope de Jodrell Bank est du moins le plus vaste miroir orientable en tous sens : actuellement, seuls sont en service des miroirs de au m de diamètre en Hollande et en Allemagne.
- Cette énorme masse de près de 700 t est en effet mobile autour de deux axés, l’un vertical et l’autre horizontal (lig. x et ligure de la couverture). Le mouvement en hauteur est réalisé au moyen de deux forts groupes électriques de type Ward-Leo-
- p.1 - vue 5/527
-
-
-
- 2
- nard situés au sommet de deux tours métalliques de 52 m de haut, et agissant sur des roues dentées de plus de 8 m de diamètre solidaires du miroir, provenant de tourelles d’artillerie d’un ancien bâtiment de guei’re. L’ensemble du miroir et des deux tours qui le supportent peut également tourner autour d’un axe vertical, car les bases des tours roulent sur une voie ferrée circulaire d’un diamètre égal à 107 m, au moyen de deux boggies mus par Ward-Leonard et de quatre boggies non moteurs. Enfin, une roue stabilisatrice bien visible sur les photographies est maintenue à sa partie inférieure et évite autant que possible les mouvements intempestifs du miroir sous l’effet des coups de vent.
- Pour être facilement utilisable, cet ensemble doit être capable de suivre les radio-étoiles au cours de leur mouvement apparent dans le ciel. Une sorte de calculateur permet de réaliser cette opération, et aussi de faire suivre au miroir le plan de la Galaxie ou des directions perpendiculaires, afin de déterminer sans difficultés l’émission hertzienne de la Voie lactée. A cet effet, les indications de position du miroir sont transmises par selsyn jusqu’au laboratoire de contrôle, où se trouve le calculateur automatique qui commande à son tour les moteurs. Ceux-ci sont assez puissants pour que l’axe du miroir puisse balayer le ciel à près de 22 degrés par minute de temps.
- La surface réflectrice du miroir est constituée d’une mince surface d’acier faite d’environ 7 000 plaques assemblées, de près de r m2 chacune et de 2 mm d’épaisseur. Le rayonnement reçu du ciel est concentré par ce miroir en son foyer et recueilli à cet endroit par une antenne soutenue par un échafaudage métallique de 19 m de haut. Comme l’instrument est conçu pour recevoir plusieurs longueurs d’onde et que chacune d’elles nécessite une antenne et des câbles appropriés, on supporte antennes et câbles par des tubes d’acier interchangeables de i5 m de long, amovibles lorsque le miroir est renversé.
- Les câbles de transmission aboutissent à un petit laboratoire suspendu sous le miroir (fîg. x) où se trouvent les récepteurs qui correspondent aux longueurs d’ondes de réception, ou du moins leurs premiers étages d’amplification. On ne peut les placer en effet au sommet des tours et à plus forte raison dans les laboratoires souterrains, car cela nécessiterait une telle longueur de câble qu’une grande partie de ce que capte l’antenne serait perdu en chemin.
- Un miroir aussi vaste que celui de Jodrell Bank est d’une très grande utilité, non seulement parce qu’il autorise la détection
- de radiosources très peu intenses, étant donné sa surface, mais aussi parce que son pouvoir de résolution est très bon. Sur 5o cm de longueur d’onde, par exemple, on peut distinguer l’une de l’autre deux radioétoiles distantes de moins de 3o mn d’angle. On fait mieux, bien sûr, avec des procédés interféro-métriques, mais ceux-ci présentent des inconvénients et des difficultés d’interprétation qui ne leur permettent pas d’explorer, comme un simple miroir parabolique, les régions émis-sives du ciel dont la structure est par trop compliquée. Sur 10 m de longueur d’onde, le pouvoir de résolution du radiotélescope de 76 m n’est plus que de 9 degrés, mais ceci est suffisant pour bon nombre d’études, relatives en particulier à l’émission des grandes zones d’émission continue galactique.
- On ne sait pas encore quelle sera la plus petite longueur d’onde sur laquelle ce gigantesque miroir pourra être utilisé. Lord Rayleigh a montré en effet que, pour être utilisable, un miroir ne devait pas s’écarter de la surface théorique de plus d’un huitième de la longueur d’onde, et ceci est valable aussi bien en optique que dans le domaine des ondes hertziennes. Des essais sont actuellement en cours pour préciser sur ce point les possibilités du miroir, mais il est vraisemblable qu’on ne pourra en employer que la partie centrale pour recueillir l’émission de l’hydrogène neutre galactique sur 21 cm, dont on sait l’importance astronomique : cela constituera tout de même un respectable paraboloïde de 3o à 4o m de diamètre ! On ignore également si la précision du calculateur qui permet la poursuite des radiosources au cours de leur mouvement apparent dans le ciel est suffisante pour profiter de tous les avantages du bon pouvoir séparateur de l'instrument sur les ondes les plus courtes, et si la position des radioétoiles qu’il déterminera sera connue sans erreurs importantes.
- Si le besoin s’en fait sentir, il sera sans doute possible d’améliorer sensiblement le calculateur et l’on peut attendre beaucoup de découvertes de ce superbe appareil. Bien que son programme de travail soit essentiellement consacré aux études de la Galaxie et des radiosources extragalactîques, il comprend aussi la possibilité d’utiliser le miroir en tant que x’adar. Muni d’un émetteur-récepteur puissant, ce radar, le plus grand du monde, permettra de répéter facilement les expériences où furent provoqués des échos sur la Lune, et d’en obtenir d’autres sur les planètes et sur les satellites artificiels de l’Année géophysique internationale, fournissant ainsi un excellent moyen de les suivre, puisqu’ils sont, presque toujours invisibles optiquement. j. l.
- Un exemple de colonisation hollandaise au Brésil
- Le Brésil apparaît comme un des pays neufs de la planète les plus susceptibles d’expansion : sa population est passée de 7 millions d’habitants à 18 millions en 1900 et à 60 millions aujourd’hui (elle dépassera 100 millions en 1980). L’immigration y demeure active et des réussites incontestables ont suivi la colonisation de certaines régions par des Italiens, des Allemands ou des Japonais.
- Une colonie néerlandaise s’est installée sur les campos, ou plateaux (d’âge primaire, avec des intrusions de porphyre) de l’État de Paranâ, au sud du Brésil. Les sols, pauvres, ont été amendés par des engrais;' la motorisation et l’extension du système coopératif ont permis d’obtenir des résultats excellents.
- Les Hollandais venus se fixer au Paranâ étaient des Frisons, qui décidèrent de quitter les Pays-Bas en igôi afin de trouver des terres suffisamment étendues pour eux et leurs enfants. Il s’agissait d’agriculteurs aisés, disposant de capitaux importants. Ayant réussi à transporter leur cheptel et à introduire leurs capitaux au Brésil, ils ont fondé la ville de Castrolandia et se sont
- mis à exploiter des concessions individuelles de 80 ha environ, où 5o familles vivent confortablement. Chaque exploitation élève 20 à 25 vaches, nourries grâce à des cultures fourragères; cet élevage intensif, très différent de l’élevage traditionnel des pays d’Amérique du Sud, se traduit par des rendements annuels de l’ordre de 4 à 5 000 1 de lait par vache (race hollandaise pure). Il s’ajoute à cela la fabrication du fromage, la vente des œufs et un bel élevage porcin.
- « Sur le plan humain, commentent P. et G. Veyret (Revue de Géographie alpine, 45, 1957, 622), la réussite n’est pas moins remarquable; sans doute, le groupe des immigrants forme-t-il pour le moment un coin de Hollande plus qu’un morceau de Brésil. Mais... deux maîtresses brésiliennes donnent à l’école la culture du nouveau pays, tandis qu’un maître hollandais perpétue la tradition du vieux pays : synthèse équilibrée du passé et du présent, combinant le réalisme et. le sentiment. »
- P. W.
- p.2 - vue 6/527
-
-
-
- Les Sarigues
- 3
- Prononcer le terme Marsupiaux revient à évoquer d’emblée l’image d’un Kangourou; beaucoup d’autres animaux poui'tant appartiennent à cet ordre, mais ils n’ont pas les honneurs du cirque et bon nombre d’entre eux ne dévoilent leur existence que lorsqu’on feuillette des manuels ou des revues scientifiques spécialisés. On les voit peu dans les jardins zoologiques où leur présence effacée ne retient guère l’attention du public d’ailleurs, à l’exception du Koala, ourson en peluche visible seulement dans les zoos australiens et à celui de San Diego en Californie.
- Les Marsupiaux constituent cependant tous des curiosités par leur organisation archaïque qui fait d’eux des « fossiles vivants », en prenant celte expression subjective pour ce qu’elle vaut, au même litre que le Cœlacanthe, que le Lézard Hattéria (.Sphenodon punctatus) des îlots de la baie de Plenty en Nouvelle-Zélande, ou que les poissons pulmonés par exemple.
- Dans l’arbre évolutif des Mammifères, les Marsupiaux représenteraient un phylum détaché avant les autres du tronc commun (ce devrait être, en bonne logique, juste après les Mono-trèmes qui se situent sur ce tronc commun) et sans relation directe avec eux. Ils apparaissent timidement au Crétacé terminal du Canada et coexistent avec les Insectivores. Ils ne furent pas les premiers Mammifères connus : au Jurassique vivaient déjà les formes dites mésozoïques, toutes éteintes actuellement, et même, le Trias avait vu les Promammifères (Droma-therium sylvestre). Nous avons employé plus haut le conditionnel « représenteraient un phylum détaché... », car la chronologie fondée sur les trouvailles paléontologiques ne s’ac-
- Fig. 1. — La ligne de Wallace.
- (Cartographie La Nature).
- corde pas avec l’arbre évolutif tel que la logique, appuyée sur la systématique, le restitue. En effet, on ignore tout des antécédents des Monotrèmes; leurs vestiges osseux datent du Pléis-locène, et la question n’est pas résolue de savoir où exactement il convient d’insérer les Protothériens sur l’arbre généalogique.
- L’éviction d’Europe des Marsupiaux s’amorce tôt; au Tertiaire, nos pays ne connaissent déjà plus que des espèces voisines des sarigues qui vivent aujourd’hui en Amérique; elles disparaissent au Miocène inférieur. C’est sur les restes fossiles d’un sarigue (Ç exhumé à Montmartre que Cuvier prouva l’exactitude de son principe de corrélation des organes.
- Les Marsupiaux ne se rencontrent aujourd’hui que dans deux régions du globe : Nouveau Monde d’une part; zone austro-mélanésienne d’autre part, séparée de l’Indo-Malaisie par la célèbre ligne de Wallace qui passe entre les îles de Bali et de Lombok, et entre Bornéo et Célèbes. Cette ligne conventionnelle ne représente toutefois qu’une limite approximative, il existe une large zone de transition qui englobe Célèbes. Florès, Timor où se rencontrent côte à rôle, en proportions inégales selon que l’on se trouve plus ou moins loin à l’est de la ligne de Wallace, Kangourous ayant la taille de rats et Placentaires.
- 1. Le féminin ne doit s’employer que pour désigner la femelle
- ZOO 400 600 km
- -ME R—DE.—CHINE-
- —MER
- -CÉLÈBE S-
- -MER-
- —BANDA
- L’ordre des Marsupiaux ou Didelphes (étymologiquement : animaux à utérus double) s’intégre dans l’infra-classe des Métathériens qui comprend ce seul ordre. Avec les Euthériens ou Placentaires, il constitue la sous-classe des Thériens; abstraction faite des formes éteintes, la classe des Mammifères ne renferme qu’une autre sous-classe : les Monotrèmes ou Protothériens. On réunit habituellement les Marsupiaux en trois sous-ordres : Polyprotodontes, Pauciluberculés, Diprotodontes. Selon cette classification, les Sarigues appartiennent — ainsi que le Thylacine (loup de Tasmanie) disparu depuis peu, et le Dasyure australien — à celui des Polyprotodontes, parce qu’ils ont de nombreuses incisives, par opposition aux Diprotodontes confinés à la région australienne (Kangourou, Koala, Phalanger) qui n’ont que deux incisives à la mâchoire inférieure. Quant aux Pauciluberculés, avec une première incisive inférieure plus grande que les autres et la présence, à la mâchoire supérieure, de quatre incisives et d’une canine, ils constituent un sous-ordre intermédiaire; arboricoles et carnivores, ils ne comptent plus qu’une unique famille, les Cænolestidés, vivant dans les Andes, de la Colombie jusqu’à la latitude de l’île Chiloé au Chili.
- Dans le tome XVII du Traité de Zoologie publié sous la direction de M. Grassé Q), F. Bourlière estime cependant plus logique de suivre la classification de Simpson et de répartir les Marsupiaux en 5 super-familles : Didelphoidea, Dasuyroidea, Perameloidea, Cænolestoidea, Phalangeroidea. Parmi elles, nous intéresse ici la première, Didelphoidea, qui comprend une seule famille, les Didelphidés, c’est-à-dire les Sarigues, subdivisée en io genres.
- Tous les Didelphidés habitent les régions néarclique et néo-tropicale. Au genre Didelphis appartient l’espèce la mieux connue, D. virginiana, ou Opossum (2), unique marsupial d’Amérique du Nord. Ce Sarigue remonte maintenant jusqu’aux Grands Lacs aux États-Unis, parfois même jusqu’au Canada, ce qui constitue d’ailleurs un des indices de réchauffement de l’hémisphère boréal, car au début du siècle, on ne le rencontrait que rarement au nord de la Virginie, état dont il tire sa désignation spécifique; il n’occupait que la partie orientale et centrale de l’Amérique du Nord, mais notre siècle a assisté à son introduction dans la région du littoral pacifique.
- Outre les Didelphoidea, le continent américain est habité par un seul autre groupe de Métathériens : les 1res rares Cænolestidés.
- Reproduction. — Les organes génitaux mâles des Marsupiaux présentent moins d’intérêt que ceux des femelles. Les testicules sont extra-abdominaux ; la verge est bifide : les femelles ont, en effet, comme chez les Monotrèmes, deux utérus. Protothériens et Métathériens se situent, sous ce rapport, à la base de la série qui, en passant par l’utérus bifide et l’utérus bicorne, aboutit à l’utérus simple des Primates. Dans le cas de Didelphis, les utérus s’ouvrent séparément dans le cul-de-sac vaginal médian, poche conique aplatie de la base de laquelle se détachent à droite et à gauche les deux vagins ansiformes; ils fusionnent plus bas, au débouché de la vessie, pour constituer le sinus uro-génital. Sinus et rectum confluent en une très courte cavité cloacale. Un périnée existe chez le mâle, mais le cloaque n’a pus disparu et un sphincter com-
- 1. Cet ouvrage a rendu possible le présent article en nous permettant de préciser plusieurs points pour lesquels nous manquions de données sûres.
- 2. Précisons que les pelletiers et fourreurs nomment aussi « Opossum » le Koala, ce qui est complètement erroné. Le terme Opossum recouvre en réalité 4 genres de Didelphidés : Didelphis, Chironectes, Metachirops, Metachi-rus. On appelle également opossums australiens ou, par souci d’éviter toute confusion, possums, les formes du genre Trichosurus, famille des Phalangé-ridés, qui ressemblent aux Opossums américains.'Dans cet article, en conformité avec l’usage américain courant, le terme « Opossum. » désignera exclusivement Didelphis virginiana.
- p.3 - vue 7/527
-
-
-
- 4
- mun demeure. l’ar ce caractère, comme par bien d'autres, les Marsupiaux se révèlent transitionnels entre les Monolrèmes et les Placentaires : plutôt que des ditrèmes, il conviendrait d’en l'aire des ditrèmes imparfaits ou des hémidilrèmes, si ce dernier terme n’impliquait deux notions contradictoires.
- L’Opossum a, au cours d’une même année, plusieurs cycles crstriens qui durent un mois; ils se manifestent par un gonflement mammaire, par une activité accrue des glandes sébacées contenues dans la peau de la poché marsupiale (ou marsupium); cette sécrétion, plus forte aussi durant la gestation et l’allaitement, donne au poil de bourre avoisinant une teinte orangée.
- Comme les autres Mammifères, comme les Reptiles, comme les Oiseaux, les Mélalhériens s’intégrent dans la superclasse des Amniotes : une membrane formant sac, l’amnios, emplie du liquide amniotique, et une seconde membrane, l’allantoïde, protègent l’embryon. Mais à la différence des Luthériens, les Marsupiaux (sauf la famille des Péramélidés où le placenta est semblable à celui des Euthériens) sont des implacentaires (x) : le chorion nourrit, de ses réserves, l’embryon qui, de plus, baigne dans une sécrétion muqueuse nutritive; l’absence de villosités pénétrant dans l’endomctre rappelle le cas des Suidés : chez la Truie, le placenta diffus laisse intacte la muqueuse utérine, il n’existe pas de » caduque » tombant lors de la mise bas. Diddphis appartient au type à placenta chorio-vitel-lin (les Marsupiaux se répartissent, sous ce rapport, en 4 types différents) : l’allantoïde n’atteint pas le chorion.
- La gestation ne dure que i3 jours au terme desquels la sarigue, assise, donne naissance à une vingtaine d'Opossums encore à l’état embryonnaire : chacun d’eux mesure quelque i3 mm et pèse 14 ou i5 cg. Dans les mêmes proportions, une femme de taille moyenne mettrait au monde des bébés de 4 g environ; ou, si l’on préfère, en supposant que l’enfant pèse normalement 6 livres, sa mère dépasserait 4o b Déjà pourvu de fortes griffes aux moignons qui deviendront les pattes antérieures, l’embryon progresse, sans nulle intervention de la mère, à travers la fourrure de celle-ci pour gagner, en une quinzaine de secondes, le marsupium, alors que chez une espèce de Kangourou, ii faut un quart d’heure pour ce faire. La poche renie, rme un nombre variable de tétines (de 4 à i3), toujours inférieur au nombre de nouveau-nés; les derniers arrives sont donc condamnés à périr/ car l’embryon qui atteint une mamelle s’y cramponne fie fac/on permanente, durant deux mois, par son orilice buccal muni d’un muscle extrêmement puissant. Les glandes mammaires se trouvent dans une excavation de la paroi postérieure de la poche; si le nombre des tétines présente des variations individuelles dans le cadre d’une même espèce, les variations spécifiques et génériques ne sont pas moins importantes : de I\ à 17 dans le genre Didelphis.
- La poche, duplicatrice de la peau et de la musculature abdominales, est pourvue d’un sphincter aisé à ouvrir : le doigt s’insère sans aucun effort dans le marsupium, ainsi que j’ai pu
- 1. A condition qu’on admette la convention selon laquelle est seul placenta vrai le placenta chorio-allantoïdien.
- le constater personnellement maintes fois. Deux os spéciaux, dits marsupiaux, jJorlés par les os du pubis, la soutiennent; ils existent même chez le mâle qui, pourtant, quelle que soit l’espèce, n’a pas de marsupium ou n’en présente que des vestiges (c’est le seul caractère qui permette de parler de dimorphisme sexuel). Ces os marsupiaux, qu’on rencontre aussi chez les Monolrèmes, constituent un héritage reptilien.
- Chez le Kangourou, la marsupie s’ouvre transversalement; chez les Didelphidés, en revanche, l’ouverture est parallèle à l’axe du corps, et antérieure. Les Marsupiaux qui 11e sautent pas ou ne grimpent pas ont habituellement une poche à ouverture postérieure. Certaines formes ont une poche incomplète ou meme en sont totalement dépourvues, ainsi l’Opossum laineux (Philancler) (lig. a), Sarigue arboricole d’Amérique tropicale; les jeunes restent accrochés aux tétines quand la mère se déplace, puis, plus tard, sont transportés sur son dos, leur queue nouée à la sienne.
- Le petit Opossum se développe rapidement : trois semaines après sa naissance, il dépasse 4 g, soit 3o fois son poids initial. Ayant atteint la taille d’une Souris, il sort alors du marsupium, sans s’éloigner, cl y revient téter ou dormir; ce dernier stade dure un mois. Quelque temps encore il suivra, puis, sans attendre l’âge adulte (six mois pour la femelle, huit mois pour le mâle), abandonnera sa mère. Celle-ci a, en moyenne, deux portées annuelles; mais, en climat froid, elle se contentera d’une seule, tandis que dans les régions subtropicales du Sud des États-Unis, il arrive qu’elle en élève trois. Si bien que parfois, une Sarigue avec des embryons dans le marsupium est encore flanquée des jeunes de la portée précédente.
- Anatomie du genre Didelphis. — La taille diffère dans de très grandes proportions d’une espèce à l’autre. D. marsu-pialis, Sarigue tropical, et D. virginiana atteignent, le premier la grosseur d’un Chat domestique adulte de petite race avec un poids moyen de 2 kg, le second celle d’un très gros Chat avec un poids de 7 kg et mesure, du museau à la naissance de la queue, une cinquantaine de centimètres. En revanche, certains Didelphidés arboricoles d’Amérique centrale et du Sud ne dépassent pas la taille d’un Rat, voire d’une Souris.
- La fourrure a plus ou moins d’épaisseur selon le climat. I). inarsupialis a les poils de bourre en plus grand nombre que les jarres; un duvet laineux recouvre la face ventrale. De l’implantation à l’extrémité dislale, les jarres ont une teinte crème, puis brun roux, et enfin noire.
- Les pattes antérieures de. ce Sarigue, et également de l’Opossum, sont beaucoup plus courtes que les pattes postérieures; plantigrades, ces animaux marchent lentement et pesamment, la course même manque de rapidité : on rattrape sans difficulté D. marsupialis, d’autant que, poursuivi, il se retourne pour faire face ou demeure acculé à un arbre. Quant à l’Opossum, lorsqu’il se croit en danger, il s’allonge sur le flanc, veux mi-clos, gueule entr’ouvcrle; on peut alors le manipuler, le secouer, le frapper, il ne se départ point de son immobilité.
- L’expression « faire le mort » se dit d’ailleurs en américain « faire l’Opossum » : playing ’possum. Je n’ai jamais vu /). marsupialis adopter ce comportement : le danger déclenche toujours la réaction d’agressivité.
- Chacune des pattes se termine par cinq doigts roses d’inégale longueur (le second étant le plus court) munis, à l’exception du pouce postérieur, de griffes incurvées non rétractiles (fig. 3). Ce pouce est opposable aux autres doigts, ce qui, avec l’aide des griffes et des coussinets élastiques à peau nue qu’on observe • aux paumes et aux soles, permet la vie arboricole. Dans ce genre de vie joue aussi un rôle la queue préhensile, nue, écailleuse, rose sur les deux tiers de sa longueur, noire à la base : elle facilite le grimper en ceinturant les branches; quand l’animal s’assied,
- Fig. 2. — Un Opossum laineux (Philander laniger).
- (D’après le Traité de Zoologie de P.-P. Grasse, t. XVII, 1*' fascic., Masson, Paris, 1955, avec l’aimable autorisation de l’éditeur).
- p.4 - vue 8/527
-
-
-
- O
- Fig. 3. — Le Sarigue Didelphis marsupialis.
- A gauche, femelle avec ses jeunes sur le dos. A droite, main et pied (D’après le Traité de Zoologie de P.-P. Grasse).
- il s’en fait également un point d’appui. Enfin, nouée en boucle, elle sert parfois à transporter des matériaux pour l’aménagement du nid. Contrairement à ce qu’on pourrait croire, le Sarigue adulte ne se suspend guère par la queue, à la façon des Atèles ou des Capucins : il est devenu trop lourd. Une queue courte n’existe que chez les espèces terrestres (Pera-mys) d’Amérique du Sud.
- Le museau, prolongé par une sorte de groin, se hérisse de vibrisses horizontales et verticales; les plus éloignées de la truffe rose peuvent atteindre 8 cm. Quand le Sarigue bâille ou menace, la gueule s’ouvre à angle obtus. Le palais osseux est fenêtré, sauf chez Philander. Les yeux à pupille ronde font saillie « en bouton de bottine »; ils sont pourvus d’une membrane nicti-tante rudimentaire, autre héritage reptilien.
- La denture des Marsupiaux présente des caractères assez originaux et assez divers pour qu’elle ait pu servir de fondement à leur répartition dans les différents sous-ordres de la systématique classique. Tous les Métathériens sont des Monophyodon-tes imparfaits, ce qui signifie qu’ils n’ont qu’une poussée dentaire au cours de leur vie; les dents de lait subsistent, hormis la troisième prémolaire qui tombe après le développement des autres dents. Cependant, on tend à considérer que celle qui la remplace n’appartient pas à une seconde poussée : elle existait déjà, mais son éruption avait été inhibée jusqu’alors.
- Les Polyprotodontes ont de nombreuses incisives, inégalement distribuées entre les mâchoires supérieure et inférieure : ce dernier caractère est commun à tous les Marsupiaux, d’ailleurs. Carnivores ou insectivores, ils possèdent de fortes canines et des molaires à couronne tranchante, à l’inverse des Diprotodontes, herbivores ou frugivores : le Kangourou, par exemple, a des molaires à plateau broyeur, mais aucune canine.
- La formule dentaire des Didelphidés est ;
- I 5/4 C i/i Pm 3/3 M 4/4,
- soit un total de 5o dents, record des Mammifères terrestres.
- Le squelette manifeste, par plusieurs caractères, l’archaïsme des Métathériens. Nous avons signalé plus haut les os marsupiaux, vestiges de l’épipubis reptilien. Indiquons encore la formule vertébrale des Didelphidés : 7 cervicales, i3 dorsales, 6 lombaires, 2 sacrées, nombre variable de caudales (19 à 35).
- Cet archaïsme se retrouve dans la conformation du cerveau ; contrairement aux Euthériens, aucun Métathérien n’a de corps calleux; les lobes olfactifs sont très développés : les Sarigues se classent en effet parmi les animaux macrosmiques, c’est-à-dire chez qui l’odorat joue un rôle capital (les cavités nasales ont, d’ailleurs, une grande amplitude) par opposition à ceux qu’on qualifie de microsmiques tels que les Singes ou l’Homme. Le cervelet des Didelphoïdea n’est pas recouvert par les hémisphères cérébraux qui ont un développement relatif inférieur à celui du mésencéphale.
- La thermorégulation manque du caractère de stabilité absolue propre aux Euthériens; la température, moins élevée en outre
- que chez ces derniers sans descendre jusqu’aux 28° des Mono-trèmes, varie de quelques dixièmes de degré. Dans le cas de Didelphis marsupialis, elle oscille entre 34°2 et 34°5.
- D’autres particularités physiologiques méritent encore mention. Il ressortirait d’expériences pratiquées sur l’Opossum que les glandes surrénales présentent une importance fonctionnelle moindre que chez les Euthériens.
- Les Marsupiaux ont une ou deux paires de glandes anales, à excrétion odorante, dont le rôle est mal connu. Leur urine a une odeur forte et tenace; elle renferme des réducteurs et un taux élevé de vitamine Bx. Ils urinent fréquemment, à l’état sauvage du moins, car, en captivité, j’ai observé une rétention volontaire habituelle de 24 h, atteignant une fois jusqu’à 60 h, sans troubles apparents. On peut supposer que, comme l’Hip-popqtame, l’Hyène tachetée ou le Chat, le Sarigue appartient au type à défécation localisée : ses excréments serviraient à marquer le territoire où vit l’animal et où il n’admet l’intrusion d’aucun individu de son espèce. Dans cette perspective pourrait s’expliquer, en partie, le rôle des glandes anales; il ne s’agit toutefois que d’hypothèses, nos connaissances relatives à l’éthologie des Métathériens se réduisant à peu de chose. La forme sur laquelle nous possédons le plus de données est, parmi les Didelphoidea, Didelphis virginiana.
- Habitus et éthologie. — Les Sarigues, nous l’avons vu, mènent une existence arboricole ou terricole; certaines espèces jouissent d’une grande faculté d’adaptation. Ainsi, en forêt, l’Opossum niche bien souvent dans les troncs d’arbres creux, mais dans les plaines cultivées ou déboisées, il habite des terriers. On connaît même deux Sarigues aquatiques d’Amérique centrale et du Sud, le yapock (Chironectes minimus) et C. pana-mensis, véritables loutres marsupiales en réduction, à pattes postérieures palmées, à poils ras et serrés, à queue non préhensile, qui se nourrissent de petits animaux d’eau douce.
- Vigoureux et résistant, Didelphis chasse la nuit. L’Opossum et D. marsupialis sont pratiquement omnivores; ils mangent principalement des Insectes, des Vers, des Mollusques terrestres, des Crapauds, des Souris, de petits oiseaux, des œufs, à l’occasion des charognes, mais ils ne dédaignent pas les fruits et les racines. Aux Antilles, on les accuse d’endommager les bananeraies, dégâts dont ils ne portent sans doute pas toujours la responsabilité, pas plus que de ceux qu’on leur impute dans les poulaillers et qui, eux, doivent être attribués en majorité aux Mangoustes. Les naturels de la Dominique, île anglaise de l’arc antillais, voyaient en eux les agents de l’extinction, accomplie vers i85o, du « diablotin » (Pterodroma hasitata Kuhl), oiseau marin qui nichait en haute montagne dans des terriers, et qui disparut victime, en réalité, d’une chasse inconsidérée.
- Un petit territoire suffit à l’animal pour subsister; paresseux, il ne s’éloigne jamais beaucoup de son gîte. J’en ai vu un dans un jardin de i5o m2 environ, enclos de bâtiments, à la périphérie d’une ville. Quelques plantes, quelques arbres, plusieurs bananiers y croissaient.
- p.5 - vue 9/527
-
-
-
- 6
- Deux années durant, j’ai élevé une femelle de D. marsupia-lis, s. e. insularis, capturée à la Martinique en compagnie de sa mère et d’un autre jeune. Ramenée en France, son acclimatation ne se heurta à aucune difficulté particulière. L’appétit ne lui fît jamais défaut; par tâtonnements, j’avais déterminé la quantité optimale de nourriture quotidienne : 226 g répartis en deux ou trois repas, avec des extrêmes de 175 et 290 g. Le régime que j’avais imposé apparaît artificiel; composé principalement de fruits (bananes et pommes surtout) et de viande ou poisson cuits, l’élénient végétal y primait l’élément carné : le rapport'Variait entre 1/2 et 1/8. Je donnais à l’élève les protéines en quantité moindre pour obvier à la constipation dont il souffrait d’ordinaire et que je crois pouvoir attribuer en grande partie à son immobilité volontaire; la paresse intestinale s’aggravait sous l’effet du froid, très relatif d’ailleurs, car du milieu de l’automne jusqu'au début de mai, il vivait dans une pièce chauffée. Il se montrait plus sensible à des écarts thermiques brusques qu’à une température assez fraîche de façon constante. Son optimum se situait vers 2/1° ou 26°; à partir de 3o°, il semblait moins à l’aise.
- Devenu gourmand, il consommait volontiers omelette, riz ou pommes de terre incorporés à de la viande hachée, abricots presque blets, figues fraîches, « diplomate » au rhum. Le fromage ne rencontrait que peu de succès, et le pain aucun. Vu la dépense énergétique quasi nulle, celte alimentation était certainement trop riche; mais soumise à un régime plus pauvre, la Sarigue avait faim et le manifestait par une régurgitation bruyante, phénomène dont j’ignorais l’existence et que j’interprétai, au début de la captivité, comme un symptôme de troubles gastriques. Tête verticale, l’animal faisait des efforts semblables à ceux qui accompagnent des vomissements, puis mastiquait. Après un jeûne de 24 h, les efforts devenaient de plus en plus fréquents et violents ; ils ne cessaient qu’avec une nourriture plus copieuse. Des expériences réitérées confirmèrent mon impression.
- L’élève buvait beaucoup l’été, et très peu l’hiver : une fois par semaine en moyenne. Mais en toute saison il acceptait de l’eau ou du lait édulcorés au sucre ou au sirop de fruits. Par temps froid, il ingérait de bon gré une boisson à 45°. Arrivé en Europe à la fin de l’été, au cours d’une période assez fraîche et pluvieuse, il avait toussé pendant deux mois. Plus tard, lorsque la toux apparaissait, je lui administrais du lait sucré chaud faiblement additionné de rhum : le remède était infaillible.
- La qualité dominante des Sarigues, la seule peut-être selon des critères anthropocentriques, réside dans leur propreté remarquable. Carrés sur le trépied que forment pattes postérieures et queue, ils procèdent à leur toilette plusieurs fois par jour; gencives, nez, yeux, oreilles, ventre, marsupie, orteils sont nettoyés méthodiquement. L’une après l’autre chacune des pattes postérieures lisse et peigne ensuite la fourrure des flancs et de la tête. La toilette s’achève par la queue qui, saisie entre les mains, est vivement léchée sur toute sa longueur.
- Le spécimen que j’ai gardé en captivité vivait dans une cage en bois de 5o x 26 x 25 cm, garnie de chiffons de laine. Cette cage, ouverte en permanence, ne fut souillée que dans les semaines qui précédèrent la mort de l’animal. Pendant plus d’un an, il se leva chaque nuit pour déféquer et uriner, mais ensuite il refusa de bouger et il fallut le sortir de force quotidiennement pour interrompre une rétention susceptible de dépasser deux jours. Lorsque des aliments gras avaient sali la cage, de sa langue râpeuse, il la nettoyait avec frénésie.
- Les bruits l’affectaient beaucoup plus par leur timbre que par leur hauteur et surtout que par leur intensité ; la radio hurlante, des conversations animées n’ont jamais provoqué de réaction, tandis qu’un soudain froissement de papier, un crissement de feuilles sèches l’inquiétaient.
- Un faisceau lumineux braqué brusquement dans l’oeil à 1 m de distance ne paraissait pas être perçu. La vision diurne
- semblait évidemment très médiocre : les gestes et les mouvements attiraient principalement l’attention.
- Psychisme. — Les rares personnes qui ont pu observer des Sarigues en liberté s’accordent à leur reconnaître une intelligence faible. Pris dans un piège dont il parvient à s’évader, un individu se laissera prendre de nouveau le lendemain, au même endroit, dans les mêmes conditions. Les remarques suscitées par le comportement du spécimen captif confirment en tous points l’opinion commune. Toutefois, la plus grande prudence s’impose dans leur interprétation et dans les conclusions, la captivité constituant un mode de vie essentiellement anormal; d’autre part, je ne suis pas zoopsychologue.
- Sans doute convient-il d’abord de s’entendre sur ce qu'on appelle « intelligence ». On sait que les réactions animales s’expliquent par des tropismes (chez les espèces inférieures), par des tâtonnements, par l’instinct, par l’apprentissage ou learning, par l’intelligence ou insight, cette dernière correspondant à la faculté d’adaptation rapide à une situation imprévue impliquant un raisonnement pour la résoudre. Les capacités d’apprentissage varient selon les espèces, mais quand on constate que des vers, des crabes n’en sont pas dépourvus, on comprendra que insight et learning diffèrent fondamentalement, bien qu’il ne soit pas toujours aisé de tracer une frontière nette entre les deux comportements. Un apprentissage rapide n’implique-t-il pas intelligence, par la faculté d’utiliser des expériences antérieures ?
- L'insight occupe dans le psychisme de la sarigue observée une place beaucoup moins importante que le learning. Outre son comportement général déduit de notes journalières, un fait m'autorise à affirmer qu’elle possédait une intelligence faible. La présentation de son plat métallique, accompagnée du bruit des pincettes avec lesquelles on devait le tenir par mesure de précaution, suscita d’emblée la colère et, à chacun de ses repas, elle mordait le récipient avec fureur. Ce n’est qu’au terme de cinq mois que le rapport fut établi et le réflexe conditionné créé : au cliquetis des pincettes, elle se dressait désormais en flairant et souvent empoignait le bord du plat pour l’attirer à elle plus rapidement. L’apprentissage s’opérait donc avec une lenteur telle que l’intelligence ne pouvait y avoir aucune part.
- J’ai pourtant noté quelques manifestations relevant de l’in-sight. Elle reconnaissait, en peu de jours, la disposition de lieux nouveaux pour elle et ne se trompait guère alors pour venir d’un jardin jusqu’à sa cage; une réserve s’impose cependant : quel rôle joue ici l’odorat P Voici une observation plus probante : déposée à l’extérieur d’une maison, elle n’errait paa à l’aventure; elle en faisait le tour à la recherche d’une porte-pour y entrer. Il semblait que son comportement procédât d’un raisonnement, les portes polarisant son attention. Grande était d’ailleurs sa constance; ramenée au dehors au moment où, ayant rejoint son abri, elle allait se glisser sous ses chiffons, elle recommençait dix fois son manège sans se lasser.
- Qu’elle fût dans une pièce ou en plein air, elle cherchait à; regagner sa cage si on l’en sortait. La sécurité n’existait pour elle qu’à l’intérieur de cet abri-refuge. Il lui avait fallu un mois-pour la considérer comme son nid ; dans les premières semaines-de sa captivité, elle essayait de ronger le grillage de la porte alors maintenue fermée. Quand, lâchée dans un jardin, elle ne-pouvait la retrouver, elle s’immobilisait sous un buisson ou tentait de s’enfouir sous des feuilles mortes ou dans la terre molle; elle ne se cachait qu’à moitié, parfois même la tête seule était dissimulée. Jamais je ne l’ai vue tenter de chercher asile dans un arbre : elle avait perdu ses facultés de vie arboricole.
- Mon élève ne m’a jamais connu. Il s’était seulement un peu accoutumé à la présence humaine : il se lavait ou mangeait alors qu’on se tenait près de lui, ce qu’il refusait de faire au début de sa captivité.
- p.6 - vue 10/527
-
-
-
- Fig. 4, 5, 6. — Femelle adulte du Sarigue antillais Didelphis marsupialis, s. c. insularis, en captivité.
- En haut : Lorsqu’un sarigue grimpe, la préhensilité de la queue l’aide dans les passages difficiles. Noter ici l’enroulement incomplet de l’extrémité caudale prête à ceindre la branche en cas de nécessité. — En bas, à gauche : L’impossibilité de pénétrer dans sa cage inquiète la sarigue qui demeure immobile ; la captivité l’a dégradée au point qu’elle ne tenle même plus de gagner le sol pour s’enfuir. — En bas, à droite : L’animal qui a aperçu
- son plat, invisible sur la photographie, se dresse pour essayer de l’atteindre (Photos Léon Thomas).
- p.7 - vue 11/527
-
-
-
- 8
- Il n’est guère d’animaux qu’on ne réussisse à apprivoiser, avec du temps, de la patience et quelque intuition, surtout s’ils commencent de vivre aux côtés de l’Homme avant l’âge adulte. Le Sarigue représente/ lui, une forme rebelle. Cependant, il ne se montre agressif qui s’il s’estime en danger; le réflexe de défense se déclenché {iniquement lorsqu’il vous voit, car on peut le toucher en l’appi’ochant par derrière : l’attitude ne révèle que de l’inquiétude. Ma Sarigue venait-elle, au cours de ses sorties, à rencontrer un être humain immobile, elle s’écartait, poil hérissé, sans démonstrations hostiles.
- Elle n’éprouvait pas plus dé sympathie pour les animaux. J’avais une Chatte fort pacifique qui rôdait souvent autour de sa cage et lui faisait deé, invites pour jouer; elle n’a reçu que de dangereuses rebuffades. En liberté, les Sarigues restent constamment solitaires ; mâles et femelles ne cohabitent même pas un court laps de temps lors de la saison des amours. Quant aux animaux captifs, ils ne supportent jamais la présence d’un individu du sexe opposé; je n’ai d’ailleurs constaté à aucun moment d’indices susceptibles de s’interpréter comme des signes d’œstrus.
- On sait qu’il se crée chez l’animal sauvage qui vit en cage une seconde nature caractérisée par le sommeil, la disparition de l’instinct génésique et de l’agressivité; on a vu que sur ce dernier point la Sarigue était demeurée normale. Mais elle avait acquis progressivement des mœurs diurnes : son attitude, le matin, ne différait en rien de celle où elle s’était endormie. Elle avait un sommeil lourd : il arrivait qu’on dût la secouer pour la tirer de sa torpeur. Des grognements, des mouvements de léchage et de déglutition m’ont paru administrer la preuve qu’elle rêvait.
- L’humeur était fort versatile; à une demi-heure d’intervalle, l’animal hurlait si on passait près de sa cage, ou se laissait caresser sans même quitter sa position abandonnée de repos. Rien ne l’irritait autant que la promenade quotidienne en plein air à laquelle je l’astreignais quand les conditions atmosphériques le permettaient. Les états qui précèdent immédiatement la colère s’accompagnent de fortes expirations nasales. La colère proprement dite s’exprime, outre les cris, par un mouvement
- d’intention qui comporte deux phases : un balancement latéral de la partie antérieure du corps, puis dans les cas de fureur extrême, la queue fouette le sol, sans hâte mais avec violence, alternativement à droite et à gauche.
- Le Sarigue vit probablement 4 à 5 ans; le mien n’a pas atteint 3 ans. Il a péri subitement, après quelques secondes de convulsions. Son poids s’était élevé à 3 kg; sans doute cette obésité fut-elle cause de sa mort prématurée.
- #
- * *
- On chasse avec acharnement les Didclphis, aux États-Unis aussi bien qu’aux Antilles. Les motifs en sont différents : là, leur fourrure éveille la convoitise, ici on les recherche pour leur chair estimable. S’ils ont résisté jusqu’à maintenant, ils le doivent à leur prolificité. Mais au fur et à mesure que leurs refuges seront envahis par l’Homme, ils iront en se raréfiant dangereusement. Les États-Unis, avec leurs innombrables « sanctuaires » et parcs nationaux ont, par avance, protégé les Opossums au même titre que les autres espèces sauvages. La France n’a pas encore cru devoir se soucier de quelque protection que ce soit dans ses territoires d’Amérique. La faune terrestre de la Guadeloupe ou de la Martinique est pourtant assez pauvre, qualitativement et quantitativement, pour que des mesures s’imposent d’urgence afin de sauver les rares espèces indigènes survivantes. A la Martinique, le Sarigue constitue actuellement le seul Mammifère autochtone. On a, d’autre part, laissé s’éteindre l’Iguane, le Lamantin, les Perroquets, divers oiseaux; la raréfaction accélérée d’un des trois serpents, un inoffensif Colubridé, laisse prévoir sa disparition prochaine. Il serait temps de penser à mettre en réserve des territoires montagneux, inhabités et dénués de valeur économique, biens domaniaux de surcroît, tels que le Massif des Pitons, ce qui présenterait par la même occasion l’avantage de sauvegarder une flore remarquable et de préserver des sites pittoresques.
- Léon Thomas,
- Agrégé de l’Université.
- Unification du numérotage des textiles
- La nécessité d’unifier les divers systèmes de numérotation employés dans l’industrie textile a depuis longtemps retenu l’attention des organismes compétents. En dehors de l’industrie et du commerce de la soie où il existe depuis de nombreuses années une numérotation normalisée, les systèmes de numérotation des libres textiles étaient jusqu’à présent variables non seulement d’un pays à l’autre, mais aussi d’un textile à l’autre. Certains systèmes reposaient en outre sur un principe direct (numérotage d’autant plus élevé que le fil est plus gros), d’autres sur un principe indirect (numérotage d’autant plus faible que le fil est plus gros). Cette situation compliquait inutilement le travail des filateurs et des fabricants de tissus qui se trouvaient par ailleurs devant de nouvelles difficultés dès qu’il s’agissait d’employer des mélanges de divers textiles.
- Pour ce qui concerne la soie, la normalisation avait été faite en adoptant la numérotation en denier ; dans ce système, une longueur de 450 m de fil pèse 0,05 g (équivalence en unité métrique du denier utilisé avant l’adoption du système métrique). Le titre en deniers d’un fil de soie correspond ainsi au nombre de grammes que pèse une longueur de 9 km du fil ; un fil de soie de 30 deniers, par exemple, a donc une masse de 30 g pour 9 000 m de fil (ou 0,05 g x 30 = 1,5 g pour 450 m). Le système est à principe direct ; plus le nombre de deniers est élevé, plus le fil est gros.
- Bien que ce numérotage international (fondé sur les unités métriques, mais non décimal) se soit étendu également aux fibres nouvelles artificielles et synthétiques, d’autres systèmes de numérotation, où se mélangent les unités métriques et anglo-saxonnes, étaient également utilisés.
- Dans un but d’unification internationale, le Comité technique 38 (Textile) de l’Organisation internationale de Normalisation
- (I.S:0./T.C.38) portait l’examen de ce problème à son ordre du jour, afin que fût adoptée une numérotation fondée sur les unités métriques, décimale et de principe direct. Après discussion de cette question en 1948 et en 1951, le Comité I.S.O./T.C.38, réuni en mai 1956 à Southport (Royaume-Uni), décidait, à l’unanimité des délégués représentant une vingtaine de pays et trois associations textiles internationales, de recommander l’adoption par tous les pays d’un même système de numérotation pour tous les textiles, naturels, artificiels et synthétiques (J. Corbière, Unification internationale de la numérotation textile, Rayonne, Fibranne et Fibres synthétiques, 15 septembre 1956, p. 710).
- Ce système, dénommé « système te x », a pour unité de base la masse en grammes d’une longueur de 1 km de fil (masse linéique). Il comporte tous les multiples et sous-multiples décimaux, mais on a recommandé d’utiliser de préférence le multiple 103 et le sous-multiple 10~3, c’est-à-dire le « kilotex » (1 000 tex = masse en kilogrammes de 1 km de fil = masse en grammes de 1 m de fil) et le « millitex » (0,001 tex = masse en milligrammes de 1 km de fil). La transformation des deniers en tex s’effectue en multipliant ceux-là par 0,111 (1 denier = 111 mtex, 300 deniers = 33,3 tex).
- L’emploi de ce nouveau système de numérotage des textiles est déjà entré en application en France pour certaines fibres ; il est aussi légal en Espagne depuis quelques années. Son adoption générale par tous les pays et pour toutes les fibres textiles ne pourra toutefois s’effectuer que progressivement. Cette heureuse décision, qui apporte une unification internationale dans un domaine où la nécessité en était reconnue depuis de nombreuses années, marque en outre un nouveau progrès des mesures nu'triques sur le plan mondial.
- H. M.
- p.8 - vue 12/527
-
-
-
- 9
- Rayons gamma et origine de la vie
- Trois chercheurs des General Mills Research Laboratories de Minneapolis, MM. R. Paschke, R. W. H. Chang et D. Young, ont rapporté dans Science (3 mai 1957) des expériences de production d’acides aminés à partir de carbonate d’ammonium, sous l’effet des rayons y.
- On avait déjà obtenu (S. L. Miller, ig53) diverses substances organiques simples et des acides aminés par décharge électrique dans des mélanges variés (gaz carbonique, ammoniac, eau, hydrogène, méthane...) (voir La Nature, janvier 1954, p. 6). D’autres (Calvin, 1956) avaient utilisé comme source d’énergie les hélions (rayons a) ou les ultraviolets. En 1957 même, Has-selstrom et son équipe venaient de former des aminoacides dans un accélérateur de particules, à partir d’acétate d’ammonium.
- Les travaux récents de Paschke et ses collaborateurs marquent une nouvelle étape : c’est la première fois qu’on obtient des acides aminés à partir de formes complètement oxydées du carbone, en l’absence d’hydrogène libre. Une autre originalité réside dans l’emploi des rayons y. Dans leurs expériences, ces auteurs ont irradié du carbonate d’ammonium pendant deux semaines avec une source de radiocobalt 60 de 4 000 c. Après irradiation, le carbonate restant a été volatilisé; l’analyse du résidu solide (de l’ordre de o,4 pour 100 du sel initial) l’a
- montré composé de formiate d’ammonium, et d’un mélange complexe séparé par chromatographie sur papier en formiate, glycocolle, alanine, plus une substance non identifiée. On ignore pourquoi une dose d’irradiation aussi énorme est nécessaire. Pour l’instant, l’essentiel est que des aminoacides se soient formés à partir de carbonate d’ammonium directement.
- Devant ces résultats, l’idée vient que les radiations y d’origine terrestre ont pu jouer un rôle dans la formation du mélange de composés carbonés généralement supposé préliminaire à l’origine de la vie. Mais les radiations ionisantes provoquent la destruction aussi bien que la formation des composés, organiques. Il faut donc supposer que les molécules carbonées ont été ultérieurement protégées contre les rayonnements radioactifs. Les auteurs de ces expériences supposent qu'aussitôt formées elles ont pu être entraînées par les courants océaniques dans des zones non radioactives. Encore faut-il que la radioactivité terrestre ait pu suffire à provoquer de telles réactions. En l’admettant inchangée au cours des âges, le temps d’irradiation nécessaire serait d’une dizaine d’années.
- On peut se demander si une telle formation d’acides aminés se poursuit actuellement sur terre. La vérification en apparaît très difficile, car toute molécule organique rentre aussitôt dans les cycles de vie. J. D.
- Un antibiotique produit par les larves de mouches
- On sait qu'en 1929, W. S. Baer a introduit dans la thérapeutique, comme adjuvant à la chirurgie dans le traitement des ostéomyélites, l’action des larves d’une mouche à viande, de couleur vert brillant, la Lucilia sericata. Cette technique a été largement employée aux États-Unis et étendue au traitement d’autres lésions dues à une infection pyogène ou à des nécroses. L’action des vers doit être triple : débridement des tissus nécrosés par des enzymes protéolytiques, stimulation de la cicatrisation par l’allantoïne excrétée par les larves et réduction de l’infection de la blessure. Baer ne pensait pas que cette réduction était due seulement au débridement et à la stimulation; d’ailleurs Robinson a montré ensuite que l’allantoïne, même à une concentration de 8 pour xoo, n’a aucune propriété bactéricide.
- Dans le but de préciser l’existence d’un bactéricide ayant les propriétés d’un véritable antibiotique, E. R. Pavillard et E. À. Wright ont entrepris à la Saint-Mary’s Hospital Medical School, des recherches dont ils résument les résultats dans Nature, de Londres (2 novembre 1957). Les auteurs ont employé les larves d’une autre mouche à viande, Phormia terræ-novæ,
- appartenant au groupe des mouches bleues, dont le type est la commune Calliphora erythrocephala. Les larves, élevées sur viande de bœuf, sont transférées dans un récipient spécial et répandues, avec de l’eau distillée, sur la plaie pendant trois heures, à intervalles de dix minutes. Les lavages entraînent les excrétions des larves; ce matériel, stérilisé par la chaleur, puis dilué dans un milieu de culture, se montre actif contre le streptocoque hémolytique du groupe A et surtout contre le pneumocoque type I. Le Streptococcus hæmolyticus groupe B et le St. viridans sont sensibles seulement à une dilution élevée; certaines bactéries, telles Bacillus coli, Proteus vulgaris, Bacil-lus subtilis et quelques autres sont résistantes.
- Il a été possible d’isoler l’antibiotique grâce au papier chro-matographique ; une série d’injections de cette préparation protègent les souris des effets mortels d’une inoculation intrapéritonéale de pneumocoque type I. Bien que la source exacte de l’antibiotique n’ait pu être déterminée, il semble qu’il s’agisse d’un produit des larves elles-mêmes, non de microorganismes qui leur seraient associés.
- L. C.
- Autruches de garde
- Le mouton ermite et sa toison
- En divers points de la province du Cap, d’après le correspondant du Secrétariat international de la laine à Pretoria en Afrique du Sud, les producteurs de laine utilisent des autruches pour protéger leurs troupeaux contre les voleurs. A défaut de discernement et de subtilité, ces oiseaux font preuve, en cet emploi, d’une féroce agressivité et se montrent très efficaces. C’est un éleveur du district de De Aar, M. du Toit, qui, le premier, en 1942, eut l’idée d’en mettre dans ses pâturages, en guise de chiens de garde. Depuis, les voleurs de moutons, qui, auparavant, faisaient de fréquentes incursions sur ses terres, ne s’y risquent plus. Les autruches, paraît-il, ne se contentent pas de mettre en fuite les rôdeurs qui vont à pied. Elles poursuivent aussi tous les véhicules qui s’introduisent dans les pâturages et attaquent quiconque tente d’en sortir.
- Bien que ses semblables soient réputés n’être heureux qu’en troupeaux, il existe, en Tasmanie, un mouton qui, depuis trois ans, vit en ermite, dans une solitude absolue. En 1934, s’étant risqué à l’extrême bord d’une falaise abrupte de la côte sud-ouest de l’île, il a « dévissé », comme disent les alpinistes, et s’est retrouvé soixante mètres plus bas, sur un ressaut inaccessible d’où, depuis, il a été impossible de le remonter. Il s’y nourrit d’herbes et de broussailles et s’abreuve de l’eau qui ruisselle du sommet de la falaise. Apparemment, il ne souffre que du poids de sa toison, mais il en souffre de plus en plus à mesure que le temps passe, car elle continue de pousser sans que personne puisse aller la tondre. Aux dernières nouvelles, il aurait déjà une vingtaine de kilos de laine sur le dos (Information du Secrétariat international de la Laine).
- p.9 - vue 13/527
-
-
-
- La mesure des sons et la sensibilité auditive
- Plusieurs articles ont mis nos lecteurs au courant clés problèmes de la lutte contre le bruit (La lutte contre le bruit, le point de vue de l’urbaniste, le bruit des véhicules, La Nature, mars '1955, p. i03 ; Les bruits aéro-nautiques, juin 1955, p. 222 ; Le silencieux et la puissance des moteurs, septembre 1955, p. 350 ; Les bruits industriels, novembre 1956, p. 553). Les mesures que l’on doit effectuer à ce propos utilisent des unités (décibel, phone, sone) qui ne sont pas toujours bien compjùses. M. André Gribenski, ancien élève de l’Ëcole normale supérieure, agrégé de l’Université, qui a déjà traité pour nos lecteurs des théories de Vaudition et de divers problèmes d’acoustique physiologique, étudie ici l’origine et la signification de ces unités.
- Intensité sonore et décibels. — Comme nous l’avons déjà indiqué dans un article précédent (x), il faut distinguer l’intensité sonore, grandeur physique qui se rapporte aux vibrations, de la force sonore ou sonorie, qui est de nature psychologique : la sonorie est l’attribut de la sensation qui nous fait juger qu’un son est fort ou faible.
- On a choisi d’exprimer l’intensité sonore par l’énergie que transportent les vibrations; par définition, l’intensité sonore en un point, dans une direction donnée, est l’énergie transmise par seconde à chaque unité de surface perpendiculaire à cette direction au point considéré; elle s’exprime donc en watts/cm2.
- Mais l’amplitude des vibrations peut être aussi représentée par la pression sonore (variations de pression de part et d’autre de la pression atmosphérique) ; la pression sonore est même la grandeur que l’on mesure directement, car les appareils de mesure sont des microphones calibrés, c’est-à-dire pour lesquels on connaît la relation entre les variations de pression qui sont appliquées sur le diaphragme et les courants qu’elles engendrent.
- Pour des ondes planes ou sphériques, il y a une relation très simple entre l’intensité sonore et la pression : l’intensité dans la direction de propagation est proportionnelle au carré de la pression sonore (celle-ci s’exprimant, naturellement, en dynes/cm2).
- Loi’squ’on parle d’intensité de sons ou de bruits, on emploie souvent l’unité appelée décibel, dont nous devons examiner maintenant la signification.
- L’échelle des décibels est une échelle logarithmique qui a pris naissance en iq25 dans le domaine des transmissions téléphoniques; l’intensité d’un signal décroît le long d’une ligne, et les ingénieurs du téléphone ont jugé commode de représenter cette diminution d’intensité par le rapport de l’énergie du début à celle de la fin ; le logarithme décimal de ce rapport mesure la diminution d’intensité, et est exprimé en bels (en abrégé : B); quand l’énergie passe de W: en début de ligne, à W2 en fin de ligne, la diminution d’intensité est donc égale, en bels, à log (WL/W2) (le mot bel a été choisi en hommage à Graham Bell, l’un des inventeurs du téléphone). On utilise plutôt le décibel (en abrégé : dB), unité plus pratique, qui est le dixième du bel; la diminution d’intensité vaut, en décibels, io log (Wj/Wj).
- D’après cette définition, io décibels représentent un rapport
- 1. La hauteur des sons, sa mesure, sa perception, par A. Gribenski, La Nature, septembre 1957, p. 359.
- d’intensité de io à i, et i décibel un rapport de 1,26 (log 1,26 = 0,1), soit une variation d’intensité de 26 pour 100; enfin, une réduction de moitié s’exprime par une chute de 3 dB (log 2 # o,3).
- L’emploi de l’échelle des décibels est particulièrement commode en acoustique, car la puissance mise en jeu par les sons les plus forts est environ 1013 fois plus grande que celle des sons les plus faibles, ce qui revient à une différence de i3o dB; autrement dit, si l’on donne la valeur o dB à l’intensité des sons juste audibles, les sons les plus forts que l’on puisse supporter ont une intensité de i3o dB, et les autres se placent entre ees deux extrêmes, comme l’indique approximativement le tableau suivant :
- i3o dB : seuil de douleur (bruits les plus forts que l’on
- puisse supporter) ;
- 120 )) : tonnerre ;
- 110 )> : avion à quelques mètres ;
- 100 )) : : atelier de chaudronnier;
- 9° )) : rugissement d’un lion à quelques mètres;
- 80-70 )) : rue très active ;
- 60 » : conversation courante ;
- 5o )) ; : automobile peu bruyante;
- 4o )) : rue calme de grande ville;
- 3o » : habitation moyenne;
- 20 » : chuchotement ;
- 10 » ; : bruissement des f euilles dans la brise ;
- 0 )> : seuil absolu d’audibilité.
- La conversation courante, à 4o dB au-dessus du chuchotement, met donc en jeu 10 000 fois plus d’énergie que celui-ci, et le bruit d’un avion xoo fois plus d’énergie que le rugissement d’un lion, 100 000 fois plus que la conversation courante, io11 fois plus que les plus faibles sons audibles.
- De même, lorsque, dans une expérience, on augmente l’intensité, par exemple, de 5o dB, cela revient à dire que l’on multiplie l’énergie sonore par 100000; mais, naturellement, on 11e connaît la valeur de la nouvelle intensité que si l’on connaît celle de l’intensité primitive. On peut toujours, dans une expérience, compter les décibels à partir d’un niveau arbitrairement choisi; souvent, comme nous en verrons des exemples, on se réfère à l’intensité qui correspond à la pression sonore de 1 dyne/cm2; l’échelle des décibels peut en effet s’appliquer aux pressions, si l’on se rappelle que l’énergie est proportionnelle au carré des variations de pression, c’est-à-dire que (Ix — L) dB = 10 log (WJW,) = 20 log (Pi/Pa)- Autrement dit, décupler la pression sonore revient à ajouter 20 dB ; doubler cette pression, c’est ajouter 6 dB. Une intensité de 20 dB au-dessous de 1 dyne/cm2 représente donc une pression sonore de 0,1 dyne/cm2; une intensité de 4o dB au-dessous de 1 dyne/cm2 représente une pression sonore de 0,01 dyne/cm2, etc.
- Dans certains cas, comme dans le tableau que nous avons donné précédemment, les intensités sont exprimées en décibels au-dessus du seuil, le seuil étant la plus faible intensité audible. Enfin, pour la commodité des comparaisons, on a convenu d’un niveau de référence international, en donnant la valeur o dB à l’intensité io~16 watt/cm2, qui correspond presque exactement à la pression sonore 0,0002 dyne/cm2.
- Quel que soit le niveau de référence choisi, il doit en principe toujours être indiqué lorsqu’on donne en décibels des Araleurs d’intensité sonore; lorsqu’on néglige, comme il arrive parfois, de donner cette précision, c’est que le zéro adopté est le seuil absolu de l’audition, ou le niveau de référence international qui, comme nous le verrons, en est très proche.
- p.10 - vue 14/527
-
-
-
- 11
- Décibels et loi de Fechner. — Si l’adoption d’une échelle logarithmique des intensités sonores répond à des raisons de commodité et de simplicité elle n’est cependant pas sans rapport avec des considérations d’un ordre tout à fait différent, liées à la « loi » de Fechner, et que nous devons rappeler ici.
- La loi de Fechner dérive elle-même de celle qui, établie au xvme siècle par le physicien français Bouguer dans le domaine visuel, fut retrouvée au siècle suivant par le physiologiste allemand Weber, sous le nom de qui elle est généralement connue. Weber observa que, lorsqu’on soupèse un poids, un accroissement ne peut être perçu que s’il est au moins égal à une certaine fraction, toujours la même, du poids primitif; cette fraction est environ 1/20, de sorte que, pour paraître plus lourd, un poids de 100 g doit être augmenté de 5 g, un poids de 200 g, de xo g, etc. Généralisé, ce résultat peut s’exprimer sous la forme suivante : « La plus petite augmentation d.e stimulus capable de provoquer un accroissement de sensation, est une fraction constante du stimulus précédemment appliqué » (la valeur de la fraction n’étant pas la même pour les diverses catégories de sensations).
- Telle est la loi de Weber. Il résulte évidemment de cette loi que, à partir du seuil absolu (le plus petit stimulus perceptible), la sensation s’accroît par échelons, chacun d’eux correspondant à un accroissement juste perceptible du stimulus, accroissement fixe en valeur relative (si I est une valeur donnée du stimulus et AI le plus faible accroissement perceptible, Al/I = Constante). Fechner admit que tous ces échelons de sensation étaient égaux, ce qui revient à dire que l’accroissement de sensation est le même lorsque le stimulus (ou l’excitation) passe de 1 à 10, de 10 à 100, de 100 à x 000, etc. ; d’où l’énoncé de la loi de Fechner : « la sensation croît en progression arithmétique lorsque l’excitation croît en progression géométrique »; ou encore : « la sensation croît comme le logarithme de l’excitation ».
- Il faut bien remarquer que, si la loi de Weber est d’origine expérimentale, celle de Fechner ne fait qu’exprimer sous une autre forme le postulat relatif à l’égalité des échelons de sensation ; or ce postulat a été très critiqué, et l’on a souvent refusé d’admettre qu’il soit possible de considérer les grandeurs des sensations, même en valeur relative, les sensations n’étant, par nature, pas mesurables.
- Malgré ces discussions, la loi de Fechner, énoncée en 1860, a exercé pendant longtemps une grande influence et se trouve liée à l’adoption de l’échelle des décibels; en effet, si la force sonore (sensation) vai'ie comme le logarithme de l’intensité sonore (excitation), elle subit le même accroissement chaque fois que l’intensité augmente d’un décibel, et le niveau d’intensité, en décibels au-dessus du seuil, représente en quelque sorte la valeur de la sensation; en admettant la loi de Fechner, on pouvait donc penser qu’une échelle logai'ithmique était tout indiquée pour les intensités sonoi’es, parce qu’elle permettait en même temps la mesure des sensations.
- Si cette hypothèse était exacte, on pourrait dire, d’après le tableau qui figure au début de cet exposé, que la conversation courante est (subjectivement) six fois plus bruyante que les feuilles dans la brise, et le tonnerre deux fois plus que la conversation. Ces chiffres sont assez surprenants et font aussitôt naître des cloutes quant à la validité de l’hypothèse; nous verrons plus loin ce qu’il faut en penser, car les recherches de psychologie expérimentale ont permis de juger, dans le domaine auditif, la « loi » de Fechner.
- La sensibilité auditive. — Nous avons déjà fait allusion plusieurs fois au seuil d’audibilité, la plus faible intensité sonore qui donne naissance à une sensation; la connaissance du seuil permet d’apprécier la sensibilité auditive, mais sa détermination se heurte à de nombreuses difficultés. Tout d’abord, la pression sonore au seuil est beaucoup trop faible pour qu’il
- soit possible de la mesurer directement; aussi doit-on établir une pression suffisamment élevée pour être mesurable, puis rechercher dans quelle proportion on doit la réduire pour atteindre le seuil. D’autre pai’t, si la définition du seuil est simple à première vue, il existe pratiquement deux façons différentes de le déterminer; l’une des méthodes utilise un récepteur téléphonique que l’on applique sur l’oreille; le seuil ainsi défini représente une pression sonore qui s’exerce directement sur le tympan, et se nomme pression minimale audible. Dans l’autre procédé, on place le sujet en espace libre, à une certaine distance d’une source sonore, et on mesure la pi'ession au moyen d’un microphone étalonné que l’on met ensuite à l’endroit où se trouvait la tête du sujet; le seuil déterminé par ce procédé s’appelle champ minimal audible.
- De nombreuses difficultés se présentent dans les deux méthodes, ce qui explique certaines différences entre les résultats obtenus par divers auteurs ; il y a également des différences individuelles, dues notamment à l’âge (la sensibilité, surtout pour les aigus, tend à diminuer avec l’âge); pour cette raison, les mesures doivent être faites avec des sujets jeunes, et dont l’audition, naturellement, a été l’econnue normale (encore qu’il n’v ait pas de limite précise enti’e audition normale et anormale). Il existe aussi une variabilité pour un même sujet : une personne à qui l’on fait entendre, à intervalles réguliers, un son d’intensité constante et proche du seuil, ne l’entend pas toujours; le seuil doit donc être défini de façon statistique, comme la valeur la plus probable de l’intensité qui soit juste capable de provoquer une sensation ou la valeur qui provoque une sensation dans la moitié des cas.
- Le seuil n’étant pas le môme pour toutes les fréquences, les mesures, pour être comparables, doivent être réalisées avec des sons purs, et leur résultat se traduit par une courbe, qui représente la variation clu seuil en fonction de la fréquence.
- La figure 1 représente la courbe des pressions minimales audibles (courbe A) et celle des champs minimaux audibles (courbe B); ceux-ci sont nettement plus faibles. On pourrait croire que la différence est due à ce que la pression minimale audible est déterminée en appliquant un récepteur sur une seule oreille, tandis que la mesure du champ minimal audible correspond naturellement à l’audition binaurale; lorsqu’on recherche la valeur de la pression minimale audible au moyen de
- _ 160
- 5 E 80
- no
- c 60
- 120-5
- 80 £
- 100 200
- 1000 2000
- 10000 Fréquence (c/s)
- Fig. 1. — Courbes des seuils d’audibilité.
- Courbe A : pression minimale audible, en audition monaurale, d’après les résultats de divers expérimentateurs ; courbe 11 : champ minimal audible, en audition binaurale, la source étant placée en face du sujet (d’après Sivan et WntTE). La courbe supérieure, en trait interrompu, est celle des seuils de douleur, d’après Wecel. La flèche indique le niveau de référence de l’échelle des décibels.
- p.11 - vue 15/527
-
-
-
- 12
- récepteurs appliqués sur les -deux oreilles, on trouve en effet qu’elle est abaissée en moyenne de 6 dB (c’est-à-dire que la pression nécessaire est plus faible de moitié;) mais l’écart entre les deux courbes est nettement plus important (io à 20 dB suivant les fréquences) ; divers facteurs doivent donc intervenir pour troubler la mesure au moins dans l’un des cas, et sans doute dans les deux, sans qu’il soit possible d’apprécier exactement le rôle de chacun de ceux que l’on a mis en cause.
- On voit qu’une part d’incertitude ne peut être éliminée dans la mesure de la sensibilité auditive; certains résultats sont acquis cependant. La figure 1 montre que le seuil a ses valeurs les plus faibles (ou que la sensibilité est la plus grande) pour les fréquences de 2 000 à 3 000 cycles /seconde, et que la sensibilité diminue beaucoup vers les graves et les aigus.
- Dans la région de plus grande sensibilité, la pression minimal audible est d’environ 5 dB au-dessus de la pression de référence et le champ minimal audible environ 10 dB au-dessous de cette pression; le seuil absolu de l’audition est donc assez approximativement représenté par le niveau de référence de l’échelle des décibels, qui correspond, rappelons-le, à io“16 tva tl/cm3 en énergie et 0,0002 dyne/cm2 en pression.
- Ces valeurs sont très faibles; il suffit en effet, pour qu’une vibration soit audible, que la pression atmosphérique varie d’environ un dix-milliardième de sa valeur; dans ces condi-
- 100 200
- 500 1000 2000 5000 10000
- Fréquence (c/s)
- Fig. 2. — Amplitude des mouvements du tympan au seuil.
- Les points figurent l’amplitude des mouvements du tympan calculée à diverses fréquences ; la courbe représente l’amplitude des déplacements des molécules d’air correspondant aux pressions minimales audibles aux diverses fréquences. La flèche supérieure indique la longueur d’onde de la lumière, la flèche inférieure le diamètre de la molécule d’hydrogène (D’après Wieska).
- tions, l’amplitude des déplacements du tympan, déterminée par extrapolation à partir de valeurs directement mesurables, est de l’ordre du centième du diamètre de la molécule d’hydrogène (fig. 2).
- La sensibilité auditive est très proche de la limite théorique qui lui est assignée par l’agitation thermique des molécules de l’air. L’irrégularité de cette agitation fait que toutes les fréquences sont représentées dans le spectre des vibrations, et la pression « sonore » que celles-ci créent entre les fréquences 1 000 et 6 000 n’est que d’une dizaine de décibels inférieure à la valeur moyenne du champ minimum audible dans la même région ; la différence peut même se réduire à 2 ou 3 dB chez les personnes dont l’ouïe est particulièrement fine. Tout en étant approximatifs, ces calculs montrent que, dans la région de plus grande sensibilité, le champ minimum audible est du même ordre de grandeur que la pression thermo-acoustique aux températures ordinaires; pour les oreilles les plus sensibles, un accroissement, même faible, de sensibilité, conduirait à entendre continuellement un bruit de fond dû à l’agitation des
- molécules de l’air. Par suite, il est peu probable qu’il existe des animaux ayant, dans cette bande de fréquences, une sensibilité meilleure que l’homme.
- Les intensités audibles n’ont pas seulement une limite inférieure; elles ont aussi une limite supérieure; en effet, lorsqu’on augmente l’intensité d’un son, la sensation sonore finit par faire place à une sensation d’une autre nature, probablement tactile, qui est douloureuse; le seuil de douleur, représenté sur la figure 1 par la courbe supérieure, dépend beaucoup moins de la fréquence que le seuil d’audibilité; l’écart maximal entre les courbes extrêmes est d’environ i3o dB; l’espace compris entre elles représente le champ auditif moyen d’un être humain.
- La perception différentielle des intensités. — A
- côté de la sensibilité auditive absolue, aussi bonne qu’il est possible, il est intéressant de considérer la sensibilité différentielle, qui est le pouvoir de distinguer deux sons qui ne diffèrent que par l’intensité; elle peut être regardée comme l’inverse du seuil différentiel d’intensité, qui est la plus petite différence d’intensité perceptible.
- Pour mesurer le seuil différentiel, le plus simple est, semble-t-il, de faire entendre successivement deux sons de même fréquence, en augmentant la différence d’intensité jusqu’à ce qu’elle devienne perceptible ou, au contraire, en la diminuant jusqu’à ce qu’elle cesse d’être reconnue; mais le seuil ainsi mesuré dépend de l’intervalle de temps entre les deux sons, et, si l’on réduit au maximum cet intervalle, le changement brusque d’intensité produit des phénomènes transitoires qui faussent les résultats. Aussi les variations progressives sont-elles préférées aux variations brusques; elles donnent une valeur du seuil qui, pour être plus élevée, doit cependant être considérée comme plus exacte.
- Les meilleurs résultats ont été obtenus par un procédé de fluctuation d’intensité, au moyen de battements; Riesz, l’auteur de ces mesures, envoyait dans un même récepteur téléphonique les sons purs produits par deux oscillateurs qui différaient peu en fréquence. L’un des sons était présenté à un certain niveau d’intensité et l’intensité de l’autre était accrue, à partir de zéro, jusqu’à ce que l’observateur entendît un battement. On calculait alors l’intensité au maximum et au minimum du battement, et la différence était prise comme valeur du seuil différentiel d’intensité. Comme nous l’avons déjà vu pour d’autres déterminations analogues, la réponse de l’observateur, dans des conditions données, est variable; la mesure doit donc être répétée un grand nombre de fois, et la valeur
- AI (dB) _ AT/I
- _ 0,2G
- 0 10 20 30 40 50 60 70 80 90 100 110
- Intensité (dB) au-dessus du seuil de chaque fréquence
- Fig. 3. — Relation entre le seuil différentiel d’intensité et le niveau d’intensité au-dessus du seuil, pour diverses fréquences.
- Le nombre inséré dans chacune des courbes indique la fréquence. L’échelle de droite donne les valeurs de Al/I (I et Al en watts/cm2), celle de gauche donne les variations correspondantes en décibels (D’après Riesz).
- p.12 - vue 16/527
-
-
-
- 13
- adoptée pour le seuil est celle de la différence reconnue dans la moitié des cas.
- L’intérêt pour la sensibilité différentielle date de la loi de Weber, et c’est la considération des seuils différentiels relatifs, non celle des seuils différentiels absolus, qui donne les résultats les plus intéressants. Si l’on désigne par I l’intensité d’un son, le seuil différentiel absolu est la plus petite variation perceptible de cette intensité et se représente par AI (I et AI en watts/cm2); le seuil différentiel relatif peut être exprimé par la valeur même du rapport AI/I ou, dans l’échelle logarithmique, par sa valeur en décibels io log (AI/I).
- La figure 3 montre qu’à une fréquence déterminée, le seuil différentiel relatif est à peu près constant pour les intensités supérieures à 5o dB au-dessus du seuil, mais qu’il croît beaucoup pour les sons les plus faibles. Ce résultat se retrouve,
- 16 32 64 128 256 512 1024 2048 4096 8192 16384
- Fréquence (c/s)
- Fig. 4. — Relation entre le seuil différentiel d’intensité et la fréquence, à divers niveaux au-dessus du seuil.
- Le nombre placé au-dessus de chaque courbe indique l'intensité en décibels au-dessus du seuil. L’échelle de gauche donne les valeurs de AI/I (I et AI en watts/cm2, celle de droite les variations d’intensité juste pei'ceptibles en dB (d’après Riesz).
- exprimé d’une autre façon, dans la figure 4, qui représente la variation du seuil différentiel relatif en fonction de la fréquence, à diverses intensités au-dessus, du seuil. On voit que les courbes qui se rapportent à des intensités supérieures à 4o dB sont très serrées, c’est-à-dire représentent des seuils différentiels relatifs peu différents (entre o,5 et i dB). Les fréquences pour lesquelles la sensibilité différentielle est la plus grande sont les mêmes que celles qui correspondent à la meilleure sensibilité absolue.
- En résumé, pour les sons autres que très graves ou très aigus, et d’intensité moyenne ou élevée, le seuil différentiel relatif est à peu près constant, et la loi de Weber est valable; un accroissement d’intensité est alors perçu s’il est d’environ 25 pour ioo, c’est-à-dire si l’intensité s’élève d’un décibel. Mais la sensibilité différentielle devient beaucoup moins bonne pour les sons faibles, surtout aux fréquences basses et, pour être perçu, un accroissement d’intensité doit alors atteindre jusqu’à 5oo pour xoo (8 dB).
- Niveaux de sonorie. — La connaissance de l’intensité d’un son ne suffit pas pour en prévoir la force subjective (ou sonorie) ; en effet, des sons d’égale intensité peuvent avoir des sonories très différentes s’ils n’ont pas la même fréquence; on peut le constater aisément sur la figure i ; si l’on se rapporte à la courbe A de cette figure, on voit qu’à 4o dB au-dessus de la pression de référence, un son de fréquence 2 ooo est élevé au-dessus du seuil, donc relativement fort, tandis qu’au même niveau d’intensité les sons de 200 c/s et 10 000 c/s, proches du seuil, sont très faibles et ceux de fréquence inférieure à 100 sont au-dessous du seuil, donc inaudibles..
- La courbe des seuils représente donc les sons qui, aux diverses.
- 0 11 _______!.. .1. .LUI]—ITT 1. 1. L|—
- 20 50 100 500 1000 5000 10000
- Fréquence (c/s)
- Fig. 5. — Courbes d’égal niveau de sonorie.
- L’intensité est rapportée au niveau de référence 0,0002 dyne/cm2 ; le nombre placé au-dessus de chaque courbe donne le niveau de sonorie en phones, et la courbe 0 est celle des seuils (D’après Fletcher et Munson).
- fréquences, ont la plus faible sonorie possible (on peut la considérer comme égale pour tous). Admettant qu’il soit possible d’apprécier l’égalité de sonorie de deux sons de hauteur différente on a cherché pour quelles intensités les sons des diverses fréquences ont, à différents niveaux au-dessus du seuil, la même sonorie. Fletcher et Munson ont pris pour référence la fréquence x 000, et ont déterminé l’intensité à laquelle chaque fi'équence procure une sensation de sonorie égale à celle d’un son de 1 000 c/s à 10 dB au-dessus du seuil, puis à 20 dB au-dessus du seuil, etc. En joignant les points figuratifs obtenus dans de nombreuses expériences, ils ont pu tracer des courbes assez régulières, appelées courbes d'égal niveau de sonorie (fig. 5). Les niveaux de sonorie sont exprimés en phones; ainsi, les sons de 10 phones sont ceux qui ont même sonorie que celui de 1 000 c/s à 10 dB au-dessus du seuil, ceux de 20 phones, même sonorie que le son de 1 000 c/s à 20 dB au-dessus du seuil, etc. La courbe inférieure est la courbe des seuils, elle représente les sons juste audibles, et est marquée o phone.
- Il apparaît clairement que, pour réaliser une même sonorie, il faut des intensités très différentes suivant les fréquences. Par exemple, pour avoir 4o phones il faut 5o dB au-dessus du niveau de référence aux fréquences 600 ou 2 000, 60 dB aux fréquences 200 ou 6 000, 70 dB aux fréquences 100 ou 10 000, 80 dB à 5o c/s, presque 100 dB à 3o c/s.
- '3 120
- 5000 10000 Fréquence
- 500 1000
- 20
- Fig. 6. — Courbes d’égal niveau de sonorie.
- L’intensité est, pour chaque fréquence, rapportée au seuil. Le nombre placé au-dessus de chaque courbe indique le niveau de sonorie (D’après Fletcher et Munson).
- p.13 - vue 17/527
-
-
-
- 14
- On voit d’autre part que les courbes d’égal niveau de sonorie se rapprochent les unes des autres quand on s’éloigne des fréquences moyennes, surtout vers les graves. Cette particularité est rendue plus apparente si l’on représente les courbes d’égal niveau de sonorie en prenant pour ordonnées les valeurs d’intensité en décibels, non pas au-dessus du niveau de référence, mais au-dessus du seuil de chaque fréquence (fig. 6) ; dans ce cas, la courbe o phone (courbe des seuils) est une droite horizontale, et l’on voit que, si l’échelle des phones coïncide avec celle des décibels (par définition) pour la fréquence i ooo, il n’en est pas de même aux autres fréquences; pour un nombre égal de décibels, le niveau de sonorie s’élève plus pour les aigus, et surtout pour les graves, que pour les fréquences moyennes : par exemple, pour avoir 70 phones, tandis qu’il faut naturellement 70 dB au-dessus du seuil à la fréquence 1 000, il suffit de 5o dB au-dessus du seuil à 200 c/s, et de 3o dB à 5o c/s. Inversement, 3o dB au-dessus du seuil donnent 3o phones à x 000 c/s, 5o phones à xoo c/s, 80 phones à 4o c/s.
- Une notion importante résulte de ces expériences, c’est que l’échelle des décibels n’a pas du tout la même valeur subjective aux diverses fréquences et cela ne dépend pas du zéro adopté. Ainsi, pour un même nombre de décibels au-dessus du niveau de référence, un son de 100 c/s est beaucoup plus faible qu’un son de 1 000 c/s; pour un même nombre de décibels au-dessus du seuil, il est au contraire beaucoup plus fort.
- Les courbes d’égal niveau de sonorie de la figure 5 se rapportent à des sons purs, mais on peut établir le niveau de sonorie d’un son complexe ou d’un bruit par la même méthode de comparaison avec la sonorie d’un son pur de 1 000 c/s.
- Échelle de sonorie. — D’après ce qui précède, la sonorie est fonction à la fois de la fréquence et de l’intensité, mais les coui'bes d’égal niveau de sonorie ne permettent pas de savoir si, à une fréquence donnée, la sonorie subit toujours la même variation lorsque l’intensité est modifiée d’un nombre déterminé de décibels. 11 serait cependant intéressant de savoir si l’on a toujours le même avantage à gagner 10 dB sur un bruit, quelle que soif son intensité.
- Des ingénieurs acousticiens et des psychologues américains se sont donc efforcés d’établir une échelle qui permette la mesure des sonories. On avait vivement contesté, depuis l’époque de Fechner, la possibilité de définir le rapport de deux sensations, mais ces chercheurs ont pensé que les objections théoriques opposées à la mesure des sensations ne devaient pas les empêcher d’essayer, et que finalement l’expérience serait juge.
- Les procédés utilisés ressemblent à ceux que l’on a employés pour établir l’échelle des hauteurs. La méthode de base est celle dite « de fractionnement » : avec un appareil spécialement construit, on fait entendre un son pur de fréquence déterminée, et l’observateur, qui dispose des boutons de réglage d’intensité (mais ne voit pas les valeurs qu’il inscrit), réalise un son qu’il juge deux fois moins fort ou deux fois plus fort que le premier. L’essai est recommencé plusieurs fois pour la même intensité, afin de prendre une moyenne, puis pour d’autres intensités; les résultats obtenus par divers auteurs, et avec des observateurs différents, s’accordent de façon satisfaisante comme le montre la figure 7.
- D’autres méthodes offrent des possibilités de recoupement, notamment la suivante : la disposition des voies nerveuses auditives conduit à admettre qu’un son amené aux deux oreilles est deux fois plus fort que s’il est amené à une seule oreille; on fait donc entendre un son à un observateur au moyen des deux oreilles, puis on lui demande d’ajuster l’intensité poxxr que, conduit à une seule oreille, il soit aussi fort.
- On peut aussi réaliser d’autres fractionnements, par exemple au quart, au dixième; le fractionnement au quart donne sensiblement le même résultat que deux fractionnements successifs par moitié.
- 80 100 120 V
- Niveau d‘intensité du son S
- Fig:. 7. — Résultats obtenus par la méthode de fractionnement de la sonorie pour la fréquence î OOO c/s.
- L’abscisse indique, en décibels au-dessus du niveau de référence, l’intensité du son S, que l’on fait entendre au sujet, et l’ordonnée celle du son S2 dont le sujet juge la sonorie deux fois plus faible. Les points figurent les résultats obtenus par divers expérimentateurs employant des méthodes différentes. Ces résultats sont suffisamment concordants pour permettre de tracer une droite qui représente l’intensité de S2 en fonction de celle de S,. Pour rendre bien apparente la pente de cette droite, on a tracé en trait interrompu la bissectrice de l’angle des axes.
- Les résultats obtenus par les diverses méthodes ont été trouvés en accord assez satisfaisant pour justifier l’établissement d’une échelle de sonorie; l’unité, appelée sone, est, par définition, la sonorie d’un son de 1 ooo c/s à 4o dB au-dessus du seuil, et entendu avec les deux oreilles.
- La courbe (fig. 8) montre que la sonorie croît avec le niveau d’intensité exprimé en décibels, d’abord très lentement, puis de
- Fig:. 8. — La sonorie en fonction du niveau d’intensité pour un son de 1 OOO cl s (courbe en trait plein) et un bruit blanc ou bruit à spectre continu (courbe en trait interrompu).
- Niveau d'intensité (dB) au-dessus de la pression de référence 0,0002 dyne/cm2
- plus en plus vite; pour un son de 1 ooo c/s, la sonorie est de 0,1 sone à 20 dB au-dessus du seuil, 1 sone à 4o dB, 6 sones à 60 dB, 25 sones à 80 dB, 80 sones à 100 dB. N’étant pas proportionnelle au nombre de décibels, la sonorie n’est pas fonction logarithmique de l’intensité du stimulus, ce qui contredit la loi de Fechner dans le domaine auditif; d’après l’échelle de sonorie, la conversation n’est pas C fois plus bruyante que les feuilles dans la brise, mais 60 fois, et le tonnerre environ 25 fois plus que la conversation.
- L’échelle de sonorie n’a certes qu’une valeur approximative, car les appréciations au moyen desquelles on l’établit peuvent varier d’un sujet à l’autre ou, pour un même sujet, d’un essai à l’autre, et les résxiltats des divers auteurs ne coïncident pas toujours parfaitement. Elle montre cependant que la sonorie, c’est-à-dire, rappelons-le, la force subjective d’un son, croît à la fois moins vite que l’intensité sonore (énergie des vibrations) et plus vite que son logarithme, et qu’elle ne croît pas de la même façon pour les sons forts et les sons faibles; le décibel
- p.14 - vue 18/527
-
-
-
- 15
- q3 0,6
- "S 0,4
- Numéro d’ordre des échelons de sonorie à partir du seuil
- Figr. 9. — Grandeur des échelons de sonorie en fonction de leur numéro d’ordre à partir du seuil, pour quatre fréquences.
- Le nombre placé au-dessus de chaque courbe indique la fréquence
- (D’après Stevens).
- n’a donc pas la même valeur subjective à des intensités différentes; « l’augmentation de bruit » subjective est beaucoup plus grande, par exemple, lorsqu’on passe de 8o dB à go dB, c[ue de 3o dB à 4o dB, ce qui a une importance à la fois théorique et pratique.
- Le psychologue Stevens a d’autre part recherché si l’accroissement de sonorie est toujours le même chaque fois que l’augmentation d’intensité atteint le seuil différentiel; il a pour cela évalué en sones les échelons de sonorie, et a trouvé non seulement qu’ils ne sont pas égaux aux diverses fréquences, mais que, pour une fréquence déterminée, ils sont d’autant plus grands qu’ils sont plus éloignés du seuil (fig. g). Si l’on admet la validité de ces calculs qui dérivent de l’échelle de sonorie, les
- résultats de Stevens infirment le postulat même sur lequel était fondée la loi de Fechner.
- La sonorie des sons complexes. — Pour un bruit à spectre continu (ce que l’on nomme un bruit blanc), tel qu’un bruit d’agitation thermique, la sonorie dépend de l’intensité à peu près de la même façon que pour un son pur, ainsi que le montre la figure 8; la courbe est de même forme. Mais, dans la pratique, les sons ou les bruits sont souvent à spectre discontinu, c’est-à-dire composés de plusieurs fréquences ou bandes de fréquences séparées. La sonorie du complexe peut être calculée aisément si les composantes sont très éloignées en fréquence; dans ce cas, en effet, les sonories s’additionnent arithmétiquement, et la sonorie du complexe est sensiblement la somme de celles des composantes.
- Si les composantes sont au contraire rapprochées, la sonorie du complexe est inférieure à la somme et ne peut être calculée théoriquement, mais seulement déterminée expérimentalement. Fletcher a fait à ce sujet des mesures sur des sons complexes à structure harmonique et il a constaté qu’à intensité égale, un tel son possède une sonorie beaucoup plus élevée que le son pur de même fréquence. Par exemple, pour la fréquence ioo, en remplaçant le son pur au niveau de 5o dB par un son à g harmoniques d’intensités égales, le niveau total d’intensité étant le même, le niveau de sonorie passait de 20 à 60 phones, et la sonorie de 0,1 à 6 sones.
- L’introduction d’harmoniques produit donc un accroissement de sonorie important, plus marqué d’ailleurs pour les fréquences basses, et ce phénomène est précieux en musique. C’est ainsi' que presque toute la sonorie des cordes graves du piano est due aux harmoniques élevés.
- Le spectre d’un son concourt donc, avec la fréquence et l’intensité, à en déterminer la force; celle-ci est une « création » psychologique qui dépend de tous les caractères physiques de la vibration, en même temps, d’ailleurs, que de l’auditeur lui-même.
- Andbé Gkibenski,
- Agrégé de FUniversité.
- Essais d'élevage des tortues de mer
- Dans l’archipel de Cook les habitants de l’atoll Palmerston capturent fréquemment des tortues ou creusent le sable pour en extraire les œufs qui servent à leur alimentation.
- La tortue dépose ses œufs dans le sable dans des creux relativement profonds. Chaque trou compte généralement 70 œufs, mais parfois plus de 200. Il ne s’agit pas là d’un nid, car aucune préparation spéciale ne préside à sa formation. Après la ponte la tortue recouvre de sable ce trou, impossible à découvrir sans les traces qu’elle laisse de son passage. Pour la recherche des œufs on enfonce un mince bâton pointu dans le sable.
- La pêche à la tortue, régulièrement pratiquée, s’effectue en pirogues. On use de la sagaie ou l’on saisit directement l’animal par la carapace ou par une patte. Si l’on saisit l’animal par devant, sa mâchoire — bien que ne portant pas de dents — est assez coupante pour sectionner un doigt.
- C’est sur les bords extérieurs du récif corallien, là où existent des entailles profondes battues par la mer et fréquentées par les dangereuses murènes, que dorment les tortues, la nuit, dans des cavernes.
- A cause de la qualité de sa chair et de la valeur marchande de son écaille des essais d’élevage de tortues en captivité ont été tentés à Palmerston. R. Powell a pu ainsi obtenir l’éclosion de 30 œufs et l’élevage des jeunes tortues dans une caisse couverte de grillage, flottant sur le lagon. La nourriture quotidienne consistait en restes de cuisine, poissons et coquillages.
- D’autres essais d’élevage, mais à terre, ont été réalisés, dans un mélange d’eau douce et salée en parties égales avec nourriture de poisson frais, bœuf en conserves, riz. Les tortues omnivores ont paru s’accommoder fort bien d’un tel régime.
- P. G.
- La biosynthèse de l'acide ascorbique
- Une communication de J. J. Burns, parue dans la revue britannique Nature (14 septembre 1957), signalait que, parmi les mammifères, l’homme, les primates et le cobaye seraient les seuls organismes à ne pouvoir opérer la biosynthèse de l’acide ascorbique (vitamine C) et seraient en conséquence obligés de le I couver dans leur alimentation. Le rat, choisi comme exemple des « producteurs » d’acide ascorbique, possède une enzyme hépatique grâce à laquelle la synthèse chimique franchit les étapes suivantes :
- glucose (substance d’origine) -> glucuronolactone gulonolactone —> acide ascorbique. C’est par une incubation de gulonolactone, marqué au carbone 14, dans du tissu hépatique de diverses provenances que l’aptitude du rat a pu être comparée à l’inaptitude des autres mammifères. La mesure effectuée grâce au marquage a démontré que le taux de conversion du gulonolactone en acide ascorbique élait 8 pour 100 en moyenne pour le rat ; 0,07 pour 100 seulement chez l’homme et le singe, 0,05 pour 100 chez le cobaye.
- p.15 - vue 19/527
-
-
-
- Le développement des polyesters armés
- Dans deux articles parus ici même (La Nature, mars ig55, p. 86; avril ig55, p. 128), Pierre Piganiol a montré que les polyesters peuvent se prêter à de nombreuses combinaisons de constituants et que, par le choix de ces constituants et le choix des motifs qu’ils édifient en se combinant entre eux, il est possible de fabriquer à volonté des produits aussi divers que des élastomères (chemigum), des fibres textiles (tergal) ou des produits rigides (résines polyesters).
- Ce sont particulièrement les produits rigides qui semblent les plus riches d’avenir. L’industrie les livre aux utilisateurs sous forme de solution dans un monomère et ce qui caractérise ces solutions, c’est leur aptitude à passer de l’état liquide à l’état solide, par polymérisation sous l’action d’un catalyseur, sans élimination d’eau, de solvant ou d’un corps quelconque. Le moulage peut se faire, sans aucune pression, par simple coulée dans un moule. On peut encore imprégner de résine liquide catalysée un tissu drapé sur un moule et laisser durcir le tout pour obtenir un objet composite qu’on appelle un stratifié ou mieux un plastique armé.
- Avant l’apparition des résines polyesters, les stratifiés étaient uniquement fabriqués avec des résines durcissant par condensation avec élimination d’eau, ce qui nécessitait des pressions élevées de moulage pour que les pièces obtenues fussent correctes. Avec les résines polyesters les moules coûteux nécessaires aux hautes pressions sont inutiles. Un simple moule en plâtre ou en bois suffit à de petites séries, et des prototypes de formes compliquées et de grandes dimensions peuvent être réalisés facilement.
- Le moulage sans pression ou sous faible pression autorise l’utilisation d’une armature en fils de verre et c’est cette armature qui confère au polyester armé les qualités exceptionnelles qui, jointes à la facilité du façonnage, ont été le point de départ de l’extraordinaire développement de ce matériau. Les statistiques sont éloquentes : la production de résines poyesters en France est passée de 3o t en 1953 à 180 t en ig54, 1 o5o t en xg55, 2 420 t. en 0966 et non 1 800 t comme nous l’avions sous-estimé (Les plastiques armés, par Uzac et Laporte, Dunod, i957)-
- Il semble intéressant, après plus de deux ans, de reprendre le sujet traité par P. Piganiol et de voir jusqu’à quel point les promesses du matériau ont été exploitées.
- Une première constatation s’impose. Comme pour tous les matériaux nouveaux, il s’est créé un emballement qui a été plus néfaste qu’heureux.
- La facilité de façonner certaines pièces avec des moyens d.e bricoleurs : des ciseaux, un pinceau, un pot de résine et du tissu de verre, conduit à de sérieux mécomptes quand on veut passer à une réalisation industrielle. Le polyester armé de fibres de verre est un matériau qui a des qualités propres : légèreté, résistance mécanique, stabilité dimensionnelle, translucidité, résistance chimique et électrique... Il ne doit pas être employé n’importe comment et quand il remplace un matériau traditionnel, l’objet doit être repensé en fonction des qualités du nouveau matériau et des qualités demandées à l’objet : il ne doit pas se borner à reproduire l’objet traditionnel. C’est à cette condition qu’il sera valable.
- Applications. — Certaines applications sont désormais classiques. Elles ont été vulgarisées par de nombreuses photos dans la presse, on en trouve des prototypes dans toutes les expositions techniques : casques de mineurs, de motocyclistes, gilets pare-balles pour la police, cannes à pêche, arcs, valises et récipients divers. Bien qu’intéressantes et réalisables en séries il faut reconnaître que ce sont des applications où la saturation est assez vite atteinte et qui ne peuvent permettre de gros développements ; elles restent du domaine de la petite industrie.
- Figr. 1. — A bord du « Caneton » S05-F 473 dont la coque est en polyester armé de tissu de verre, l’équipage Poissant-Maury s’est classé second aux régates internationales de La Baule, en août 1957.
- (Photo Lanaverre) .
- Petite industrie encore, mais avec des consommations de résines plus importantes, sont les constructions d’embarcations, de carrosseries, de camions, principalement de camions isothermes. Ce sont ici de petites séries, souvent même des prototypes, mais réalisés par des façonniers spécialisés qui arrivent à des prix compétitifs avec des résultats souvent supérieurs à ceux obtenus avec les matériaux traditionnels. Pour certains voiliers de compétition comme les 5o5 par exemple (fig. 1), la méfiance des sportifs commence à céder et de nombreux 5o5 en polyester armé figuraient en bonne place dans les régates courues cet été. Petites séries encore, la fabrication de pièces pour la construction aéronautique.
- Automobiles. — Dans la carrosserie automobile le polyester, après avoir donné beaucoup d’espoirs, se trouve en ce moment un peu délaissé non parce qu’il n’a pas les qualités de résistance mécanique, de légèi'eté, de résistance aux intempéi'ies sur lesquelles on comptait, mais plutôt parce que la fabrication en série pose des problèmes qui n’ont pas encore reçu de solution satisfaisante.
- En fait le façonnage des polyesters armés de fibres de verre pose un nombre de problèmes auquel il est difficile de faire face :
- — Problèmes des matières premières, qui ne concernent pas seulement le choix de la résine mais souvent encore, avec plus l’importance, le choix du renforcement et de l’apprêt qu’il doit recevoir ;
- p.16 - vue 20/527
-
-
-
- 17
- — Problème de la régularité de la qualité des résines, casse-tête pour le fabricant, impératif pour le façonnier;
- — Problème du moulage : mélanges précis des constituants et adaptation des formules aux conditions ambiantes (humidité, température), mouillage parfait du renforcement par la résine, élimination des bulles d’air, conception du moule, contrôle très exact de la quantité de résine introduite et de la température du moule; la polymérisation corirplète est assez longue et. même à chaud elle peut nécessiter i heure à ioo° G par exemple; pratiquement les objets sont démoulés dès qu’ils sont suffisamment rigides et la polymérisation se poursuit plus ou moins rapidement au stockage, avec une certaine contraction qui peut entraîner des déformations.
- Quand un façonnier construit une coque de bateau, par exemple, s’il se rend compte que sa coque manque de rigidité, il lui est facile de la remettre dans le moule et d’élever légèrement la température pour achever la polymérisation. Le problème est tout à fait différent pour une fabrication de grande série, où il est impossible de rompre la cadence d’une chaîne sans bouleverser toute la fabrication.
- On peut aisément concevoir la difficulté de contrôler tous les facteurs qui concourent à la régularité de la pièce façonnée : aussi le premier point qui freine la diffusion des polyesters armés dans la construction automobile est-il le nombre trop important de pièces qui doivent être rebutées parce qu’irrégulières.
- Le deuxième point vient de la cadence de fabrication, beaucoup moins rapide quand on opère par moulage de polyester que par emboutissage de tôles.
- Il est à peu près certain que ces facteurs défavorables pourront être surmontés. Un progrès assez important semble être réalisé avec les tissus préimprégnés.
- Fig. 2. — A la station de métro Franklin-Roosevelt, a Paris.
- Le siège et son dosseret ainsi que le plafond de plaques perforées sont en polyester armé de fibres de verre.
- (Photo P. Ghossman, Document Saint-Gobain).
- Fig. 3. — Encadrement de vitrine et auvent en polyester armé de fibres de verre.
- (Photo G. M. Perrin, Document Saint-Gobain).
- Tissus préimprégnés. — Les tissus préimprégnés sont des tissus, généralement de fibres de verre, qui ont été préalablement imprégnés d’une solution de résine polyester et qui se polymérisent par simple élévation de température! Toute la préparation chimique est évitée au façonnier. Il n’a qu’à découper le tissu préimprégné suivant des gabarits, à placer les diverses couches dans le moule et à polymériser à chaud sous une faible pression (aux environs de 7 kg/cm2) pour obtenir la formation de l’objet, le collage des différentes couches entre elles et l’élimination de l’excès de résine. La polymérisation à froid est même possible, mais elle exige l’enduction des tissus avec une résine surcatalysée au moment de l’emploi et nous ramène à la cuisine qu’on voulait éviter.
- L’imprégnation du tissu en continu par passage de la pièce dans un bain de résine en solution, puis passage entre des rouleaux qui expriment l’excès du liquide entraîné et évaporation du solvant ou simplement passage entre deux rouleaux formant réservoir et forçant la résine à pénétrer clans le tissu, assure un mouillage des fibres beaucoup plus profond et régulier que l’imprégnation par la simple pression du moule sur le mélange fibre-résine.
- Bâtiment. — Pour le bâtiment, c’est vraisemblablement l’aisance avec laquelle des plaques planes ou ondulées peuvent être fabriquées en continu qui est le, principal facteur du développement de l’utilisation des plastiques armés. C’est en effet le bâtiment qui constitue actuellement, en France, le plus gros débouché pour les polyesters. Les débuts ont été difficiles, principalement du fait que les architectes et les entrepreneurs restent responsables de leurs oeuvres pendant dix ans et que le matériau était encore trop jeune pour qu’une telle garantie fût accordée. Mais, l’importance des débouchés d’une part, l’intérêt que la fabrication pouvait présenter pour de grosses unités de production d’autre part, justifiaient un effort particulier. Pour vaincre les résistances il a fallu réunir tous les intéressés : fabricants de résine et de tissus, fabricants de panneaux, architectes, entrepreneurs et assureurs pour fixer les conditions de travail et répartir les responsabilités.
- p.17 - vue 21/527
-
-
-
- 18
- Fig. 4. — Façade d’un bâtiment de l’usine de plutonium de Marcoule ( Gard).
- Revêtements de polyester pigmenté sur fibrociment (Photo Ateliers de Wagons de Brignond).
- Néanmoins pour des travaux de faible importance les plaques en polyester armé étaient déjà très employées : plaques ondulées pour toitures légères, plaques planes ou ondulées pour des décorations et des aménagements intérieurs.
- Il est certain que des panneaux pi'éfabriqués, des portes, des encadrements en polyester armé présentent des avantages dans le bâtiment. Ils sont durs, suffisamment rigides’, résistants aux cliocs. Ils peuvent être incombustibles, translucides ou opaques, colorés ou incolores. Leur légèreté facilite le transport, le montage; ils peuvent présenter des surfaces parfaites qui ne nécessitent aucune finition, aucune peinture après montage, et ils se prêtent à la constitution de panneaux composites comprenant en sandwiches des matières isolantes : plastiques expansés, liège, nids d’abeille.
- Revêtements. — Une autre application susceptible d’intéresser le bâtiment, mais aussi de nombreuses industries, est l’utilisation des polyesters en revêtement comme un vernis ou une peinture. On obtient des surfaces dures, résistantes aux intempéries et à la corrosion et susceptibles de prendre un éclat superbe après polissage et lustrage. Le problème à résoudre était difficile : la polymérisation des polyesters est généralement inhibée par l’air et la surface reste poisseuse; d’autre part la réaction se fait mal en couche mince par suite d’une perte trop forte par évaporation du monomère et des calories par une surface de contact trop grande par rapport au volume. Des résultats intéressants ont été atteints en ajoutant des solutions de paraffine ou de cires aux polyesters. On utilise ainsi le même phénomène que celui qui est utilisé pour les décapants aux solvants volatils, où de la paraffine en solution dans des solvants (trichloréthylène, benzène, etc.) vient migrer à la surface du décapant quand il est étendu en couche mince et former une carapace qui évite l’évaporation du solvant et le contact avec l’air. D’autres solutions ont été trouvées par l’emploi de polyesters moins sensibles à l’air, de monomères moins volatils que le styrène et de catalyseurs qui contrebalancent l’action de l’air comme par exemple les mercaptans.
- Cette application néanmoins n’en est encore qu’à ses débuts. Des progrès sont à réaliser principalement pour simplifier le mode d’emploi, augmenter le temps dont dispose l’applicateur pour étendre le produit avant qu’il se prenne en masse et surtout obtenir des surfaces à brillant direct sans qu’il soit nécessaire de polir et lustrer. Un chantier de construction navale français, qui se classe parmi les plus importants du monde,
- fabrique déjà, avec succès, pour son propre usage, des panneaux de bois contreplaqués enduits de polyester.
- Électricité. — Dans les applications précédentes, ce sont surtout les qualités de résistance aux intempéries et à la corrosion, de légèreté, dureté et résistance mécanique des polyesters armés qui ont été utilisées.
- Les propriétés électriques du matériau ne semblent pas avoir été encore exploitées à fond, sans doute par suite de la concurrence des stratifiés formophénoliques et des résines thermoplastiques. Certaines applications comme celles de tubes isolants pourraient pourtant avoir des débouchés suffisants pour qu’une fabrication en grande série, en continu, soit envisagée, mais d’une façon générale les applications sont restées dans le domaine de la petite série.
- Conclusions. — De la revue rapide des utilisations des polyesters armés que nous venons de faire on peut tirer les quelques conclusions suivantes.
- L’utilisation des polyesters armés dans des fabrications de grande série se limite pour l’instant à la fabrication pour le bâtiment et la décoration de panneaux ou de plaques ondulées où les qualités de résistance à la corrosion et de légèreté donnent au matériau des avantages certains.
- Dans la construction automobile l’avantage reste à la tôle dès que des séries peuvent être envisagées (dépassant i5 ooo pièces environ, disent les Américains).
- Dans les petites pièces réalisables en grande série, l’avantage reste aux résines utilisées par injection ou par moulage par compression. Une mention doit pourtant être faite de l’utilisation des polyesters sous forme de « premix » ou de « com-pounds » qui sont des pâtes de polyester, charges et fibres de verre (ou autre fibre : sisal par exemple) s’utilisant par compression dans des moules chauffants, mais dont l’emploi assez récent n’est pas encore très développé.
- Le polyester armé reste le matériau de choix pour réaliser des prototypes ou de petites séries, principalement quand des formes compliquées ou des pièces de grandes dimensions légères et susceptibles de résister à la corrosion doivent être reproduites : canots, conduits d’évacuation de vapeurs corrosives, capotages et protection d’appareils, de radar, carrosseries d’études ou de courses, carrosseries de véhicules utilitaires, modèles d’avions, etc.
- Roger Uzag.
- p.18 - vue 22/527
-
-
-
- Le climat se réchauffe-t-il ?
- 19
- Les vieillards radotent-ils quand ils prétendent que les hivers d’autrefois étaient plus rudes que les nôtres P En fait, la question d’un réchauffement possible du climat est bel et bien posée depuis quelques années ; de nombreux articles et ouvrages parus à partir de ig38 attirent l’attention sur ce problème. Les savants russes Berg, Visé, Derdjeievsky, les savants américains Brooks, Field, les savants danois Lysgaard, Jensen, Fristrup, le Norvégien Hellan-Hansen sont rejoints dans leurs appréciations par les Canadiens (Berril) et les Français des Expéditions polaires : le climat terrestre semble en voie de réchauffement accéléré.
- La plupart des observations portent sur l’hémisphère Nord, et particulièrement sur les régions arctiques et les zones montagneuses; là en effet se situent les changements climatiques les plus sensibles. Les Russes signalent le réchauffement de la Sibérie et de l’Océan Glacial depuis environ 1880. D’immenses îles de glace ont fondu dans la mer de Laptev; l’une d’elles, l’île Semenovsky, longue de i5 km en 1823, n’a plus qu’un millier de mètres; une autre, l’île Liakhov, située à l’est de la presqu’île de Taïmyr, dont le socle de glace est recouvert par des argiles et des sables qui recèlent des restes de mammouths et de boeufs musqués, est en train de disparaître. Quant à la banquise, elle recule en été de plus en plus loin vers le nord : en 1955, un bateau avait atteint la latitude 82°42' sans rencontrer d’obstacles. En septembre 1955, le navire soviétique Fedor Litké a atteint 83°n', au nord de la terre François-Joseph. Les fleuves sibériens sont pris par les glaces moins longtemps que jadis.
- La limite de la terre gelée en profondeur (merzlola) a reculé de 5o km.vers le nord.
- Les températures enregistrées marquent un accroissement net. Certes, les observations ne remontent guère au-delà de 1870; souvent même, elles ne commencent qu’au xxe siècle. Mais cela suffit pour donner une idée de l’évolution. A Disko (Groenland), la moyenne annuelle a augmenté de 5° en moins de vingt années. Le Canada et l’Alaska se réchaufferaient parallèlement, accusant une hausse moyenne de 20 de 1920 à 1940. Les températures du Spitzberg ont monté de 90 depuis quarante ans. Le navire soviétique Sedov, au cours de sa dérive à travers l’Arctique en 1937-1940, a constaté une hausse des températures égale à 4° par rapport à celles relevées par Nansen en 1896 dans les njêmes parages, à bord du Fram. Donnée la plus récente : en juillet 1957, la température maximale enregistrée à Vorkouta (Arctique soviétique) a atteint 3o°, battant le record de cette station.
- En Sibérie, Iakoutsk possède un hiver moins froid qu’au début du siècle (— 4i°7 au lieu de — 45°5) ; en revanche, l’été est stationnaire, parfois même légèrement plus frais. Haparanda (Suède) a vu ses moyennes de température évoluer ainsi depuis 1889 : janvier, — ii°3 et — 9°8; juillet, x4°9 et i6°5. A Washington, le Weather Bureau annonce une élévation de la moyenne anuelle de 20 depuis 1862; l’Hudson, qu’au début de ce siècle on traversait à pied l’hiver dans le port de New-York, n’a plus gelé depuis vingt-neuf ans! Le réchauffement du climat français est attesté par le tableau suivant (température moyenne à Paris) :
- 1880 1890 1900 1910 1920 xg3o 1940
- -90 -1900 -10 -20 -3o -4o -5o
- Printemps. IO°I to°6 IO°I io°6 io°7 io°7 11'7
- Eté . 18“ i8-3 i8°2 i8"i i8°i x8°9 i9°6
- Automne . xo°9 ix»3 1x03 io°8 1I«2 11°6 12°
- Hiver . 3°5 3"3 34 4“4 4«4 4"i 3<’6
- Fig. 1. — Séracs du glacier du Rhône.
- Au premier plan, espace libéré entre la glace et la moraine latérale, invisible ici (Photo P. Wagret).
- Une ville comme Besançon possède actuellement une moyenne annuelle supérieure de 3° à celle d’il y a un siècle. Pour l’ensemble de la planète, des savants danois chiffrent à o,33 degré l’accroissement de température intervenu entre 1919 et 1940.
- On a essayé de mesurer le recul de la banquise. Les Soviétiques estiment que, dans leur seul secteur, la surface disparue dépasse x million de kilomètres carrés, soit le double de la France. En l’espace de quarante ans, de la dérive du Fram à celle du Sedov, la banquise a perdu 5o cm d’épaisseur : on a imaginé des sous-marins arctiques capables de traverser immergés tout le bassin polaire, en venant de temps à autre respirer par un schnorkel trouant la carapace de glace. De plus en plus nombreux sont les cargos soviétiques qui empruntent la « route maritime du Nord », ou passage du Nord-Est, de la mer de Barentz au détroit de Béring; cette voie, ouverte en ig33 par l’odyssée du brise-glace Sibiriakov et du navire Tchéliouskine, est aujourd’hui régulièrement suivie par plusieurs dizaines de cargos; le croiseur allemand Donau l’utilisa même en ig4o pour gagner subrepticement l’Océan Pacifique, où il gêna considérablement la navigation alliée. Autour du Spitzberg, la navigation est libre maintenant les trois quarts de l’année; tandis qu’à Botwood (Terre-Neuve), la période d’embâcle se rétrécit d’année en année (x). La glace se forme de plus en plus tard sur le Saint-Laurent, et le grand poi’t de Montréal espère être bientôt accessible dix mois sur douze.
- Le recul des glaciers constitue un excellent « test » du réchauffement climatique; de fait, le phénomène est quasi universel. Les glaciers régionaux du Groenland, d’Islande, de Jan Mayen, du Spitzberg sont en régression régulière. L’île de Disko est en cours de déglaciation rapide, et le glacier de Jakobshavn (Groenland septentrional) a perdu 10 km de 1888 à 1925. Les glaciers alaskiens subissent le même sort : le glacier de Nunatak s’est réduit de 10 km en vingt-cinq ans, celui de Muir a perdu 4 km en dix années; le recul d’un glacier a permis l’installation d’un port au fond d’un fjord libéré de Colombie britannique (Tarr lnlet, à 800 km au nord de Prince Rupert). Les glaciers de cette région arrivant jusque dans la mer, le réchauffement, sensible aux basses altitudes, les affecte particulièrement.
- 1. Voir Norois, revue géographique des pays de l’Atlantique Nord, qui publie régulièrement une intéressante « chronique arctique », tenue constamment à jour (Facultés des Lettres de Caen, Rennes, Poitiers).
- p.19 - vue 23/527
-
-
-
- 20
- Les glaciers du National Park-des États-Unis ont rétréci d’un tiers depuis un siècle; l’un d’eux, le Sperry, a diminué de 60 pour ioo, et ses rives sont affectées par une fusion de glace qui les fait reculer de 3 m par an; dans quelques années, le
- glacier Sperry aura entièrement disparu. Dans les Alpes, le recul des glaciers est un fait d’expérience maintes fois signalé. Les glaciers du Montenvers, du Mauvais-Pas, des Ëchelets, ont perdu une cinquantaine de mètres depuis 1900. Le glacier du Rhône a libéré tout un fond de vallée depuis un siècle : l’hôtel de
- Gletsch, au confluent des routes du Grimsel et de la Furka, est
- maintenant bien isolé en avant du front glaciaire. Le plus grand glacier alpestre, celui d’Aletsch, recule de 6,5 m par an, selon H. Onde. D’autres glaciers, tel le Steingletscher, montrent par leurs moraines quelle extension fut jadis la leur. Il suffit d’interroger les vieillards pour comprendre ce que peut être, en l’espace d’une vie humaine, la « déroute glaciaire » actuelle (Ch.-P. Péguy).
- Cette déroute se manifeste aussi bien en Autriche et en Italie qu’en Suisse ou en France. Un barrage a été érigé sur un verrou abandonné par le Pasterze (massif du Gross Glockner). Les observations des géographes italiens, portant sur une centaine de cas, donnent une proportion de 96 pour 100 de glaciers en recul; dans l’Apennin, le Gran Sasso ne possède plus que des reliques insignifiantes; le glacier de Valtournanche, au pied du Cervin, a perdu 3oo m depuis ig3i, et un lac terminai s’est formé récemment.
- Que se passe-t-il dans l’hémisphère austral, où les observations sont si rares ? Certains ont nié un réchauffement de cet hémisphère : pour eux, la fusion des glaces dans l’hémisphère
- boréal correspond symétriquement à une accentuation du froid dans l’Antarctide, avec entassement de glace. Il semble que cette hypothèse ne soit pas suivie par la majorité des savants : ce que l’on sait des glaciers andins et néo-zélandais indique que la plupart reculent comme leurs frères alpins; la calotte glaciaire antarctique elle-même serait en voie de régression. Les observations, il est vrai, sont encore rares : pour porter un jugement, il faudra attendre les conclusions de l'Année géophysique internationale (1957-1958). L’expédition américaine a récemment signalé (mai 1957) une température de — 910 dans un secteur de l’Antarctide confié à ses recherches; si cette nouvelle était confirmée scientifiquement, elle permettrait au continent qui porte le Pôle Sud de détrôner l’actuel « pôle du froid », la station sibérienne de Yerkhoïansk, où l’on a enregistré -— 69°8.
- Certes, le réchauffement actuel n’est pas le premier que connaisse la terre : il existe des cycles d’extension et de régression glaciaires, et l’ère quaternaire a connu quatre périodes glaciaires successives (désignées par les noms des vallées alpestres de Günz, Mindcl, Riss et Würm). On découvre aujourd’hui des traces de cultures médiévales dans des zones libérées par la fusion des glaces. Et, si les Scandinaves admettent une régression de leurs glaciers depuis le xive siècle, on a signalé cependant une avance rapide de ceux-ci entre 1740 et 1745. Il importe donc de se garder de toute généralisation imprudente.
- En tout cas, le public est sensible au réchauffement des automnes, à l’accroissement de la température moyenne, à la fermeture de plus en plus tardive des cols alpestres, à la réduction de l’hiver proprement dit aux mois de janvier-février. Le
- Fig-. 2 et 3. — Le recal du glacier du Rhône.
- A gauche. — En trait plein, noir : la langue glaciaire actuelle (1953) ; en pointillé, blanc : l’extension du glacier en 1850. — A droite. — Extrémité de la langue de glace ; au premier plan, verrou rocheux à peu près complètement dégagé depuis le début du siècle (Photos P. Wacret).
- p.20 - vue 24/527
-
-
-
- 4-
- Fig. 4 (ci-dessus). —
- Le glacier du Rhône en 1950.
- On voit l’hôtel de Gletsch, à la réunion des routes du Grimsel et de la Furka, aujourd’hui loin du front glaciaire. Comparer avec la figure 5.
- (Photo aimablement communiquée par VOfJice national suisse du Tourisme).
- Fig. S (ci-contre). —
- Le glacier du Rhône en 1850.
- Lithographie de l’époque. (Photo 0. Süssli-Jenny, Thahvill-Zürich).
- p.21 - vue 25/527
-
-
-
- 22
- Fig. 6. — Roches striées et rabotées par un ancien glacier disparu.
- Col du Grimsel (Suisse), altitude : 2 100 ra ; au premier plan, le lac artificiel des usines hydroélectriques de l’A.ar.
- (Photo P. Wagret).
- Noël enneigé de la tradition tend, surtout dans l’Europe occidentale, à s’éloigner dans le passé. Les skieurs du ier janvier •ont quelquefois du mal à trouver de la neige en montagne. Ce retard de la saison, joint à l’élévation de la température moyenne, est interprété par les glaciologues comme étant la principale cause du recul glaciaire actuel : tout en reconnaissant que ce n’est qu’une hypothèse, ces savants pensent que, la neige ayant d’autant plus de chances de se transformer en glace que sa chute a été précoce, il convient d’incriminer une diminution des précipitations automnales, alimentant insuffisamment les névés. Les Américains arrivent à des conclusions analogues en ce qui concerne l’Alaska.
- D’autre part, les eaux marines perdent leurs caractéristiques; -elles se réchauffent depuis 1880. Peterson a émis l’hypothèse, avant 19r4, que la fusion des glaces polaires expliquait la des--cente profonde des eaux froides plus lourdes vers l’équateur, et le retour correspondant des eaux tièdes vers les latitudes plus septentrionales. Ces eaux tièdes, plus légères, constitueraient les -courants de surface du type Gulf Stream. Ces idées, reprises en France par l’océanographe Le Danois, sont loin d’être unanimement acceptées.
- L’examen de la faune peut apporter d’utiles renseignements. Au Danemark, les ornithologues auraient découvert récemment vingt-cinq espèces d’oiseaux jusque-là inconnues sous ce climat; aux îles Féroé huit espèces nouvelles, au Groenland cinq. Les savants russes notent le séjour prolongé d’oiseaux migrateurs -sur les rivages de l’Océan Glacial arctique. En Islande, des Insectes européens et américains vivent constamment aujourd’hui là où leur présence-était inconnue il y a cinquante ans.
- Même constatation chez les! poissons : le colin, l’églefin, le
- flétan, le hareng remontent de plus en plus loin vers le nord. La morue n’était pas pêchée avant igi4 au nord du cap Farewell, à l’extrémité du Groenland, vers 6o° N; à partir de 1917 on la voit le long des fjords de la côte occidentale; en xg3o elle atteint Disko (70° N); en 1939 elle dépasse Upemavik (73° N); on la signale maintenant dans les parages de Thulé (770 N). Les pêcheurs norvégiens, islandais, portugais, français associent maintenant Terre-Neuve et le Groenland dans des « campagnes doubles ». De Jan Mayen au Spitzberg, on pêche également le hareng, le flétan et parfois le maquereau. En revanche, les navires baleiniers de Tromsœ ont peine à chasser les cétacés, qui se replient vers le nord. De même, les animaux proprement arctiques remontent vers le pôle : ours blanc, phoque, narval... Le genre de vie des Eskimos est en complète évolution : la pêche à la morue connaît une extension croissante, tandis qu’est en train de disparaître la chasse au phoque. On voit même les Groenlandais du sud se livrer à l’élevage des moutons et des bovins : le Groenland retrouve ainsi son étymologie primitive, le « pays vert ». Après un intervalle de.onze siècles, on revoit aujourd’hui les conditions climatiques que rencontrèrent Erik le Rouge et les Vikings (x). Les traîneaux ne servent plus et les automobiles commencent à circuler sur des routes toutes récentes.
- En Sibérie, la toundra, steppe glacée ne possédant que mousses et lichens, est en régression sensible au profit de la forêt de conifères, la taïga; il en est de même en Finlande septentrionale. En Islande, en Scandinavie, en Sibérie, les céréales gagnent du terrain : les techniques de « vernalisation », la sélection des semences, les progrès de la chimie et de la pédologie collaborent ici avec l’amélioration des conditions naturelles .
- Les causes réelles du réchauffement climatique demeurent, il faut bien le dire, assez mystérieuses. Des savants s’orientent actuellement vers une modification de la circulation atmosphérique : les stations sibériennes enregistrent des pressions plus faibles (diminution moyenne de 2 à 3 millibars, sur une pression normale moyenne de 1 oi3), ce qui correspond bien à une élévation de température. Mais le Sedov a noté à peu près régulièrement un accroissement de pression voisin de 4 millibars par rapport aux observations de Nansen (i8q3). Le problème, on le voit, n’est pas simple. Sans doute faut-il envisager l’apport de masses d’air tiède d’origine méridionale : cette idée, émise par Angstrœm, repose sur une « vigueur variable » supposée de la circulation atmosphérique. Celle-ci serait particulièrement active depuis une quarantaine d’années, provoquant des pluies plus abondantes qu'autrefois en Ecosse et en Scandinavie. Cette hypothèse, reprise par Petersen, associe réchauffement et précipitations accrues. Mais celles-ci n’augmentent pas toujours : si tel était le cas, les glaciers, alimentés en neige fraîche, reculeraient-ils à cette allure ? Dans l’état actuel de la science, la question reste difficile à résoudre.
- Le continent antarctique apparaît très froid, sur une surface immense : Port-Martin, en Terre Adélie, a une moyenne annuelle de — x3°. Or, cette station n’est située qu’à la hauteur du cercle polaire, ce qui, dans l’hémisphère boréal, correspond à l’Islande et à la Norvège centrale. La banquise atteint l’hiver le 5oe parallèle sud, soit la latitude de la Manche ! Les glaces flottantes dépassent parfois le 4oe parallèle, dérivant jusque dans les parages de la Tasmanie, exactement aux antipodes du Portugal 1
- Au contraire, la banquise autour du pôle Nord est beaucoup moins étendue, et elle se rétrécit sans cesse. Il importe d’ailleurs de distinguer les deux bassins arctiques, celui de Sibérie-Norvège et celui de Groenland-Alaska : le premier est celui où la mer libre se rapproche le plus du pôle, au-delà du 8oe parallèle; dans le second, par contre, la calotte glaciaire s’étend beaucoup plus loin vers le sud. Le passage du Nord-Ouest (Canada)
- 1. Voir : Les voyages des Vikings en Amérique du Nord avant Colomb, par J.-L. Fleuriot, La Nature, septembre 1955, p. 337.
- p.22 - vue 26/527
-
-
-
- 23
- est bien plus difficile à franchir que le passage sibérien du Nord-Est : quelques navires seulement l’ont emprunté victorieusement, dont Amundsen en 1903-1906, et deux gros brise-glace américains pendant la dernière guerre. Le centre de la calotte glaciaire arctique se déplacerait donc d’Asie vers l’Amérique.
- Une situation similaire a certainement déjà existé dans le passé : l’inlandsis quaternaire qui recouvrait la moitié de l’Europe et dont le Groenland est un résidu attardé, est descendu en Amérique jusqu’au 4oe parallèle, au sud des grands lacs, épargnant la région ouest et la côte pacifique. Mais, en Sibérie, cette masse glaciaire s’est cantonnée dans l’angle nord-ouest, au nord du 6o° parallèle : le centre et l’est du continent asiatique n’ont pas connu l’empreinte glaciaire ; la région qui est aujourd’hui le « pôle du froid » devait jouir d’un climat alors beaucoup plus tempéré que l’Europe. N’a-t-on pas retrouvé des squelettes de tigre dans la presqu’île de Taïmyr ?
- L’Antarctide, en revanche, présente une dissymétrie inverse : l’extension du plateau glacé y est beaucoup plus grande entre les méridiens o° et x6o° E de Greenwich : cela correspond bien aux régions nord-sibériennes affectées par le recul glaciaire. De même, la banquise remonte davantage vers l’océan dans ce secteur de l’hémisphère austral. Ce « basculement des glaces » demanderait à être confirmé par des observations précises de températures. On a vu que ces dei’nières étaient encore trop mal connues, et de façon trop fragmentaire, pour être réellement valables : le pôle Sud n’est conquis que depuis 1911, et la première expédition scientifique approfondie, mis à part celle du docteur Charcot, ne date que de 1928 (Byrd).
- Faut-il faire intervenir une modification des hautes couches de l’atmosphère, agissant comme écran sur les radiations solaires ? Le savant anglais Wezler, constatant que, depuis cinquante ans, l’activité volcanique paraît en régression à la surface du globe, déclare : les rayons solaires ne sont plus arrêtés par les cendres pulvérulentes provenant des éruptions, et l’énergie solaire est avivée par la limpidité de l’atmosphère. 11 existe aussi des facteurs dont l’influence est encore très mal connue.
- En tout cas, il faut signaler une conséquence directe et inquiétante à la longue de la fusion des glaces : nous voulons parler de l’élévation progressive du niveau de la mer. Depuis quelques dizaines d’années, nous assistons à un relèvement indéniable du niveau de base marin : la comparaison des différentes mesures des marégraphes, ainsi que des nivellements répétés pour chaque station, amènent à des conclusions à peu près identiques pour de nombreux points.
- Certes, il faut tenir compte des conditions particulières à chaque station d’observation : les mesures faites à Brest, par exemple, ne montrent pas un changement de niveau depuis 1900; seules des variations de faible amplitude sont notées selon les années. De même, en Scandinavie, le continent semble s’élever, et Suess racontait déjà, à la fin du siècle dernier, l’histoire des marins norvégiens cherchant vainement à attraper les anneaux de fer des quais. Mais il suffit, pour masquer un relèvement du niyeau de la mer, que le continent s’élève au moins aussi vite. La théorie de l’isostasie, selon laquelle le plateau Scandinave se relève à mesure que décroît la charge glaciaire qu’il supporte, expliquerait fort bien cette situation. En ce qui concerne la Bretagne, les relevés gravimétriques indiquent une légère tendance au relèvement du Finistère et du Bocage normand, tandis que la partie centrale (marais de Dol et bassin de Rennes) constitue une zone de subsidence.
- Quelle est l’ampleur de ce relèvement du niveau de base marin ? Les appréciations varient naturellement selon les savants et le cadre de leurs études : la part qui revient à l’élévation de la mer et celle qui doit être faite à l’affaissement éventuel du continent sont souvent délicates à préciser. Thorarinson propose 5 cm par siècle, Gutenberg (suivi par Bourcart) 12 cm environ. R. Fui'on avance le chiffre de i,3o m par millénaire, ce qui correspond à peu près à celui de Gutenberg et aux esti-
- Fig. 7. — Le Steingletscher (Suisse).
- A gauche, la moraine latérale délaissée par le recul du glacier ; au premier plan, le lac terminal de formation récente.
- (Photo P. Wagret).
- mations de Hafemann : ce dernier a conclu à une élévation de la mer de l’ordre de 2 à 3 m depuis l’époque romaine le long des côtes de Grande-Bretagne. Dans le cas de la Méditerranée, Poli chiffre à 7,5 cm l’élévation intervenue entre 1890 et 1940 (dont 2,7 entre ig3o et 1940 seulement).
- Que se passerait-il si l’ensemble des glaces du globe fondait totalement? R. Furon a évalué leur masse à 3o 000 000 km8, dont 3 millions pour le Groenland et 26 pour l’Antarctide; il calcule un relèvement de niveau de l’ordre de 5o m. Sans aller jusqu’à prétendre qu’une telle éventualité soit plausible, il suffirait d’une élévation de quelques mètres pour rendre inhabitables un certain nombre de régions basses : la Hollande, la basse Tamise, par exemple.
- Mais n’anticipons pas ! Il peut très bien ne s’agir, somme toute, que de variations cycliques à grande période. Les dépôts alternés de sable et d’argile marine d’une part, et de tourbe lagunaire d’autre part, dans les régions de marais côtiers (Hollande, Frise, Fens, Marais poitevin...) montrent que de telles oscillations ont eu lieu dans le passé. L’examen pollinique a prouvé que des périodes de climat chaud avaient succédé à des époques plus froides; et le Sahara lui-même n’a pas toujours été un désert.
- En conclusion, reconnaissons que les causes profondes de l’actuelle modification climatique nous restent inconnues. Phénomène durable, ou bien simple variation cyclique ? La question demeure entière pour l’instant.
- Paul Wagret.
- p.23 - vue 27/527
-
-
-
- 24
- Les études géophysiques au moyen des fusées et des satellites
- Le lancement des premiers satellites artificiels soviétiques a brusquement attiré l’attention sur des problèmes qui ne préoccupaient jusque-là que les spécialistes : la structure de la haute atmosphère est encore très mal connueT malgré les dépenses énormes qui ont été consacrées à son étude, surtout aux États-Unis.
- Dans l’article ci-après, M. James Lequeux examine les résultats obtenus à l’aide des fusées; on lira à la suite un article de M. Lionel Mowbray qui montre comment les satellites artificiels peuvent compléter ces études, les deux
- séries d’engins ayant des domaines d’utilisation différents.
- Mesures en haute
- atmosphère par les
- fusées
- Il n’exisle aucun moyen de mesurer à partir du sol des grandeurs aussi fondamentales que la pression ou la densité des régions élevées de l’atmosphère. Bien qu’elles soient relativement peu onéreuses et souvent du plus grand intérêt, les études indirectes de la haute atmosphère ne contribuent à sa connaissance que par des données fragmentaires et quelquefois inexactes. Cependant, depuis l’invention des aérostats, l’homme ne cesse de s’élever davantage au-dessus du globe : une ascension en ballon n’est pas seulement un exploit sportif, elle permet déjà d’effectuer des mesures remarquables. Les ballons-sondes atteignent même 3o km d’altitude, et nous leur devons des découvertes importantes. Mais les régions les plus intéressantes de la haute atmosphère sont plus élevées encore, et il a fallu attendre le développement des engins autopropulsés pour mieux connaître les données physicochimiques qui les caractérisent et étudier directement, sans l’interposition d’une épaisse masse d’air, le rayonnement solaire ou les rayons cosmiques primaires. L’importance purement physique de ces lancers de fusées est au moins aussi grande, car les phénomènes qui se produisent clans des conditions actuellement impossibles à réaliser au laboratoire apportent une contribution de premier ordre à la physique nucléaire, à l’électricité, à la spectroscopie, à l’astronomie, sans oublier la géophysique et la météorologie. C’est pourquoi des moyens scientifiques considérables sont mis en œuvre pour multiplier le lancement de fusées équipées d’appareils scientifiques.
- La réalisation des fusées de recherche. — Depuis 1946, plus de deux cent cinquante fusées ont été lancées vers la haute atmosphère, presque toutes aux U.S.À., par des laboratoires rattachés dii'ectement ou indirectement à l’Uniled States Department of Defense (x) : à l’intérêt purement scientifique qu’elles suscitent se superpose un intérêt militaire évident, car ces lancements constituent un banc d’essai pour des engins qui ne seront pas tous destinés à des usages aussi pacifiques.
- Au début, on utilisa surtout les V.a, dont un stock important avait été capturé en Allemagne à la fin de la guerre. 70 Y.2, dont la charge explosive avait été remplacée par des appareils de mesure, ont été lancés depuis avril 1946 : bien que plusieurs eussent atteint des altitudes supérieures à 180 km, beaucoup ne fournirent pas de performances satisfaisantes. En même temps, le Jet Propulsion Labo rat ory construisait une <( roquette » bien plus petite dite « WAC Corporal », propulsée
- 1. Rappelons aussi une belle réalisation française : la fusée expérimentale « Véronique », qui a atteint 250 km d’altitude (voir La, Nature, mai 1956, p. 195), et qui sera bientôt suivie par une fusée plus puissante. Une toute récente fusée anglaise, la « Skylark », présente des caractéristiques assez semblables à VAerobee américaine.
- Fig. 1. — Ensemble
- lancé en février 1949, comportant une fusée WAC Corporal portée par une fusée V.2. La fusée WAC Corporal devait atteindre l’altitude de 390 km.
- (Photo U.S.I.S.).
- par un mélange d’acide nitrique fumant et d’aniline, qui montait cependant à 70 km. L’une d’elles, portée pendant la première partie de sa course dans le nez d’une fusée V.a (expérience 6 fois répétée) atteignait en février 1949 une altitude de 890 km, record longtemps insurpassé (fig. 1).
- L’Aerobee de l’Aerojet Corporation est une roquette simplifiée, inspirée de la WAC Corporal, que ses performances remarquables et son prix modique rendent très précieuse pour les recherches sur la haute atmosphère. Elle plafonne à plus de 200 km (fig. 3).
- D’aspect assez semblable à un Y. 2, le « Viking » peut emporter une forte charge utile à une altitude supérieure à 200 km. Construit spécialement pour la recherche scientifique par la Glenn Martin Company and Reaction Motors Incorporated, il présente la particularité d’être stabilisé par changements d’orientation du propulseur.
- Enfin la fusée Deacon est une solution élégante et peu onéreuse aux problèmes posés par l’envoi à haute altitude d’appareils de poids moyen, puisqu’elle est portée par un ballon
- p.24 - vue 28/527
-
-
-
- Tableau I. — Caractéristiques principales des fusées utilisées aux États-Unis pour l’exploration de la haute atmosphère
- Type Y. 2 1 Viking
- Premier lancement 16 avril 19^6 (aux Etats-Unis) 3 mai 1949
- Longueur S to 00 i4,85 m
- Diamètre 1,4o m 0,81 m
- Poids total 12 800 kg 4 970 kg
- Charge utile 990 kg 225 kg
- Volume réservé aux instruments u3 dm3 pressurisé (nez détachable) -f- 34o dm3 pressurisé -|- éventuellement, 566 dm3 non pressurisé. 376 dm3 pressurisé (nez détachable) -f- 348 dm3 non pressurisé.
- Altitudes atteintes Environ 160 km. Maximum 2i3 km. 216 km maximum pour 177 kg de charge utile.
- Particularités Combustible : oxygène, liquide et alcool. Accélération maximum 6.6 g. Stabilisation. Température du nez : i4o° C. Même combustible que le V.2 -j- essence. Accélération maximum 7 g- Vibrations gênantes. Stabilisation. Nez à 240° G.
- Prix (dollars) Non fabriqué. 4oo 000
- Viking récent Aerobee Deacon
- Après 1952 24 novembre 1 g47 21 août 1952
- 13,80 m 6,i5 m 2,79 m
- i,i4 m o,38 m 0,16 m
- 6 65o kg environ 490 kg 92 kg environ
- 45o kg 54 à 108 kg 18 kg environ
- 1 64o dm3 au total i36 dm3 pressurisé —f— 4i dm3 non pressurisé. 44 dm3 environ
- 254 km 160 km pour 67 kg de charge utile. 21 à 96 km selon qu’elle est lancée de 0 à 22 km d’altitude. Maximum io4 km.
- ? Accélération maximum 12 g; sera stabilisée ultérieurement. Stabilisation possible.
- ? 25 000 800 -(- 1 200 pour le ballon
- slratosphérique Shyhook jusqu’à plus de i5 ooo m, altitude à laquelle se déclenche la mise de feu : ainsi le freinage par les couches les plus denses de l’atmosphère est évité, et la fusée peut monter à ioo km.
- Le tableau I résume les principales caractéristiques des fusées de recherche américaines. Le prix très élevé de ces engins constitue une sérieuse limitation à leur nombre, bien que la plupart des recherches soient financées par les puissantes subventions de l’U.S. Navy ; c’est là l’obstacle le plus infranchissable à de telles études directes de la haute atmosphère. Nous ne mentionnons pas dans notre tableau la fusée américaine qui aurait récemment été lancée à une altitude de 6 4oo km et sur laquelle on n’a que peu de renseignements; on peut supposer qu’il s’agit d’un engin du type destiné au lancement d’un satellite mais réglé simplement pour rester orienté à la verticale.
- On peut voir sur le tableau I combien sont dures les conditions physiques auxquelles sont soumis les appareils de mesure placés le plus souvent dans le nez de la fusée : fortes accélérations, vibrations, température assez élevée par suite du frottement des parois sur l’air extérieur. Certains appareils électroniques doivent se trouver dans une zone pressurisée, pour éviter les décharges électriques qui pourraient se produire dans le vide. Les conditions de poids et de volume ne sont pas moins strictes, et tous les efforts sont portés vers la diminution de ces
- deux facteurs sans nuire à la qualité de l’appareillage : c’est le domaine d’élection des transistors, du moins en ce qui concerne l’électronique. Le plus souvent, il n’est pas possible d’incorporer à la fusée un matériel assez complet, et l’on doit se limiter à deux ou trois appareils de mesure sur une Aerobee par exemple, car les systèmes accessoires (transmission radioélectrique des résultats, etc.) prennent eux aussi de la place.
- Si la fusée n’est pas stabilisée, il se pose le difficile problème de connaître son orientation au moment de chaque mesure directive (observations du spectre solaire par exemple) ; la méthode la plus évidente consiste à photographier la surface terrestre à l’instant de l’observation. C’est essentiellement dans ce but qu’ont été pris les célèbres clichés où l’on perçoit très bien la courbure de la Terre, et qui sont par ailleurs de précieux documents pour le météorologiste. Pour presque toutes les applications, il faut en outre repérer à chaque instant l’altitude et la position de la fusée : on y parvient assez aisément par les méthodes habituelles de la télémétrie. Mais les trajectoires sont quelquefois capricieuses et imprévisibles ; on est même quelquefois obligé, par mesure de sécurité, de couper les gaz par télécommande afin d’éviter la chute de l’engin dans un endroit où il constituerait un danger pour la population.
- Pour connaître les résultats des mesures effectuées à bord, les transmissions par radio ont le plus souvent été utilisées, et
- p.25 - vue 29/527
-
-
-
- 26
- sont parfaitement satisfaisantes. Mais il est des renseignements impossibles à transformer en un code de signaux (enregistrements, photographies). Dans ce cas la récupération de la partie intéressante ne manque pas de difficultés. Les premières fusées contenaient une charge explosive destinée à les briser avant leur retombée sur le sol ; le fragment utile, une solide boîte métallique contenant les documents, n’a pas une forme aérodynamique et atterrit avec une vitesse qui ne dépasse pas ioo m/s. Actuellement on considère cette méthode comme trop brutale et l’on utilise plutôt des parachutes qui permettent en outre de récupérer le matériel le plus précieux... qu’il s’agit toutefois de localiser dans les immenses étendues de White Sands, où ont lieu la plupart des tirs.
- La mise au point des appareils de mesure destinés à être emportés par des fusées est donc très délicate. Aucune erreur ou imperfection. ne peut être tolérée en principe... et pourtant des appareils simples ont quelquefois refusé de fonctionner : le premier essai de lancement de sodium dans l’atmosphère fut un échec, bien que la vaporisation de quelques kilogrammes de ce métal à une hauteur déterminée paraisse une opération facile. La plupart des expériences ont heureusement été couronnées de succès et il est temps d’en exposer les méthodes essentielles et les principaux résultats (1).
- Structure physicochimique de la haute atmo= sphère. — Le premier point du programme de recherches par fusées était d’effectuer des mesures directes de la pression, de la température et de la densité atmosphériques. Les idées que l’on avait à ce sujet étaient qualitativement correctes, mais les chiffres avancés se révélèrent souvent entachés d’erreurs grossières, que les instruments emportés par les roquettes ont permis d’éliminer. Plusieurs années d’études et de lancements furent nécessaires pour amasser des renseignements suffisamment complets, publiés seulement en décembre 1952. Ces mesures sont assez délicates, car les grandeurs mesurées à bord d’un engin largement supersonique n’ont qu’un rapport lointain avec les conditions réelles du milieu ambiant, mais on peut souvent les relier les unes aux autres. C’est ainsi que la pression aérodynamique P à l’extrémité du nez conique de la fusée est liée à la vitesse v, à la pression ambiante p et au poids spécifique p par la formule due à lord Rayleigh :
- P = 0,92 pu2 + o,46 p +...
- En effectuant au même instant des mesures aux différents endroits du corps pour lesquels existent des relations du même type, on obtient des systèmes d’équations d’où l’on tire p et p. Les pressions sont mesurées par les moyens classiques en technique du vide (jauge de Pirani, jauge à ionisation, etc.). Aux basses altitudes on mesure directement la pression ambiante sur une région du corps de la fusée où la pression aérodynamique lui est égale, tandis qu’à plus de 120 km il faut s’adresser à d’autres méthodes, susceptibles cette fois d’erreurs assez importantes.
- A ces procédés déjà classiques, d’autres sont venus s’ajouter plus récemment. L’un des plus séduisants consiste à libérer au sommet de la trajectoire de la fusée une sphère de matière plastique, contenant un émetteur-récepteur qui permet de déterminer à partir d’une base terrestre sa vitesse de chute en utilisant l’effet Doppler. La mécanique des fluides en déduit la densité des couches atmosphériques traversées, mais il faudrait connaître la vitesse avec une très grande précision, entravée beaucoup par les vents violents qui régnent dans la haute atmosphère : aussi les résultats sont-ils quelque peu différents de ceux que fournissent les méthodes antérieures.
- La température peut aisément se tirer de la pression et de
- 1. Nous exprimons notre gratitude au professeur Vassy, qui nous a communiqué des documents sans lesquels cet article eût été irréalisable.
- la densité, grâce à l’équation d’état des gaz, mais on préfère souvent la calculer à partir de mesures de la vitesse du son : à des altitudes variées, la fusée largue des grenades qui explosent et on enregistre à partir de plusieurs stations la lueur de l’explosion, tandis que des microphones donnent l’instant d’arrivée du bruit. Il faut bien entendu plusieurs explosions à différentes altitudes pour connaître les températures absolues T des différentes régions, car la vitesse du son, étant proportionnelle à \/t, n’est pas constante au cours de sa propagation jusqu’aux stations d’écoute. D’autre part, on doit tenir compte des vents, que ces expériences permettent d’ailleurs de déterminer.
- Les résultats de ces mesures fondamentales sont assez surprenants (fig. 2) : si pression et densité décroissent avec l’alti-
- Pression (dyne/cm2)
- 10'* w~310'2 io~l 1 10 102 m 3 10* W s
- -1----1--1---1----1---1-1-----1--1---1
- Altitude (km) /#-» j0-i2 j0-re ?0-9 ^-a l0-7 j0-s jq-s ^q-9-
- Masse spécifique (g/cm 3)
- Région F2
- Région F,
- Région E
- Région D
- wo 200 300
- Température degrés absolus
- Fig-. 2. — Les grandeurs fondamentales de l’atmosphère, mesurées au moyen des fusées.
- (D'après S. F. Singer, Vistas in Astronomy, Pergamon Press, 1956).
- tude à peu près selon la loi de Laplace, la température s’élève rapidement pour les hauteurs supérieures à 80 km (il semble bien, d’après ce que l’on sait sur le satellite artificiel soviétique, que la très haute atmosphère soit moins dense encore que l’on n’aurait pu le prévoir). Aux latitudes moyennes ces-quantités ne subissent aucune variation saisonnière appréciable, mais on a pu déceler un échauffement, au cours de l’été, au-dessus des régions polaires. Le processus de rayonnement intervient sans doute moins que les processus dynamiques dans la régularisation des températures. L’existence de vents rapides dans les couches de la haute atmosphère a d’ailleurs été constatée : leur vitesse atteint 100 m/s pour les altitudes comprises entre 3o et 60 km, et on a même observé un vent de 80 m/s à 200 km de hauteur. Ces vents opèrent certainement un brassage important des couches, confirmé par les résultats de l’analyse chimique d’échantillons d’air prélevés à diverses altitudes : la composition chimique est invariable alors que les gaz les plus légers se sépareraient par diffusion s’il n’y avait aucun brassage. Cependant la quantité d’ozone varie beaucoup avec l’altitude : nous reviendrons sur ce phénomène à propos de l’absorption de l’ultraviolet solaire.
- p.26 - vue 30/527
-
-
-
- 27
- Fig. 3. — Lancement d’une fusée Aerobee à partir du pont d’un bateau aménagé spécialement, le Norton Sound.
- La fumée est produite par un dispositif de démarrage, et le liquide contenu dans la fusée commence seulement à brûler (Photo U.S.I.S.).
- L,’ ionosphère. — Les émissions ultraviolettes et X du Soleil provoquent l’ionisation partielle de certaines couches élevées de l’atmosphère qui constituent l’ionosphère. De tels milieux ionisés ont sur les ondes radioélectriques des effets remarquables : en effet, les ondes hertziennes subissent des phénomènes de réfraction ou de réllexion; tout se passe comme si le milieu présentait pour une onde de fréquence / un indice
- de réfraction n = \/1 — Nee2/s0m4-2/2, dépendant du nombre Ne d’électrons libres par unité de volume, ainsi que de la fréquence / (e, m et s0 représentent respectivement la charge et la masse de l’électron, et la constante diélectrique du vide).
- Cet indice n est toujours inférieur à i, ce qui signifie physiquement que la vitesse de propagation de l’énergie (vitesse de groupe) est inférieure à la vitesse de la lumière. Si la fréquence est élevée (ondes métriques à centimétriques) l’indice reste sensiblement égal à i, et l’ionosphère n’a aucun effet sur la propagation. Si la fréquence diminue, l’indice décroît jusqu’à la valeur zéro, atteinte pour la fréquence critique
- /c=27r/e\/e0m/Ne, au-delà de laquelle aucune propagation n’est plus possible : l’indice est complexe, il y a réflexion des ondes hertziennes (du type métallique).
- Ces propriétés ont de profondes répercussions pratiques puisque c’est la réllexion des ondes radio sur l’ionosphère qui conditionne leur propagation à grande distance. Aussi l’ionosphère fait-elle l’objet d’études approfondies. Le plus souvent, on détermine l’altitude des couches et la fréquence critique au moyen d’une sorte de radar dont on peut faire varier la fréquence : le temps que met le signal à revenir après réllexion donne la hauteur, et il n’y a plus de signal réfléchi pour les fréquences supérieures à la fréquence critique. Ces sondeurs ionosphériques ont décelé plusieurs couches de den-
- sité électronique croissante avec l’altitude, qui présentent d’importantes variations diurnes et à plus longue période. Mais ils-sont impuissants à déterminer l’épaisseur des couches ainsi que les densités électroniques dans les régions intermédiaires. Ces mesures ne peuvent être effectuées que sur place, au moyen d’appareils transportés par fusée : on peut mesurer directement l’ionisation au moyen d’une sonde de Langmuir, fil porté à un potentiel variable par rapport au gaz et qui collecte ainsi des ions positifs ou négatifs et des électrons, produisant un. courant mesurable. Un spectrographe de masse ne présentant pas de dispositif ionisant (spectrographe sans canon) peut être utilisé à la détermination des constituants ionisés : il suffit de laisser pénétrer l’air ; seules les particules chargées sont accélérées, puis déviées par le champ magnétique. Le jour, on trouve essentiellement l’ion 02~ et des ions positifs (0+, N2+, CN+ ou C2H2+, NO+, 02+ de 90 à 120 km, 0+ et 02+ seulement plus haut) tandis qu’on n’observe la nuit que des ions négatifs (02~, O-, N02~).
- On emploie plus souvent des procédés indirects qui utilisent les propriétés radioélectriques que nous avons mentionnées. Quelquefois un petit sondeur ionosphérique est installé dans le nez de la fusée. Le Naval Research Laboralory y place un émetteur de radio; lors du déplacement de l’engin, la fréquence / reçue à la station terrestre est modifiée par l’effet Doppler de la quantité A/ = fvn/c, où v et c sont respectivement les vitesses de la fusée et de la lumière et n l’indice du milieu ionisé qui entoure la fusée. En fait, on émet de celle-ci deux fréquences, l’une très élevée pour laquelle l’indice est égal à 1, et l’autre voisine de la fréquence de coupure pour
- Altitude
- (km)
- 300
- 10'1* électrons par cm
- Fig. 4. — L’ionosphère terrestre, d’après Seddon et Jackson.
- D’autres résultats montrent une séparation nette de la couche E et des couches F, représentée en pointillé.
- laquelle l’effet Doppler est très réduit : la mesure de la différence des effets Doppler permet d’atteindre l’indice de réfraction, donc la densité électronique des différentes régions traversées. On peut quelquefois mesurer le retard entre des impulsions de diverses fréquences émises ensemble par la fusée. Ces méthodes montrent que les couches ionosphériques sont bien plus épaisses qu’on ne le pensait, et finalement assez peu distinctes les unes des autres (fig. 4). Vers 80 km apparaît la couche D, la première, assez faible mais responsable d’une partie de l’absorption des ondes hertziennes, et où l’on trouve beaucoup plus d’ions négatifs et positifs que d’électrons, signe d’une dissociation ionique des molécules. De 90 à i4o km se ti’ouve la couche E, qui n’existe guère que le jour, puis presque sans discontinuité (les auteurs ne sont d’ailleurs pas tou3 d’accord à ce sujet) les couches F* (maximum de densité à 170 km) et F2 qui s’élève jusqu’à 3oo km au moins. Mais les
- p.27 - vue 31/527
-
-
-
- 28
- couches F sont beaucoup moins élevées qu’on ne le pensait autrefois, la couche E étant si épaisse que les ondes émises par un sondeur ionosphérique et réfléchies sur les couches F subissent des retards considérables.
- Toutefois, il faut remarquer que l’état des couches ionosphé-riques est fort variable dans le temps, et fortement déterminé par l’activité solaire. Certains phénomènes transitoires consécutifs à des éruptions solaires peuvent passer inaperçus car il s’écoule souvent de longs jours entre deux observations par fusée qui ne durent que quelques minutes. Aussi les renseignements que fournissent ces engins, s’ils correspondent bien à la réalité au moment de l’observation, ne doivent pas être hâtivement généralisés.
- Le champ magnétique terrestre. — Le champ magnétique terrestre, lui aussi, subit des variations importantes avec l’activité solaire (orages magnétiques, etc.). Son étude par les fusées est cependant de toute première importance. Des mesures directes ont été faites au moyen de magnétomètres spéciaux montés dans les fusées; elles montrent que le champ présente la même variation avec la distance au centre de la Terre que celui d’un dipôle simple. Cependant, l’un des tirs a démontré une discontinuité très nette de 4 milliœrsteds vers ioo km d’altitude, coïncidant avec les parties basses de la couche E. Il résulte de cette découverte très importante que de larges courants électriques qui induisent ce champ doivent circuler dans la couche E, très conductrice à ce niveau : les conséquences géophysiques en seront incalculables, si ce phénomène est confirmé. L’ionosphère fournit par ailleurs un moyen indirect de connaître le champ magnétique car, en présence de ce champ, elle décompose toute onde radioélectrique qui la traverse en deux rayons polarisés circulairement en sens inverse : ceci complique singulièrement son étude mais peut être utilisé pour des observations du champ magnétique. Mais de grands efforts se tournent vers la réalisation de magnétomètres plus simples et plus sensibles, utilisant la résonance nucléaire (x). De nombreux tirs de petites fusées Rocksoon seront effectués non loin du pôle magnétique, et d’ores et déjà plusieurs observations récentes ont conduit à des résultats très encourageants.
- Le rayonnement propre de l’atmosphère. — On sait que certaines raies spectrales sont émises dans les hautes couches de l’atmosphère solaire au cours du crépuscule et de la nuit : on peut généralement les identifier à des raies atomiques ou moléculaires (de l’oxygène, du sodium, etc.). Des ensembles filtre-cellule photoélectrique ont été emportés par des fusées et ont décelé un maximum de l’émission des raies de l’oxygène vers 96 km, et à 85 km pour les raies D du sodium. Dans l’ultraviolet lointain, la raie La de l’hydrogène a été aussi détectée. On attribue généralement une partie de telles émissions au fait que des atomes excités pendant le jour par le rayonnement solaire retournent à l’état fondamental : si cette théorie est exacte, l’émission serait bien entendu forte pendant le jour, mais les mesures n’ont pas permis de trancher la question, la diffusion atmosphérique rendant les mesures difficiles ; de nouveaux appareils plus complexes et plus sensibles sont en cours de construction.
- On a aussi expérimenté dans la haute atmosphère : à deux reprises, de la vapeur de sodium a été éjectée d’une fusée, non sans difficultés. On a constaté un renforcement notable des raies D, tandis que le déplacement rapide du nuage lumineux ainsi formé a démontz'é, une fois de plus, la présence de vents xûolents dans la haute atmosphère. D’autres substances ont également été dispersées aux altitudes élevées, afin d’étudier certaines ionisations ou réactions photochimiques provoquées par la lumière solaire.
- 1. Voir : La résonance des protons et la mesure des champs magnétiques intenses, par André Laroche, La Nature, août 1955, p. 320.
- Le rayonnement ultraviolet et X du Soleil, et l’ozone atmosphérique. — Presque toute l’émission ultraviolette et X du Soleil est absorbée par les hautes couches atmosphériques, et rien ne nous parvient des longueurs d’onde inférieures à 2 900 A. Les observations par fusées sont le seul moyen de connaître, d’une part, la répartition de l’ozone atmosphérique qui, on le sait, est responsable de presque toute l’absorption ultraviolette et, d’autre part, le spectre solaire dans des régions particulièrement intéressantes. Au cours de
- Fig'. 5. — Concentration de l’ozone dans l’atmosphère.
- Cette concentration est rapportée en millimè-trcs d’épaisseur de l’ozone contenu dans une hauteur de 1 km, supposé réparti pur en une couche à la pression atmosphérique. (D’après E. Vassy,
- La Météorologie).
- 0,10 0,15
- mm/km d'â/r
- l’ascension de la fusée, les spectres photographiés par des spec-trographes emportés à bord montrent une extension progressive du spectre vers les courtes longueurs d’onde d’où l’on déduit la distribution • de l’ozone (fig. 5). La difficulté principale est de tenir le spectrographe orienté vers le Soleil. D’ailleurs on ne peut guère dépasser 1 600 angstrœms avec un spectrographe classique à réseau ; plus loin il faut recourir à des « compteurs de photons » utilisant l’ionisation des gaz, munis
- a V-2 Ascension _ V-2 Descente _ o Aerobee (Jour). • Aerobee (Nuit)
- 0 20 ‘fO 60 80 100
- Fig. 6. — Intensité du rayonnement cosmique selon l’altitude.
- Elle est exprimée en coups par seconde dans un compteur de Geiger ; aux altitudes supérieures à 50 km, l’intensité est constante et l’on a affaire aux particules primaires. Celles-ci produisent au-dessous de 50 km un plus grand nombre de particules secondaires, dont il subsiste relativement peu au niveau du sol.
- (D’après E. Vassy, Revue générale des Sciences pures et appliquées).
- de fenêtres qui ne laissent passer qu’une étroite bande spectrale, ou utiliser la phosphorescence de diverses substances; on a pu ainsi explorer le spectre jusqu’à 900 A (région des rayons X très doux).
- Une grande partie de l’énergie ultraviolette est concentrée dans la raie d’émission La de l’hydrogène à 1 216 A, si intense qu’on a pu l’étudier au spectrographe et même obtenir des photographies monochromatiques du Soleil dans cette raie, responsable d’une grande partie de l’ionisation et des réactions photochimiques de la haute atmosphère. La zone 2 200-2 800 A contient de nombreuses raies d’absorption métalliques, et même un doublet du Mg ionisé qui apparaît en
- p.28 - vue 32/527
-
-
-
- 29
- émission. D’autre part l’absorption par l’oxygène moléculaire de l’air, vers i 45o A, permet de mesurer son état de dissociation : au-dessus de xoo km il est entièrement à l’état atomique, et l’absorption a disparu.
- Dans le domaine des rayons X, on a pu constater également, au-dessus de ioo km, l’existence de rayons X durs (jusqu’à io Â) dont l’absorption par l’atmosphère est un bon moyen de connaître la pression. Ces rayons X sont sans doute liés à l’activité solaire, et il serait très intéressant d’établir à coup sûr si une telle corrélation existe. Par contre, aucune émission y n’a pu être détectée.
- L’intérêt astrophysique de ces observations solaires est augmenté du fait que l’on peut maintenant compléter entièrement le spectre solaire, et déterminer avec précision la constante solaire, c’est-à-dire l’énergie totale en provenance du Soleil qui tomberait normalement sur i cm2 de la surface terrestre en une minute, si l’absorption par l’atmosphère n’existait pas. On la trouve égale à 2,00 ± o,o4 cal/cm2/mn. Mais l’aspect chimique de ces études n’est pas moins important, car la haute atmosphère est un véritable laboratoire de photochimie, où régnent des conditions souvent irréalisables à la surface de la Terre avec nos moyens actuels.
- Les rayons cosmiques. — Dans la haute atmosphère se produisent aussi des réactions nucléaires du plus haut intérêt, dues au bombardement des noyaux présents dans l’atmosphère par des particules primaires très énergiques. Le rayonnement secondaire qui en résulte parvient seul à la terre, très atténué lui-même par des absorptions ou par suite de la faible durée de vie des particules secondaires. On place à bord des fusées des compteurs de Geiger ordinaires ou des files de compteurs montés en coïncidence qui autorisent des mesures directives. La répartition du nombre des particules rencontrées selon l’altitude montre bien l’existence qualitative des phénomènes que nous venons de mentionner (fig. 6) Au-dessus d’une cinquantaine de kilomètres d’altitude, on peut observer le rayonnement primaire non altéré, dont on a réussi à connaître la composition, du moins en ce qui concerne les particules chargées. Il s’agit essentiellement de protons, de particules a et de noyaux de numéro atomique 6. Des lancements de fusées Aerobee ou Deacon effectués à diverses latitudes montrent que l’on trouve plus de rayons cosmiques primaires près des pôles magnétiques qu’à l’équateur : sans doute les particules chargées sont-elles en partie canalisées le long des lignes de force du champ magnétique terrestre (qui sépare aussi en partie les particules les plus énergiques des plus lentes).
- L’importance astrophysique des rayons cosmiques primaires semble de jour en jour plus grande, car on a de bonnes raisons de penser que certaines des sources radioélectriques les
- plus intenses observées en radioastronomie sont également de puissants générateurs de particules de haute énergie, et le Soleil en émet certainement lors des éruptions les plus fortes. Des mesures directives permettront sans doute de localiser l’origine d’une partie du rayonnement cosmique; elles s’effectueront au moyen de « télescopes » à rayons cosmiques (compteurs de Geiger montés en coïncidence) ou d’émulsions photographiques spéciales à trois dimensions. Souhaitons que de telles observations soient très nombreuses pendant l’Année Géophysique, période de maximum de l’activité solaire où l’on surprendra peut-être des phénomènes nouveaux.
- Perspectives d’avenir. — La complexité des phénomènes de la haute atmosphère est si grande qu’ils sont loin d’être tous connus, même de façon fragmentaire : cependant l’exploration directe au moyen de fusées, malgré son prix de revient élevé et ses nombreuses difficultés, s’est révélée si féconde que tout sera mis en œuvre pour multiplier les lancements.
- Dans l’avenir, trois types de fusées semblent suffisants pour assurer les différentes recherches. Tandis que de grosses fusées du type Yiking continueront à emporter aux altitudes extrêmes un équipement important, des fusées moyennes stabilisées atteindront des hauteurs déjà considérables mais ne contiendront pas un appareillage complet. Enfin, les petites fusées type Deacon qui montent à 80 km représentent l’instrument idéal pour des observations synoptiques : leur prix de revient est bas, et leur lancement, ne nécessitant pas d’équipement spécial, pourra être effectué de n’importe quel point du globe. Espérons qu’il en sera de même pour les Aerobee, qui ont déjà été lancées du pont d’un navire (fig. 3).
- Cependant, même si l’on multiplie beaucoup les observations par fusées, on n’aura de renseignements certains que sur les quantités qui varient peu au cours du temps, puisque l’engin ne séjourne que quelques minutes dans les régions atmosphériques intéressantes. Les phénomènes à variations rapides, liés en général à l’activité solaire, ne peuvent être étudiés à coup sûr qu’au moyen de satellites artificiels dont c’est le grand intérêt car ils séjournent longtemps dans la haute atmosphère et parcourent les différentes latitudes. Les deux méthodes seront employées concurremment au cours de l’Année Géophysique, bien qu’aucun appareil d’étude indirecte de la haute atmosphère ne soit négligé, fournissant souvent des données continues, précieuses et quelquefois irremplaçables. Utilisant ces nombreux moyens, l’opération de l’Année Géophysique élargira considérablement l’étendue de nos connaissances-dans le domaine de la haute atmosphère, nous en sommes-assurés.
- James Lequeux,
- Agrégé de l’tîniversité.
- Mesures réalisables par les satellites
- Une fusée peut atteindre en principe des altitudes plus élevées si elle est « tirée » à la verticale que si elle est « programmée » en vue de devenir un satellite lancé horizontalement. En effet, dans le premier cas, l’énergie à fournir est (au moins) celle du potentiel terrestre qui correspond à l’altitude atteinte, tandis que dans le second cas, il faut fournir en outre l’énorme énergie cinétique qui correspond à la vitesse de la partie qui devient satellite.
- La comparaison énergétique exacte dépend des performances d’accélération de la fusée et ne peut être établie simplement. Une fusée à essor vertical est soumise à l’action retardatrice de la pesanteur pendant tout le temps de son vol ; une fusée à essor horizontal aussi, mais cette « composante de chute » est de moins en moins gênante au fur et à mesure qu’elle se pro-
- duit vers un horizon qui se dérobe en raison de la courbure terrestre; la gratuité intégrale est atteinte en même temps que la vitesse dite « circulaire » (environ 7,5 km/s); alors, le satellite tombe sans cesse au-delà de l’horizon.
- En termes imagés, et d’ailleurs peu rigoureux, nous dirons que la fusée lance-satellite est de plus en plus soulagée par la force centrifuge, alors que ce n’est pas le cas de la fusée verticale; il reste pratiquement exact cependant que de plus grandes altitudes sont atteintes par les engins actuels s’ils sont dirigés verticalement, parce qu’ils économisent la part cinétique de l’énergie.
- La fusée-sonde possède aussi l’avantage d’effectuer des mesures aux faibles altitudes (de 5o à i5o km) où le satellite serait détruit par l’effort de ralentissement et la chaleur; enfin, elle
- p.29 - vue 33/527
-
-
-
- 30
- permet assez facilement de récupérer par des parachutes des •échantillons gazeux, des photographies spectroscopiques ou météorologiques, des animaux d’expérience, qui parviennent au •sol en temps et en lieu assez bien délimités; alors qu’à notre -connaissance, et à l’heure où sont écrites ces lignes, rien n’est •encore revenu en bon état d’un satellite.
- La question se pose alors : les fusées-sondes sont-elles les seuls engins purement scientifiques, et les fusées-satellites, qui vont moins haut, ne sont-elles surtout que des machines de prouesse scientifique et technique, de propagande, où seraient placés par acquit de conscience quelques instruments qui n’ajouteraient guère aux informations déjà obtenues au cours des sondages ionosphériques ? Il n’en est rien, l’on s’en doute.
- Intérêt des mesures à partir d’un satellite. —
- En possession de l’ordre de grandeur d’un phénomène, le physicien a besoin, pour en approfondir l’étude, de son évolution, de son gradient dans l’espace et dans le temps. Or les phénomènes varient vite dans l’ionosphère et dans l’exosphère, en particulier parce que les masses mises en jeu sont faibles et que les retards dus à l’inertie n’y ont, par conséquent, qu’une ampleur limitée. II n’est pour s’en convaincre que de contempler le spectacle changeant d’une aurore polaire. En ce qui concerne le paramètre de la latitude, les conditions physiques qui régnent •au-dessus des pôles sont soupçonnées n’avoir que peu de rapports avec celles des zones équatoriales. Une mesure isolée dans l’espace et dans le temps ne fait pas ressortir l’ensemble significatif du phénomène. On peut comparer la situation du physi-sien de l’espace sans satellite avec celle de l’océanographe au temps de la sonde à plomb : ce dernier pouvait mesurer la profondeur d’un certain nombre de points de l’Océan, mais le relief sous-marin, avec ses crevasses et ses volcans, ne lui est apparu dans son ensemble qu’avec le sondage acoustique continu.
- Ainsi, en cas d’orage magnétique, l’exploration rapide du four de la Terre par un satellite, et môme de préférence par plusieurs satellites polaires et équatoriaux, donnera des renseignements simultanés et cohérents qui seront d’un intérêt sans doute inestimable tant au point de vue de la science pure qu’à celui plus utilitaire de la technique des radio-communications à grande distance. Le programme de l’Année géophysique internationale prévoit d’ailleurs le lancement simultané en divers points de fusées tirées à la verticale, pour parfaire suivant le gradient vertical la connaissance obtenue grâce aux satellites.
- Des considérations analogues s’appliquent aux autres mesures. Par exemple, il sera instructif de posséder la loi de rayonnement ultraviolet du Soleil pendant plusieurs semaines consécutives, •surtout si celte période coïncide avec une éruption chromosphérique.
- Finalement, l’intérêt du satellite se réduit principalement à une question de prix de revient : il serait inconcevable de lancer des fusées en assez de lieux, et assez fréquemment, pour qu’on obtienne les résultats que fournit le satellite.
- Mesures automatiques ou manuelles. — Le tonnage des machines actuelles semble encore deux à quatre fois insuffisant pour permettre l’envol d’un homme à bord d’un satellite. En ce qui concerne le premier envol d'un homme sur une fusée à retour parachuté, nous ne serions pas étonné qu’il survienne prochainement, mais il s’agirait plus d'un exploit que d’une mission utile, car le temps de séjour en altitude serait trop bref pour que la lenteur humaine puisse s’y employer efficacement. Les mesures à bord des satellites sont donc actuellement automatiques. Mais pour en tirer la quintessence à l’avenir, rien ne saurait remplacer l’homme, c’est-à-dire le physicien astronaute situé dans une station satellite dont une partie au moins serait capable de ralentir, en éjectant à contresens, et de revenir sur Terre. Si certains appareils exécutent certaines opérations mieux
- que l’homme, ce serait une naïveté futuriste de croire que l’homme est partout remplaçable par des machines : s’il s’agit de pointer, d’orienter, d’étalonner, de régler, de varier et de permuter les mesures, de détecter des anomalies évidentes ou subtiles, de modifier un programme en fonction des premiers résultats, de réparer, de prendre des initiatives, l’homme est irremplaçable, ou ne l’est que par des appareillages d’une complexité et d’une masse prohibitives. Dans son ouvrage de vulgarisation : Earth satellite and the race for space superiority, G. Harrv Sline raconte qu’un ingénieur de la base d’essai de fusées de White Sands a suspendu au-dessus de son bureau une pancarte ainsi conçue : « Pour certaines opérations, l’homme ne vaut pas un boîtier plein d’appareils; cependant il est plus souple, et beaucoup plus sûr; de plus, on peut s’en procurer facilement, car il est fabriqué par une main-d’œuvre peu spécialisée. »
- Mesures extérieures au satellite. — Même s’il n’est porteur d’aucun instrument, un simple corps inerte satellite de la Terre permet un certain nombre de mesures d’un grand intérêt.
- Mesures géographiques. — Une fois la trajectoire du satellite établie avec précision, la position sur le globe terrestre d’un lieu quelconque peut être mesurée par l’observation du satellite à partir de ce lieu. Supposons que le satellite passe par les pôles et que le point soit fait à partir d’un lieu situé près de l’équateur. La précision sur la longitude pourra être très élevée (quelques dizaines de mètres ?) ; la connaissance de la latitude demandera celle de l’heure, et l’erreur sera de o,8 km par dixième de seconde d’erreur sur l’instant du pointé, tout le reste étant supposé parfait ; le point astronomique classique est plus précis.
- Même en l’absence d’une connaissance précise de la trajectoire du satellite, l’observation simultanée de celui-ci par différents observateurs situés en différents points du globe et reliés par radio, permet, par triangulation, de connaître les distances qui séparent ces points avec une précision supérieure à celle des meilleurs procédés connus.
- Mesure de l'aplatissement du globe. — L’orbite du satellite reste théoriquement dans un plan orienté de façon fixe par rapport aux étoiles, comme si ce plan était lié à un gyroscope. La rotation de la Terre n’exerce pas d’influence sur la trajectoire; si la Terre s’arrêtait brusquement de tourner, le plan de l’orbite resterait immuable, pour un observateur placé à l’extérieur du système.
- Cependant, ce caractère immuable de l’orientation du plan de l’orbite par rapport aux étoiles ne serait rigoureux que si la Terre était réduite à un point central de même masse, ou si elle était parfaitement sphérique, par couches homogènes concentriques. Or la Terre est en réalité aplatie aux pôles ; elle ne crée pas une attraction centrale, et on ne peut la remplacer que par un disque central de même masse, situé dans le plan équatorial. Mis à part le cas du satellite équatorial (dont la trajectoire reste parfaitement elliptique), les orbites de satellites quelconques sont le siège d’une précession, c’est-à-dire d’une perturbation périodique dont la période sera par exemple de quelques mois. L’étude de cette précession renseigne sur l’aplatissement polaire avec une précision supérieure à celle des meilleures méthodes actuelles. Ainsi, suivant les informations actuellement disponibles, le gonflement équatorial terrestre serait inférieur de 800 m à la valeur admise jusqu’ici (sous toutes réserves).
- Il est aussi envisagé de détecter, à partir d’éventuelles irrégularités dans la trajectoire du satellite, les anomalies de la pesanteur qui pourraient résulter d’hétérogénéités dans la répartition des densités à l'intérieur du globe.
- p.30 - vue 34/527
-
-
-
- 31
- Densité de la haute atmosphère. — Si le périgée de l’ellipse est situé assez bas (200 à 3oo km), la diminution progressive des apogées renseignera sur la densité gazeuse résiduelle dans la zone du périgée, l’excentricité des ellipses diminue sans que l’altitude du périgée se modifie beaucoup et l’orbite tend vers un cercle affleurant l’atmosphère, jusqu’à l’embrasement final, que les observateurs seraient heureux d’avoir la chance d’observer.
- Les Américains envisagent de gonfler à partir du satellite, et de larguer, un ballon métallisé léger qui accompagnera tout d’abord le satellite, mais sera davantage ralenti que lui, permettant ainsi des mesures précises obtenues sur une courte période de temps.
- Mesure de la densité d'ions. — Les ondes radioélectriques étant réfractées d’une façon qui dépend de la densité d’ions, une fois la trajectoire du satellite bien déterminée, son repérage directionnel d’abord à la verticale, puis quelques minutes plus tard lorsqu’il sera bas sur l’horizon, fera probablement apparaître des anomalies de trajectoire, anomalies seulement apparentes qui seront l’indication des déformations du trajet suivi par le faisceau radioélectrique.
- Instruments de mesure du satellite Vanguard. —
- Les petits satellites américains du projet Vanguard, dont le lancement sera tenté au début de 1958, ne comportent qu’un nombre limité d’instruments, étant donné le poids et les dimensions du satellite (diamètre 5o cm et poids 10 kg environ) (*). Une partie de la présente documentation et les photos qui l’accompagnent sont dues à l’obligeance de l’excellente revue industrielle Shell Aviation News.
- L’engin est une sphère sous pression gazeuse; le gaz permet •d'homogénéiser les températures entre les différentes faces inégalement chauffées par le Soleil, et de refroidir les organes électriques internes, tels que les bobinages des micro-moteurs ; la pression de ce gaz s’oppose aux décharges électriques dans les circuits à haute tension; enfin, il est probable que cette pression permet d’alléger la sphère, en lui conférant une rigidité dite pneumatique (celle d’un ballon gonflé).
- L’engin comporte évidemment un émetteur de télémesures; pour économiser les batteries au mercure et éviter un fonctionnement continu, l’émission n’est déclenchée que lorsque le satellite passe au-dessus des régions où sont situés les récepteurs appropriés; ce déclenchement est effectué par télécommande, grâce à un récepteur spécial.
- Nous n’avons pas d’informations à ce sujet, mais il nous semble que ce récepteur n’a pas besoin lui-même de fonctionner sans cesse; un mouvement d’horlogerie, à remontage électrique, et remis à l’heure à chaque passage, peut mettre en route le récepteur avant le passage au-dessus des stations réceptrices avec une avance de sécurité d’une ou deux minutes. Dans le cas d’un récepteur alimenté par des générateurs photoélectriques, une itelle disposition serait de peu d’intérêt,.
- Il nous paraît évident que les modes de fonctionnement des mesures sont beaucoup plus complexes qu’il n’est publiquement annoncé; après tant d’efforts et de dépenses, les techniciens n’en, sont pas à un automatisme électro-mécanique près. Toutes les mesures n’ont pas besoin d’êtje sans cesse répétées; si un fonctionnement continu est désirable pendant, par exemple, les 20 premiers tours, il vaut mieux ensuite couper le fonctionnement 2 tours sur 3 pendant une semaine (par exemple), puis reprendre un fonctionnement permanent pendant 10 tours consécutifs, puis arrêter une semaine complète, etc.; de telles séquences peuvent être programmées à bord à l’avance, ou ordonnées du sol par télécommande, ou les deux à la fois; ces dispositions, destinées à économiser l’énergie électrique, doivent être considérées comme relativement faciles à mettre en oeuvre.
- J Voir La Nature, octobre 1956, fig. 3, p. 403.
- Le satellite ne comporte naturellement pas un émetteur de télémesures pour chaque instrument, avec autant de longueurs d’onde ; un système de commutation relie successivement les différents capteurs à un émetteur unique. Pour identifier les mesures, on peut concevoir qu’elles soient faites toujours dans le même ordre, avec un iop particulier quand le cycle est terminé, ou bien qu’au début de chaque commutation un bref signal-code repère le capteur en train de fonctionner. Ce n’est pas l’intensité de l’émission qui renseigne sur la valeur de la grandeur à mesurer, car cette intensité est sujette à des fluctuations dues à la distance, à l’orientation des antennes, aux conditions du moment, etc. Malgré la possibilité d’envoyer à intervalles réguliers un signal d’intensité constante donnant l’étalonnage des amplitudes, ce procédé ne serait pas recommandable. La grandeur détectée par le capteur fait varier une fréquence acoustique qui en est l’expression; ou bien la grandeur, grâce au capteur, modifie la durée relative des traits et des points d’une émission du type Morse : ce sont les bip-bip du Spoutnik. L’émission est enregistrée au sol sur magnétophone et dépouillée à loisir. Les informations sont parfaitement inexploitables pour qui n’en connaît pas la clef en général, et le détail de l’étalonnage propre à chaque appareillage individuel, qui a été fait au sol avant le départ. Par exemple, les thermomètres à résistance électrique sont placés dans une étuve de température connue et variable, et les opérateurs tracent la courbe des fréquences musicales obtenues pour chaque température.
- Nous allons passer en revue les instruments principaux de mesure montés à bord du satellite.
- Rayons cosmiques. — Un compteur de Üeiger (fig. 7) permet de mesurer la quantité totale de rayons cosmiques, mais
- p.31 - vue 35/527
-
-
-
- 32
- sans donner leur charge ni leur direction. Le rayonnement cosmique sera ainsi mesuré à l’état pur, avant que le choc des particules primaires avec les molécules atmosphériques n’ait créé ces particules secondaires qui compliquent les observations.
- Mémoire magnétique. — Les mesures du rayonnement cosmique sont enregistrées au fur et à mesure sur un magnétophone miniature à ruban (fig. 8) ; sur ordre de la télécommande, la recette d’informations est rapidement restituée au sol lors du passage au voisinage des stations réceptrices. Des mesures sont ainsi prises toutes les 3o s, soit 180 fois au cours de la révolution qui dure i,3o h; elles sont restituées en 2 ou 3 mn.
- Mesure du champ magnétique terrestre et spatiaL —
- Suivant les conceptions actuelles, le champ magnétique observé à la surface de la Terre résulte de deux composantes : l’une, relativement immuable, provient d’un magnétisme propre à l’intérieur de la Terre; l’autre résulte du mouvement des charges électriques dans les couches supérieures de l’atmosphère, à des distances qui atteignent plusieurs fois le rayon terrestre; cette dernière composante se modifie rapidement avec le temps ; les variations qu’elle provoque étant relativement faibles, la mesure doit être très précise pour être fructueuse. Le type d’instrument qui a été choisi est connu sous le nom de « magnéto-mètre protonique » à résonance (fig. 10), dont il est question dans l’article de M. Lequeux qui précède celui-ci.
- Fig. 8. — Magnétophone du satellite Vanguard destiné à restituer rapidement, à chaque passage, les mesures accumulées au cours d’une révolution autour de la Terre,
- Mesure du rayonnement ultraviolet du Soleil. — A défaut
- du spectre complet du Soleil, qui nécessiterait un spectrographe et un procédé d’envoi au sol des informations, et dont on sait d’ailleurs obtenir des photographies depuis plusieurs années à partir des fusées lancées à la verticale, le satellite Vanguard se contentera de mesurer la raie Lyman alpha émise par l’hydrogène, sur la longueur d’onde 1 216 Â; cette raie représente la
- Fig. 9 (ci-dessns). —
- Cellule pour la mesure de la raie Lyman alpha émise par l’hydrogène du Soleil.
- Fig. 10 (ci-contre). —
- Magnétomètre protonique pour la mesure du champ magnétique.
- (Photos Shell Aviation News).
- p.32 - vue 36/527
-
-
-
- 33
- Fig. 11. — Circuit à mémoire pour la mesure du maximum de la raie Lyman alpha (Photo Shell Aviation News).
- majeure partie de l’énergie du rayonnement ultraviolet. Le capteur est constitué par une petite chambre d’ionisation (fig. g) remplie d’oxyde nitrique gazeux; ce gaz commence à s’ioniser à i 34o Â. Une fenêtre en fluorure de lithium fait office de filtre passe-haut, et ne laisse pas passer les radiations de longueur d’onde inférieure à x ioo  environ. La cellule mesurera donc les radiations dont la longueur d’onde est comprise entre ces deux valeurs et, pratiquement, la seule raie Lyman alpha qui est porteuse dans cette bande de la majeure partie de l’énergie. La figure 11 représente les circuits d’une mémoire à maximum, qui transmettra au sol la valeur maximale des mesures obtenues pendant une révolution du satellite. Le système permet aussi une courte période d’observation continue lorsque le satellite passe au-dessus d’une station réceptrice.
- Mesure du rayonnement global du Soleil ou de la Terre. — Ce rayonnement est mesuré par l’intermédiaire de la température d’équilibre prise par quatre petites sphères dites « bolomètres » (fig. 12). Une de ces sphères est recouverte par un enduit qui est noir pour toutes les longueurs d’onde; autrement dit, cette sphère recevra et émettra comme un corps noir. Une seconde sphère est réflectrice (c’est-à-dire symboliquement blanche) pour les radiations visibles, mais presque parfaitement « noire » pour les radiations infrarouges; la température prise par cette sphère (qui, comme toutes les autres, s’échauffera jusqu’à ce que sa déperdition par rayonnement ait la même puissance que celle du rayonnement qu’elle reçoit) résultera principalement du rayonnement infrarouge du Soleil. Une troisième sphère est recouverte d’un enduit découvert par le Dr Tabor, noir pour les radiations visibles du spectre, et au contraire réfléchissant pour les infrarouges; cette sphère prendra donc une température d’équilibre presque uniquement causée par la puissance contenue dans la lumière visible. Le quatrième bolomètre comportera une disposition particulière d’écrans lui permettant de différencier le rayonnement directif du Soleil et le rayonnement diffus de la Terre. Les trois incon-
- nues étant la puissance visible du Soleil, la puissance infrarouge du Soleil et la puissance infrarouge de la Terre, les quatre bolomètres fournissent quatre équations qui permettent de déduire ces trois inconnues.
- Lorsque le satellite traversera le cône d’ombre de la Terre, le rayonnement infrarouge terrestre sera seul à échauffer les bolomètres, s’ils sont protégés du rayonnement du satellite.
- Nous n’avons pas d’informations sur la façon dont ces bolomètres pourront être orientés dans l’espace de manière avantageuse. Le satellite est le siège d’une rotation autour d’un axe fixe par rapport aux étoiles ; dans ces conditions, il arrivera que certains bolomètres situés « aux pôles » seront exposés au Soleil pour une longue période, ou en seront protégés, et pourront prendre une température d’équilibre significative, ce qui ne serait pas le cas, nous semble-t-il, pour des bolomètres « équatoriaux » éclipsés à chaque tour du satellite sur lui-même, surtout si l’axe de rotation est normal à la lumière.
- SOLEIL
- Sphère de tabor Sphère blanche1
- \ A I-
- )=• 4 0 phere noire
- Sphere de tabor ^ protégée /
- Axe
- de rotation
- TERRE
- Utilisation du satellite terrestre pour ta mesure de l'équilibre des radiations
- Fig. 12. — Schéma du dispositif à quatre bolomètres prévu pour la mesure de l’équilibre énergétique de la Terre.
- (Imité de Shell Aviation News).
- De telles mesures donneront sur les échanges thermiques dont la Terre est l’objet des informations bien meilleures que celles dont nous pouvons actuellement disposer, dans notre situation défavorisée d’êtres rampants au fond de l’océan atmosphérique. La météorologie pourra en être la première bénéficiaire.
- Mesures diverses. — Quelques autres expériences sont encore prévues à bord du satellite Vanguard. On sait que les futurs astronautes sont souvent hantés par le risque d’une perforation due au choc éventuel avec une météorite, ou poussière de l’espace, même si sa masse n’est que de quelques milligrammes. Il est donc prévu de maintenir des capacités à pression constante à l’aide d’une bouteille et d’un détendeur; en cas de perforation, le débit du détendeur donnera une indication sur la grandeur du trou. Dans le même esprit, un détecteur d’érosion mesurera l’usure provoquée par les poussières plus fines encore; ce détecteur est fait d’une plaque de verre recouverte d’un fin dépôt métallique et exposée à l’extérieur; la variation de résistance électrique mesurera l’usure. Le fait que les deux premiers spoutniks aient fonctionné plusieurs semaines sans destruction de l’appareillage électrique ni mort prématurée de l’animal embarqué permet de conclure que le problème des météorites n’est pas d’une acuité irrémédiable, au moins à l’époque considérée et avec les blindages simples ou multiples des engins actuels.
- Conclusions. — Les fusées-sondes offrent certaines possibilités d’expérience que n’ont pas les satellites, en particulier
- p.33 - vue 37/527
-
-
-
- 34
- pour l’exploration des basses couches de l’ionosphère. Cependant les satellites élargissent considérablement dans l’espace et dans le temps le champ des connaissances sur les phénomènes spatiaux.
- L’appareillage interne du Yanguard représente une réalisation remarquable dans le domaine de la miniaturisation. Les amateurs constructeurs de modèles réduits télécommandés, qui professent que « la difficulté croît comme le cube de la petitesse », y seront particulièrement sensibles. Dans le cas du Yanguard cependant, et bien que les Américains soient maîtres
- en la matière, cette petitesse risque d’apporter bien des limitations dans la nature et la précision des mesures effectuées, et d'accaparer beaucoup de temps et d’énergie. Il ne s’agit heureusement que d’un premier pas; à l’avenir, c’est le tonnage-transportable (donc le progrès de la chimie des propergols) qui conditionnera le progrès des mesures physiques dans l’espacer puis l’évasion de l’homme à bord d’une station satellite, enfin l’édilîcalion des laboratoires lunaires d’après-demain.
- Lionel Mowbray.
- u La Science antique et médiévale ”
- Les Presses Universitaires de France viennent de nous livrer le premier tome d’un important ouvrage, une Histoire générale des Sciences, publiée sous la direction de M. René Taton, maître de recherches au -C.N.R.S. et éminent historien des Mathématiques (’). Ce premier volume traite de la science antique et médiévale. Il nous conduit des premiers balbutiements de la science dans les plus anciennes civilisations jusqu’au milieu du xve siècle où, en Europe occidentale, l'épanouissement intellectuel de la Renaissance préparait l’essor de la science moderne. Plus de vingt auteurs1, tous connus comme de grands spécialistes d’un peuple ou d’une époque, se sont partagé cette rédaction qui, cependant, présente une remarquable unité de ton et de niveau.
- Nous voici donc en possession d’un ouvrage qui, pour la première lois, réunit des exposés très à jour et quelque peu détaillés sur les connaissances positives des grandes civilisations passées, aussi loin qu’il soit possible de remonter dans le temps. Les origines, l’élaboration de ces connaissances ne nous seront sans doute jamais bien connues. Beaucoup ne sont consignées que dans des compilations, souvent fragmentaires, ou des résumés didactiques. Mais au moins les travaux modernes nous permettent d’en saisir presque parfaitement le caractère et l’étendue . On peut s’étonner que notre conception traditionnelle des origines de la science n’en sorte guère modifiée. La science, telle que nous la concevons, est bien née chez les Grecs, à partir du vie siècle avant Jésus-Christ, et en cette matière, le « miracle grec » qui ressemblait tant à une belle légende, est une donnée historique confirmée.
- Certes les Grecs ont emprunté largement aux connaissances de leurs voisins et devanciers, mais ces emprunts ne doivent pas être surestimés. Pourtant les Grecs eux-mêmes nous y imitaient. Hérodote, deux siècles avant Euelide, écrivait qu’ils avaient rapporté d’Égypte leur géométrie. La chose pouvait se croire. Les crues du Nil effaçaient tous les ans les bornages des cultures : d’où la nécessité pour les Égyptiens d’être des arpenteurs méthodiques et précis. En outre, les scribes égyptiens avaient à administrer d’immenses domaines, à distribuer lies marchandises et des denrées à un personnel nombreux et divers et, comme il n’y avait pas de monnaie, toutes les distributions se faisaient en nature, ce qui obligeait à des calculs souvent subtils.
- Or, pour ces usages, les Égyptiens disposaient d’une géométrie et d’une arithmétique strictement pratiques et curieusement inachevées. Ce ne sont que des collections de recettes, de procédés de calcul, sans qu’apparaisse le souci d’une généralisation, encore
- 1. Histoire générale des Sciences, publiée sous la direction de René Taton. Tome I. La Science antique et médiévale (Des origines à 1450). 1 vol. 18,5 x 24, viii-627 p., 48 illustr. Presses Universitaires de France, Paris, 1957. Prix : 3 000 F.
- moins d’une démonstration rigoureuse. Qu’il y ait là une science, on peut l’accorder, et sans doute quelques-uns des hommes qui ont élaboré cette science utilitaire ont-ils eu un véritable talent mathématique, mais il semble que, dès qu’ils ont été en possession de cette collection de règles pratiques, ils n’ont plus cherché à faire mieux.
- A cet égard, les Mésopotamiens nous offrent plus de sujets d’admiration, et il est probable que les Grecs leur ont emprunté, à leurs débuts, bien plus qu’aux Égyptiens. Non pas pour les fondements de la géométrie, car il apparaît que les Babyloniens . n’ont guère pensé en géomètres. En revanche ils semblent avoir été de remarquables algébristes, bien qu’ils n’aient su, pas plus que les Grecs d’ailleurs, en élaborer la symbolique. Mais quantité de problèmes d’algèbre, par exemple celui que proposait l’équation du second degré, ont été par eux parfaitement résolus, et c’est par un raisonnement algébrique qu’ils s’attaquèrent aux problèmes de géométrie. On a retrouvé des tables de correspondance entre des séries de nombres qui semblent montrer que la notion de fonction même ne leur a pas manqué.
- On sait aussi que -les Babyloniens ont été de remarquables astronomes. Alors que les quelques problèmes- astronomiques que se sont posés les Égyptiens n’avaient guère pour objet que la détermination de l’heure, nécessaire pour l’exécution ponctueUe des rites religieux ou pour l’orientation de leurs monuments, les Babyloniens ont ajouté à leurs soucis astrologiques le goût d© l’observation pure, limité d’ailleurs à l’astronomie de position. Ils ont laissé des tables d’éclipses remontant au vin® siècle avant Jésus-Christ, dont Ptolémée a pu se servir.
- Cependant rien dans tout cela, non plus qu’en matière de médecine ou d’histoire naturelle, non plus que chez les anciens Hébreux, chez les Hindous ou les Chinois, ne peut laisser pressentir ce que-sera la véritable science, celle dont les Grecs poseront les fondements. Les Grecs- ont certes hérité, en grande partie, de toutes ces connaissances. Mais ils les ont complètement repensées. Les libérant de la religion et de la magie, voire des préoccupations utilitaires, ils en ont fait une activité autonome de l’esprit, et au terme de cette merveilleuse aventure le génie d’un Archimède, a été tout près de représenter le savant moderne dans toute sa puissance.
- Quelles ont été les causes de cette libération presque soudaine de-l’esprit humain ? Les raisons -qui nous en sont sommairement données, et qui font appel surtout à des structures sociales, ne sont pas encore pleinement explicatives. Et pourquoi, dès l'antiquité, avant la grande pause du Moyen Age, y eut-il des périodes d’arrêt, et même de recul ?
- Il reste encore beaucoup à faire aux historiens des sciences et. des civilisations.
- P. 0.
- L’énergie nucléaire aux Pays-Bas
- D’après un rapport officiel néerlandais, les besoins énergétiques des Pays-Bas devraient augmenter sensiblement d’ici 1973, passant de l’équivalent de 26 000 000 t de charbon à plus de 43 000 000 t. Les deux tiers de ce dernier chiffre devront être couverts par des importations, si aucune source nouvelle d’énergie n’est utilisée. Aussi les Pays-Bas projettent-ils de créer sur leur territoire une importante industrie de production d’électricité à partir de l’énergie nucléaire. La première centrale doit entrer en service en 1962, et l’on calcule qu’en 1973 plus de 15 pour 100 de l’énergie consommée dans le pays sera fournie par des centrales nucléaires. La réalisation du plan coûtera 280 milliards de francs environ.
- A la fm de 1958 doit entrer en service à Petten, près d’Alkmaar, un réacteur commandé aux États-Unis et destiné essentiellement à des études expérimentales ainsi qu’à la production de radioisotopes. 300 personnes, dont 60 universitaires, travailleront à Petten. Pour faciliter la formation spéciale des universitaires, le réacteur expérimental américain exposé à Schiphol en 1957 (exposition H et Atoom) va être remonté au Polytechnicum de Delft.
- Les savants néerlandais travaillent également sur des réacteurs de conception hollandaise, dont la mise au point se poursuit à Arnhem. Des accords de coopération de recherche ont été passés-avec la Norvège et la Grande-Bretagne.
- p.34 - vue 38/527
-
-
-
- 35
- L'automne 1957 en France
- Les iC stations météorologiques qui figurent dans le tableau 1 ont servi de base à ce premier examen des caractéristiques générales de l’automne 1967 (mois de septembre, d’octobre et de novembre) (1).
- La saison sur l'ensemble du pays. — La moyenne saisonnière des températures moyennes quotidiennes a été légèrement inférieure à la normale (N) avec un déficit de o,5°, cette différence étant toutefois moins sensible si l’on considère la moyenne des températures minima quotidiennes par rapport à leur normale (N •—• o,3°). La pluviosité a été déficitaire aussi bien en ce qui concerne la quantité d’eau recueillie (0,8 N) que pour ce qui est du nombre de jours de pluie (0,9 N). L’insolation a été également déficitaire (0,9 N).
- Dans les régions. — C’est dans la moitié Sud de la France que la température moyenne a atteint les écarts négatifs les plus grands à la normale saisonnière. On a noté, en effet, un déficit de i,o° dans le Sud-Ouest, de 0,9° dans le Centre-Est et de o,7° dans le Sud-Est. La moitié Nord du pays a connu des températures normales, puisque l’écart le plus important est un déficit de o,i°, marqué par les régions Nord et Ouest. Remarquons, de plus, que dans celte moitié Nord, les écarts des minima par rapport à leur normale sont excédentaires (N + o,5° dans le Nord-Est, N + o,4° dans le Nord et N + o,i° dans l’Ouest).
- La pluviosité est partout déficitaire sauf dans le Sud-Est où elle est égale à la normale. La région où la quantité d’eau recueillie a été la plus faible est celle du Centre-Est (0,6 N). C’est également dans cette région que le nombre de jours de pluie a été le plus faible par rapport à la normale (0,7 N).
- L’insolation a été supérieure à la normale dans le Sud-Ouest (1,1 N) et c’est dans le Nord qu’elle a été la plus faible (0,8 N).
- Les mois. — Le mois le plus frais a été le mois de septembre (N — o,9°). Ce sont les régions du Sud-Est et du Centre-Est qui ont le plus accusé cet écart (N — 1,2°), tandis que l’Ouest n’a enregistré qu’un déficit de o,5°. Toutes les régions ont
- 1. Voir La Nature, avril 1957, p. 138 ; novembre 1957, p. 425.
- T - 0,1
- I 0,8
- T -0,3
- I 0,9
- f\\ T- 1,0
- T -0,7
- Fig. 1. — Écarts aux normales de l’automne 1957, par régions.
- Les écarts à la température moyenne (T) sont exprimé en degrés ; la moyenne des précipitations (P) et celle de l’insolation (I) sont exprimées-en prenant les normales respectives comme unité.
- accusé des écarts négatifs. La station de Nice a connu l’écart le plus important (N—1,7° pour la moyenne et N — 2,0°' pour les maxirna). Le mois d’octobre a été très proche de la normale et marque le seul écart positif de la saison (N + o,i°), cet écart étant le plus fort dans la région Ouest (N 4- o,8°), tandis que le Centre-Est est la région la plus déficitaire (N — o,5°). Le mois de novembre prend une position moyenne entre les deux autres mois (N — o,5°), mais il faut signaler la région Sud-Ouest qui a présenté l’écart négatif le plus important (N — i,6°) surtout sur les maxima (N — 2,2°) et la région Centre-Est qui, accusant un écart négatif de 0,9° sur les températures moyennes, a connu un écart beaucoup plus important sur les maxima (N — 1,9°).
- La pluviosité a été généralement normale en septembre et en novembre. Il y a, toutefois, lieu de signaler le cas particulier de la région Sud-Est qui, en septembre, a été largement défi-
- Tableau I. — Caractéristiques de l’automne 1937, comparées aux normales
- Températures Précipitations Soleil Gelées Brouillards
- Moyenne Moy enne Moy enne Hauteur totale Nombre total Nombre total Nombre total Nombre total
- des maxima des minima des moyennes en mm de jours d’heures de jours de jours
- 1967 Norm. 1907 Norm. 1957 Norm. 1907 Norm. 1907 Norm. 1957 Norm. 1957 Norm. 1957 Norm.
- Paris-Montsouris . i4,9 10,2 8,2 7,3 11,6 11,2 i34,o i59,2 37 42 298,5 35g,4 I 6 i5 ...
- Lille 13,0 i4,5 7.2 7,i 10,4 10,8 129,0 160,0 47 42 286,0 3o3,o 2 8 3i 20
- Tours 15,5 i5,8 7>° 7,6 ii,5 h, 7 187,0 i85,o 3i 39 348,o 369,0 4 8 27 21
- Brest i4,5 i5,1 8,6 9>o 11,6 12,0 279,6 3i6,2 46 52 353,6 333,7 0 I 26 19
- Nantes iG,4 16,2 7>8 7,6 12,1 11,9 240,0 282,0 33 45 371,0 426,0 2 5 27 i4
- Cherbourg i4,6 i5,o 10,2 9,9 12,4 12,5 297,0 325,0 47 48 — — 0 0 i3 3
- Bordeaux 17,1 18,2 7,4 8,4 12,2 i3,3 168,0 228,0 33 4i 464,0 419,0 7 8 4o 33
- Toulouse 17,3 18,2 7,5 8,6 12,4 13,5 128,5 184,0 22 3o 472,0 46o,o 7 6 18 »9
- Limoges i5,7 16,4 5,o 6,1 io,3 11,2 178,0 235,0 3a 4o 457,0 4o4,o 16 i4 23 18
- Marignane ...... 19.8 20,1 9=4 io,3 i4,6 i5,2 59,8 174,0 16 !9 566,4 559,0 3 4 3 4
- Nice-le-Var 20,0 20,9 12,7 12,7 16,4 16,8 371,8 3oo,5 18 23 637,3 620,8 0 0 0 0
- Perpignan 20,0 21,1 n,5 12,6 i5,8 16,8 123,1 i3g,6 18 18 »79,o 598,0 0 0 II 5
- Lyon i6,3 16,6 6,5 7,6 xi,4 12,2 i39,3 224,0 26 35 437,1 421,2 9 8 26 s4
- Clermont-Ferrand . . . 16,1 17,0 5.7 6,6 10,9 n,8 73,o 116,0 21 3o 464,0 447,o i3 i3 8 10
- Strasbourg i4,3 i4,9 6,5 5,9 10,4 10,4 102,1 129,1 a9 35 281,0 3o6,o 5 i4 s4 28
- Nancy i4,a 14,8 5,9 5,4 10,1 10,1 i4g,5 166,8 2 9 38 283,5 — 10 16 3o 3i
- p.35 - vue 39/527
-
-
-
- 36
- Tableau II. — Principales caractéristiques de l’automne 1957 a Paris-Montsouris
- Soleil Précipitations Températures
- Heures En mm Durée (heures) Nombre de jours Moy. Max. Min. Extrêmes
- Septembre Octobre Novembre Trimestre Normales automne Ecart 140.3 116,8 4i,4 298,5 359.4 — 60,9 86,1 23,0 24,9 i34,o 159,2 — 25,2 52,4 21,7 32,1 106,2 i38,5 — 32,3 18 10 9 37 42 — 5 15,4 12.1 7.2 11,6 11.2 -f o,4 i9>4 i5,8 9»4 i4>9 l5,2 — 0,3 n,3 8,3 5.1 8.2 7.3 +• 0,9 5.6 ; 26,4 3.6 ; 21,8 — 0,1 ; i5,o
- citaire (0,2 N); la sécheresse a été spécialement sensible à Nice (0,02 N). En novembre, au contraire, cette même région du Sud-Est a été fortement excédentaire (2,5 N), mais c’est à la station de Perpignan que l’écart a été le plus fort (3,9 N), tandis que la station de Nice n’a marqué qu’un écart de 2,8 N. Cependant, le 5 novembre 1967, la quantité d’eau recueillie en 24 h à cette station (i46,8 mm) est la valeur record enregistrée depuis sa création. Le mois d’octobre a été déficitaire (o,5 N) en toutes régions; le Nord-Est a marqué l’écart le plus faible (0,7 N) et le Centre-Est a enregistré le plus fort (o,3 N). Dans cette dernière région, la station de Lyon a connu 3 jours de pluie alors que la valeur normale est de 12 jours, et la station de Clermont-Ferrand, avec ses i3 mm d’eau recueillie dans le mois (contre une normale de 34 mm) n’avait jamais enregistré une quantité d’eau aussi peu importante.
- L’insolation a été normale en septembre, forte en octobre et faible en novembre. Au cours du mois d’octobre, elle a atteint 1,2 N et les régions les plus favorisées ont été le Sud-Ouest et le Centre-Est (1,3 N), tandis que la moins bien partagée a été la région Nord (0,9 N). En novembre, l’insolation n’a été que de 0,75 N pour la France ; le Centre-Est a été très peu ensoleillé (o,4 N) et, dans cette région, la station de Clermont-Ferrand a enregistré 4a h de soleil au cours du mois contre une normale de 96 h et un grand nombre de jours avec insolation nulle, faits qui n’ont jamais été observés depuis 10 ans. A Strasbourg, dans la région Nord-Est, il a été noté 17 jours d’insolation nulle au cours de ce même mois. Les régions qui, au cours du mois de novembre, ont bénéficié d’une insolation normale ou très proche de la normale (par défaut) sont celles de l’Ouest, du Sud-Ouest et du Sud-Est.
- Les gelées en octobre et en novembre. — Elles ont été relativement peu nombreuses (0,8 N en octobre et 0,6 N en novembre), surtout en novembre où il n’y a guère que la région Sud-Ouest qui ait dépassé la normale très faiblement d’ailleurs. Au cours du mois d’octobre, le Centre-Est et le Sud-Ouest ont dépassé la normale, mais le nombre de cas est trop restreint pour qu’un écart à la normale représentatif puisse être donné (3 jours de gelée pour une normale de 1 à Lyon, par exemple).
- Les brouillards. — C’est le mois d’octobre qui présente l’écart le plus important (1,6 N) avec un maximum dans la région Ouest (supérieur à 2 N). Puis vient le mois de septembre (i,4 N) avec un maximum dans le Sud-Est (supérieur à 2 N) et enfin le mois de novembre (1,1 N) avec un maximum dans l’Ouest (i,5 N).
- L'automne à Paris-Montsouris. — La température moyenne a été légèrement supérieure à la normale (N + o,4°), mais c’est surtout sur la moyenne des minima que cet écart est marqué (N + o,9°). Le mois de septembre a été frais (N — o,6°) surtout au cours des deux dernières décades. Le mois d’octobre
- a été doux (N + i,o°) surtout au cours de la seconde décade, tandis que la dernière a été fraîche. Novembre a été également doux quoique à un degré moindre (N + o,6°) au cours des deux premières décades, tandis que la dernière a été assez fraîche.
- La pluviosité a été légèrement inférieure à la normale (0,9 N); toutefois, le mois de septembre a été très pluvieux (1,8 N), surtout au cours de la dernièie décade où la quantité d’eau recueillie dépasse du quart le total noté pendant les deux premières décades groupées. Les mois d’octobre et de novembre sont très déficitaires (respectivement o,4 et o,5 N). Au cours de la première décade d’octobre, ce n’est que le dernier jour qui a été pluvieux. Pendant la seconde décade de novembre, aucune quantité mesurable de précipitations n’a été recueillie.
- L’insolation a été relativement faible (0,8 N), surtout au cours du mois de novembre (0,7 N) et pendant la seconde décade où il y a eu 6 jours avec insolation nulle. La moyenne de l’insolation au cours de cette décade n’a pas atteint 1 h par jour. C’est le mois d’octobre qui a été le moins déficitaire (0,9 N) et ce fut la première décade qui a le plus bénéficié de l’ensoleillement qui a atteint presque la moitié du total mensuel normal. Au cours du mois de septembre (0,8 N), la deuxième décade a été, de loin, la mieux ensoleillée et le nombre d’heures de soleil dépasse le total des deux autres décades groupées.
- Les gelées, qui ont fait leur apparition seulement en novembre, n’ont été notées qu’une fois au cours de ce mois (contre une normale de 5 jours) et ce fut le dernier jour du mois : la température minima du 3o novembre 1957 a, en effet, atteint —• 0,1°.
- *
- # *
- Nous pouvons encore conclure de ce bilan saisonnier que, lorsque l’on considère globalement les trois mois qui le composent et ce, pour toute l’étendue du territoire métropolitain, les valeurs mensuelles et régionales s’équilibrent pour donner en fin de compte une saison dont l’allure générale est proche de la normale.
- R. N.
- Miroir à rayons X
- Une nouvelle caméra destinée aux radiographies pulmonaires a été réalisée par la General Electric en collaboration avec la firme hollandaise Odelca. La lentille généralement employée dans les caméras radiographiques est remplacée par un miroir, analogue dans son principe à ceux des télescopes. Cette substitution permet de réduire le temps d’exposition de 70 à 75 pour 100. L’avantage est double : diminuer le pourcentage des clichés bougés et surtout l’absorption de radiations, évaluée en moyenne, jusqu’à présent, à 9 000 millirœntgens.
- p.36 - vue 40/527
-
-
-
- 37
- Caractères adaptatifs des Araignées en rapport avec le milieu
- Dans un intéressant travail paru dans le numéro de mats 1967 de VAustralian Magazine et résumé dans Nature, de Londres (10 août 1907), Barbara Main a analysé les caractères et le comportement des araignées de la tribu des Aganippini, particulièrement en ce qui concerne les adaptations au milieu. Ces araignées de la grande famille des Mygales se construisent dans le sol un terrier dont l’entrée est fermée par un clapet ou opercule, mobile le long d’une charnière en fils de soie. Dans la partie occidentale de l’Australie où les études de Barbara Main ont été faites, elles montrent une remarquable suite d’adaptations aux habitats, allant de la forêt humide au milieu désertique. Deux séries principales d’adaptations sont associées au changement d’habitat; les premières concernent la réduction de la perte d’eau par la cuticule, les secondes les méthodes les plus efficaces pour se procurer des proies quand la nourriture est rare.
- Certaines espèces présentent une cuticule abdominale épaisse, qui les protège contre la perte d’eau en milieu désertique; par exemple Idiosoma nigrum a un abdomen rugueux, fortement sclérifié, épineux, contrastant avec l’abdomen mou, velu d’Aga-nippe latior. Les araignées qui vivent dans les milieux où la nourriture est abondante, comme la couche humide formée par les feuilles tombées d’Eucalyptus et de Banksia, creusent leur terrier dans cette couche et elles saisissent leur proie sans en sortir. Dans les milieux secs, comme la base des Casuarina et des Acacias, les araignées ont une technique d’attaque différente; elles recueillent des brindilles et les réunissent solidement avec de la soie, d’une façon radiée, à l’entrée de leur terrier. Les brindilles sont utilisées comme un moyen détecteur de la présence d’une proie. On a pu observer l’araignée avec le bout des pattes étendu sur ces brindilles. Le moindre mouvement d’un insecte qui vient à toucher l’autre extrémité amène l’arai-
- gnée à sortir de son trou; de cette façon, la distance à laquelle elle peut obtenir des proies se trouve très augmentée.
- Associés aux différentes méthodes d’alimentation, on peut distinguer trois types d’adaptations morphologiques. Les araignées qui vivent en milieu humide ont un céphalothorax élevé et tombant antérieurement, de sorte que les yeux, petits, écartés, sont dirigés seulement en avant. La vue de ces araignées est faible et ne leur permet pas de voir les proies dans le feuillage ; leurs pattes sont courtes et fortes, adaptées à supporter un corps épais dans le terrier. Les araignées qui habitent un terrain sec ont des yeux assez gros, leur permettant de voir les proies à une certaine distance; leurs pattes sont un peu plus longues et plus minces, facilitant les mouvements rapides, en partie hors du terrier. Les espèces enfin qui utilisent les brindilles ont une carapace aplatie, permettant aux gros yeux de voir dans toutes les directions ; elles y trouvent un avantage pour la poursuite hors du terrier, facilitée par des pattes longues et fines, adaptées à la course.
- Les araignées construisent en outre des types différents et caractéristiques d’opercules. Celles qui habitent les milieux humides font, avec des petits débris liés par la soie, un clapet mince et fragile; dans les situations ouvertes, l’opercule est fait avec de la terre et, suivant le terrain, mince comme un clapet, ou épais et comparé cà un bouchon. Un tel couvercle empêche le terrier d’être envahi par l’eau lorsque le terrain est inondé, après les pluies. Enfin, les araignées, du troisième type, celles qui courent hors de leur trou pour attraper leurs proies, cons-ti’uisent des opercules minces, formés de petits fragments très légers et qui restent ouverts quand l’animal sort.
- L’auteur pense que ces différents types d’araignées doivent dériver d’un ancêtre commun et peuvent être le résultat de recombinaisons génétiques et de la sélection naturelle. L. C.
- LE CIEL EN FÉVRIER 1958
- SOLEIL : du 1er février au 1er mars (à 0h) su déclinaison croît de —17°18' à — 7°bl' ; la durée du jour passe de 9h23m le 1er, à 10*53» le 28 ; demi-diamètre apparent le 1er = 16'15",b, le 28 = 16'10",0. — Lune : Phases : P. L. le 4 à Sho“, D. Q. le 10 à 23h34m, N. L. le 18 à 15h3Sm, P. Q. le 26 à 20holm; périgée le 0 à 23h, demi-diamètre app. 16'34" ; apogée le 21 à lbh, demi-diamètre app. 14'43". Principales conjontions : avec TJranus le 4 à 2h, à o°o2' S. ; avec Jupiter le 9 à 14*, à 1°40' S. ; avec Neptune le 9 à 19h, .à :1°47'8 ; avec Saturne le 13 à 9*, à 2°29' N. ; avec Mars le 14 à 12*, à 5°0'N ; avec Vénus le 16 à 6*, à 2°36' S. ; avec Mercure le 17 à 21*, à 7°lb' N. Principales occultations : le 27, de 1Î9 II1 Taureau (mag. 6,2) immersion à 0*13m,b ; le 28, de 19 B Gémeaux (mag. 6,2) immersion à lS*20m,2.
- — PLANÈTES : Mercure, esl noyé dans les lumières de l’aurore ; Vénus, se dégage rapidement des lueurs solaires et devient une splendide éLoile du matin, le 18 lever à ohlm ; Mars, dans le Sagittaire se montre toujours le matin plus de deux heures avant le lever du jour ; Jupiter, dans la Vierge brille de plus en plus tôt, le 18 : lever à 22*43m, diamètre pol. app. 37",2 ; Saturne, dans Ophiuchus se voit le matin, se levant le 18 à 3h20m, soit 3*36m avant le Soleil ; Uranus, dans le Cancer visible toute la nuit ; le 18, position a = 8*46m, 8 = 4- 18°43', diamètre app. 4",0 ; Neptune, dans la Vierge suit Jupiter à l'est ; le 18, position a = 14*12in, 8 = — U°2b', diamètre app. 2"4. — ETOILES VARIABLES: Minima observables d’Algol (2m,2-3m,5) le 2 à 4h,3, le b à 1*1, le 7 à 21*,9, le 10 à 18*,7, le 25 à 2*,8, le 27 à 23*,6 ; minima de (3 Lyre (3m,4-4m,3) le 3 à 9*,8, le 16 à 8h,l ; maxima de R Verseau (bm,8-10m,8) le 4, de R Grande Ourse (6»,2-13»,6) le 17, de R Aigle (5»,1-12» ,0) le 20, de R Bouvier (5»,9-13»,1) le 22. — TEMPS SIDERAL : à 0* méridien de Paris : le 1er : S*b2m7s, le 11 : 9*31m33s, le 21 : 10*10mb8s, le 3 mars : 10*b0m24s.
- Phénomènes intéressants. — Surveiller l’apparition de taches et de facules à la surface du Soleil. — Du 20 au 24, lumière cendrée de la Lune, le soir. — Dans l’aube, observer que le croissant de Vénus s’épaissit et que son diamètre apparent décroît. — On pourra rechercher la planète Uranus, à la jumelle, dans le Cancer, son mouvement est rétrograde. — Observer et reconnaître les belles constellations d’hiver : le Taureau avec Aldébaran et les Pléiades, Orion, avec Bételgeuse, Rigel et la grande nébuleuse, le Cocher, avec Capella, les Gémeaux, avec Castor et Pollux, le Petit Chien avec Procyon, le Grand Chien avec Sirius.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- PlICES D'OPTIQUE DE PRÉCISION POUR LUNETTES ET TÉLESCOPES D'ASTRONOMIE
- Oculaires achromatiques à grand champ de F = 3 mm à F = 75 mm Objectifs astronomiques 0 60, 80 et 100 mm Miroirs plans et courbes — prismes — chercheurs coudés et droits
- Prix et Notice sur demande
- C D ri A\/É OPTIQUE ET MÉCANIQUE
- CTS 9* vLHVC de précision
- 9, rue Olivier-Métro, PARIS 20°
- L. Tartois.
- p.37 - vue 41/527
-
-
-
- 38
- LES LIVRES NOUVEAUX
- Aide-mémoire Dunod. Mathématiques générales, 6° édition, par Maurice Denis-Pape*. Tome I : Algèbre. Géométrie. Trigonométrie. Analyse. Calcul des probabilités. Tome II : Géométrie analytique et infinitésimale. Calcul graphique et numérique. Calcul vectoriel. Calcul opérationnel, matriciel et tensoriel. Tables de fonctions. 2 vol. 10 x 15. Dunod, Paris, 1957. Chaque tome, entoilé : 480 F,
- Cet aide-mémoire de poche a connu dans ses précédentes éditions un succès très étendu qui s’explique non seulement par sa commodité d’emploi mais par la qualité de son contenu. En plus d’un résumé clair des enseignements de mathématiques dites « élémentaires », « spéciales » et « de l’ingénieur », on y trouve de nombreux renseignements qu’il est souvent difficile de trouver môme dans des ouvrages spécialisés. Rappelons que, depuis sa 5e édition, ce livre bénéficie d’une présentation entièrement renouvelée et ne laissant rien à désirer.
- Amusements mathématiques, par A. Bakst. Traduit de l’anglais par F. Borzer. 1 vol. 14 x 22, viii-204 p., 130 fig. Dunod, Paris, 1957. Prix : 750 F.
- Ce petit livre intéressera les curieux de mathématiques et d’amusements, qu’ils aient ou non une formation mathématique. L’ouvrage apporte une solution générale à certains problèmes apparemment particuliers, comme celui du transvasement des liquides, des figures à sens unique. Ainsi l’amateur trouvera dans ce livre non seulement de nombreux tours, mais le moyen d’en créer de nouveaux pour distraire ou mystifier ses amis. Bien que les sujets abordés soient élémentaires, l'auteur a su approfondir, en restant simple, certains d’entre eux. On pourra cependant reprocher à l’auteur d’avoir, vers la fin, cédé à la facilité, notamment de faire dépendre la solution de certains problèmes de l’utilisation du zéro.
- Résumés de Physique (Sciences expérimentales), par M. Denis-Papin. 1 vol. 10,7 x 15,5, 352 p., 244 fig. Albin Michel, Paris, 1957. Prix : 1 200 F.
- Cet ouvrage, facilement transportable dans lu poche, a bien les qualités d’un résumé : clarté
- et concision. Cependant, les démonstrations et explications indispensables ne sont pas sacrifiées. En fait, ce petit livre contient l’essentiel de l’enseignement de la physique donné de la seconde à la classe terminale.
- Les rayons cosmiques, par André Cachon, Louis Jauneau, Alice Daudin. 1 vol .11,5x17,5 de la collection Que sais-je ? 120 p., 19 fig. Presses Universitaires de France, Paris, 1957. Prix : 156 F.
- Après un exposé des techniques expérimentales de détection des rayons cosmiques, fondées essentiellement sur leur pouvoir d’ionisation, ce petit livre décrit le rayonnement primaire (protons et noyaux d’atome), puis les composantes pénétrante et molle des rayonnements secondaires, et les nouvelles particules instables, dont la théorie reste à faire. Il étudie enfin les variations d’intensité des rayons cosmiques et discute sommairement le problème de leur origine.
- Les mécanismes hydrauliques, par J. Faisan-hier. 1 vol. 16 x 25, xn-224 p., 174 fig. Dunod, Paris, 1957. Prix, relié : 2 200 F.
- Ce livre, dérivé d’un cours professé à l'Ecole nationale supérieure de l’Aéronautique, abondamment illustré, contient avant tout l’énoncé clair des principes essentiels de la transmission de puissance au moyen d’un fluide hydraulique sous pression, les développements mathématiques nécessaires à leur étude et à leur compréhension, ainsi que les données pratiques relatives à l’étude, à la réalisation et à l’utilisation de ces matériels. Nombreuses descriptions des éléments existants et des règles à suivre pour la fabrication, les essais et l’entretien des matériels hydrauliques, dont la presque totalité a été expérimentée par l’auteur. Nombreux compléments technologiques relatifs aux matériaux et aux méthodes d’usinage, important exposé de la théorie des servo-mécanismes hydrauliques et exemples nombreux d’application courante de l’hydraulique.
- Propagation des ondes électro-magnétiques de haute fréquence, par J. Ortusi. 1 vol. 15,5 x 24, 320 p., 110 fig. Société française
- de Documentation électronique, Paris, 1957. Prix, relié : 3 100 F + t. 1. ; port et taxes inclus : 3 240 F.
- Ce deuxième ouvrage de la collection des Annales de Radioélectricité dirigée par M. Maurice Ponte, est destiné aux ingénieurs, techniciens et étudiants qui s’intéressent aux problèmes posés par l’utilisation des hyperfréquences en radioélectricité. La courte longueur d’onde de ces radiations permet, soit de les focaliser à l’aide de dispositifs analogues à des miroirs optiques, soit de les canaliser dans des guides. La concentration d’énergie ainsi obtenue permet de réaliser des liaisons radiotélégraphiqnes dirigées avec un rendement très supérieur à celui que l’on pourrait attendre des longueurs d’ondes plus grandes. L’auteur étudie la canalisation de l’énergie dans des guides cylindriques en métal. Cette technique, courante depuis la guerre, en particulier dans les installations de radar, pose des problèmes de « plomberie » assez ardus qui reçoivent dans cet ouvrage des solutions théoriques. L’auteur traite directement à partir de la transformation de l’énergie, plutôt qu'à partir de la notion de champ, les formules générales (équations de Maxwell en particulier) et la propagation des ondes guidées. Il étudie ainsi successivement la propagation dans les guides et dans les milieux anisotropes, les branchements de guides et finalement la propagation de ces radialions de courte longueur d’onde autour de la Terre.
- Précis de magnétoscopie, par E. À. "W. Mül-i.er. Traduit par Y. Husarek. 1 vol. 16 x 25, xiv-170 p., 168 fig. Dunod, Paris, 1957. Prix : 1 880 F.
- Les procédés de contrôle non destructifs des matériaux prennent une place sans cesse croissante dans le contrôle des matières premières, des produits en cours ou en fin de fabrication. En particulier les procédés magnétoscopiques, bien au point, sont en mesure de rendre de grands services dans l’industrie mécanique et la sidérurgie. Toutefois, la pauvreté de la littérature française en ce domaine fait que rutili-sateur ne connaît pas parfaitement les possibilités et les limites du procédé. Aussi, les résultats escomptés ne sont parfois pas obtenus par
- VIENT DE PARAITRE
- INTRODUCTION A LA CYBERNÉTIQUE
- PAR
- W. ROSS ASHBY
- TRADUIT DE L'ANGLAIS PAR M. PILLON
- Ingénieur E.S.E., Ingénieur au C.N.R.S.
- 370 pages 14 x 22, avec 18 figures. Broche sous couverture illustrée ................................................. 1 960 F
- En vente dans toutes les bonnes librairies et chez
- 92, rue Bonaparte G.G.P. Paris 75-45
- Tél. : DAN 99-15 Editeur, Pniis 6e.
- p.38 - vue 42/527
-
-
-
- suite de remploi incorrect des appareils ou de leur utilisation abusive, malgré l'excellence des moyens techniques disponibles. Le présent ouvrage vient combler cette insuffisance d'information dans le contrôle des matériaux par la méthode des poudres magnétiques. Schémas nombreux. Bibliographie.
- Mises au point de Chimie analytique pure et appliquée et d’analyse bromatologique
- (4e série), publiées sous la direction de J.-A.. Gautier. 1 vol. 16,5 x 25, 212 p.,21 fig. Masson, Paris, 1957. Prix : 2 400 F.
- Quatrième volume d'une collection qui résume chaque année les faits nouveaux les plus frappants en analyse générale et spécialement ceux qui ont trait aux composés organiques, biologiques et à l'essai des aliments. Chapitres traités : quelques acquisitions récentes dans le domaine de l'analyse des glucides (chromatographie) ; détermination de l'extrait sec des vins; acétylation de la fonction hydroxyle et applications analytiques; conservation et analyse des échantillons altérables (laits) ; polaro-graphie et applications pratiques ; enfin, une étude sur un grave et actuel problème d'hygiène : les substances étrangères dans les aliments ; aspects biologiques et analytiques du problème.
- Chimie organique générale, par Jean Vènk. 1 vol. 17,5 x 25, 350 p., 41 fig. Masson, Paris, 1957. Prix, broché : 3 500 F ; cart. : 4 100 F.
- La chimie organique générale a pour but d'exposer les lois et les règles qui régissent les faits accumulés par la chimie organique descriptive. Le présent volume n'a pas d'analogue en langue française. Son but est d'étudier, d’une part la structure des composés organiques et les moyens mis en œuvre pour sa détermination, en y comprenant l’étude des liaisons, d’autre part la réactivité de ces composés et le mécanisme de leurs transformations. Les grandes divisions de l’ouvrage sont les suivantes : symbolisme moléculaire classique et les isomé-ries ; relations entre les propriétés physiques et la structure des molécules ; nature des liaisons ; réactivité en chimie organique ; essais d'interprétation électronique des réactions organiques ; bibliographie. Ce livre s’adresse aux étudiants de l'enseignement supérieur, à ceux dont la formation scientifique date d’un certain nombre d'années, et môme aux professeurs des différents ordres d'enseignement qui y trouveront une documentation à laquelle il leur était difficile d’accéder,
- Coal Science. Aspects of Coal constitution, par D. W. van Krevelen et J. Schuyer. 1 vol. 15,5 x 23,5, xn-352 p., fig. Eïsevier Publishing Company, Amsterdam, 1957.
- IVos connaissances sur les charbons, encore très rudimentaires, s'enrichissent peu à peu grâce aux travaux de nombreux chercheurs, parmi lesquels on compte notamment à l'heure actuelle l'équipe qui, au Laboratoire Central des Mines d’Etat des Pays-Bas, travaille autour du professeur van Krevelen. Ce dernier, en collaboration avec J. Schuyer, nous présente donc une mise au point de nos connaissances quant aux charbons, en exposant notamment les nombreux travaux
- de leur laboratoire, qui consistent essentiellement en une application des méthodes physico-chimiques modernes à la détermination de la structure des charbons. Ouvrage très bien présenté.
- Les fours industriels,, par W. Trinks. Traduit de l'américain par J. Bernot. 2e édition. 2 vol. 16 x 25. Tome I : xn-538 p., 415 fig. ; tome II : xn-356 p., 300 fig. Dunod, Paris, 1957. Prix, relié toile sous jaquette : t. I : 5 900 F ; t. II : 4 200 F.
- Ces deux ouvrages, réédition d’un travail profondément remanié, sont consacrés aux fours pour chauffer les métaux. Le 1er tome traite de la puissance des fours et se préoccupe de la détermination des caractéristiques d’un four qui doit répondre à une opération déterminée, des économies de combustible, des échangeurs et récupérateurs et des mouvements des gaz dans les fours. Le 2° tome se préoccupe plus spécialement des combustibles utilisés, des brûleurs, des éléments chauffants, de la régulation de la température des fours, du contrôle de leur atmosphère, des dispositifs permettant d'économiser la main-d’œuvre et, dans un dernier chapitre, compare d'une façon intéressante combustibles et fours et décrit les dispositifs de sécurité. Ouvrages très bien présentés et élégamment illustrés. Documenlation technologique intéressante.
- Oxygen in ïron and Steel making, par J. A. Charles, W. J. B. Chater et J. L. Har-iuson. 1 vol. 14 x 22, xii-309 p., 88 fig. Butterworths Scientific Publications, Londres, 1956 ; distribué par I. R. Maxwell and Co. Ltd, Londres. Prix, relié : 42 sh.
- Depuis une dizaine d’années, la substitution de l’air enrichi en oxygène à l'air ordinaire dans les gazogènes, dans le haut fourneau, dans le cubilot, dans les cornues Thomas, dans le four Martin ou au four électrique s'est largement développée. Aucune étude d’ensemble n'avait été faite jusqu’ici et le présent ouvrage comble cette lacune en examinant non seulement les réalisations pratiques mais les bases théoriques de cette technique.
- Flotation, par A.-M. Gaudin. 1 vol. 16 x 24, 573 p., ilî. McGraw-Hill, Aew York et Londres, 1957. Prix, relié : 94 sh.
- Cette deuxième édition a été complètement refondue et tient compte des derniers progrès. Après un rapide rappel historique, Fauteur expose les théories modernes de la séparation par flottation, les propriétés physico-chimiques des surfaces des minéraux en fonction de leur nature et de leur structure ; puis il consacre six chapitres à la pratique de la flottation. Actuellement, la presque totalité des minerais sulfurés, sont concentrés par cette technique. L’apparition de nouveaux réactifs permet de l'appliquer à la concentration de nombreux produits, même à la purification des eaux usées. Ouvrage très complet, rédigé par un spécialiste de réputation mondiale.
- Vie et mœurs des papillons, par Alexander B. Klots. 1 vol. 22,5 x 28, 205 p., 64 planches hélio, dessins, et 24 hors-texte avec 100 photos en couleurs. Horizons de France, Paris, 1957. Prix : 3 350 F.
- les documents et les théories les plus séduisantes de la science moderne présentés par ie grand physicien...
- tovyouM mckmrn!
- BIOGRAPHIE DE LA TERRE
- LA CRÉATION DE L’UNIVERS
- UN, DEUX, TROIS... L'INFINI
- MONSIEUR TOMPKINS EXPLORE L’ATOME
- MONSIEUR TOMPKINS AU PAYS DES MERVEILLES
- MONSIEUR TOMPKINS S’EXPLORE LUI-MÊME
- 3 VOLUMES
- MAGNIFIQUEMENT PRÉSENTÉS SOUS RELIURE » Club ”
- 4.600 F
- en librairie et chez DUNOD 92 rue Bonaparte • Paris
- ANNUAIRE
- DU BUREAU DES LONGITUDES
- 1958
- avec un Supplément pour 1959
- NOTICES :
- L’Observatoire de Haute-Provence, par J. DUFAY.
- La Réobservation des Étoiles par Y Astranomische Gesellschaft,
- par J. LÉVY.
- In-16 jésus (23x19) de 704 pages.... Broché 2 000 F
- Cartonné 2 500 F
- Éditions GAUTHIER-VILLARS
- 55, Quai des Grands-Augustins, PARIS VIe
- WÊKÊÊÊKÊÊBÊÈÊÊÊKÊÊÊÊÊtÊÊÊtÊKÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊIÊÊÊÈP
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État - A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7*
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d'Etat.
- Brevet de Technicien d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du |our — Cours du soir
- Section d'enseignement " 6 domicile "
- Joindre timbre pour notice)
- p.39 - vue 43/527
-
-
-
- 40
- Voici le 7e volume de la magnifique collection « La Nature vivante », dont la splendeur des images, comme bien on pense, ne le cède en rien à celle des précédents* Mais, comme pour les précédents aussi, le texte est de premier ordre. M. À. B. Ivlots, du Muséum américain d’IIistoire naturelle, a passé 40 années à étudier les papillons et leur biologie sur tous les continents et l'exigence scientifique la plus rigoureuse se trouve satisfaite. Naturellement les chenilles n’ont pas été oubliées. M. Klots a été obligé de se limiter et on regrettera qu'il n’ait pas donné plus de place aux relations des papillons avec les plantes. En revanche, il a traité très utilement certains chapitres que l’on ne trouve pas en général dans les livres de vulgarisation, comme celui qui concerne les sens et le comportement de ces insectes, et qui est ici magistralement traité. Origine et parentés, formes et particularités physiologiques, relations avec les prédateurs et les parasites, homochromie et mimétisme, répartition géographique donnent lieu à d’excellents exposés. Un livre que tout naturaliste aimera lire et qui charmera tout le monde par la beauté des images.
- Le mystère de la vie, par G. D. Darlixgton.
- 1 vol. 14 x 22,5, 524 p., 19 fig. Arthème
- Fayard, Paris, 1957. Prix, cartonné : 1 750 F.
- Le célèbre généticien de l’Université d’Oxford nous convainc d’abord que la génétique ne tient pas encore la place qui devrait être la sienne dans les sciences humaines. La génétique nous enseigne de façon très claire comment les diverses races et espèces d’animaux ont pu se consf ituer. Il ne saurait en être autrement pour l'homme et l’élude des jumeaux univitellins prouve bien que les composantes du caractère, par exemple celles qui font l’individu sociable ou insociable, ou qui concernent son comportement sexuel, sont génétiquement déterminées. Il résulte de ces constatations d’énormes conséquences. Vouloir cpie les hommes de toutes les races aient fondamentalement les mêmes aptitudes, qu’ils soient susceptibles de recevoir pour leur bonheur la même éducation dans un milieu standardisé, ce ne saurait être qu’une
- grossière erreur. M. Darlington étend ce principe, de façon plus discutable, aux classes de la société, dont il sous-estime sans doute le brassage au cours de l’histoire. Mais il est certain que nous vivons couramment sur des idées préconçues et fausses. G’est une véritable révolution dans la pensée et dans les mœurs que préconise l’auteur. En certaines directions, il semble qu’il aille trop loin, mais son livre doit nous faire réfléchir et sa violence même doit être un stimulant salutaire.
- Science and human Life, par J. A. V. Butler.
- 1 vol. 14 x 22, vm-163 p. Pergamon Press,
- Londres, 1957. Prix, relié : 15 sh.
- L’auteur, professeur de Chimie physique à l’Université de Londres et à l’Institute of Cancer
- A NOS LECTEURS
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6*
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- Research, a divisé son ouvrage en deux parties : la première consacrée à l’homme pris comme individu, la seconde au milieu social. Il décrit le rôle que les connaissances actuellement acquises sur les phénomènes de la ,vie ont eu pour l’inleliigcncc des bases biologiques de la vie humaine, [mis il expose les conséquences que l'on peut en tirer. Il étudie le comportement humain en face des situations qui découlent de sa vie en société, esquissant une théorie d’ailleurs limitée de ce comportement et do son avenir envisagés du point de vue de la science.
- Structure de la médecine chinoise, par le
- I.v Pierre ILuaru. 1 vol. 18 x 13, 91 p., 5 fig.
- Coll. Conférences du Palais de la Découverte,
- L), 49. Palais de la Découverte, Paris, 1957.
- Prix : 590 F.
- Ancien doyen de la Faculté de Médecine d’Üanoï, actuellement professeur à Rennes, le i.v lluard joint la science du sinologue à celle du médecin ; c’est assez dire la valeur de cette excellente synthèse qui donne un aperçu complet des questions diverses posées par la médecine chinoise, trop souvent ramenée en Europe à la seule acupuncture. L’économie de cet ouvrage se fonde sur les divisions traditionnelles de Part médical occidental, sans omettre des sections connexes. L’auteur, dont la documentation impressionnante puise à toutes les périodes de la civilisation chinoise, sait dépasser la simple érudition : son propos est de faciliter « l’accès à la connaissance de l’Homme », car, en Chine, médeciuo, philosophie, religion et cosmologie ont entretenu d’étroits rapports d’interdépendance. On ne peut exiger meilleure introduction à un sujet qui, pour être peu prospecté, n’en présente pas moins un immense intérêt.
- PETITES ANNONCES
- (190 F la ligne, taxes comprises. Supplément de 100 F pour domiciliation aux bureaux de la revue).
- MASSON ET O ÉDITEURS, PARIS
- Dans la collection « Évolution des Sciences »
- L'automatique des informations
- PRINCIPES DES MACHINES (A CALCULER, EN PARTICULIER)
- OPÉRANT SUR DE L'INFORMATION
- par
- F.-H. RAYMOND
- . i
- L’un des faits les plus marquants du progrès technique actuel est l’introduction de l’automatisme dans le traitement, la « manipulation » des informations. Spécialiste de l’automatique et des machines à calculer, professeur et industriel, l’auteur s’est attache dans ce petit ouvrage à dégager les principes de base de ce domaine nouveau de la technique et de la philosophie des machines. Ce livre est une introduction à l’étude des codes de représentation d’information
- comme à la théorie des automates discrets.
- Ouvrage éloigné de la technique, écrit dans l’esprit de la collection « Evolution des Sciences », il n’est pas pour autant théorique au point de ne permettre à tous ceux qui s’intéressent à des titres divers à ce domaine de la Cybernétique
- et de l’Automatique de le lire avec profit.
- Un volume de 188 pages avec 51 figures (14,2 X 22,7)........................................... I 600 F
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : ier trimestre 1958, n° 3i56. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 3Ô7Ô. — I-IQ58.
- p.40 - vue 44/527
-
-
-
- N° 3274
- Février 1958
- LA NATURE
- Scaphandre pour le vide
- et démonstrations d’« impesanteur »
- Les récits futuristes nous ont habitués au scaphandre spatial, parure fatidique du héros des drames interplanétaires. Entre la fiction et la x’éaliié, la marge s’amenuise chaque jour. L’homme, cet « amphibien cosmique », s’apprête effectivement à quitter la pellicule sphérique où il rampe depuis sa naissance, et à réaliser sa métamorphose technologique en envahissant l’espace extérieur. D’innombrables recherches sont encore à réaliser pour cela, mais ces recherches sont en cours, et elles le sont en particulier dans le domaine des équipements individuels, dans celui du scaphandre.
- Notre propos n’aüra pas pour objet, du moins aujourd’hui, de décrire les différentes solutions qui ont été proposées au problème du scaphandre spatial. Il se limitera principalement à la description d’un scaphandre pour le vide qui a été réalisé par le biais imprévu et terre à terre d’une exigence de laboratoire. Ce scaphandre est le premier de l’histoire technique, à notre connaissance. Avant de le décrire, nous rappellerons le principe du vêtement pressurisé d’altitude, d’un usage courant en aviation militaire stratosphérique, en vue de souligner à quel point il est difféx'ent de l’équipement qui permettrait à l’homme de séjourner dans le vide intégral.
- L’astronaute sera évidemment, la plupart du temps, dans un état où toute pesanteur aui'a pour lui dispai'u. On ne sait pas encore quels seraient les effets physiologiques d’un tel état s’ils se prolongeaient beaucoup. Nous donnerons en terminant un bref exposé d’une récente expérience d’ « impesanteur ».
- Pour que l’homme puisse, au sens propre, mettre le pied sur des mondes privés d’atmosphère comme le sont la Lune et la plupart des satellites des grandes planètes, ou sur des mondes à atmosphère raréfiée comme Mars et certains satellites des grandes planètes, il devra évidemment revêtir un scaphandre capable, par sa pression interne d’oxygène, d’assurer l’échange respiratoire et d’empêcher l’ébullition du sang à 37°. Les transports proprement dits seront sans doute assurés par des véhicules à chenilles légers et étanches, mais le scaphandre restera utile pour le transbordement de l’astronef à ces véhicules, et indispensable pour certains travaux d’aménagement, de réparation et de recherche scientifique. A ce titre, le scaphandre qui va être décrit représente un jalon sur la voie qui mène à l’Astronautique.
- Par ailleurs, lorsque l’homme entreprendra la construction d’une station laboratoire satellite d’une certaine importance, l’assemblage dans l’espace des éléments de cette station et de diverses ïiachines spatiales (sur lesquelles nous ne saurions nous étendre aujourd’hui) exigera des engins du genre scaphandre permettant aux ouvriers de l’espace des déplacements locaux entre les avions-fusées de liaison et le chantier des machines. A vrai dire, nous doutons que ces engins-scaphandres soient très anthropomorphes. En état de gravitation satel-litique, les jambes seront en effet de peu d’utilité: les bras resteront évidemment nécessaires.
- Fig. 1. — Équipement d’altitude du Centre d’essais en vol de Brétigny.
- {Photo C.E.V.).
- Vêtements pressurisés d’altitude. — Il est d’usage courant, depuis des années, et dans différents pays, d’équiper les aviateurs qui pilotent en haute altitude certains types d’avions de sortes de « scaphandres stratosphériques »; cet équipement est dénommé en réalité « combinaison pressurisée » (en anglais partial pressure suit) ; il est associé à un casque dénommé « équipement de tête ». Les nombreuses illustrations et commentaires qui ont paru à ce sujet dans la presse ont pu parfois donner à tort au public l’impression que ces équipements d’altitude préfiguraient d’assez près les scaphandres spatiaux de l’astronautique (en anglais total pressure suit, ou space suit) ; en réalité, les deux réalisations sont presque complètement différentes.
- Le casque et la combinaison pressurisée stratosphérique ne sont pas habituellement sous pression; ils n’entrent automatiquement en légère surpression relative d’oxygène que si le
- p.41 - vue 45/527
-
-
-
- 42
- navigant fait usage de son siège éjectable, ou si la cabine pressurisée éclate au-dessus de 12 000 m. Cet équipement est indispensable et obligatoire au-dessus de i5 000 m d’altitude; à ces altitudes en effet, en cas de fuite, le pilote a besoin d’une surpression pour être en état de ramener l’avion au sol, surtout si son avion est incapable de piquer assez rapidement jusqu’à la troposphère.
- La combinaison est étroitement moulée sur mesure et lacée avant le vol sur le navigant (fig. x) ; elle n’est nullement étanche aux gaz, pour la simple raison qu’elle n’est jamais destinée à être sous pression; cette combinaison exerce seulement sur le corps et, en particulier, sur la cage thoracique, une pression mécanique qui provient du gonflage, le moment venu, de boudins pneumatiques latéraux; le casque est, lui, réellement sous pression d’oxygène; l’étanchéité se fait au niveau du cou par une cagoule de caoutchouc; sous la pression qui règne dans le casque, les poumons se gonfleraient en permanence sans que le pilote puisse expirer, n’était le serrage mécanique extérieur assuré par la combinaison. Les pieds ni les mains ne sont pas protégés; ils gonflent donc progressivement dans l’air raréfié, mais le séjour dans ces conditions est trop bref pour que cet inconvénient soit grave.
- Malgré les boudins pneumatiques qui courent le long du corps, des bras et des jambes, et qui mettent en cas d’urgence le navigant en état de « rigidité pneumatique » (c’est celle d’un pneu gonflé), le pilote reste assez libre de ses mouvements. Un gilet intérieur pneumatique gonflé à la même surpression que le casque parfait la transmission des efforts entre la combinaison et la cage thoracique.
- On voit que ces équipements de haute altitude n’ont pres-
- que aucun rapport avec les scaphandres spatiaux; la différence s’étend à l’aspect ; les uns ont une silhouette étriquée, les autres une ligne épaisse qui les apparente à leurs cousins, les scaphandres sous-marins.
- Enfin, il existe probablement des centaines de combinaisons pressurisées en service, tandis que le premier et le seul scaphandre qui, à notre connaissance, ait permis à un homme d’évoluer dans le vide est celui, récemment divulgué, qui va être décrit maintenant.
- Le scaphandre à vide de Litton Industries. — Le
- Litton Industries Space Research Laboratory, bien que son nom comporte explicitement les mots « recherches spatiales », n’a pourtant pas comme objectif direct l’étude du comportement de l’homme dans l’espace vide, ni la mise au point d’un scaphandre immédiatement destiné à la navigation interplanétaire. Le scaphandre Litton a simplement été fait pour permettre à un physicien de manipuler commodément des appareils et des échantillons de matériaux dans le vide artificiel d’un caisson. A certains points de vue, et à celui en particulier d’une étanchéité rigoureuse, la réalisation du scaphandre de laboratoire est plus ardue que celle du scaphandre astronautique.
- L’équipement de recherches de Litton comporte un caisson d’altitude d’un diamètre de 2,4 m et d’une longueur de 4,6 m. Les parois de ce caisson sont en tôle d’acier soudé de 12 mm d’épaisseur. La figure 2 donne l’aspect extérieur d’un caisson analogue, mais limité aux vides stratosphériques, appartenant à la société française Sopemea (société pour le perfectionnement des matériels d’équipements aéronautiques). Une pre-
- p.42 - vue 46/527
-
-
-
- 43
- mière pompe permet d’établir dans le caisson Litton un vide de dégrossissage de moins de i mm de mercure. Ensuite, une pompe à diffusion d’huile de 80 cm de diamètre permet d’établir (lorsque le caisson n’est pas habité) un vide équivalent à une altitude de 220 km; de prochains perfectionnements permettront d’atteindre une altitude équivalente de 260 km; mais, comme on le verra tout à l’heure, les altitudes atteintes sont moins élevées lorsque le caisson est occupé par un scaphandrier, en raison des traces d’oxygène dues aux fuites inévitables.
- Le scaphandre (fig. 3) est constitué par une combinaison de nylon caoutchouté qui lui confère sa solidité. Mais pour éviter les fuites qui seraient dues en particulier à l’évaporation des produits volatils contenus dans le caoutchouc, cette com-
- Fig-. 3. — Scaphandre Litton pour le vide.
- Bien que placé dans un vide pratiquement complet, le scaphandrier peut s’asseoir, marcher, manipuler des outils, réparer un appareillage électronique. Un câble de sécurité est destiné à prévenir la chute et le bris du
- plexiglas.
- (Photo aimablement communiquée par le Litton Industries Space Laboratory).
- binaison est recouverte d’une autre en caoutchouc spécial qui ne contient pratiquement aucun produit volatil. Les tuyaux souples d’arrivée et de sortie de l’oxygène sont doublés de la même façon. Le débit d’oxygène est beaucoup plus grand que celui qui serait nécessaire à la seule respiration, car il est indispensable d’évacuer la chaleur produite par le corps humain; l’oxygène est recyclé après refroidissement dans un système réfrigérateur, pour des raisons d’économie.
- La figure de la couverture de cette revue montre le détail
- du système compliqué et coûteux d’articulations métalliques qui frette le scaphandre. Grâce à ce frettage, le volume intérieur du scaphandre reste constant lorsque les articulations jouent; ainsi les mouvements du scaphandrier ne lui réclament pas d’efforts exagérés. On voit également sur la même figure que le plan de raccordement de la tête avec le tronc est oblique par rapport à la verticale; le bras gauche fait partie du tronc, le bras droit de la tête. La masse de cet ensemble ne serait que de 22 kg; sur la Lune son poids ne serait que de 4 kg-force; mais d’autres équipements tels que bouteilles, écrans et radio seraient alors nécessaires. Le scaphandrier, que la figure 3 représente avec son enveloppe extérieure de caoutchouc spécial, peut se livrer à différents travaux dont : maniement d’outils tels que pinces et tournevis, réparation d’un appareillage électronique, exécution d’une soudure à l’argon; il peut en somme, et c’est le but recherché, se livrer à la plupart des manipulations de laboratoire nécessaires à la recherche.
- On voit (fig. 3) que le scaphandre est relié au plafond par un câble de sécurité; ce câble est destiné à empêcher la chute du scaphandrier, qui risquerait de briser le plexiglas de 6 mm d’épaisseur de son casque. Le scaphandrier est alimenté en oxygène pur à une altitude équivalente à 8 200 m. Lorsque l’essai est terminé, le caisson et le scaphandre sont normalement ramenés à la pression du sol en un temps de trente secondes. Mais si c’était nécessaire (en cas de rupture du scaphandre), ce temps pourrait être réduit à trois secondes. La rentrée de l’air se fait par le plancher perforé visible sur la figure 3. En cas de déchirure au scaphandre, on estime que l’homme tomberait en syncope au bout de cinq secondes, serait gravement atteint au bout de quatre-vingt-dix secondes et mort en quelques minutes; on sait que le sang entre en ébullition à une altitude supérieure à 20 km environ et cette ébullition ne doit pas être un phénomène très brutal, ce qui expliquerait, si on admet les données précédentes, que l’effet du vide soit finalement moins catastrophique que beaucoup ne l’auraient imaginé a priori. Pendant l’expérience, le scaphandrier est naturellement sous surveillance médicale : on mesure continûment son rythme cardiaque, sa pression sanguine, sa respiration, on l’observe directement à travers les hublots et on parle avec lui par téléphone. Aucun accident n’est d’ailleurs encore arrivé au cours de ces recherches délicates. Le directeur technique de Litton Industries, M. Siegfried Hansen, est resté à une altitude de i5o km jusqu’à plus de trois heures d’affilée. Cette altitude constitue un record pour le caisson lorsqu’il est occupé par un scaphandrier.
- Applications du scaphandre Litton. — Cet appareillage, dont le scaphandre représente une des parties les plus chères, a coûté 3oo millions de francs; l’heure d’exploitation revient à 60000 F en moyenne; il permet des recherches du plus grand intérêt, dont certaines, relatives à l’électronique, sont même immédiatement rentables et productrices de revenus.
- Les recherches entreprises dans la chambre à vide Litton, du moins dans le mesure où elles sont divulguées, concernent :
- — le fonctionnement dans le vide de matériels électroniques et d’instruments variés;
- — l’endurance, lorsqu’ils sont soumis au vide, aux rayons X et aux rayons ultraviolets, de matériaux plastiques, caoutchou-tiques et métalliques variés; les rayons X et ultraviolets peuvent être projetés à l’intérieur du caisson par des orifices appropriés ;
- — le fonctionnement des lubrifiants dans le vide, où la plupart se vaporisent;
- — les caractéristiques des contacts mécaniques tournants et glissants et, en général, les caractéristiques de frottement de matériaux variés les uns sur les autres, tissus caoutchoutés, etc.; les phénomènes de frottement sont en effet complètement modifiés dans le vide en raison de l’absence d’une couche molé-
- p.43 - vue 47/527
-
-
-
- 44
- culaire d’air facilitant le glissement; l’opérateur dispose d’un « canon à électrons » qui lui permet de nettoyer les traces d’air des surfaces qu’il veut expérimenter, d’une manière qui rappelle le sablage industriel ;
- — la façon dont les métaux et d’autres matériaux peuvent exsuder les gaz dans le vide;
- — la mise au point des tubes employés en radiophonie, en télévision et dans les autres branches de l’électronique; cette mise au point peut s’effectuer dans des conditions remarquables de rapidité, de commodité et de clarté; du point de vue utilitaire immédiat, c’est cette application qui est la principale; elle permet la location de l’installation aux électroniciens constructeurs de tubes qui en ont besoin.
- Ainsi, sur la gauche de la figure de la couverture, on voit un tube écran de télévision en couleur Ghromatron, mais ce tube n’a pas de paroi; plus exactement, ses parois sont celles du caisson lui-même et assez grandes par conséquent pour qu’un expérimentateur puisse y pénétrer. Ainsi cet expérimentateur peut rapidement modifier les réglages de position des différents organes internes du tube; il peut encore y introduire des instruments d’exploration et de mesure. Non seulement la mise au point est ainsi considérablement accélérée et peut prendre par exemple quelques semaines au lieu des mois qui auraient été nécessaires pour construire à chaque expérience un nouveau tube complet, mais encore il est possible par cette méthode de détecter des phénomènes fins qui auraient échappé à l’observation par les méthodes classiques ne comportant pas l’accès à l’intérieur du tube : ceci montre entre autres choses à quel point la main de l’expérimentateur est encore irremplaçable dans bien des cas.
- Si ce premier scaphandre à vide de l’histoire n’a été principalement créé qu’en vue de son utilisation au laboratoire, il n’en donne pas moins pour la première fois la démonstration que l’homme peut évoluer dans le vide et il présente, de ce fait, un intérêt de premier plan pour l’astronautique.
- Pour transformer ce scaphandre en appareil lunaire il faudrait lui adjoindre : un système de bouteilles d’oxygène pour la respiration autonome; un équipement d’émission et de réception radio avec une antenne; un tableau d’instruments de contrôle comportant des manomètres, des thermomètres, une boussole, une montre, etc., situés sur la poitrine de l’occupant et visibles pour celui-ci : une ombrelle articulée et x-églable pour le protéger du soleil; un second écran analogue à l’ombrelle, mais orienté différemment, et destiné à la protection contre les météorites; un système de chauffage électrique des semelles; des tuyaux de raccordement pour assistance réciproque entre les scaphandriers en cas de fuite à l’un des scaphandres; des sacoches extérieures pour y placer différents objets; des signes extérieurs d’identification réciproque; un système de réfrigération de l’oxygène; et bien d’autres dispositifs encore, sans doute; mais l’étanchéité du scaphandre lunaire pourra être sans inconvénient de qualité bien inférieure à celle du scaphandre de laboratoire actuellement réalisé.
- Lorsque le pilote flotte dans sa cabine
- Les techniciens navigants du Centre d’essai en vol de Bréti-gny ont réussi l’exploit peu commun de maintenir pendant près de i5 s en état de chute libre artificielle une cabine d’avion assez spacieuse pour qu’y soient filmées les évolutions dans l’espace d’un membre de l’équipage non retenu à son siège par les ceintures de sécurité. Les figures 4 à 7 montrent M. Lelièvre dans les différentes phases de son aventure, quittant son siège, flottant au milieu de la cabine, s’appuyant légèrement d’un doigt au plafond de celle-ci (fig. 5), retom-
- bant progressivement. L’avion utilisé était un Martinet. Le film dont sont extraits ces clichés a été projeté sur les écrans publics avec les bandes d’actualités.
- Des souris ont déjà été photographiées en état prolongé d’ « impesanteur » (x) ; cette fois-ci, des hommes ont osé se prêter à l’expérience, à bord d’un appareil qui n’était pas spécialement adapté à d’aussi violentes acrobaties, mais qui était assez spacieux pour cet usage, contrairement au cas d’un chasseur. Il est évident qu’en cas de rupture de la structure, lors de la ressource consécutive au piqué, l’évacuation en temps utile de l’appareil par parachute aurait été problématique.
- Des pilotes de l’U.S.A.F., à bord d’avion fusée, ont pu maintenir leur appareil en état d’impesanteur pendant une durée de 45 s environ ; mais ils restaient sanglés sur leur siège éjectable, de telle sorte qu’une caméra, s’il y avait eu la place d’en mettre une, n’aurait rien enregistré de particulier, si ce n’est l’indication prolongée g = o de l’accéléromètre de bord. L’impression ressentie par le navigant reste cependant la même en principe dans les deux cas : il cesse de ressentir aucune réaction d’appui de la part de son siège.
- La technique d’une telle acrobatie est la suivante : à la suite d’une ressource, l’avion est lancé obliquement vers le haut de toute la puissance de ses moteurs. Considérons l’instant où la traction des moteurs est juste égale à la traînée aérodynamique (c’est approximativement l’instant où l’aviôh, sur sa trajectoire ascendante, monte à la vitesse où l’entraîneraient ses moteurs en vol permanent horizontal).
- Supposons que l’air atmosphérique à ce moment disparaisse autour de l’avion; que se passerait-il ? Évoluant dans le vide, l’avion décrirait une trajectoire à la manière d’un projectile, et cette trajectoire serait exactement une parabole; L'avion lancé vers le haut monterait en ralentissant, cesserait de monter, retomberait à une vitesse uniformément accélérée; la composante horizontale de la vitesse resterait constante^
- Tout corps lancé à la même vitesse et situé au voisinage de l’avion décrirait la même trajectoire et resterait au voisinage de l’avion. Et si ce corps, au lieu d’être dehors, était dans l’avion, il en serait exactement de même, bien que l’avion n’exerçât sur lui aucun appui. Ainsi s’explique que le navigant « flotte » dans la cabine.
- Mais l’avion réel est dans l’air qui le freine, exerçant une force extérieure contraire au principe de l’expérience. Une telle force extérieure est en tout point comparable à la réaction d’appui du sol sous nos pieds, réaction qui fait que nous restons debout au lieu de tomber sous l’action du champ de pesanteur, et que nous ne sommes pas habituellement en état d’impesanteur.
- Tout l’art du pilote consiste donc à utiliser ses moteurs assez habilement pour équilibrer à chaque instant la traînée aérodynamique. Les gaz seront diminués et assez réduits lorsque l’avion sera au sommet de la parabole, puis réaugmentés pour que l’àvion retombe comme il le ferait dans le vide, malgré l’air qui freine sa chute. En fait, ces conditions ne peuvent être réalisées avec une précision parfaite, et c’est pour cela que le navigant est tout de même parfois légèrement appuyé à l’avion, par exemple au plafond de la cabine.
- Par ailleurs, il est évident que l’expérience a une durée limitée, et doit être cessée lorsque le sol se rapproche, ou lorsque la vitesse de piqué atteint une valeur dangereuse.
- Cette expérimentation de l’état d’impesanteur, encore dénommé état de chute libre, ou de gravité nulle, appelle plusieurs observations.
- D’abord, cet état peut être obtenu même au sein d’un champ de pesanteur puissant comme celui de la Terre. L’astronaute flottera dans sa cabine, non seulement dans l’espace lointain,
- 1. Voir : Physiologie sensorielle de l’aviateur ; 2. Illusions sensorielles, par Jacques Guillerme, La Nature, juillet 1956, p. 290.
- p.44 - vue 48/527
-
-
-
- Figr. 4 à 7. — Démonstration, à bord d’un avion, de l’état de « flottement » qui serait celui d’un astronaute à bord d’un satellite.
- (.Photos C.E.V.).
- p.45 - vue 49/527
-
-
-
- 46
- mais même tout près de la Terre, pourvu que ses tuyères motrices soient arrêtées et n’accélèrent ni ne freinent l’astronef. Jules Verne avait commis une grave erreur de principe en faisant flotter les passagers de la Terre à la Lune en un point mystérieux où l’attraction de la Terre équilibrait celle de la Lune, et en ce point seulement ; en réalité, les passagers auraient flotté tout le temps du voyage. Mais Jules Verne, bien qu’entouré de conseils scientifiques éclairés, était dépourvu de solides notions de dynamique élémentaire.
- Ensuite, il est malheureusement impossible d’expérimenter longuement sur Terre les conséquences physiologiques de l’impesanteur. On sait provoquer la surpesanteur dans une centrifugeuse géante, mais il faut embarquer à bord d’un spoutnik pour éprouver plus d’une minute l’impesanteur. La controverse est ainsi ouverte sur un des problèmes majeurs de la physiologie spatiale.
- En ce qui concerne les courtes durées, la cause est entendue : l’effet est nul. Tous les pilotes sont d’accord : ils n’éprouvent rien de particulier lorsque g = o ; ils n’aperçoivent pas trace des malaises qui pourraient leur faire craindre de prolonger cet état.
- Lorsqu’un homme dans l’obscurité manque une marche ou tombe dans quelque trou béant, il est en état d’impesanteur, tout provisoirement, et il ressent une émotion physique violente, dont le siège lui paraît être au niveau de l’estomac. Mais cette légitime réaction n’est qu’un état d’alerte, reflet de notre instinct de conservation. Lorsque ce même homme
- plonge dans une piscine, ou saute en parachute, il est aussi (en tous cas au début du saut) en état d’impesanteur, mais il ne ressent rien de particulier ni de désagréable, car il s’agit d’une action volontaire, concertée, à laquelle il est préparé et habitué.
- D’ailleurs nos organes sont habitués à subir la pesanteur suivant différentes directions, en particulier pendant le sommeil, y compris une pesanteur inversée (trapèze, vol sur le dos) ; la gêne que provoque la pesanteur inversée prolongée provient de la pression sanguine anormale dans le cerveau, mais ceci n’existerait pas dans l’espace. On ne voit pas bien pourquoi ces organes ne s’accommoderaient pas de l’absence de toute pesanteur.
- Il convient d’être plus prudent pour pronostiquer les effets d’une impesanteur durant une heure, une semaine, un mois. On peut redouter la nausée, la migraine, l’insomnie, le dérèglement nerveux, le cauchemar pendant le repos du type de la chute interminable (combien justifié, cette fois!). L’expérience permettra de trancher. Mais l’homme ne s’arrêtera pas pour si peu sur la voie de l’espace; il fera intervenir des médicaments, ou mettra son astronef en rotation pour rétablir une gravité apparente. L’important est qu’il puisse tenir quelques minutes.
- Et le plus probable est que l’astronaute jugera la situation « impesante » comme la plus relaxante qui soit : c’est à son retour que l’insomnie le guettera !
- Lionel Mowbray.
- L'acide désoxyribonucléique
- On se souvient des expériences conduites par M. Jacques Benoît, professeur au Collège de France, et qui ont fait un certain bruit l’été dernier : elles ont consisté à déterminer des « mutations dirigées » chez un canard en lui injectant régulièrement, au cours de son développement, l’acide désoxyribonucléique extrait des cellules d’un canard d’une autre race (voir : La Nature, juillet xç)57, p. 262). Une note à l’Académie des Sciences (29 avril 1957) fut bientôt suivie d’une seconde (22 juillet 1957), où M. Benoît, toujours en collaboration avec M. Pierre Leroy, Mme Colette Yendrély et M. Roger Yendrély, annonçait que des canards issus de la race modifiée par ces « mutations dirigées » présentaient ces mêmes modifications, de telle sorte qu’il ne s’agissait plus seulement de « mutations somatiques », c’est-à-dire intéressant le corps d’un sujet, mais de Arérilables mutations héréditaires, affectant son patrimoine génétique. Autrement dit, l’acide désoxyribonucléique injecté s’était incorporé, du moins en partie, aux chromosomes du sujet traité. C’était là un résultat d’une portée extraordinaire, dont on saura sans doute dans l’avenir s’il est confirmé par des séries de nouvelles expériences. De toute façon, l’attention du public était attirée sur l’importance génétique de cet acide désoxyribonucléique, que les biochimistes appellent en abrégé DNA ou ADN. Qu’est-ce donc que cette substance qui gouverne ainsi l’hérédité des êtres vivants P Mme Colette Vendrély et M. Roger Vendrély, biochimistes qui précisément ont procédé à la préparation de l’ADN nécessaire aux expériences de M. Jacques Benoît, nous ont livré à ce sujet, dans un petit livre, l’enseignement désirable (*).
- Cet acide est à vrai dire connu depuis longtemps, mais c’est seulement il y a quelques années qu’on s’est avisé qu’il pourrait
- 1. L’acide désoxyribonucléique (D.N.A.), substance fondamentale de la cellule vivante, par Roger Yendrély, maître de recherches au G.N.R.S., et Colette Yendrély, chargée de recherches au G.N.R.S. 1 vol. 15,5 x 24, 108 p. Amédée Legrand, Paris, 1957. Prix : 900 F.
- constituer la partie essentielle des chromosomes, c’est-à-dire les gènes, ces particules infimes ou molécules longtemps considérées comme hypothétiques, qui gouvernent, nous n’en doutons plus, la réalisation de tous les caractères héréditaires d’un individu et qui se transmettent fidèlement à ses descendants.
- On a toutes raisons de croire maintenant que l’ADN est formé de deux longues chaînes parallèles constituées par un sucre, le ribosé, à l’état désoxydé, alternant avec une molécule d’acide phosphorique, cette alternance se répétant tout au long des deux chaînes. Ces deux chaînes, tout en étant parallèles, sont enroulées en hélice et elles forment ainsi comme les deux montants d’un escalier hélicoïdal. Cet escalier a des marches, des barreaux, dont chacun est représenté ici par deux bases azotées soudées bout à bout et s’attachant de part et d’autre respectivement à deux molécules de sucre, de ribose, qui se font face sur les deux chaînes parallèles (fig. 1).
- Les bases azotées qui forment chacun de ces barreaux ne peuvent appartenir qu’à quatre modèles. Ce sont deux bases puri-ques, l’adénine et la guanine, et deux bases pyrimidiques, la thymine et la cytosine. Pour des raisons de liaison chimique, on admet que chaque barreau comprend une des deux bases puriques alliée à une des deux bases pyrimidiques.
- Le nom de l’acide désoxyribonucléique indique que son sucre, le ribose, est à l’état désoxydé. Il existe un acide très voisin où ce sucre n’est pas désoxydé : c’est l’acide ribonucléique (ARN ou RNA). Quand on a découvert les acides nucléiques, on leur a donné ce nom parce qu’on les avait trouvés en analysant des substances extraites du noyau des cellules. Aujourd’hui, on sait que l’ADN se trouve normalement dans le noyau seulement, mais qu’au contraire l’ARN est spécial au cytoplasme, c’est-à-dire à la partie du protoplasme extérieure au noyau. Ajoutons que deux biochimistes américains, MM. Allen et Davis, de Berkeley, ont annoncé qu’ils avaient décelé dans l’ARN la présence d’une cinquième base azotée apparentée à la
- p.46 - vue 50/527
-
-
-
- 47
- cylosine. Cette base, dont l’analyse chimique détaillée n’a pas encore été donnée, a été trouvée dans le pancréas, dans des bactéries et dans des cellules sanguines (réticulocytes); 5 à io p. ioo de l’ARN en contiendraient.
- Dans les chromosomes, l’acide désoxyribonucléique est uni à des protéines qui lui forment en quelque sorte une enveloppe et, comme les protéines sont les corps les plus complexes que l’on connaisse, on imaginait que c’étaient ces protéines des chromosomes qui, par leur immense variété possible, représentaient au mieux la matière des gènes, gouverneurs de l’hérédité. Aujourd’hui de multiples expériences, sur les bactéries surtout, prouvent que les gènes sont en réalité des variétés multiples d’acide désoxyribonucléique. Mais comment cette molécule d’ADN peut-elle varier au point de nous fournir assez de modèles distincts pour représenter l’énorme quantité de gènes différents qui forment les patrimoines héréditaires de toutes les espèces vivantes, microbes, plantes, animaux, avec l’infinie variété de leurs caractères ?
- Les molécules d’ADN, avons-nous dit, forment de longues chaînes doubles entre lesquelles les bases azotées des quatre catégories jettent des ponts en grand nombre. Une molécule d’ADN peut donc différer d’une autre par le choix entre les quatre bases pour chaque pont et l’ordre dans lequel ces bases sont rangées dans les ponts successifs. Un calcul simple montre que le nombre des combinaisons possibles est pratiquement infini, de sorte que même pour toutes les espèces vivantes réunies, le nombre des combinaisons effectivement réalisées dans la nature est infime, en comparaison de ce qui est réalisable.
- Le professeur Haldane a évalué à 4o ooo le nombre des gènes dans l’espèce humaine, chiffre qu’avec raison M. et Mme Ven-drély estiment trop élevé, car un même gène peut gouverner de nombreux caractères. Il est certain que le noyau cellulaire comprend un chiffre beaucoup plus grand de molécules d’ADN. On doit supposer que la plupart de ces molécules ne fonctionnent pas comme des gènes; elles constituent peut-être des réserves accumulées pour servir à l’édification des nouvelles cellules.
- Comment l’ADN agit-il pour guider le développement cel-
- sucre — base g y- — base —sucre
- POif Hz
- P04H2
- POj,H
- %n2
- po*h2
- po4h2
- - base — r purique -basepu--rimiaique
- — base — - baser y—
- purique rimidique
- — base p v-— base -rimioiQue punque
- — base — - basepy—
- purique rimidique
- po4hz
- /
- po4h2
- /
- po4h2
- /
- Fig. 1. — Schéma de la structure moléculaire supposée de l’ADN.
- Deux chaînes où alternent le sucre (désoxyribose) et l’acide phosphorique sont enroulées parallèlement en hélice. Chaque sucre d’une hélice est relié à celui qui lui fait face dans l’autre hélice par deux bases, l’une purique, l’autre pyrimidique, situées bout à bout et dont on remarquera la disposilion alternée (D’après Watson et Crick).
- lulaire et corporel P Probablement par l’intermédiaire de l’acide ribonucléique du cytoplasme et en gouvernant la formation des enzymes, ces catalyseurs spécifiques qui eux-mêmes régissent l’immense complexité des réactions biochimiques.
- L’importance vitale de cet acide désoxyribonucléique apparaît maintenant clairement. Elle justifie l’intérêt que lui portent un nombre croissant de chercheurs. On a l’impression qu’on est là tout près d’élucider un des secrets majeurs de la vie.
- Jean Grive.
- La production de la nacre dans les Établissements français d’Océanie
- Dans le Bulletin de la Commission du Pacifique Sud (juillet 1957), M. Gug, chef du service de l’Élevage et des Industries animales, a donné d’intéressants renseignements sur la valeur économique de la production de la nacre dans les Établissements français d’Océanie.
- La nacre constitue les deux valves de l’huître perlière (Pinctada Margaritifera), la plus grande et la plus épaisse des pintadines réparties dans le Pacifique avec des nuances aussi riches. Le diamètre d’une coquille moyenne est de 14 à 17 cm avec un poids variant entre 500 et 709 g à la pesée des deux valves, des records de 9 et 10 kg ayant été établis parfois pour des sujets pêchés à d’importantes profondeurs. Ces huîtres perlières se retrouvent dans de nombreux lagons (Archipel Tuamotu, Gambier, Iles Sous-le-Vent...).
- Ces Mollusques ne vivent guère à une profondeur excédant SO brasses, se fixant sur des pierres, corail( mort, coquilles, à l'aille d’un byssus. Leur nutrition est essentiellement planctoni-que. D’octobre à février les produits sexuels sont libérés dans la mer où s’opère la fécondation. Une vingtaine de jours plus tard l’embryon est entraîné vers le fond et survit s’il peut se fixer. Fonds vaseux ou sableux lui sont néfastes.
- La pêche au lagon entraîne le déplacement des plongeurs, venus même d’autres archipels. Des villages temporaires s’édifient, abritant parfois plus de 1 000 personnes et groupant en même temps habitation, comptoirs d’achat de la nacre, commerces multiples, cinéma, lieux de culte. Ces rassemblements sont fort goûtés de certaines populations océaniennes qui, à aucun autre moment, ne connaissent pareilles commodités.
- Les pirogues utilisées sur les lieux de plongée sont souvent munies d’un moteur hors-bord. Chaque œil protégé par des lunettes étanches, le plongeur descend à l’aide d’un plomb relié par
- un câble à l’embarcation. De sa main gantée il arrache du fond marin les nacres qui sont déposées dans un panier en filet relié au bateau et remonté par câble.
- La durée moyenne d’une plongée est de 1 mn 30 s à 1 mn 45 (dépassant exceptionnellement 2 mn) avec descente maximum à 40 m. Descente qui n’est pas toujours exempte d’accidents et provoque parfois une maladie professionnelle, le taravana, laissant des séquelles de paralysies motrices et de troubles psychiques. Le nombre des plongées quotidiennes peut atteindre 30. Une récolte de 40 kg par jour est considérée comme d’un bon rendement. Un plongeur ne travaille guère plus de 15 jours par mois. Quant aux perles leur découverte est purement fortuite et donne lieu à un rapport intéressant.
- Utilisée en bimbeloterie, fabrication de boutons..., la nacre toujours fort demandée n’a pas encore été concurrencée par la production de matières synthétiques. Le prix payé en 1957 pour 1 kg de nacre pris sur les lieux de pêche s’élevait à 90-100 F (francs Pacifique) et le tonnage exporté en 1956 représentait 72 000 000 de francs Pacifique.
- Ces perspectives alléchantes sont cependant menacées par le dépeuplement des lagons, conséquence d’une exploitation excessive par l’homme et incidence de phénomènes naturels. Des mesures conservatrices sont appliquées à l’heure présente : augmentation de la période de repos des lagons (3 ans), constitution de zones de réserve, restriction de la période de plongée (3 mois, en dehors de la période de reproduction des pintadines), réglementation de la taille minimum des nacres exploitables (14 cm).
- Richesse des Établissement français d’Océanie, la nacre est, avec le coprah, l’unique ressource de certaines populations.
- Pierre Gauroy.
- p.47 - vue 51/527
-
-
-
- 48
- Le mélanisme industriel
- On a désigné sous le nom de mélanisme industriel l’apparition, chez certains papillons nocturnes, de mutations foncées ou même noirâtres qui, au voisinage des grands centres industrielsi tendent à remplacer la forme typique, bien plus claire, de l’espèce. La première observation concernant ces faits portait sur le Biston betularia, belle phalène de couleur blanchâtre, toute tachetée de points et petites lignes noires; vers i848 fut capturée, pour la première fois, près de Manchester, une forme de cette espèce presque noire, qui fut nommée carbonaria. Or, cette forme, si différente de la forme typique, non seulement ne disparut pas, mais elle devint rapidement plus commune que cette dernière et, en 1898, on estimait que, dans la région de Manchester, environ 99 pour 100 de la population de Biston appartenaient à la forme carbonaria. Par la suite, de nombreux autres exemples de mélanisme chez les Lépidoptères ont été signalés dans- les mêmes conditions. Ainsi, en 1904, est apparue, aux environs de Hambourg, une forme mélanique d’un autre papillon nocturne, le Tethea or, de la famille des Téthéides; de même que la précédente, cette forme sombre est rapidement devenue dominante dans la région et, en 1911-1912, plus de 90 pour 100 des papillons obtenus de chenilles prises dans la nature lui appartenaient. Un autre cas de transformation extrêmement rapide est présenté par le Géométride Cidaria cœrulata; en 1898, dans le North Durham, cette espèce n’était représentée que par des individus de la forme typique, à bandes brunes sur fond grisâtre; moins de vingt ans après, en 19x0, tous les exemplaires capturés ou élevés de chenilles prises dans la nature, sur les plantes, appartenaient à une variété beaucoup plus foncée.
- Origine du mélanisme industriel. — Outre l’Angleterre et le Nord de l’Allemagne, le mélanisme industriel a été signalé dans le Nord et l’Est de la France, ainsi qu’aux États-Unis. On connaît actuellement environ soixante-dix espèces de papillons qui sont en train de remplacer leur population par des mutants noirâtres dans les aires industrielles. Ces espèces appartiennent aux familles des Noctuides, Téthéides, Cérurides, Attacides et surtout Géométrides; il s’agit donc uniquement de papillons nocturnes.
- Les conditions rapides dans lesquelles les formes mélaniques se sont développées dans les districts industriels ont forcément attiré l’attention des biologistes, dont certains ont cru y trouver la preuve, si souvent cherchée, de la formation d’une espèce nouvelle sous l’influence des conditions du milieu. Un certain nombre d’expériences ont été tentées dans cette intention; l’une des plus intéressantes fut celle effectuée, en 1920, par J. W. H. Harrison, qui pensait trouver l’origine du mélanisme industriel dans la présence sur les feuilles dont les chenilles se nourrissent des dépôts des fumées provenant des cheminées d’usines et contenant, entre autres impuretés, des sels de plomb, de potassium, de manganèse. Pour Harrison, la production des formes mélaniques était due au plomb et au manganèse, par mutation des gènes qui contrôlent le mécanisme de la coloration des ailes. Il fit de nombreux élevages, utilisant trois espèces de phalènes très communes : Selenia bilunaria, Boarmia bistortata et B. crepuscularia. Naturellement, ces trois espèces présentent, dans les régions industrielles, une mutation de couleur foncée. La première surtout, très facile à élever et présentant l’avantage d’être bivoltine, c’est-à-dire à deux générations annuelles, lui donna des résultats intéressants. Les plantes nourricières utilisées étaient des branches d’aubépine, qui peuvent être chargées artificiellement de certains des composants des fumées, en particulier de nitrate de plomb et de sulfate de manganèse, lesquels peuvent avoir, à petites doses, un effet physiologique remarquable. A cet
- effet, les tiges étaient placées dans une solution dont le sel est rapidement absorbé; plongée dans une solution de nitrate de plomb à 1 pour 1 000, une tige de 4o cm de long montre, après 24 h, la présence du plomb dans sa partie supérieure.
- Les chenilles mises en expérience étaient naturellement issues de papillons de la race typique, provenant de régions où la forme mélanique n’existait pas ou était, au moins, très rare. Dans ces conditions, la première génération obtenue ne donne que des individus typiques, mais, à la seconde génération, on voit apparaître des « mélanisants », peu nombreux, de l’ordre d’un ou deux sur vingt à trente individus. Dans les croisements avec la forme normale, ces mélanisants se comportent comme des homozygotes; mais, il y a parmi les individus, normaux en apparence, des hétérozygotes qui donnent une disjonction mendélienne. Gomme l’apparition des premiers mélanisants n’est pas dans les proportions mendéliennes, Harrison en déduit qu’il s’agit d’un caractère nouveau récessif, non d’un caractère ancien réapparaissant à la faveur des croisements.
- Il faut noter d’ailleurs que ces conclusions n’ont pas été acceptées; les analyses génétiques faites ultérieurement ont donné des résultats opposés et les auteurs qui ont repris la question s’accordent à considérer que les mélanisants sont presque invariablement, non récessifs, mais un dominant simple,
- Fig. 1. — Exemples de papillons présentant une mutation mélanisante dans les régions industrielles.
- Au-dessous de chaque forme normale figure la forme mélanisante. Dans la rangée de gauche, de haut en bas : Stauropus fagi L. ; Polia nebnlosa Hufn. ; Dasychira pudibonda L. — Dans la rangée de droite, de haut en bas : Tethea ocularis L. ; Tethea or Schî. ; Tethea duplaris L. ; Apatele alni L
- p.48 - vue 52/527
-
-
-
- 49
- ce qui porte un coup sérieux à l’explication proposée par Harrison. Les expériences que cet auteur a consacrées à Boarmia bistortata et Selenia bilunaria, conduites dans des conditions un peu différentes, ont montré l’apparition des mutants foncés après un certain nombre de générations. Dans l’ensemble, les recherches de Harrison seraient donc en faveur d’une action mélanisante due à une certaine intoxication des chenilles qui vivent dans les régions industrielles ; une action indirecte sur les chromosomes entraînerait la transmission héréditaire du caractère acquis.
- Des expériences d’action des vapeurs toxiques, non plus sur des chenilles, mais sur des chrysalides de Boarmia ont été faites par Hasebroek ; les résultats obtenus par cet auteur semblent s’accorder assez bien avec ceux de Harrison. Il n’en est pas de même en ce qui concerne les recherches des biologistes anglais Thomsen et Lemcke, datant de ig33, et Mac .Kenny Hughes. Ces auteurs ont soumis des chenilles de Géométrides à l’action d’une nourriture à laquelle étaient adjoints des sels de plomb et de manganèse. Cinq générations de Selenia bilunaria ont été élevées dans ces conditions, avec un résultat tout à fait négatif; aucun individu mélanique n’a pu être observé, ni parmi la descendance des chenilles soumises à la nourriture spéciale, ni parmi les témoins.
- Fig. 2. — Autres exemples de papillons présentant une mutation mélanisante.
- Au-dessous de chaque forme normale figure la forme mélanisante. Dans la rangée de gauche, de haut en bas : Apatele megacephala Schf. ; Antitype chi L. ; Ectropis consonaria Hb. ; Erannis defoliaria Cl. — Dans la rangée de droite, de haut en bas : Cleora ribeata Cl. ; Phigalia pedaria F. ; Boarmia roboraria Schf.
- Ces deux séries d’expériences paraissant avoir été conduites avec le même soin, il semble que la différence des résultats obtenus ne puisse être recherchée que dans les caractères génétiques incertains des races sauvages de Boarmia mises en expérience. La question vient d’être reprise à un point de vue un peu différent par II. B. D. Kettlewell, qui a publié, en mars 1957, une très intéressante étude dans le volume XIII de la revue anglaise The Advancement of Sciences (*).
- L’auteur indique d’abord les modifications que la flore des Iles Britanniques semble avoir subies depuis la fin des périodes glaciaires. De grandes forêts de pins ont d’abord couvert une grande partie du pays; elles ont été ensuite remplacées presque complètement par des arbres à feuilles caduques, sauf dans la partie septentrionale du pays. A leur tour, ces forêts ont été plus ou moins morcelées par les cultures et, enfin, de vastes parties se sont trouvées envahies par le développement industriel du xixe siècle. Cette invasion a amené des perturbations considérables dans les conditions du milieu. La pollution de l’air se mesure par tonnes dans un mille carré, par mois. Plus loin, dans les districts ruraux, les fumées peuvent se trouver, en petite quantité, à des distances de mille milles. Outre les dommages très visibles infligés au feuillage, des arbres dans le voisinage des usines, on observe, beaucoup plus loin, que les feuilles sont couvertes d’un précipité de suie, et la lumière se trouve fortement diminuée par ce brouillard chargé de poussières qui porte le nom de smog; on constate en outre que les lichens sont particulièrement sensibles à l’action des fumées toxiques et qu’ils disparaissent rapidement. Par suite, le biotope formé par les troncs d’arbres se trouve modifié; au moins en partie, les arbres se trouvent dénudés et noirâtres, surtout le long des traînées de pluie et sous les grosses branches. Il semble que les Lépidoptères soient particulièrement sensibles à ces changements. Les chenilles sont directement influencées par la présence de suie sur les feuilles qui leur servent de nourriture; quant aux papillons, on remarque que les formes typiques, claires à dessins fins et compliqués, sont presque invisibles quand elles sont posées, au repos, sur les lichens, alors que les mutations foncées sont bien mieux dissimulées sur les troncs dénudés, noirâtres.
- Signification biologique du mélanisme industriel.
- — Les recherches de Kettlewell ont un double but : montrer d’abord que la coloration foncée peut avoir une valeur protectrice dans les districts industriels et, par l’action des prédateurs, des oiseaux surtout, peut donner prise à la sélection naturelle; ensuite, rechercher l’origine des mutations et leur signification du' point de vue de l’évolution. La première question avait été déjà étudiée par Harrison, qui a observé pendant plusieurs années, près de Newcastle-on-Tyne, une noctuelle (.Antitype chi) présentant une forme mélanique presque aussi commune dans la région que la forme normale. Il observa que ces papillons se posaient indifféremment sur trois murs de couleurs différentes où ils se trouvaient naturellement plus ou moins visibles. Les observations étaient faites le matin et le soir, de façon à contrôler si les individus posés sur fond hétérochrome disparaissaient plus rapidement que les autres, par suite des attaques des oiseaux. Les résultats furent absolument négatifs, les noctuelles posées ne semblant attaquées en aucun cas.
- Nous allons voir que les nouvelles recherches de Kettlewell sont tout à fait en désaccord avec ces observations. Cet auteur a choisi comme sujet d’études le Biston betularia et sa forme noire carbonaria, c’est-à-dire la première espèce chez laquelle on ait signalé une forme mélanique. Cette phalène est com-
- 1. The contribution of industrial melanism in the Lepidoptera to our knowledge of évolution, par II. B. D. Kettlewell, The Advancement ot Sciences, 13, 1957, pp. 245-252, 6 pl. Les photos que nous publions sont extraites de cette publication, avec l’aimable autorisation de l’éditeur.
- p.49 - vue 53/527
-
-
-
- 50
- Figr. 3 et 4. — Valeur cryptique comparée des formes normale et mélanique du papillon Biston betularia.
- A gauche, les deux papillons posés sur un tronc de chêne garni de lichens ; la forme normale, claire, est presque invisible. A droite, les deux papillons sur un tronc de chêne de la région industrielle, sans lichens ; c’est la forme mélanique qui s’aperçoit difficilement.
- (Photos aimablement communiquées par le Dr II. B. D. Kettlewell).
- rnune et facile à élever; les papillons sont adultes en Angleterre de mai à août; les œufs sont pondus, en paquets, dans les crevasses de l’écorce des arbres. A l’éclosion, les petites chenilles se suspendent à des fils de soie et sont emportées par le vent, à la façon des araignées transportées par les « fils de la Vierge », ce qui facilite la dispersion de l’espèce; elles vivent sur la plupart des arbres, de mai à octobre, se chrysalident dans le sol et l’insecte passe l’hiver à ce stade de développement. L’éclosion du papillon adulte a lieu vers le soir et les femelles nouvellement écloses attirent les mâles jusqu’à l’aube.
- Les études de KettleAvelI, ayant pour but de faire ressortir les différences entre les deux formes, ont porté sur l’ensemble du comportement du papillon et de sa chenille; elles ont donné des résultats fort intéressants, qui peuvent se résumer ainsi : i° Pour vérifier la valeur cryptique de la coloration, des individus, en nombre connu, de la forme carbonaria et de la forme typique ont été marqués et mis en liberté dans une région industrielle et dans certains points de l’Ouest et du Sud de l’Angleterre où les bois non pollués présentent une garniture abondante de lichens. Les insectes sont recherchés et capturés pendant une quinzaine de jours après la mise en liberté; le résultat est que deux fois plus de mélaniques sont recapturés dans la région industrielle de Birmingham et la situation est inverse dans les régions non polluées. L’auteur pense que, seule, l’action des oiseaux peut être responsable de cette différence. 2° Des essais ont été faits pour tenter d’élucider une question fort importante pour l’efficacité de la coloration cryptique; les papillons se posant pour prendre leur repos sont-ils capables de choisir le fond qui les rendra invisibles ? Les résultats sont moins nets qu’en ce qui concerne la question précédente. Dans un enclos d’expérience, deux tiers environ des insectes lâchés semblent choisir un fond
- homochrome. Dans la nature, les papillons se posent sur un arbre au hasard; mais, ensuite, ils circulent sur une faible surface, avant d’étendre leurs ailes dans la position de repos et semblent ainsi chercher une place favorable.
- La troisième série d’expériences réalisées par Kettlewell concerne les chenilles. Dans les élevages résultant de croisements entre les deux formes de Biston, on observe que les chenilles qui mangent rapidement et se chrysalident les premières donnent une forte proportion de papillons de la forme typique; celles qui se nourrissent mal et se chrysalident tard donnent plutôt des carbonaria. Comme dans un tel croisement le pourr centage des deux formes devrait être à égalité, c’est dans les conditions de l’élevage que doit être recherchée la différence. Voici l’explication que l’auteur pense pouvoir donner de ce fait : les chenilles de la forme typique sont amenées, par la sélection, à manger plus rapidement et à éviter ainsi la pollution des feuilles, plus forte a la fin de la saison; ou alors, les chenilles devant donner des carbonaria, mangeant lentement, résistent mieux à l’intoxication et le mélanisme donnerait à l’espèce la possibilité d’étendre sa vie larvaire sur une plus longue période. Notons que l’augmentation de la pollution sur le feuillage d’automne a été vérifiée; on a pu en même temps constater l’influence exercée par les pucerons pendant tout l’été, en fixant les poussières sur les feuilles par leur sécrétion sucrée.
- On voit la différence entre la conception de Ilarrison, qui accepte l’intoxication comme cause du mélanisme, et celle de Kettlewell qui pense à une résistance, développée par la sélection naturelle, à cette intoxication. Cette résistance des chenilles a été expérimentalement prouvée en nourrissant des produits de croisements avec des feuilles artificiellement polluées; les chenilles qui devaient donner des carbonaria se sont montrées nettement plus résistantes que celles des papillons de la forme typique.
- p.50 - vue 54/527
-
-
-
- 51
- Enfin, quelques expériences ont été faites sur l’attraction des mâles par les femelles des deux formes. On constate une différence très marquée suivant la température; les femelles carbo-naria attirent davantage les mâles pendant les nuits chaudes et ce sont, au contraire, les femelles typiques qui prennent l’avantage pendant les nuits froides. Il semble y avoir une différence dans l’émission et, peut-être, la composition des molécules odorifères; l’auteur poursuit, à ce sujet, une étude par les méthodes chromatographiques.
- Mélanisme industriel et évolution. — Dans l’ensemble, que peut-on déduire de ces nouvelles recherches, indiscutablement fort intéressantes, pour la solution du problème de la valeur protectrice des colorations cryptiques, en général, et des formes mélaniques en particulier? D’abord une preuve de la sélection par les oiseaux. Celle-ci semble devoir être définitivement admise; si quelques observations ont paru lui être opposées, elles sont vraiment négligeables à côté des preuves apportées. A ce sujet rappelons que Kettlewell a réalisé, à l’appui de cette thèse, un film extrêmement instructif, qui a été présenté au Congrès international d'Entomologie d’Ottawa, en 1956. On y voit six espèces d’oiseaux faire un choix indiscutable entre les formes typique et mélanique de Biston betularia, suivant la position prise par le papillon sur un fond homochrome ou non. Un seul point reste encore en litige : c’est la question si importante du choix du substrat; aucune expérience n’a donné, à ce sujet, de résultats bien positifs et la question devrait être reprise.
- Quant à la question de l’origine des mutations mélanisantes
- et de leur valeur du point de vue de l’évolution, il semble que la thèse, pourtant séduisante, de Harrison ne peut être retenue. L’action certaine de l’intoxication des chenilles par les fumées industrielles déposées sur les feuilles ne paraît pouvoir être la cause des modifications d’un ou plusieurs gènes responsables de l’apparition des mutations mélanisantes; elle peut seulement agir par sélection sur des formes déjà existantes. Il est évident que les formes mélaniques existent en dehors des régions industrielles; elles y sont simplement beaucoup moins communes que les formes typiques de coloration claire. J’en citerai un exemple qui m’a été signalé par mon collègue P. Viette, du Muséum d'Histoire naturelle; il s’agit de Neocleora legrasi, Phalène voisine des Boarmia, qui habite la forêt malgache, bien éloignée de toute influence industrielle; or, cette espèce présente une forme mélanisante, d’ailleurs assez rare, absolument comparable aux formes des régions industrielles, et qui vole en même temps que la forme claire. L’idée de Kettlewell est que le mélanisme est une forme de polymorphisme qui peut présenter un état d’équilibre entre deux génotypes lorsque les conditions du milieu, variées, offrent des avantages à l’espèce dans ses formes diverses. Sous l’action de conditions défavorables, l’un des génotypes peut se trouver éliminé, mais il peut réapparaître et prospérer si des conditions nouvelles lui sont devenues favorables. Le mélanisme industriel entrerait dans ce type et son extension serait due à la sélection sous l’influence d’un changement récent dans les conditions du milieu.
- Lucien Chopard,
- Professeur honoraire au Muséum.
- Les métamorphoses des Crustacés
- Il fallait toute la science et la clarté de K. E. Snodgrass pour donner en un petit fascicule une si parfaite idée des métamorphoses des Crustacés (’). Le titre est en effet trop modeste et si les Crustacés sont particulièrement étudiés dans ce travail, une excellente introduction élargit le sujet aux métamorphoses de tous les Arthropodes. L’auteur montre d’abord que la métamorphose des Crustacés diffère essentiellement de celle des Insectes en ce qu’elle se produit à un stade bien plus précoce du développement. Le jeune Insecte sort de l’œuf avec le nombre définitif de segments (développement épimorphique) tandis que la plupart des Crustacés éclosent à des périodes variables d’immaturité, avec un nombre de segments et d’appendices inférieur à celui de l’animal adulte (développement anamorphique). Pendant leur développement post-embryonnaire, ils ajoutent successivement de nouveaux segments jusqu’à ce que ce nombre soit atteint. Il n’y a pas de stade de repos comparable à la pupe des Insectes. Chez les Crustacés les plus élevés en organisation, l’éclosion tend à se produire de plus
- 1. Crustacean Métamorphosés, par K. E. Snobcrass. Smithsonian Miscella-neous Collections, vol. 131, n” 10, 78 p. Washington, 1957.
- en plus tard dans l’ontogénie, le développement se rapprochant du développement épimorphique. Le contrôle de la métamorphose par des hormones, si largement étudié chez les Insectes, n’est pas encore aussi bien connu chez les Crustacés, bien que les recherches récentes sur les glandes du pédoncule oculaire et de la région antenno-maxillaire fassent ressortir une action évidente sur les mues. L’éclosion des Crustacés se faisant à des stades variés du développement, les jeunes larves peuvent montrer des formes très différentes, représentant des stades de l’ontogenèse différents suivant le degré de développement de l’œuf. La larve la plus simple est le nauplius, habituellement suivie du métanauplius ; tous deux sont décrits de façon assez détaillée au début de la deuxième partie du travail de Snodgrass. L’auteur donne ensuite des exemples des différents types larvaires rencontrés dans tous les grands groupes de Crustacés ; ces types sont décrits et soigneusement figurés, une place particulièrement importante étant réservée aux formes parasites, en général si déformées à l’état adulte. Le travail se termine par un intéressant chapitre sur la structure et l’évolution des appendices des Arthropodes.
- L. C.
- Les prix du Conseil supérieur de la Recherche scientifique
- Le 9 janvier dernier, le président du conseil des ministres a remis solennellement les prix du Conseil Supérieur de la Recherche scientifique et du Progrès technique à plusieurs savants français.
- L’un d’eux, M. Eugène Herzog, directeur de recherches aux Aciéries de Pompey, est l’auteur de travaux importants sur les aciers résistant à la corrosion. La Nature a signalé récemment l’écueil rencontré par les ingénieurs dans l’extraction du gaz de Lacq, à savoir l’attaque des tubes par H2S donnant lieu à un phénomène de corrosion fissurante. Nous ajouterons que c’est grâce aux recherches de M. Herzog qu’un acier spécial a pu être mis au point en vue de l’amenée du gaz jusqu’à l’usine de traitement. Entre temps et après consultation d’experts américains, le problème avait été jugé insoluble.
- MM. Capot-Rey, directeur de l’Institut géographique d’Alger, et le Professeur Menchikoff, directeur du Centre de recherches sahariennes, ont puissamment contribué par leurs études tectoniques et stratigraphiques du Sahara à la connaissance du sous-sol de ce territoire. On se souvient que les travaux du Professeur Menchikoff ont été signalés dans un article de La Nature consacré aux pétroles du Sahara.
- A ces prix attribués par le Conseil Supérieur de la Recherche scientifique et du Progrès technique s’ajoute celui qui a récompensé la découverte faite par le Professeur Loubatières d’une série de sulfamides hypoglycémiants dont l’action s’exerce sur les cellules du pancréas et qui, en régénérant ces cellules, permettent le traitement du diabète par voie orale.
- p.51 - vue 55/527
-
-
-
- Les souffleries à grande vitesse
- Le XXIIe Salon de l’Aéronautique qui s’est déroulé en 1957 aurait pu se placer sous le signe de la course vers les hautes vitesses avec la présentation au sol et en vol de prototypes d’intercepteurs qui dépassent tous largement la vitesse du son. Ces résultats n’ont pu être obtenus que grâce à une amélioration des méthodes d’investigation aérodynamique, et principalement des souffleries.
- Dès ig48, à l’époque où les avions commençaient à franchir le mur du son, la nécessité de souffleries supersoniques s’était fait sentir, et un certain nombre en furent construites dans les divers pays du monde, mais avec un nombre de Mach d’utilisation généralement peu supérieur à 1. La raison principale d’une limitation de la vitesse de veine tenait dans le coût extrêmement élevé des essais supersoniques. La puissance nécessaire au fonctionnement d’une veine de soufflerie est effectivement proportionnelle au cube de la vitesse et à la section de la veine. Ainsi, à section constante, le passage d’une vitesse de 5o m/s à une vitesse correspondant à un nombre de Mach de 2, revient à multiplier la puissance par 25o. Rappelons également qu’à la soufflerie sonique de Modane, la puissance absorbée en fonctionnement atteint 120 000 ch. Certaines veines supersoniques atteignent des puissances analogues, comme celle de Cleveland aux États-Unis, qui absorbe en régime normal 87 000 ch; on en
- voit sur la figure 1 le rotor du compresseur. Toutefois, pour éviter des dépenses trop lourdes et impossibles à supporter par les constructeurs d’avions, on a étudié différents modèles de soufflerie supersonique basés sur des modes de fonctionnement nouveaux.
- Caractéristiques des souffleries supersoniques. —
- La première solution du problème consistait à réduire la section de la veine, et c’est ce qui fut effectivement tenté. Malheureusement, on est assez vite limité dans cette voie, car une réduction trop poussée de la taille des maquèttes ne permet plus d’étudier correctement les interactions qui s’exercent entre les différents éléments de l’avion, interactions dont la connaissance est primordiale aux vitesses supersoniques. Mais la plus grande simplification a été obtenue en modifiant le mode de fonctionnement de la soufflerie. La plupart des souffleries subsoniques et les premières souffleries supersoniques étaient dites « à retour », c’est-à-dire que la veine d’air fonctionnait en circuit fermé. On conçoit que la puissance dépensée est alors plus grande dans ce cas que si l’on supprime tout le circuit de retour; c’est pourquoi toutes les installations récentes de souffleries supersoniques sont du type « à rafale », dans lequel un jet d’air ou rafale traverse la chambre de mesure à grande vitesse et pendant
- Fig. 1. — La soufflerie supersonique de Cleveland, aux États-Unis, en cours de montage.
- On voit, au centre, le rotor du compresseur (Photo aimablement communiquée par les services américains d’information).
- p.52 - vue 56/527
-
-
-
- 53
- un temps relativement court. Les souffleries à rafale peuvent être de deux sortes : à aspiration ou à refoulement.
- Une soufflerie à aspiration se compose essentiellement d’un grand réservoir dans lequel on fait le vide et qu’on relie à l’atmosphère par l’entremise de la veine de mesure (fig. 2).
- Fig. 2. — Schéma d’une soufflerie à aspiration.
- R, réservoir vide ; G, vanne ; V, veine de mesure.
- Une vanne ouvre la communication au moment de la mesure, et le réservoir se remplit en aspirant l’air atmosphérique, produisant une rafale à grande vitesse. Devant la section de mesure, on monte généralement un filtre et un dessiccateur afin que Pair ne soit pas pollué par des condensations de brouillard. Aux États-Unis, la société North American vient de construire une installation comportant une veine de mesure de 0,16 dm2 de section, et qui peut aller jusqu’à un nombre de Mach de 4S4.
- Dans les souffleries à refoulement, le phénomène est inverse : la rafale est produite par la détente d’une masse d’air emmagasinée dans un réservoir à pression élevée; ce réservoir est relié à l’atmosphère par le circuit de la soufflerie. Pour que la pression génératrice de la rafale ne s’abaisse pas trop pendant le déroulement de celle-ci, l’air est emmagasiné dans un ballon en matériau élastique, lui-même à l’intérieur du réservoir sphérique métallique.
- En regard de leur économie de fonctionnement, les souffleries à rafales présentent l’inconvénient de ne permettre que des essais de courte durée, correspondant au temps de passage de la rafale.
- S’il est intéressant de posséder des souffleries capables d’atteindre un nombre de Mach de fonctionnement élevé, il l’est encore plus de pouvoir faire varier ce nombre de Mach d’une façon continue entre les limites les plus larges possibles. Dans une soufflerie supersonique, la veine est constituée successivement (fig. 3) : d’un collecteur à parois convergentes, se terminant par un col de section rétrécie dans lequel la vitesse du son est atteinte, d’un élément légèrement divergent qui conduit à la veine d’expérience de section constante S, et d’un diffuseur. Le nombre de Mach dépend alors du rapport S/Sc. Pour faire varier M, il faut donc modifier le profil de la veine d’expérience. Une première méthode consiste à avoir différentes sec-
- if
- Diffuseur
- Collecteur
- Schéma d’une soufflerie supersonique.
- Fig. 3.
- Fig. 4. — Schéma d’une soufflerie à bosses.
- En haut, en élévation. En bas, vue en plan.
- tions de veine interchangeables et que l’on utilise indifféremment ; mais cette solution oblige, entre les essais, à se livrer à des manœuvres fastidieuses qui augmentent la durée et par contrecoup, le coût des essais. Aussi, on emploie plus fréquemment maintenant des tuyères à parois déformables, constituées de tôles flexibles, dont l’écartement aux différents points est réglé au moyen de vérins. Enfin, à l’Institut aérotechnique de Saint-Cyr, une nouvelle méthode dite « de la bosse » a été mise au point, qui ne demande pas un réglage soigné et permet d’obtenir une variation continue du nombre de Mach entre x et 2.
- On désigne sous le nom de bosse deux éléments profilés symétriques disposés sur deux parois opposées et planes du collecteur de la soufflerie (fig. 4) (x).
- Une zone sonique se forme au col, derrière laquelle se déve-
- 1. Voir pour plus de détails : Tuyères supersoniques à col réglable, par Ménard et Monod. Publications scientifiques et techniques du Ministère de l’Air, N. T. 51.
- Fig. 5- ~ Visualisation des ondes de choc dans l’essai d’une maquette en soufflerie supersonique.
- (Photo U. S. t. S.).
- p.53 - vue 57/527
-
-
-
- 54
- loppe le régime d’écoulement supersonique. Si l’on désigne par S la section de la veine d’expérience, Sc la section du col sonique et s la section des bosses à l’emplacement du col sonique, le nombre de Mach dans la tuyère dépend alors du rapport S/(SC — s). En déplaçant longitudinalement les deux bosses, on fait varier la section s, et par suite le nombre de Mach de fonctionnement de la soufflerie.
- Dans certains cas, lorsque les mesures doivent être effectuées sur des maquettes fixées à une paroi plane, on peut n’utiliser qu’une seule bosse. C’est sur ce principe qu’a été réalisée la soufflerie de 5o x ioo mm2 de section de veine de l’Institut aérotechnique de Saint-Cyr, où le nombre de Mach d’utilisation peut varier d’une façon continue entre 1,2 et 1,8.
- Méthodes de mesure. — Indépendamment des .mesures classiques des forces et moments qui s’exercent sur la maquette, telles qu’elles sont pratiquées dans toutes les souffleries subsoniques, on effectue, lors des essais aux vitesses supersoniques, des visualisations de l’écoulement qui permettent d’acquérir des données supplémentaires, en particulier sur les configurations d’ondes de choc.
- L’une des plus utilisées de ces méthodes de visualisation est la méthode des ombres. La veine d’essai est éclairée par un faisceau de lumière issu d’une source située à l’extérieur. Lorsque dans l’écoulement de fluide, il se produit des variations de masse spécifique, donc des A’ariations de l’indice de réfraction,
- les régions intéressées dévient les rayons lumineux et provoquent sur un écran placé de l’autre côté de la veine des zones d’ombre qui matérialisent les ondes de choc, les sillages et autres discontinuités de l’écoulement. La figure 5 montre une maquette en essai dans une soufflerie supersonique; on y distingue clairement les ondes de choc attachées.
- D’autres méthodes optiques utilisent soit la strioscopie, soit l’interférométrie. Elles ont été décrites dans La Nature, mai 1957, p. 162.
- #
- * *
- L’évolution des souffleries n’est certes pas terminée; les récents problèmes d’ordre aérodynamique posés par réchauffement aux grandes vitesses vont nécessiter des installations nouvelles permettant d’une part de restituer dans les veines de mesure des nombres de Mach et des altitudes de beaucoup supérieurs à ceux qui sont pratiqués actuellement, et d’autre part d’effectuer des mesures de température à la paroi de la maquette.
- Enfin, au train où vont les choses, il n’est pas impossible que l’on s’attache bientôt aux essais en soufflerie de maquettes de fusées interplanétaires. Il faudrait alors restituer des conditions de vol d’une nature tout à fait particulière qui vont poser aux chercheurs dans les prochaines années des problèmes ardus.
- Jacques Spincourt.
- Une horloge atomique à césium
- construite en série aux Etats-Unis
- Entrée I H F
- Fig. 1. — Principe du tube à vapeur de césium de V « Atomichron
- Le jet d’atomes de césium J,, sortant de la chambre à césium Cs, passe entre les pièces polaires dissymétriques P, et P„ d’un aimant. Seuls les atomes du niveau inférieur d’énergie qui forment le jet Ja arrivent dans le tube central où ils absorbent l’onde de haute fréquence. Les atomes excités sont ensuite séparés des autres par des pièces polaires P', et P',, formant le jet J3 qui frappe -la cible C où ils s’ionisent. Les ions ainsi formés produisent un courant, amplifié dans le multiplicateur d’électrons M, nul si la haute fréquence introduite ne correspond pas à la fréquence de la
- raie d’absorption.
- Depuis plusieurs années, des efforts considérables ont été faits tant aux Etats-Unis qu’au Japon pour réaliser un étalon de fréquence aussi stable que possible, qui puisse constituer une base de temps plus directement utilisable et plus valable que la rotation de la Terre, qu’on sait entachée d’irrégularités saisonnières ou non. Il était naturel de s’adresser dans ce but aux propriétés de l’atome et de la molécule, que l’on peut considérer a priori comme invariables, en particulier aux raies d’absorption ou d’émission dans le domaine des fréquences radioélectriques. La plupart des « horloges » atomiques ou moléculaires réalisées jusqu’ici utilisent une raie d’inversion de la molécule d’ammoniac sur 1,26 cm, soit en cherchant le maximum d’absorption d’une onde radioélectrique de fréquence ajustable qui se propage dans un guide d’ondes d’une vingtaine de mètres de long contenant du gaz ammoniac, soit en faisant osciller les molécules d’ammoniac préalablement excitées, produisant
- ainsi une onde radioélectrique presque monochromatique. Cette dernière réalisation a été étudiée en détail dans un précédent article (1) et présente un très grand intérêt tant théorique que pratique. Cependant elle est de mise en œuvre délicate, et la plupart des horloges à molécules d’ammoniac qui fonctionnent aujourd’hui en de nombreux points du globe utilisent la première méthode. La fréquence de 28 870 mégahertz, stabilisée grâce à l’existence d’un maximum d’absorption très bien défini de l’ammoniac, est employée à étalonner toutes sortes d’oscillateurs de précision à quartz piézoélectrique ou d’appareils de mesure des fréquences radioélectriques. Mieux encore, on peut comparer, grâce à des multiplicateurs et diviseurs de fréquence, le signal créé par l’horloge atomique au mouvement du balan-
- 1. Voir : Le « maser », oscillateur et amplificateur moléculaire, par James Lequeux, La Nature, décembre 1957, p. 470.
- p.54 - vue 58/527
-
-
-
- 55
- Fig. 2. — Schéma de l’oscillateur « Atomichron ».
- Explications dans le texte.
- ______Entrée du
- 9.1921 631830 M hz tube a Césium
- modulé à 100 Hz
- Addition
- 9.180 Wbz
- (5x 1836)
- multiplicateur
- 12,631830 mz modulé
- 1 I
- Sortie lOOMhz SortielOOWta
- Modulation
- Synthétiseur
- I T
- Sortie 100 K hz Sortie 11V! hz
- Oscillateur 100 Hz
- Sortie du multiplicateur d'électrons
- Oscillateur
- smz
- Sortie5Mhz
- Contrôle de fréquence
- cier d’une horloge astronomique dont on veut contrôler la marche.
- L’ammoniac n’est pas le seul gaz susceptible d’entrer dans la réalisation d’une horloge atomique et l’on peut employer les raies de radiofréquences d’autres corps. C’est ainsi que la firme américaine The National Company construit en série depuis quelques mois un étalon de fréquence à vapeur de césium désigné sous le nom d’ « Atomichron ».
- Dans ce système, dont la figure i fournit le schéma, le signal de haute fréquence créé par l’oscillateur à quartz, qu’il s’agit de stabiliser avec une très haute précision, est introduit dans un long tube où règne un vide poussé.
- Un jet de vapeur monoatomique de césium, provenant d’une chambre chauffée contenant ce métal, traverse lui-même le tube dans le sens de la longueur et est soumis à l’action de l’onde électromagnétique de très haute fréquence. Mais le jet a dû passer au préalable entre les pôles d’un aimant qui opère un triage entre les différents atomes de césium. En effet, chaque atome présente un nombre impair d’électrons, et l’électron non apparié possède un spin qui peut occuper par rapport au spin du noyau atomique deux positions : si les deux spins sont antiparallèles, l’atome est dans l’état d’énergie minimum et il est susceptible d’absorber un photon pour passer à l’état d’énergie supérieur, où les deux spins sont parallèles. Dans la vapeur de césium ces deux sortes d’atomes coexistent habituellement, mais dans une région où règne un champ magnétique non uniforme on constate que les atomes à spins parallèles se dirigent vers les régions où le champ est fort ; les autres se rendent vers les régions de faible champ et continuent seuls leur voyage à travers le tube. En présence de l’onde radio dont la fréquence est égale à celle qui correspond à la transition entre les deux niveaux d’énergie possibles, beaucoup de ces atomes absorbent l’onde et passent à l’état d’énergie supérieur, les spins nucléaire et électronique devenant parallèles. Un nouveau passage dans un champ magnétique non uniforme permet d’isoler les atomes excités qui viennent ensuite frapper une cible : ils s’ionisent alors et deviennent des ions dont on peut facilement mesurer le nombre à l’aide d’une cellule à multiplicateurs d’électrons.
- On conçoit que, pour que ces phénomènes puissent avoir lieu, la fréquence de l’onde radio qui agit sur le jet atomique doit être exactement égale à celle de la raie d’absorption de la vapeur de césium qui correspond à là transition envisagée ici. Si elle s’en écarte, l’absorption ne peut plus se produire et les atomes qui traversent la partie centrale restent tous à l’état d’énergie inférieur et ne viennent plus frapper la cible : aucun courant ne sort plus de la cellule à multiplicateurs d’électrons. Le courant de cette cellule est un moyen extraordinairement sensible de stabiliser la fréquence de l’onde radioélectrique à la valeur exacte de 9 162 63i 83o cycles par seconde. Cette onde radio est produite à partir d’un oscillateur à quartz piézoélectrique fonctionnant sur 5 mégacyoles par seconde : un multiplicateur produit une fréquence qui vaut exactement 1 836 fois celle du quartz, à laquelle s’ajoute celle d'un synthétiseur qui combine harmoniques et sous-harmoniques de l’oscillateur initial (fig. 2). Le tout est modulé à 100 cycles par seconde, car il est beaucoup plus facile d’utiliser un multiplicateur d’électrons avec un signal alternatif qu’en présence d’un signal continu (résultat d’ailleurs valable pour la plupart des appareils de physique).
- Le courant qui sort de la cellule, dont la fréquence est de 100 cycles par seconde et dont l’amplitude est d’autant plus grande que l’accord est mieux réalisé agit sur la fréquence de l’oscillateur à quartz en commandant un servomoteur qui actionne une capacité variable du circuit résonant de l’oscillateur. On peut ainsi commander un oscillateur de manière que sa stabilité soit sans doute meilleure que 5.io-10 en valeur relative, non seulement sur la fréquence de 5 mégahertz de vibration du quartz, mais sur 100, 10, 1 et 0,1 mégahertz, harmoniques et sous-harmoniques de celle-ci qui peuvent aussi être fournis avec une puissance appréciable. On peut ainsi déterminer des fréquences ou des temps avec cette extraordinaire précision. Loin d’être très encombrante, cette horloge à césium ne mesure que 2,10 m de haut sur o,55 de large et o,45 de profondeur, et pèse à peine 25o kg.
- Il est certain que cet « Atomichron » est appelé à une vaste diffusion dans les laboratoires d’électronique et les observatoires du monde entier. Les horloges atomiques, dont il constitue sans doute le premier type fabriqué industriellement, ne permettent-elles pas de déterminer le temps avec une précision telle qu’elles deviennent un des instruments fondamentaux de l’astronomie de position ? Espérons que bientôt des résultats très remarquables seront obtenus avec l’aide de ces appareils, une des réalisations les plus intéressantes de la physique moderne.
- James Lequeux.
- Cerveaux électroniques et zéro absolu
- Un appareillage nouveau, destiné aux machines à calculer électroniques, est actuellement à l’étude à Cambridge (U. S. A.). Il s’agit de pièces métalliques, baptisées cryotrons et dont la particularité est de devoir fonctionner aux environs du zéro absolu. On sait les changements importants subis par la matière aux très basses températures et notamment la superconductibilité acquise par les métaux. Le cryotron, baignant dans l’hélium liquide, aurait cette propriété. Il consisterait en un fil métallique de 2,5 mm de long, entouré d’une spirale de fil d’une extrême finesse. Cette spirale pourrait être parcourue par un courant de contrôle qui, créant un champ magnétique, rendrait momentanément au cryotron sa résistivité normale. On disposerait ainsi d’un organe de dimensions encore plus réduites que le transistor et qui pourrait établir et couper les connexions, en lieu et place des actuels tubes électroniques. Une encombrante machine, occupant aujourd’hui une salle entière, pourrait être remplacée par un appareil guère plus grand qu’un carton à chapeau.
- p.55 - vue 59/527
-
-
-
- Fig. 1. — La nuée mouvante des Étourneaux au-dessus de l’étang (Dessin inédit de Roger Reboussin).
- Le coq du clocher, en fin de nuit, se précise peu à peu sur le zénith; imperturbable, il indique la direction du vent régnant. Par la fenêtre ouverte, vous ne distinguez encore, du fond de votre lit, que les voix printanières des passereaux des jardins et des champs éveillés avant l’aube, quand, tout à coup, deux ou trois Étourneaux, à peine gros comme des merles, viennent se percher sur le coq de métal et se profilent à leur tour sur le ciel du village. On les sent dispos; leurs mouvements sont prestes; ils se déplacent d’une pièce.
- Pour les détails, il faut que l’aurore y contribue, surtout s’il s’agit d’un mâle qui n’ait pas suivi ses compagnons affamés. Haut perché, il reçoit les premiers rayons; luisent alors les lancettes vertes et violettes de sa poitrine et de sa gorge. Cette caresse du soleil levant l’incite à chanter : ramage continu, varié d’intonations personnelles, de caqu/ettements bruités, préludes à de nouveaux trilles sans grande musicalité, à des notes filées en sifflets d’appel, suivies d’imitations glanées là et ailleurs, bruits de portes grinçantes, tintements d’horlogerie, miaulements de chat ou de chevêche appris au hasard de ses vagabondages. Volubilité aux termes épars, bavardage de bateleur avec gesticulation des ailes au ras du corps ou écartées comme celles d’un jouet mécanique; il distribue ce babillage à un public invisible et s’arrête enfin pour aller rejoindre ses commensaux habituels d’un vol direct, affairé. Ses ailes sont pointues, petits triangles peu allongés, mais actifs sur le corps en navette, à queue courte. Dynamiquement, c’est parfait pour un voyageur impatient, migrateur à longue portée.
- Pour l’instant, le voici arpentant le sol d’un pas alerte, donnant du bec sur un ver saisi lé temps de faire un avant-trou
- par un déclic instantané qui écarte ses mandibules en plein limon. Il poursuit sa quête parmi les mottes du pacage, les taupinées, les bouses des bestiaux ou les fourmilières, y consommant les occupants; ses muscles s’enrichissent des vertus d’activité de l’acide formique. Sur les pâtis du coteau, au milieu des moutons, il sera là comme chez lui, se perchant entre temps sur les toisons insouciantes. En troupes plus nombreuses, en juillet, prairies fauchées, les Étourneaux environnent les vaches des communaux, les émouchent aux yeux et au mufle, accompagnés dans cet office par les Bergeronnettes printanières.
- *
- * *
- Écloses en forêt à la faveur des trous de pic des arbres de futaie, des platanes des allées routières, des parcs ou des vergers, sous les toits comme aux anfractuosités des murailles, les nichées se groupent dès la fin du printemps, pillent les cerisiers, puis les sureaux et les vignes. Bande par bande, chacune a son gagnage. Vienne l’automne, on assiste chaque soir à une réunion bruyante qui s’accroît vite au haut d’un peuplier où les feuilles saisies par les premiers brouillards tiendront toutes jaunes un temps encore, après les précoces gelées, comme une auréole miroitante.
- Le soleil décline sur la forêt en « rouilles »; des chênes à l’écorce grise encerclent d’un front compact l’étang qui reflète le ciel au bord de ces lieues de végétation sauvage. Les bouleaux graciles, de leurs troncs blancs, jalonnent cette grave limite; au-devant foisonnent l’herbe fauve et la bruyère
- p.56 - vue 60/527
-
-
-
- 57
- (Erica tetralix) jusqu’à la boire où leg sangliers viennent, de nuit, se souiller, tandis qu’en ce début d’octobre chaque grand Cerf défend âprement sa harde contre tout rival aux bois rameux; la forêt sera, jusqu’au jour, pleine de brames ardents meuglés à pleine gorge.
- Sur la chaussée de l’étang, près de la bonde où l’eau est profonde et claire, je contemple le double silence du ciel miré dans l’eau libre en mauve assourdi. Ce calme envoûtant s’amplifie quand se tait la dernière chanson du Rouge-Gorge.
- Brusquement, surgit au-dessus de ma tête, une troupe de quelques Sansonnets — autre nom des Étourneaux, — sans un cri, bruissant comme une giclée de plombs; la mare capte son reflet. Mais bientôt la bande tourne comme éperdue et boucle bientôt sa lancée sur ce point élu depuis des générations.
- Derrière moi, le couchant n’est plus qu’une lueur jaune tout au ras de l’horizon. De gros chênes, des hêtres énormes soutiennent la chaussée sous laquelle peut se vider l’étang par un contrebas impressionnant, au moment de la pêche de Carême.
- Une seconde escadrille, plus forte, sur le même trajet rejoint la première : vrrr ; vrrr; vrmr... D’instant en instant, plus ou moins serrées, d’autres volées accroissent le tourbillon fré-
- Fig. 2. — Étourneau chantant.
- nétique où s’absorbent à l’envi, venus de toute orientation, de nouveaux participants. Bal sans musique, mais entraînant comme un cercle magique. Parfois un. sifflet, une voix menue se perd dans la giration en vrillant dans la masse mouvante qui se maintient à 20 m en l’air et vire, brassée par un insensible ouragan, imposant une image d’infrangible entité.
- Et pourtant cette fusion n’aboutit pas à s’agglomérer ! Même, ce noir essaim se distend sans se rompre; et, après un frémissement durci en virages foncés, violents comme une charge, il se calme en un spasme muet dont les multiples unités planent plus lentes et ajourent cette nuée d’oiseaux. Ne vous attendez
- Fig. 3. — Autre phase du vol des Sansonnets.
- (Dessins inédits de Roger Reboussin).
- pas encore à une décision, bien que les retardataires soient arrivés.
- Grain à grain non comptés — ils sont maintenant deux à trois cents, — cette foule continue à rouler sur elle-même sans que vous puissiez jamais suivre une seule de ces petites silhouettes anonymes, noires ou claires selon que l’ensemble se contracte en un tassement brusque ou s’épanouisse comme une fusée étoilée de petits ventres éclairés par les rougeurs du soir finissant. Pas de chocs ni de chutes dans ce carrousel infatigable qui peut, comme fumée, passer de la formation la plus inquiétante de vitesse et de densités si variables au groupement le plus transparent, s’allonger en typhon à la rencontre de son impeccable reflet, se rapprocher jusqu’à vous faire entendre le fredonnement de ses cinq cents ailettes vigoureuses, et tantôt se fondre en une boule plastique pour un effondrement fatal, tantôt remonter en torsades vite condensées en une sphère molle qui se fera œuf ou colonne, bulle ou masse d’armes, queue de cerf-volant, hérisson aérien ou pochoir japonais.
- Ainsi vannée, la nuée mouvante obéit pourtant comme tous les oiseaux du jour à l’invite du sommeil. G’est la loi. Quant à son énigme, je m’étonne que l’ignorance populaire n’ait pas inventé une belle et obscure légende au sujet de cette ronde impressionnante et mystérieuse, et moins pour l’expliquer que pour représenter son prestige. Beau motif cependant que telle république qui eût été métamorphosée en légion volante en quête d’un introuvable chef et condamnée à virevolter ainsi pendant toute une morte-saison en proie à sa propre obsession au-dessus des croissantes ténèbres !
- En vérité, cette tourbe n’a pas de maître; celui-ci ne viendra jamais. A moins que je ne vous aide à nommer la Crainte, tyran salutaire et omniprésent qui groupe les faibles.
- #
- * #
- Le crépuscule se morfond longuement et, à plusieurs reprises, au-dessus d’une forte bouillée de roseaux formant cap dans l’étang sur un fond de vase où un homme s’enliserait, j’ai vu la bande de Sansonnets ployer sans se résoudre à se poser et, comme balayée par un coup de vent lointain, remon-
- p.57 - vue 61/527
-
-
-
- 58
- ter sur l’air. L’intention est nette. Après une journée laborieuse, ces sédentaires attachés pour l’hiver à leur région d’élection, vont céder au repos bien gagné, tandis que d’autres de la même espèce, mais venus du Nord en migrateurs déterminés par ancestrale habitude, voyageront de nuit vers l’Afrique, au risque de se laisser fasciner par la lueur des phares marins et de se briser sur leur tourelle éblouissante dont les perfides pinceaux brassent une multitude de passagers tant passereaux que petits échassiers, les charment et les forcent à voler dans leur orbe mobile jusqu’à une épuisante mort.
- #
- * *
- Les sédentaires que nous observons dans ce site vespéral ont un tout autre ennemi. Une ombre, celle-là solitaire, grise, terne, indistincte et rapide vient de passer, silencieuse, entre l’eau et la bande. C’en est fait. Un cri d’oiseau blessé, pris, déchire l’espace.
- Un Épervier, gros au plus comme une tourterelle, s’est renversé en projetant ses serres au-dessus du halo blême de ses ailes barrées, abandonnées pointes en bas. Le crime redouté est consommé. Le rapace s’en va comme un voleur, serrant sa victime à pleine poigne.
- Le vol des Sansonnets randonne une ou deux fois encore. L’affolement passé, le fatalisme mate les peureux; et leur foule, avec un bruit de trombe, tombe aux roseaux.
- Que l’on se dispute pour la meilleure place, que l’on passe aux congratulations après le danger où chacun a craint pour soi, que quelques-uns repartent dans la « brune » pour revenir bientôt au dortoir commun, tous sont résolus à passer cette nuit et beaucoup d’autres sur ce pilotis végétal ployant mais garant contre toute agression nocturne.
- Entre le ciel et l’eau, sur les roseaux aux mille flèches dardées et innocentes, il y aura successivement des brouillards, des pluies diluviennes, des gelées et des givres, autant d’intempéries hostiles.
- Mais, à raison de celte ronde vigilante, bien des crépuscules ne seront heureusement ensanglantés que par le coucher du soleil. Et l’espèce, et à quelques individus près, restera sauve pour sa meilleure destinée.
- #
- * *
- Envisagé dans sa dynamique particulière, ce phénomène de la Nature présente donc en réalité un rassemblement aérien nécessaire avant le coucher des Étourneaux.
- L’instinct de fuite continue en avant est la règle pour beaucoup d’animaux poursuivis. Or, ici, je distingue :
- i° Un rassemblement aérien centripète, mais afin d’obtenir la totalité de leur assemblée, il est nécessaire que la troupe reste visible pour les arrivants de tous points par-dessus la forêt vers l’étang hospitalier.
- 2° Un mouvement en « cercle vicieux » sans autre issue que le point prévu pour la reposée nocturne, le massif de roseaux déjà obscur dans le crépuscule et qui promet sa sécurité insulaire sur son pilotis lacustre.
- Ces deux points assurent sa sécurité à l’Espèce.
- Mais la crainte d’aborder directement le refuge maintient la ronde en éveil contre l’irruption de l’Ëpervier et lui imprime un mouvement supplémentaire.
- 3° Au vol en cercle s’ajoute, incontinent, pour chaque oiseau, la nécessité d’échapper encore mieux en se fondant dans la masse volante, de s’y glisser et de s’y perdre en la pénétrant et en la forant par un trajet individuel et irrégulier, de ménager son incognito déjà assuré par la similitude du plumage. C’est la protection de l’Individu. On peut dans le monde des Oiseaux, observer une manoeuvre identique chez d’autres formations en troupe, mais à direction rectiligne continue. Ainsi les migrations des petits échassiers de la famille des Charadriidés, redoutant l’attaque des Rapaces qui alors sont des Faucons, procèdent d’une manoeuvre originale.
- Les troupes de Charadriidés volent en bandes, rectilignes cette fois, que ce soient Pluviers, Chevaliers ou Bécasseaux, rasent ainsi les vagues avec des changements d’une aile sur l’autre, torsions de file qui présentent coup sur coup, quand vous les observez du rivage, l’apparition soudaine des ventres blancs ou des dos gris sur une fraction alternativement orientée dans leur ensemble, ce qui les rend visibles ou effacés tour à tour.
- Le Faucon pèlerin, le Faucon hobereau, migrateurs aussi après leur nichée, sont incités à des déplacements périodiques à la suite de la Sauvagine. Ces rapaces de haut vol, dans ce cas, ont recours à une attaque, non plus d’aplomb ou de flanc, mais différente pour l’occasion.
- Le Faucon se mêle à la bande convoitée et voyage quelques instants avec elle. De là, supporté par force, il se maintient à portée de toute prise éventuelle. Avant toute débandade, ayant choisi sa victime, il la capture en prise foudroyante en accroissant brusquement sa vitesse.
- Or la débandade désignerait fatalement un individu rapproché ; le groupement donne ici une protection servant l’espèce autant que l’individu.
- Cette discussion scientifique était, certes, nécessaire à l’explication du pittoresque spectacle dont un promeneur ordinaire se contente le plus souvent.
- Au charme de la scène vespérale de cette ronde s’ajoute une investigation ornithologique.
- Roger Reboussin.
- DES LETTRES AUX SCIENCES
- La Nature avait déjà signalé, voici quelques mois, que pour la première fois au cours de F histoire de l’Université l’effectif des facultés françaises des Sciences avait dépassé celui des facultés des Lettres. L’évolution qui se poursuit dans ce sens, avec jusqu’ici quelque lenteur, répond évidemment au besoin toujours croissant en scientifiques et surtout en techniciens qui se manifeste actuellement dans toutes les nations. Il est à signaler que la France est une de celles qui reste le plus fermement attachée à la culture classique et cela lui a valu, ces dernières années, d’enregistrer un « déficit » en ingénieurs que l’on a pu évaluer à 6 000 par an : 4 000 jeunes gens, en effet, obtiennent le diplôme d’une école d’ingénieurs, alors qu’il y aurait place pour 10 000 diplômés.
- Le corps enseignant a clairement pris conscience de ce dangereux déséquilibre et, dans son numéro du 31 janvier 1937, notre confrère L’Education nationale signalait une initiative prise par
- le lycée Carnot à Paris : une classe a été créée à l’intention des jeunes gens qui, étant déjà bacheliers ès lettres, désiraient conquérir le baccalauréat ès sciences. Cette classe a fonctionné pendant toute l’année scolaire 1936-1937 et s’est soldée par un plein succès : sur 26 élèves, 21 se sont présentés à l’examen et 16 ont été reçus (ce qui représente un pourcentage plus qu’honorable).
- Nous avons appris récemment que cette « reconversion » de littéraires en scientifiques est reprise cette année avec une plus grande ampleur : à la classe de Carnot (qui sera maintenue) s’ajoutent deux classes au lycée Saint-Louis et sept villes de Province (Lyon, Bordeaux, Montpellier, Nice, Oran, Clermont-Ferrand et Strasbourg) ont également leurs classes de bacheliers ès lettres s’initiant, à une cadence accélérée, aux mathématiques, à la physique et à la chimie.
- Y. M.
- p.58 - vue 62/527
-
-
-
- 59
- Sahara vivant de la préhistoire
- Le Sahara d’aujourd’hui nous donne l’image d’une planète stérile. Cette désolation atteint une grandiose beauté dans les massifs gréseux du Tassili n’Ajjer, à x 5oo ou 2 000 m d’altitude. Il se situe au nord-est du Hoggar, entre la frontière libyenne et le col d’Assakao, à des milliers de kilomètres de toute région civilisée. Seules, quelques tribus touarègues le fréquentent aujourd’hui (x).
- Pourtant, dans ce désert au cœur du désert ont été trouvées les images de la plupart des grosses bêtes de l’Afrique tropicale actuelle. Sur les parois rocheuses et dans les abris naturels, les artistes ont souvent en même temps peint ou gravé leurs semblables.
- Dans ces régions, la pénétration française remonte à 1906-1914. Ce furent donc de valeureux officiers de Laperrine qui eurent cette extraordinaire révélation. Le capitaine Cortier, le premier, signala en 1909 un « bison » (qui n’était d’ailleurs qu’un bœuf domestique). En 1912, le lieutenant Gardel, héros d’Esseyen, trouva tout un ensemble composite, qui fut le premier à être photographié, treize ans plus tard, par Lavauden. De nouvelles découvertes attendaient nos officiers : Duprez, en 1932, puis, surtout, en ig33, Brenans. Ce dernier prit, à main levée, copie de girafes, hippopotames, rhinocéros, éléphants, buffles, antilopes, autruches, ainsi que de personnages.
- Ses dessins attirèrent l’attention des archéologues qui se rendirent en 1984 à l’oued Djerat. C’est alors que Henri Lhote entreprit pendant dix-huit mois la première étude systématique de toute la région. Les peintures se révélant de plus en plus nombreuses et passionnantes, il envisagea dès lors une véritable expédition, seule capable d’en assurer tous les relevés.
- 1. On trouvera quelques renseignements sur le Tassili n’Ajjer dans notre article : Une relique rarissime du Sahara central, le Cyprès de Duprez, par A. S. Balachowsky, La Nature, janvier 1955, p. 20.
- Fig. 1. — Fresque de la station d’Aouanrhet.
- Femmes blanches à tète ronde dont l’une est surchargée par un personnage portant un masque de style nègre. Hauteur : 1,20 m environ (Photo mission IL Liioïe).
- Fig. 2. — La Dame blanche d’Aouanrhet.
- Hauteur de la fresque : 1,10 m (Photo Mission II. Lhote).
- Ce projet, qui enthousiasma l’abbé Breuil, put enfin être réalisé de février ig56 à juillet 1957. Il a été encouragé par le gouverneur général Soustelle, puis par le ministre résidant Lacoste, par le Centre national de la Recherche scientifique et le Musée de l’Homme. Il a trouvé le meilleur appui auprès des autorités civiles et militaires des Territoires du Sud.
- Il doit le succès à la savante direction archéologique de son chef H. Lhote et à la valeur de ses membres : photographes (P. Letellier, puis A. Vila, et le cinéaste J.-M. Lajoux) et artistes (G. Le Poitevin, Cl. Guichard, J. Frassati, J. Violet, de Montparnasse, puis R. Martin, J. Chambrin, M. Brezillon, J. Lesage).
- Leur travail acharné, entièrement bénévole, a triomphé des pires difficultés pour arriver à pied d’œuvre avec le matériel et la totalité des vivres, pour aller chercher l’eau au loin, pour explorer ces régions difficiles. Chacun a souffert de l’isolement, de journées torrides et de l’hiver glacé, de tempêtes de sable, d’une nourriture désespérément monotone, et de la soif.
- Pourtant, il fallait raviver par l’eau ces images qu’avaient estompées les millénaires, prendre des calques, les reporter sur du papier teinté à l’imitation de la roche;' toujours respecter chaque ligne et chaque nuance. En même temps étaient prises toute une série de photos ordinaires ou en infrarouge. Au total, des images ont été relevées sur 1 5oo m2 de falaises ou d’abris parfois difficiles d’accès.
- C’est une partie de ces reproductions qu’a accueillie le M'usée des Arts Décoratifs (x), toutes à l’échelle exacte, sauf le « dieu martien de Jabbaren », haut de 6 m. Tout un panorama de
- 1. Peintures préhistoriques du Sahara, Mission Henri Ltote au Tassili. Paris, Musée des Arts Décoratifs (novémbre 1957 à mars 1958). A paraître prochainement : Tassili, récit de la. découverte des peintures du Tassili par l’expédition Henri Lhote, 1956-1597. Paris, Arthaud.
- p.59 - vue 63/527
-
-
-
- 60
- Fig. 3. — Antilopes chevalines de la station de Tamrit.
- Période bovidienne. Hauteur : 1,20 m (Photo Mission II. I.iiote).
- peintures, parfois de gravures, juxtaposées ou superposées : au moins seize étages et trente styles dont l’étude est en plein essor.
- *
- * m
- Déjà apparaissent les grandes lignes d’un grand passé.
- Il y a huit mille ans peut-être, des hommes, qui connaissaient la hache de pierre grossièrement taillée, mais ni la meule, ni la poterie, se sont « caricaturés » (fig. 5) : avec leur grosse tête ronde, leur petit pagne, leur arc ou leur grande lance à la main; puis, dansants et cornus comme de petits « diablotins ». En réalité, ces cornes (quelquefois des plumes) attestent déjà des cultes animistes, bien caractéristiques de l’âme noire. Parmi ces personnages, l’éléphant et le mouflon, puis le rhinocéros, l’antilope chevaline.
- En même temps, à l’ocre violacée, s’ajoute la gamme des rouges, des bruns, des jaunes parfois verdâtres et le blanc. Les corps humains, plus gracieux, se couvrent de tatouages *. c’est déjà, dans ces personnages, ces tons chauds, ces lignes sobres, toute l’harmonie de l’art nègre. Le symbolisme animiste des plumes et des cornes passe alors aux têtes postiches de bêtes et, surtout, aux premiers véritables masques, étrangement semblables à ceux dont les actuels Sénouffo de la Côte-d’Ivoire se couvrent dans les mystères de leurs initiations (fig. i). Ainsi, les premières populations du Tassili qui nous ont laissé leurs images se montrent typiquement négroïdes.
- Et puis, voici l’Egypte qui (pense l’abbé Breuil) donne sans doute après avoir reçu. C’est la danseuse d’Aouanrhet,la «Dame Blanche du Sahara », coiffée d’un minuscule champ de céréales entre deux cornes : attributs d’une déesse agraire de la fécondité. Sa course soulève les fines lanières de sa taille, de ses bras, de ses moufles (fig. 2).
- La jolie jeune femme agenouillée de Jabbaren a repris quelques détails de son élégance. Mais, un peu plus récente, elle est plus égyptienne : c’est « Antinéa », sans doute une divinité libyenne. Mais la Grèce ne 1 ’a-t-elle pas adoptée sous le nom d’Athéna ? Or, regardez bien la belle de Jabbaren : son nez est grec déjà, comme celui de ses voisins, les guerriers de Sefar !
- Voici le plus singulier carrefour de races : tour à tour négroïdes et éthiopienne, égyptienne, accessoirement crétoise et grecque.
- Et voilà maintenant le plus étrange : le « dieu martien de Jabbaren » qui, haut de 6 m, est la plus grande image pariétale connue. Mais quelles formes lourdes, quel monstre à tête de scaphandrier, que d’immenses scènes étranges sur des fonds aux lividités d’apocalypse : ces femmes priant leur divinité pour celle qui, sans doute, va accoucher!
- En même temps, des animaux monstrueux, et d’autres qui semblent recevoir un culte : éléphants, girafes, mouflons, phacochères, antilopes chevalines, autruches, lions (dont un de 4 m). Des bœufs aussi, peut-être sauvages encore...
- Leurs descendants s’apprêtent à envahir les hautes vallées du Tassili, troupeaux dociles de populations nouvelles : il y a de cela cinq ou six mille ans. Pourtant, ces peintures se haussent au sommet de l’art : finis les schémas et le symbolisme de la période des chasseurs, voici la vie même.
- Les grands bœufs pie s’avancent, harmonieux et souples, portant haut leurs cornes en lyre de Bos africanus ou en arc de cercle de Bos brachyceros : jusqu’à soixante-cinq bêtes assemblées au pas sans défaut. Ces représentations, d’une émouvante grandeur, sont uniques dans l’art préhistorique. Elles apportent la révélation des bovins sahariens d’autrefois. Leur existence eût été ignorée sans ces peintures, car leurs restes n’ont jamais été retrouvés (D’une façon générale, la pauvreté des gisements sahariens s’explique sans doute par la dilapidation des eaux courantes; ces rivières fossiles du Sahara sont maintenant bien connues, en particulier grâce à l’avion, d’où leur dessin apparaît nettement). Sont aussi domestiqués le mouton, la chèvre, et, pour la chasse, le chien.
- Le zoo des murailles (fig. 3) s’est enrichi de l’oryctérope, de l’âne sauvage, de l’hippopotame qu’on voit attaqué par des piroguiers. Mais le vol des troupeaux était trop tentant. Ils sont l’enjeu de guerres : assaillants et défenseurs se dardent de flèches et de javelots.
- Souvent, aussi, ce sont les images gracieuses de la danse et de la vie ménagère devant des huttes soudanaises : l’homme fend le bois, la femme s’occupe de sa marmite, l’enfant se couche sous sa couverture ; ou bien tous trois chevauchent ensemble leur bœuf. Les « jeunes filles peules » de Jabbaren ont la coiffure en cimier et la grâce de leurs sœurs d’aujourd’hui.
- Ces populations justement nommées « bovxdiennes » ont dû venir du Haut Nil. Elles en représentent volontiers les barques avec leurs « nomes » à la proue. Elles ont couvert peu à peu le pays jusqu’à l’Atlantique. Plus tard, les déesses à tête d’oiseau, contemporaines de la XVIIIe dynastie sont absolument typiques de l’Egypte.
- C’est par deux vagues qu’expirent ces vastes marées humaines : l’une doit presque tout au cheval, la dernière au chameau.
- Déjà, quatre cents ans avant le Christ, Hérodote avait parlé des mystérieux Garamantes qui avaient débordé le Fezzan au galop de leurs chars. Après trois mille ans, ces « Peuples de la Mer » surgissent de leur légende : voici les dessins des attelages victorieux. C’est surtout de ces derniers conquérants cavaliers que doivent descendre les populations touarègues qui parcourent aujourd’hui cette région. Leur « Route du Cheval » vers le Niger a été retrouvée grâce à leurs peintures. Elle devait permettre longtemps après aux Romains de franchir le Tassili.
- Mais les zones de vie se rétrécissent toujours. Du tapis végétal, il ne reste plus que des lambeaux qui disparaissent peu à peu.
- p.60 - vue 64/527
-
-
-
- Fig. 4 et
- représente
- 5. — En haut : Paysage du Tassili. — En bas : Fresque de la période des hommes à tête ronde, à Sefar (Stade évolué ; la fresque un combat à coups de matraque ; une antilope chevaline, de même style, est surchargée sur les personnages ; hauteur :1m).
- (Photos Mission H. Lhote).
- p.61 - vue 65/527
-
-
-
- 62
- Le cheval ne peut survivre. C’est alors la dernière chance : le chameau, importé sans doute d’Arabie quelques décennies avant notre ère. Le « vaisseau du désert » est seul à pouvoir traverser les immensités désolées avant les ronflements de nos moteurs.
- A l’étape, le caravanier d’aujourd’hui ébauche parfois encore son méhari préféré sur la roche où ses ancêtres ont gravé huit mille ans d’épopée : c’est le dernier chapitre et le dernier souffle d’une vie qui s’en va.
- *
- * #
- Sans de telles découvertes, qui eût pu soupçonner le riche passé d’un des plus inhumains de nos déserts? Le Tassili a vu
- tour à tour chasser la plupart des gros gibiers africains et domestiquer nos herbivores familiers. S’y sont succédé des races noires et les races blanches parmi celles qui ont le plus influencé l’Occident; elles s’y sont aussi mêlées.
- Le « bilan » qu’elles ont laissé sur la pierre, par sa qualité et son abondance, se hausse au premier rang de la préhistoire. Au moins, à celui des deux grands centres d’images rupestres : de l’Europe du Sud-Ouest, de l’Afrique du Sud. Et, bien qu’à égale distance de ceux-ci, d’une remarquable originalité.
- Il est peu de spectacles plus exaltants pour le savant et pour l’artiste, pour tout ami de la nature et tout curieux de notre propre histoire.
- Michel Rousseau, Docteur vétérinaire.
- Dépôts de Diatomées d’eau douce au fond
- de l'Atlantique
- L’expédition océanographique suédoise de 1 ’Albatross, conduite par H. Petterson en 1947-1948, avait en particulier pour but l’étude des sédiments des mers profondes. L’expédition a utilisé une méthode nouvelle d’extraction qui permet d’obtenir des carottes de 20 m et plus dans les terrains meubles. Dans des sédiments relativement durs, des séries de 12 m environ étaient obtenues; considérant la lenteur de la sédimentation, estimée à o,5-8 cm en mille ans, on peut dater du tertiaire certains échantillons ainsi remontés. Au retour, l’étude des différents sédiments fut confiée à des spécialistes et les Diatomées furent remises à R. W. Kolbe, qui a donné un résumé de son travail dans le numéro du 22 novembre 1957 du périodique Science, organe de l’American Association for the Advancement of Science.
- Fig. 1. — Quelques formes de Diatomées d’eau douce trouvées dans les sédiments profonds de l’Atlantique.
- 1, Melosira gramilata ; 2, Melosira ambigua ; 3, Stephanodiscus astrœa ; 4, Cyclotella ocellata ; 5, Epithemia zébra (d’après Hustedt, 1930,
- dans Science).
- On sait que les Diatomées constituent une famille d’algues brunes microscopiques, à membrane fortement incrustée de silice, dont la nutrition est assurée par l’assimilation du carbone atmosphérique sous l’action de la lumière; elles ne peuvent donc vivre que dans les couches supérieures des eaux douces ou marines, où la pénétration des rayons lumineux est suffisante. Les Diatomées forment une partie importante du plancton marin et, après leur mort, leurs valves siliceuses tombent lentement au fond; leur nombre est tel que, malgré leur petite taille, leur dépôt arrive à former des couches presque uniquement composées de Diatomées, comme le tripoli.
- Dans les sédiments rapportés par l’expédition suédoise, R. W. Kolbe eut la surprise de constater que certains échantillons étaient formés, non de Diatomées marines, mais d’espèces vivant dans les eaux douces. Des Diatomées d’eau douce avaient déjà été signalées dans les sédiments marins, mais elles étaient toujours rares, alors qu’il s’agissait cette fois d’un nombre considérable d’individus, appartenant à plus de soixante espèces. Les échantillons provenaient de profondes fosses atlantiques,. atteignant plus de 7 000 m, au-delà des îles du Cap-Vert et de la Guinée, à 1 000 km environ de la côte africaine. Certains d’entre eux, plus épais, étaient exclusivement composés de ces Diatomées, donnant absolument l’impression d’un sédiment d’eau douce, d’autant plus que parfois s’y trouvaient mêlées des cellules épidermiques silicifiées de Cypéracées et Graminées terrestres. L’espèce la plus abondamment représentée est Melosira granulata et ses variétés.
- L’explication la plus plausible de la présence de ces plantes d’eau douce en pleine mer est qu’elles ont été transportées, d’abord par les grands fleuves africains, puis par les courants marins du Benguéla, de la Guinée et les courants sud-équatoriaux. Ces grands courants sont compliqués d’inter-courants et, sous ces influences combinées, les restes organiques et les particules minérales sont lentement entraînés, horizontalement et verticalement, jusqu’à atteindre les eaux calmes de la bathy-sphère où ils se déposent.
- Une autre hypothèse tend à attribuer aux vents qui soufflent du nord-est, en particulier à l’harmattan, le transport de poussières contenant des débris organiques, en provenance de la zone d’inondation du Niger à l’époque où celle-ci est asséchée. Enfin, l’auteur rappelle la théorie de R. Malaise sur VAtlan-tis. La présence d’un vaste continent atlantique jusqu’à la fin des périodes glaciaires permettrait de supposer que les sédiments à faciès continental 'trouvés seraient autochtones, les Diatomées ayant alors vécu à l’endroit même de leur dépôt actuel.
- L. C.
- p.62 - vue 66/527
-
-
-
- Comment on apprend à parler à un enfant sourd-muet
- Les sourds-muets ont existé de tout temps. Dans l’Antiquité, leur venue au monde était considérée comme une punition du ciel, et inspirait des sentiments de crainte plutôt que de pitié, en raison du mystère qui planait sur leur destinée. On leur attribuait souvent un pouvoir occulte.
- Pourtant Moïse avait dit : « Tu ne maudiras pas le sourd, tu ne mettras pas d’obstacle devant l’aveugle, mais tu craindras ton Dieu. » Salomon recommande ce d’ouvrir sa bouche pour le muet ». Isaïe prophétise et fait cc chanter la langue du muet ». Les Égyptiens et les Perses s’efforcent aussi de remédier à l’infortune des sourds. Ceux-ci ont-ils été précipités dans l’abîme du Taygète à Sparte, dans le Barathre à Athènes, dans le Tibre à Rome? On a peine à le penser. Aristote, Pline l’Ancien ont observé la liaison étroite entre la surdité, le mutisme, la privation du langage et d’idées abstraites et générales. Justinien s’occupe des sourds-muets, mais ils ne peuvent ni tester, ni administrer leurs biens. Saint Augustin ne les rejette pas en dehors de la communion des fidèles. Il affirme que le savoir religieux leur est accessible, mais plus difficile à acquérir que pour les entendants.
- Après la chute de l’Empire Romain, les Barbares s’occupent exclusivement de guerres et de conquêtes, non d’œuvres charitables. Toutefois, Bède le Vénérable (673-735) rapporte dans son histoire ecclésiastique que Jean de Béverley, évêque de Hexham, a éduqué un sourd-muet au moyen de la parole. Après cette généreuse initiative, à supposer qu’elle fût réelle, sept siècles s’écouleront avant qu’il goit de nouveau question des sourds-muets.
- Du xve au xvme siècle, des éducateurs s’occupent avec plus ou moins de succès des sujets sourds; ce sont successivement : Rudolf Agricola, Hollandais (1443-1485) ; Jérôme Cardan, Italien (iôoi-iôyô); Pierre Ponce, Espagnol, bénédictin d’Ona; Jean-Paul Bonet, secrétaire privé du connétable de Castille qui fit l’éducation d’un frère de son maître devenu sourd à 2 ans et qui nous a laissé un important ouvrage : Réduction des lettres à leurs éléments primitifs pour enseigner à parler aux sourds (1620); sir Kenebon Digby vers 1644 ; le père Lana Terzi, Italien (1631-1687); le E)r John Buhver (vers i648); Wallis, Anglais, auteur en i653 de De Loquelâ et de plusieurs lettres remarquables à Robert Beyle (1662), Bewerley (1698), Amman (1700). En Allemagne, Arnokli (1735-1783) se distinguera, de même que Heiniche (1729-1792), contemporain d’illustres éducateurs français : l’abbé de L’Épée, Ernaud, Péreire, abbé Sicard, abbé Deschamps, etc.
- Problème actuel de la « démutisation ». — Comment se pose le problème de l’éducation d’un enfant sourd-muet ? Cela consiste, essentiellement, à lui enseigner et à lui faire comprendre la langue française ou, ce qui revient au même, à lui faire concevoir les idées exprimées dans la langue, toutes les idées; c’est pourquoi la tâche est immense, et fort complexe.
- Une simple phrase, par exemple « les enfants jouent » qui est comprise par tous les sujets entendants, même par les illettrés, ne le sera pas d’emblée par le sourd. On ne saurait s’en étonner, si l’on pense à toutes les idées sous-jacentes. En effet :
- i° le substantif « enfants » fait partie d’une catégorie de personnes, bien déterminée, et d’un certain âge;
- 20 l'article « les » indique qu’il s’agit de plusieurs;
- 3° on a donc l’idée du pluriel, mais on ne sait pas combien exactement;
- 4° l’idée d’une action qui s’exécute présentement est signifiée par le verbe « jouer »;
- 5° l’ordre des termes montre que ce sont les enfants qui font l’action;
- 6° le mot <( enfants » n’est-il pas déjà un terme générique, englobant filles et garçons et qui doit être précisé ?
- 11 est évident que pour avoir l’intelligence complète de cette phrase si simple, en apparence, le jeune sourd devra lui associer dans son esprit toutes les idées que nous venons d’énumérer.
- Ces idées s’expriment par des mots du vocabulaire (enfant, jeu, jouet); d’autres par des terminaisons grammaticales associées à l’article les pour le substantif, et au verbe (nf dans le cas présent qui indique la 3e personne du pluriel) ; d’autres idées enfin tiennent compte de la place assignée à chaque terme dans l’ordre d’énonciation; ainsi : un boa a tué un tigre; et : un tigre a tué un boa.
- Comment le jeune sourd peut-il débrouiller cet écheveau déjà très enchevêtré ? Il n’y parviendra pas seul, du premier coup. Et si l'on regarde l’enfant normal, on s’aperçoit que, s’il est arrivé au but, c’est par des répétitions fort maladroites d’abord, ajustées de mieux en mieux au modèle perçu. La maman a été la première éducatrice, et c’est par centaines et par milliers de fois, que les phonèmes ont été moulés dans la langue orale, comprise et parlée, dès l’âge de 2 à 3 ans, les idées étant conçues et exprimées en fonction des besoins.
- Notons, tout de suite, que le langage du jeune sujet, appris dans sa famille avant l’arrivée à l’école, constitue le langage familial ou maternel.
- Le jeune sourd apprend le langage familial à l’école. — Le professeur du sourd-muet doit remplacer la mère pour apprendre au petit sujet (beaucoup plus rapidement) les expressions linguistiques : d’oii la nécessité d’une analyse très poussée des notions à enseigner, des idées à évoquer. S’inspirera-t-il de la besogne faite à l’école primaire, par l’instituteur?
- Celui-ci poursuit l’exécution de son programme; des livres sont entre les mains des enfants; l’explication des mots inconnus se fait sans difficultés, par un moyen de communication approprié, et par des références incessantes à des mots connus. L’instituteur parle et est compris, l’entendant réagit avec des sens intacts et un important bagage linguistique.
- Au regard, le sourd, même s’il est démutisé, ne comprend pas des explications qui le dépassent. Le moyen de communication est mal assuré. Il doit donc apprendre, et à parler de mieux en mieux, et à utiliser les mots et les expressions du langage familial.
- L’instrument et la base de toute connaissance résident, pour le sourd, dans l’apprentissage de la langue maternelle. Et le sourd de 6 ans n’est pas plus avancé que l’entendant de 2 ans; la différence n’est que d’ordre physiologique, non psychologique. Toutes les idées conçues par le normal sont associées à des mots et à des formes du langage. Le développement intellectuel est assuré de cette façon, alors que le signe phonétique, manquant au sourd, ce développement a été considérablement retardé. On a dit avec raison que le cerveau du jeune sourd, au début de la scolarité, était comparable à une page blanche.
- Psycho-physiologie du jeune sourd (1). — Quel est donc l’état psycho-physiologique du jeune sujet qui n’entend pas? Sa surdité, infirmité première, en entraîne une autre : le
- 1. Pr-Dr Kürt Gcertler, Le langage de l’homme est « une fonction psycho-physiologique », Revue de Laryngologie, juillet 1957, p. 197.
- p.63 - vue 67/527
-
-
-
- 64
- mutisme. Le terrain que nous avons à ensemencer est donc fort délicat. *
- Les éléments linguistiques et les-idées qu’ils représentent, sous leur forme orale et graphique, doivent être présentés comme autant d’actions multiples et diverses. Agir demeure toujours la règle d’or. Parler, et écrire, et lire, et dessiner, et lire sur les lèvres à propos des choses et des scènes de la vie scolaire feront entrevoir au petit sourd la richesse insoupçonnée pour lui de la langue française. Il verra notamment le mouvement des lèvres du professeur, et gravera ainsi dans sa mémoire le souvenir des images labio-visuelles d’une parole qu’il n’entend pas, mais qu’il voit. L’intérêt est vite éveillé, chez lui, par cette forme, et l’on pourra provoquer de nombreuses répétitions.
- Toutefois, comme nous l’avons fait remarquer, la grande majorité des idées exprimées par notre langue est abstraite et générale (enfant, personne, — ballon, jouet) et même si nous citons des termes du domaine moral (juste, justice), nous avons des idées très abstraites et très générales. La psychologie nous donne les indications requises pour opérer dans ce domaine délicat des idées, c’est-à-dire pour les évoquer, les conceA'oir, les conserver dans les différentes mémoires.
- Programme d'éléments du langage adaptés au sourd.
- — Où puiserons-nous les éléments du vocabulaire et de la grammaire ? Simplement dans le vocabulaire du langage maternel pour commencer et ensuite dans celui de la langue usuelle : le jeune sourd devra donc apprendre 7 000 mots en tout et les innombrables idées associées à leurs combinaisons les plus diverses.
- Comment choisir et classer les mots ? L’ordre alphabétique est à rejeter. C’est un ordre commode, mais il ne répond pas aux besoins et aux possibilités du sourd. Les premiers à lui présenter sont ceux que l’enfant normal a appris, dans sa famille, avant de venir à l’école, puis ceux qui relèvent de la vie scolaire et qui sont représentés autour de lui, dans sa classe, en tout cas les mots qui expriment les idées les plus simples et les plus concrètes. En somme, les 7 000 mots du vocabulaire usuel sont « noyés », pourrait-on-dire, dans la masse des 90 000 du Petit Larousse et dans celle des 25o à Soo 000 des gros dictionnaires du xxe siècle.
- De même, les notions simples de grammaire, que nous mettrons à la portée du jeune sourd, se trouvent disséminées dans les manuels de grammaire des entendants. A propos, par exemple, du mot chien, on apprend à ceux-ci qu’il s’agit là d’un nom commun, on leur donne les raisons de cette appellation, on oppose la notion de substantif à celle d’adjectif, etc. Or, le sourd a surtout besoin de savoir que le mot chien désigne une certaine espèce d’individus, et qu’il convient à n’importe quel individu de l’espèce. On nommera donc l’animal vu dans la cour, ou ailleurs. On pourra utiliser le dessin ou la gravure, comme moyens de rappel.
- Éléments grammaticaux. — Les notions grammaticales ne sont pas rangées dans un ordre qui convient au sourd. Ainsi, les expressions relatives au temps que nous devons présenter, objectivement, chaque jour, au fur et à mesure du déroulement des jours, des mois, des années. Il faut, non seulement indiquer la date, au tableau noir, mais les expressions hier, aujourd'hui, demain", puis avant-hier et après-demain complètent la liste; enfin il y a 3 jours et dans 3 jours. A la longue, le sujet se familiarise avec la notion de temps absolue et relative, et avec les formes du verbe convenable qui ne sont autres que la conjugaison au présent, au passé et au futur.
- Il suffit d’énumérer ces « parties du discours » pour constater qu’on les trouve respectivement avec les adverbes, les verbes, les prépositions, les adjectifs numéraux cardinaux, les substantifs, la conjugaison.
- Une analyse approfondie de la langue française est donc néces-
- saire pour nous permettre d’en extraire les notions essentielles aux jeunes sourds.
- Principe général : des faits aux mots. — Nous connaissons les aptitudes psycho-physiologiques des sourds et les multiples idées représentées par le vocabulaire et la grammaire, nous savons leurs besoins que nous avons comparés à ceux des entendants. Nous pouvons agir au mieux. D’autant plus que l’enseignement des sourds-muets a trois siècles d’existence, et que nous pourrons souvent nous reporter en arrière pour affermir nos pas vers l’avenir.
- Cet enseignement constitue une besogne délicate où il conviendra toujours de considérer les choses et les faits, sous les yeux des sujets, de faire naître des analogies, des contrastes, pour évoquer les idées et provoquer toutes les opérations mentales utiles. On ira des faits aux mots et non des mots aux faits.
- Des détails de présentation, des mises en scène même seront prévus, méticifieusement, pour capter l’attention et l’activité des sourds, pour les intéresser et les instruire, pour donner le maximum de prise psycho-physiologique aux expressions de la langue, que l’on veut enseigner et faire retenir. Soulignons l’importance de l’enseignement occasionnel qui a le grand mérite, parmi d’autres, de nous imposer l’ordre le meilleur, allant des faits aux mots.
- De toute façon, le professeur doit faire une minutieuse analyse, et de la matière à enseigner, et des procédés psychologiques qui conduisent à une méthode efficace.
- Après avoir considéré surtout l'objet, serrons d’un peu plus près l’analyse du sujet et de son infirmité : le surdi-mutisme.
- Sujets plus ou moins sourds, plus ou moins muets.
- — Le sujet le plus défavorisé, le plus atteint sur le plan social, est, à coup sûr, le sourd-muet. Pourquoi est-il sourd ? S’il s’agit d’une infirmité organique, elle est incurable, et nous ne pouvons que le constater.
- Pourquoi est-il muet ? Le mutisme n’est pas une infirmité, mais seulement la conséquence de la surdité. On a cru longtemps, avec Hippocrate, le père de la Médecine, que le muet ne pouvait parler à cause d’un défaut de la langue. Certains préconisaient même de « couper le filet » pour libérer l’organe lingual.
- La vérité est que nous naissons tous muets, et que, jusque vers l’âge d’un an, nous ne jouons de nos cordes vocales que pour crier, pleurer, gazouiller : simple jeu réflexe, spontané d’abord, puis volontaire. Les mouvements vibratoires laissent une sensation agréable, ils sont renouvelés souvent et prennent la signification d’un appel, d’un désir. Toutefois, la parole n’intervient pas.
- Cependant, le sujet normal, après un an, attache de plus en plus d’importance aux sons phonétiques qu’il émet sans intention, puis de mieux en mieux à force de répétitions. Il s’aperçoit vite de la valeur de ces signes vocaux, et s’en sert couramment, comme d’un moyen de communication avec son entourage. Il s’imite lui-même; il imite les autres, encouragé par eux. Peu à peu, il apprend à parler et, après deux ans, il fait usage de la parole, il est démutisé. Cette remarquable démutisation s’est faite toute seule : c’est l’œuvre de la nature et de la « société familiale ».
- Si une telle œuvre s’accomplit en deux ans, c’est que le sujet entend et qu’il a besoin de la parole pour communiquer avec sa famille. Percevant par l’oreille des modèles phonétiques, il s’efforce de les imiter et, petit à petit, corrige lui-même ses défauts. Il est sensible aux réactions de l’entourage qui doit l’encourager sans cesse pour aider l’œuvre naturelle.
- Par contre, le tout jeune enfant né sourd, ou le devenant, avant l’apprentissage du langage, ne se doute pas que l’on parle autour de lui. Son appareil auditif, qui fait défaut, ne saurait être sollicité par la perception de modèles phonétiques à imiter.
- p.64 - vue 68/527
-
-
-
- 65
- Et l’absence d’excitations acoustiques ne peut tenir en alerte perpétuelle, par voie réflexe, le tonus des cordes vocales. La démonstration expérimentale, in vivo, sous vision laryngostro-boscopique, en a été faite, sur des sujets sourds profonds de 20 ans, par Raoul Husson, le docteur Bouche et l’auteur, en avril 1953, à l’hôpital Boucicaut : le moindre reliquat acoustique faisant disparaître la parésie vocale. Les cordes vocales tendent donc vers la parésie, c’est-à-dire une paralysie légère. L’enfant sourd ne s’arrachera pas seul à son mutisme. Toutefois, celui-ci n’est pas une infirmité organique. Le sujet, ainsi que l’avait déjà vu Aristote, un siècle après Hippocrate, ne sait pas parler et ne peut pas entendre.
- On remplacera donc l’éducation naturelle par le recours à l’artifice. Et le sourd-muet deviendra un sourd parleur.
- Dans divers milieux, on parle souvent de sourds-et-muets, comme s’il s’agissait de deux infirmités distinctes. La conjonction et est à supprimer. Le trait d’union indique le rapport intime entre les deux mots qui. traduisent deux infirmités inséparables.
- La cause du mutisme réside-t-elle, toujours, dans la surdité ? Certes oui, dans la majorité des cas. Néanmoins, il existe une catégorie de sujets que nous avons dénommés audi-muets, et chez lesquels les réflexes articulatoires ne se déclenchent pas. Ils entendent, mais ne peuvent répéter les mots perçus par Poreille. Ils paraissent avoir une certaine habileté manuelle et seraient justiciables de l’enseignement des anormaux. Ceux qui n’ont pas de troubles caractériels graves peuvent être maintenus dans les écoles de sourds, car ils comprennent et exécutent les ordres. Ils ont surtout le sentiment, le plus souvent conforme à la réalité, qu’ils sont utiles. Nous avons vu certains chefs d’atelier, certains professeurs, intervenir pour le maintien de tels sujets dans le milieu scolaire.
- L’âge auquel apparaît l’infirmité a une grande importance. S’il se situe après l’acquisition de la parole, celle-ci demeurera avec toutes les qualités phonétiques des entendants, à une condition cependant, c’est que le sujet ait la volonté de parler, et continue à le faire, communiquant avec son entourage.
- La siirdité est aussi plus ou moins profonde. Et les reliquats
- auditifs qui subsistent peuvent être d’un apport inestimable pour l’acquisition, la conservation, l’amélioration des sons du langage. Il faut faire sans cesse appel à ces sensations auditives. Les sujets peuvent donc être classés suivant le degré de leur infirmité, et suivant l’âge auqüel elle est apparue.
- Traditionnellement, on distingûe la surdité congénitale (de naissance) et la surdité acquise. L’on s’accorde à reconnaître dea pourcentages à peu près égaux à l’une et à l’autre.
- Parmi 5o pour xoo environ de sourds d’acquisition, il convient de différencier les sujets qui sont devenus sourds avant
- 2 ans de ceux qui le sont devenus après. On pourra appeler sourds précoces les premiers, sourds tardifs les autres. Ceux-là constituent en gros 20 pour xoo de l’effectif, et ceux-ci 3o pour 100. Ces pourcentages sont justifiés par le fait que les-premiers sont effectués sur des sujets ayant moins de 2 ans, alors que les autres concernent des sujets ayant perdu l’ouïe dans leur 3e, 4e, 5e et 6e année. La fréquence de l’infirmité diminue en fonction de l’âge; au-dessus de 10 ans, nous n’avons-plus que o,5 pour 100 en moyenne de surdité, alors qu’entre
- 3 et 10 ans, cette moyenne était de 5 pour 100.
- Nous avons souligné plusieurs fois la tendance à la parésie des cordes vocales des sourds qui ont perdu les stimulations réflexes de l’oreille. Et, quel que soit leur âge, nous les avons toujours mis en garde, ainsi que leur famille, contre une certaine torpeur susceptible de les incliner vers le mutisme. En ce qui concerne les tout jeunes sujets (entre 2 et 6 ans), la réalisation de cette atonie est désastreuse. Et il nous a fallu-constater des cas de mutisme acquis. Le tout jeune sourd perd donc l’usage de la parole après en avoir bénéficié pendant un un certain temps.
- A ce moment-là, la présence de petits camarades sourds qui « gestivent » est regrettable. Le petit frère sourd-muet « ges-teur », surtout s’il est l’aîné, impose ses gestes, et le frère qui entend renonce à employer les mots. Le moyen de communication s’établit au niveau inférieur.
- En gros l’on compte, dans la population scolaire sourde-muette, 25 pour 100 de sujets affligés d’un mutisme acquis. Et moins de 5 pour 100 de sourds sans mutisme.
- Le degré de surdité et sa mesure. — Si nous envisageons le cas du degré de surdité, nous dirons que les pourcentages de sourds complets, absolus, ne donnant aucune réaction aux stimulations très puissantes d’un audiomètre aux différentes fréquences, sont d’environ 2 pour 100.
- Bon nombre d’autres sujets manifestent quelques réactions, mais au-dessous de 80 décibels. Leur acuité auditive ne leur permet pas de profiter d’un appareil renforçateur, et en vue de l’acquisition de la parole, ils demeurent des sourds totaux, rejoignent les sourds absolus dans leur inaptitude à entendre les sons phonétiques.
- Le demi-sourd grave atteint un déficit de 60 décibels et au-delà. L’infirmité est encore fort importante et l’entraînement ne peut se faire, sur le plan auditif, car la « béquille » auriculaire, due à la prothèse, n’est pas suffisante.
- Les trois catégories de sujets que nous venons d’énumérer se placent, au point de vue pédagogique, sur le même plan. Ils sont inaptes à l’enseignement acoustique. Ils constituent en gros 70 pour 100 de l’effectif scolaire. On les englobe sous la dénomination de sourds totaux ou quasi totaux.
- Si nous tenons compte des renseignements de l’audiomètre, nous compterons, parmi les demi-sourds légers, les sujets qui perçoivent les fréquences au-delà de 4o dB, et parmi les hypo-acoustiques ceux qui les perçoivent au-delà de 20 dB. Pratiquement, leur audition est utilisable, ils ont une parole relativement sonore, grâce à un organe de l’ouïe encore utilisable. On désigne ces deux dernières catégories sous l’appellation globale de sourds partiels. Elles présentent un pourcentage d’environ 3o pour 100. Ajoutons que, sont considérés comme sujets ayant
- p.65 - vue 69/527
-
-
-
- 66
- une audition normale tous les enfants qui ont satisfait au test de balayage des fréquences, c’est-à-dire qui ont perçu, en 2 mn, toutes les fréquences de l’audiomètre à 20 dB.
- Si une ou plusieurs fréquences ne sont pas perçues, l'audition est suspecte, et si aucune ne l’est, l’audition est mauvaise.
- Ainsi, la mesure de l’ouïe se fait de façon assez précise avec les audiomètres modernes; il est relativement facile d’établir les aptitudes auditives de chacun et de s’arrêter à une classification assez précise des sujets, depuis le normal jusqu’au sourd complet, absolu (classification physiologique du tableau I).
- Tableau I
- Classement physiologique des déficiences auditives Les mesures ont été réalisées sur toutes les fréquences de l’audiomètre.
- Classement pédagogique Déficit en décibels Classement physiologique Pourcentages des instituts nationaux
- Sourds partiels 0 à 20 20 à 4o 40 à 60 Normal Hypoacousique Demi-sourd léger i 0 ! O ! « 0 CO
- Total ou quasi total 60 à 80 80 à 100 Aucune réaction Demi-sourd grave Sourds totaux Sourds absolus 68 P- 100 i 70 p. 100 2 p. 100 )
- Surdité, mutisme et qualités intellectuelles. — On peut se demander si, parmi les sourds que nous avons présentés, et qui sont justiciables d’un enseignement spécial, autrement dit d’une démutisation artificielle, il n’y en aurait pas quelques-uns qui auraient conservé l’usage de la parole. Cela arrive heureusement parfois, lorsque le sujet est devenu sourd après l’âge de 7 ans environ.
- L’effectif de ces sourds-non-muels s’élève à un pourcentage d’environ 5 pour 100, le reste de cet effectif, 95 pour 100, étant composé de sourds-muets.
- En résumé, le mutisme est inexistant dans 5 pour 100 des cas; de plus, dans 25 pour 100 des autres cas, il a été acquis par le sujet depuis sa naissance; et dans 70 pour 100 il est inné.
- Ce sont évidemment les sourds-non-muets qui ont le mieux réussi aux examens de fin d’études des institutions nationales. La moitié ont obtenu la mention très bien; l’autre moitié la mention bien.
- Ensuite viennent les muets d'acquisition, avec i5 pour 100 de
- Fig. 2. — Un audiomètre portatif Philips.
- {Photo Philips).
- mentions très bien; 4o pour 100 de mentions bien; 12 pour 100 de mentions assez bien; 18 pour 100 de mentions passable; i5 pour 100 ont eu une note médiocre.
- Enfin, les muets congénitaux sont les moins favorisés au diplôme de fin d’études avec respectivement les pourcentages suivants : 6; 27 ; 38; i5; 5 pour 100; en outre, ils ont obtenu les notes : mal (9 pour 100) et très mal (5 pour 100) qui ne figurent pas au palmarès des deux catégories précédentes.
- Si nous cherchons les raisons du succès remarquable des sourds-non-muets, nous les trouvons dans le fait qu’ils sont dotés d’un instrument phonétique essentiel : le mot parlé; qu’ils connaissent la signification des mots, c’est-à-dire qu’ils ont des idées innombrables, que leur intelligence s’est développée normalement en fonction même de l’utilisation du langage.
- Après ces excellents élèves, voici leurs camarades muets-d'acquisition. Ils se comportent de façon satisfaisante, et une bonne moitié figurent dans les hautes mentions; ils ne sont pas descendus aux notes mal et très mal. Cela tient sans doute aux traces inconscientes que le mécanisme phonateur, même passager, a laissées dans leur cerveau et dans leur organisme. Ils ont également un souvenir, quoique bien atténué, des idées acquises, qui ne demandent qu’à renaître avec les formules verbales. A propos, par exemple, d’un exercice de lecture sur les lèvres, le muet d’acquisition retrouve spontanément l’articulation d’un mot qu’il a perçu labio-visuellement. Des perceptions visuelles déclenchent un mouvement phonatoire et se substituent ainsi, réellement, aux perceptions auditives. Il est bon, à ce moment-là, d’attirer spécialement l’attention du sujet sur les sensations tactiles vibratoires qui accompagnent toujours l’émis-
- Fig. 3. — Une sourde profonde percevant par le tact les vibrations
- de la parole.
- p.66 - vue 70/527
-
-
-
- 67
- Fig. 4. — Utilisation du sens vibrotactile pour les sourds profonds.
- sion phonétique et de l’inviter aussi à exercer son sens kinesthésique.
- Les leçons de choses peuvent faire renaître aussi, chez le jeune sujet, des expressions familiales, qui lui servaient autrefois, avant son mutisme, à désigner ces choses. Des expressions alsaciennes, bretonnes, savoyardes, languedociennes, lorraines, etc., ont été spontanément enregistrées. Il est excellent de les fixer, et d’en faire une base de départ pour améliorer la parole.
- Pour les muets congénitaux, fort inférieurs psycho-physiolo-giquement aux autres catégories, l’enseignement a malgré tout porté ses fruits. Si quelques-uns obtiennent des notes mal ou très mal, d’autres néanmoins, terminent fort honorablement, avec 33 pour ioo de hautes mentions. Ils sont partis de fort bas puisque, à l’arrivée à l’école, ils ne connaissaient aucun mot de la langue, ils ne prononçaient aucun son phonétique, ils ne possédaient pas le merveilleux instrument d’abstraction et de généralisation si nécessaire au développement de la pensée. Ils étaient, on l’a dit avec juste raison, comparables à de petits animaux. Une mention spéciale est à attribuer à ceux qui, malgré un handicap fort lourd, sont parvenus au même degré que leurs camarades les mieux doués; ils ont parcouru plus de chemin dans le même temps.
- Remarquons que les moindres restes auditifs favorisent les candidats aux divers examens. Toutefois, les élèves intelligents même sourds de naissance reprennent l’avantage à propos par exemple des épreuves de calcul.
- Les premiers sont avantagés également dans la société où leur parole nette et bien articulée fait, relativement, une bonne impression. A intelligence égale, une surdité partielle permet de « faire meilleure figure » sur le plan scolaire et social.
- Cela est vrai également pour les sourds non muets où de très légers reliquats donnent un meilleur comportement.
- Finalement, ce sont les qualités intellectuelles qui permettent au sourd profond de brillantes réussites aux examens lorsqu’il est en compétition avec d’autres sourds-muets.
- Ces remarques valent aussi lorsqu’il est en compétition avec des entendants, par exemple au certificat d’études primaires, au concours d’entrée à la Bibliothèque Nationale (relieur) et même aux autres examens secondaires et supérieurs. Ce fait se renouvelle chaque année. Et un tel sujet est à la fois intelligent et travailleur acharné. Nous assistons là à une formation simultanée de l’intelligence et de la volonté.
- *
- * *
- En résumé, la présentation analytique de la langue française, adaptée au sourd-muet, nous a permis de pénétrer davantage sa psychologie propre.
- L’objet de la connaissance, c’est toujours la vie intérieure. « Tout ce que nous connaissons passe en effet par elle, et se réfracte en elle, pensées ou raisonnements, sensations, sentiments ou désirs, décisions ou volonté d’action et la science elle-même. C’est pourquoi à mon sens, il ne saurait y avoir de culture véritable que celle qui envisage tous les aspects de la personne humaine » (Louis de Bkoglie, Nouvelles perspectives en microphysique, p. 25o).
- Toutefois, cette psychologie, cette éthique du sourd-muet, ajouterions-nous, ne saurait s’exercer sans la manifestation extérieure des formes visuelles et sonores de la langue orale, qui ressortissent à la physiologie : science constructive de l’instrument phonétique, autant que science conservatrice.
- « Les progrès de la science, écrit encore L. de Broglie, s’effectuent grâce au concours d'un grand nombre d’efforts individuels )>. Puissent les quelques documents psycho-physiologiques que nous apportons être inclus dans ces efforts !
- Paul Vuillemey, Docteur ès Sciences, Docteur ès Lettres.
- Hormone de baleine
- On recherche depuis quelque temps le moyen d’obtenir l’hormone de croissance, utile dans le traitement du cancer et de plusieurs maladies du métabolisme. Cette hormone est sécrétée par la glande pituitaire et jusqu’ici les seules sources auxquelles on pouvait faire appel étaient les glandes prélevées sur des singes ou des cadavres humains. Dans celles empruntées au bétail, la structure moléculaire de l’hormone est trop différente de celle de l’homme pour que son utilisation puisse être envisagée. •
- Au cours du Congrès international de chimie pure et appliquée qui s’est tenu à Paris en juillet dernier, le docteur Li, de l’Université de Californie, a rendu compte d’essais pratiqués avec l’hormone de croissance des baleines. Elle serait chimiquement apparentée à celle des anthropoïdes et pourrait être par conséquent utilisée médicalement. Si son efficacité est définitivement confirmée, l’approvisionnement en hormone se trouverait considérablement accru : la glande pituitaire de la baleine bleue est en effet 500 fois plus volumineuse que celle de l’homme.
- Antibiotiques et mycoses
- On sait que l’un des inconvénients de l’emploi massif des antibiotiques est de favoriser à l’occasion le développement de mycoses, c’est-à-dire de maladies dues à des champignons. Certaines bactéries présentes dans l’organisme seraient en effet sa principale défense contre les maladies fongiques ; leur destruction ou leur neutralisation par les antibiotiques favoriseraient alors les champignons pathogènes. A ce propos, une maladie d’une extrême gravité, mais heureusement fort rare, a été étudiée par le docteur Tedeschi, de l’Hôpital des Vétérans, à Boston (U.S.A.). L’agent infectieux est une moisissure qui s’attaque au pain ou à d’autres aliments, d’où le nom de mucormycose donné à la maladie. Dans l’immense majorité des cas, les défenses de l’organisme sont suffisantes pour assurer une protection totale contre ce champignon qui ne trouve porte ouverte que dans des corps affaiblis par la leucémie, le diabète ou différentes affections microbiennes. Alors le champignon entre dans la circulation sanguine et détermine une mort rapide.
- p.67 - vue 71/527
-
-
-
- 68
- L'élevage du porc danois et l'Institut de Roskilde
- Une crise très grave subie à la fin du siècle dernier par l’agriculture danoise a déterminé ce que nous appelons aujourd’hui une reconversion et en même temps une modification profonde de la structure économique et sociale du pays. Jusqu’alors en effet le Danemark exportait surtout des céréales sur le marché européen, mais aussitôt que les États-Unis et le Canada prirent position sur ce marché, le Danemark, où la propriété, très morcelée, s’oppose aux ensemencements sur de larges surfaces, en fut rapidement éliminé. L’absence de matières premières et les maigres ressources en énergie, interdisaient de compenser cette occlusion par un développement industriel de quelque envergure. La véritable richesse du pays résidait, comme par le passé, dans ses terres fertiles qui couvrent pour ioo du territoire. Il fallait seulement que ces terres fussent exploitées sur des bases nouvelles.
- C’est de là qu’est né le mouvement coopératif, très vaste et très complexe, qui a groupé les cultivateurs dans trois secteurs essentiels, ceux de la laiterie, de l’élevage du porc et de l’aviculture. L’exportation étant l’objectif principal, il ne suffisait pas en effet de produire; un équipement et une organisation étaient également nécessaires pour transformer les produits et en assurer la vente. Ce ne pouvait être le fait des propriétaires terriens isolés, dont la très grande majorité exploitent moins de 20 ha : leur union était d’autant plus indispensable que deux au moins sur les trois branches de l’élevage sont complémentaires, à savoir les bovins et les porcs.
- Le schéma général est le suivant : l’industrie dominante est celle de la laiterie, avec un produit d’exportation classé de longue date et dont la clientèle s’étend à une vingtaine de nations. Ce produit, le beurre, laisse, on le sait, des déchets importants (le lait écrémé, le petit-lait et le babeurre) dont la meilleure utilisation, sinon la seule, est d’assurer partiellement la nourriture des porcs. Logiquement, les laiteries coopératives devaient, tôt ou tard, donner naissance, par ricochet, aux abattoirs coopératifs de porcs. Et le marché étranger fixant ses besoins, le lard fumé ou bacon (base du breakfast anglais), allait prendre, dans les exportations danoises, la seconde place après le beurre.
- Élevage dirigé* — La Grande-Bretagne est souvent un client difficile. Aujourd’hui où elle pratique, sur le plan alimentaire, une politique d’austérité, elle comprime son marché et débat âprement les prix (ce dont les Danois lui gardent quelque ressentiment). Ceci ne l’empêche pas de maintenir ses exigences quant à la qualité : c’est un des facteurs qui, en même temps que le penchant personnel des Danois pour l’excellence des produits, a orienté leur élevage porcin et leur industrie de la salaison dans la voie de la recherche scientifique et d’un contrôle particulièrement strict.
- Au moment où l’élevage prenait son essor, les problèmes étaient moins ardus, car le principal débouché de la viande de porc et des salaisons se trouvait en Allemagne : les bêtes de différentes races, engraissées selon la méthode tout-venant qui a cours dans la plupart des pays européens, étaient qualifiées pour satisfaire le marché germanique. Celui-ci se trouva fermé en 1887 à la suite de mesures restrictives édictées par le Reich et c’est alors que l’Angleterre se déclara prête à accueillir le bacon (et les jambons), mais avec un « cahier des charges » spécial.
- Ces salaisons devaient être nettement plus riches en viande qu’en graisse, le prototype en étant ce que fournissaient les porcs anglais de la grande race blanche Yorkshire, de forme allongée, ; musclés et relativement peu garnis en lard. Les
- fit
- Fig'. 1. — Forme typique du porc de la Landrace, après sélection.
- centres d’élevage du Danemark, supervisés par le Comité national de l’Élevage porcin, ont réussi à faire mieux encore en améliorant progressivement la vieille race du pays (Landrace) (fig. 1) : issus d’une sélection méthodiquement poursuivie depuis un demi-siècle, les porcs de la Landrace sont (nous laissons aux Danois la responsabilité de cette qualification) de a ligne aérodynamique ». La couche de lard est fortement diminuée du côté de l’échine. Elle est par contre plus forte sur la poitrine et l’allongement général (poussé au point que l’animal possède une ou deux côtes de plus que naguère) lui confère une productivité exceptionnelle en bacon. Les jambons, harmonieusement fuselés, contiennent eux aussi le maximum de viande. C’est ainsi que de 1926 à 1956, la longueur moyenne du corps est passée de 88,9 cm à g4,i cm, que le lard dorsal a été réduit de 4,o5 à 3,21 cm, tandis que la poitrine se renforçait de 3,06 à 3,32 cm.
- Ayant, par la sélection, réussi à resculpter le porc dans le sens du rendement en protides, les éleveurs danois doivent s’efforcer de ne pas laisser dégénérer la Landrace : chaque année, ils sont tenus d’envoyer quelques porcelets aux stations de contrôle de la descendance : là, ces petits animaux (qui pèsent alors 20 kg) sont élevés dans des cases individuelles où on les nourrit selon les normes prescrites pendant 6 mois, au bout desquels ils doivent peser entre 80 et g5 kg. Les mensurations faites entre temps montrent s’ils respectent les « canons » du porc danois.
- Des mesures précises ont démontré que les acquisitions quotidiennes en viande progressent régulièrement depuis le début (à 20 kg) où le porcelet gagne environ i5o g par jour jusqu’à 75 kg où ses gains passent par un maximum de 3oo g. La courbe, par la suite, s’infléchit nettement vers le bas. Elle est au contraire constamment ascendante pour la graisse, allant de moins de xoo g à l’origine jusqu’à 3oo g pour les poids supérieurs à 100 kg. Telle est la raison pour laquelle l’élevage ne se prolonge pas au-delà de 80, à 95 kg.
- Les méthodes scientifiques d’élevage portent en grande partie sur l’alimentation où les sous-produits du lait interviennent pour 17 à 18 pour 100. Le reste est composé de betteraves ou de pommes de terre et de céréales, avec des additions nécessaires de vitamines et de sels minéraux. Le régime standardisé n’a pas
- p.68 - vue 72/527
-
-
-
- seulement un but morphologique : il tend aussi à éviter le gaspillage des produits alimentaires et c’est ainsi que de 1909 à 1953 le porc a considérablement accru son utilisation digestive des aliments. Alors qu’au début il consommait 3,77 unités fourragères (équivalentes à 1 kg d’orge) pour « prendre » 1 kg de poids, il ne consomme plus aujourd’hui, pour le même résultat, que 3,01 unités comme le montre le tableau I :
- Tableau I. — Gains journaliers en poids comparés
- AVEC LE NOMBRE D’UNITÉS FOURRAGÈRES CONSOMMÉES
- Gains journaliers Unités fourragères
- (en grammes) par kg de poids gagné
- Landrace Yorkshire Landrace Yorkshire
- 1924-192.5. . . 5g8 606 3,57 3,55
- 1934-1935. . . 624 626 3,35 3,3o 3,34
- 1944-1945 • • • 633 619 3,9!
- 1953-1954. . . 675 665 3,o3 3,o3
- 1955-1956. 680 696 3,oi 2,90
- Les. porcs ont été classés en trois catégories : A (maigres), B (trop gras), C (beaucoup trop gras). De 1926 à 1956 les pourcentages ont passé de 5o A, 28 B et 22 G à 92 A, 8 B et o,4 G.
- Au terme de cette conduite méthodique de l’élevage, les porcs acquièrent une uniformité remarquable, ce qui facilite après coup les manipulations et la standardisation des produits.
- L'équipement de l'Institut de Roskilde. — Possédant déjà un acquit considérable dans leur technique spéciale, les organismes de production et de transformation du porc ont cependant estimé nécessaire de centraliser leurs recherches scientifiques et certaines des opérations de contrôle dans un établissement puissamment outillé. Il s’agit du Slagteriernes Forskninginsti-tut qui fut inauguré le i5 octobre ig54 et dont la construction et l’équipement, financés par les abattoirs coopératifs et privés, ont coûté environ 5 000 000 de couronnes (environ 3oo 000 000 F).
- L’Institut est situé à Roskilde, l’ancienne capitale du Danemark, à une trentaine de kilomètres de Copenhague (Quelques-unes des plus importantes fabriques de bacon se trouvent dans les environs). Le bâtiment abrite deux sections distinctes : la première comprend les laboratoires de recherche et de contrôle, la seconde est une installation pilote dotée de chambres froides, chambres climatisées et de cheminées de fumage. Le but essentiel de la recherche est de maintenir ou améliorer la qualité des produits, leur saveur et leur couleur en fonction des opérations successives de l’élevage et de la transformation. Cette mission implique un lien nécessaire avec les techniciens de l’industrie qui accomplissent à l’Institut des stages de formation auxquels s’ajoutent des stages de perfectionnement à l’intention des cadres supérieurs. Une bibliothèque spécialisée, l’édition de rapports et d’un bulletin scientifique complètent le travail d’information et de coordination mené par l’Institut.
- Pénétrer dans l’aile du bâtiment où sont logés les bureaux, les laboratoires, la bibliothèque et la salle de conférences inspire au visiteur un sentiment indécis : d’une part il ne peut oublier que tout ce qui l’entoure ne peut exister qu’en vue de la mise à mal de centaines de milliers de mammifères doués, sinon de raison, du moins de sensibilité; d’autre part il se trouve plongé dans une ambiance particulière, celle que les architectes danois savent donner aussi bien aux monuments publics qu’aux demeures particulières. Calme, sécurité, charme, confort, tels sont les mots qui viennent à l’esprit devant l’harmonieuse combinaison des formes décoratives, de la disposition des vitrages et des plantes vertes.
- 69
- Fig. 2. — Le laboratoire d’optique de l’Institut de Roskilde.
- Le raffinement s’étend à une foule de détails dont le but est d’économiser les gestes, dissiper les odeurs pénibles, éviter le surmenage des muscles et des cerveaux. Voici quelques exemples :
- Pour ouvrir l’armoire basse qui se trouve sous la paillasse de céramique, le laborantin n’a besoin que d’exercer une pression avec son genou : la porte s’ouvre alors. Elle se refermera par le même procédé. Les mains seront restées libres de continuer le travail.
- Chaque hauteur de table est réglable en fonction de la taille du manipulateur ou de l’opération à exécuter.
- Les canalisations sont invisibles. Elles existent pourtant dans toutes les salles, y compris les bureaux, la réception, la salle de conférences, car la distribution intérieure doit pouvoir être remaniée sans qu’il faille pour cela percer des murs et installer de nouvelles tuyauteries. C’est ainsi que d’un bout à l’autre du bâtiment on a sous la main le courant électrique, l’air comprimé, le vide, la vapeur, l’eau chaude et froide, la saumure. Est-il besoin d’ajouter que toutes les pièces sont maintenues
- Fig. 3. — La remorque-laboratoire de l’Institut de Roskilde permet de pratiquer différentes séries d’analyses dans les abattoirs.
- p.69 - vue 73/527
-
-
-
- 70
- en air conditionné, grâce à une. installation centrale ultra-moderne ?
- Il a été prévu, dans chaque chambre froide, un bouton d’alarme sur lequel pourrait appuyer la personne qui s’y trouverait accidentellement enfermée : une sirène alors retentirait à travers tout l’Institut.
- Les moyens dont est doté le laboratoire d’optique (fig. 2) comprennent la spectrophotométr'ie, la réfractométrie, la séparation par ultracentrifugeuses. Tout ce matériel est principalement employé au contrôle de la couleur des viandes qui s’altère par l’exposition à la lumière.
- Une des réalisations les plus remarquables est celle des appareils qui, selon la méthode de Kjeldahl mesurent la teneur en azote des fourrages. Notons qu’il s’agit là d’un point très important, puisque l’alimentation des porcs (destinés à être maigres) doit être aussi chargée que possible en protéines. Le procédé qui est de faire bouillir le fourrage dans une solution de S04H2 jusqu’au dégagement total et au dosage de ÀzII3 a en général le défaut de répandre dans tout le bâtiment d’insupportables odeurs : rien de semblable à l’Institut de Roskilde où l’opération est conduite électriquement dans des éléments alignés le long d’un mur percé lui-même de tout un système de canalisations par où les fumées sont aspirées et rejetées à l’extérieur.
- Toutes les mesures de température, humidité, salinité et autres effectuées dans chacun des laboratoires sont faites électriquement. Ceci permet au manipulateur de brancher son instrument de mesure sur un conducteur qui transmet les signaux à un enregistreur automatique central. Il suffît pour cela d’avertir par téléphone l’employé chargé de cet enregistrement : dès qu’il est averti,' il prend les dispositions nécessaires pour que les chiffres s’alignent d’eux-mêmes sur une feuille spéciale. Plusieurs expérimentations peuvent ainsi être conduites simultanément.
- Les installations frigorifiques qui utilisent en partie le fréon, en partie l’ammoniac sont remarquablement équipées : la température et l’humidité sont réglables. Certaines chambres froides permettront la congélation à — 4o°.
- Parmi les travaux de l’Institut, deux séries méritent une mention spéciale : les tests de contrôle par dégustation de la viande; les recherches en vue de l’insensibilisation des porcs avant l’abattage.
- Dégustation et test triangulaire. — Dix fois par an, chaque fabrique de salaisons est tenue d’envoyer à l’Institut un échantillon dont les dimensions et le découpage dans la carcasse sont étroitement réglementés. Le rythme du contrôle s’établit à environ 20 échantillons par semaine, les mesures portant sur la teneur en protéines, en lipides, en eau et sur la contenance en sel. Mais l’épreuve principale, celle qui exclut toute mesure quantitative, porte sur le goût de la viande. Elle n’en doit pas moins revêtir toute la précision possible.
- En premier lieu, les tranches de bacon qui seront soumises à la dégustation sont grillées au four électrique d’une manière rigoureusement uniforme. Le « jury n des dégustateurs peut alors les apprécier et les noter d’après différents facteurs qui sont la couleur, la salure, la consistance de la graisse et surtout le goût.
- Le problème le plus délicat est celui du recrutement des dégustateurs. Ce sont en majorité des personnes de la région qui ont été invitées par annonce à se présenter à l’Institut afin d’y remplir cette fonction. La cc sélectivité » de leur palais, est vérifiée à plusieurs reprises par la méthode (assez répandue dans l’industrie de l’alimentation) du test triangulaire mis au point par Helm et Trolle en ig46. Trois échantillons sont soumis au candidat dont deux sont identiques : il faut distinguer l’échantillon isolé et ne pas établir une discrimination arbitraire entre les deux échantillons pareils. Le sujet évidemment pourrait être favorisé plusieurs fois par hasard, mais le pourcentage de ces
- Fig. 4. — Un dégustateur de bacon en action.
- x’éussites occasionnelles est déterminé d’avance par le calcul des probabilités.
- Empruntons à MM. Galzy et Marie (Annales de Technologie agricole, 1956, n° 3) les éléments de ce calcul : le pur hasard, équivalent au tirage à pile ou face, veut que le nombre n de réponses correctes fournies par un dégustateur dépourvu de toutes aptitudes tend vers la moitié du nombre N des épreuves auxquelles il est soumis. C’est-à-dire que pour un très grand nombre de répétitions on aurait : n = N/2.
- Mais jusqu’à arriver à cette formule qui symbolise le hasard total, la probabilité a joué plus souvent dans un intervalle qui se situe de part et d’autre de N/2 et pourra s’écrire :
- g5 fois sur 100 : n = N/2 ± e (intervalle étroit);
- 99 fois sur 100 : n = N/2 ± e" (intervalle plus large),
- e x 2 correspond au « seuil » o,o5;
- e' x 2 correspond au « seuil » 0,01.
- Si n (nombre de réponses correctes) sort, dans le bon sens, de l’intervalle étroit, le dégustateur a franchi le seuil o,o5 et sa réponse est dite significative. S’il franchit le seuil 0,01, elle sera dite très significative.
- Des tables de signification, dressées selon ce principe, permettent de juger définitivement les aptitudes du dégustateur. Le nombre des réponses justes établit sans contestation possible que le facteur hasard ne peut être seul à l’avoir favorisé. Voici un extrait de la table de Rœssler :
- Nombre de réponses correctes
- Nombre de Seuil 0,03 Seuil 1
- répétitions (significatif) très sign:
- 7 5 6
- 10 7 S
- 12 S 9
- 13 9 10
- 20 11 13
- 30 16 17
- Les dégustateurs et dégustatrices de Roskilde ont dû, au départ, subir victorieusement le test triangulaire. Leur sélection
- p.70 - vue 74/527
-
-
-
- a été particulièrement sévère et ils sont considérés actuellement comme les représentants mondiaux les plus qualifiés de cette profession très spéciale. Leur travail s’accomplit dans des sortes de compartiments « isoloirs » où ils sont affranchis de toute influence extérieure. Le nombre des échantillons qui leur sont soumis au cours d’une seule séance est strictement limité. Afin de maintenir l’étonnant pouvoir de discrimination de leur palais, ils le rincent après chaque appréciation avec une gorgée de citronnade. Comme les dégustateurs de vin, ils ne sont pas condamnés à absorber le produit et ont donc à leur disposition un crachoir.
- Une des missions des dégustateurs est d’apprécier -la qualité et la saveur du saindoux. Fait curieux, un des éléments de cette appréciation, à savoir le rancissement de la graisse, n’est perçu par eux que de manière rudimentaire. L’analyse chimique est, en ce cas particulier, plus démonstrative.
- U insensibilisation des porcs. — On a quelque répugnance à penser à l’acte qui transforme un animal vivant en carcasse destinée à l’alimentation. Et les coeurs sensibles peuvent platoniquement désirer que l’abattage et la saignée des porcs aient lieu sans souffrances. Il n’est pas cependant certain que tel soit le motif qui a inspiré les recherches dans le sens d’une insensibilisation préalable de ces animaux. Les conditions en effet dans lesquelles ils subissent cette ultime épreuve peuvent grandement influer sur l’état physique et chimique où se trouve leur chair par la suite. En un mot l’insensibilisation est un facteur de qualité.
- Les recherches de l’Institut de Roskilde, dirigées par S. M. Blomquist, ont porté sur l’anesthésie par le gaz C02. Elles semblent établir un sensible progrès sur le procédé plus souvent usité de l’anesthésie électrique. L’effet de narcose obtenu par inhalation de C02, signalé dès 1827 par Hickman, a été utilisé depuis 1926 sur l’homme dans le traitement de certaines affections mentales. Bendersky l’avait entre temps préconisé pour l’abattage des animaux et il existe aux Etats-Unis un établissement où cette technique a été employée avec succès. Il a pu être établi qu’un nerf isolé, placé dans une atmosphère fortement chargée en C02, exige une irritation plus intense que la normale pour réagir; la vitesse de transmission des impulsions est ralentie et les synapses (connexions enti’e cellules nerveuses) sont partiellement bloquées.
- Les expériences de Roskilde ont été menées en utilisant une chambre d’insensibilisation dont l’atmosphère est composée de 70 pour xoo de C02 et 3o pour 100 d’air. Pendant i5 s les porcs introduits dans cette chambre ne manifestent aucun trouble, puis ils tombent sur le côté et donnent alors des signes d’insensibilité et d’inconscience : au bout de i5 nouvelles secondes, le réflexe cornéen a disparu. Quelques secondes encore et l’anesthésie générale est réalisée, bloquant toute sensation de douleur mais n’affectant pas la circulation et les autres fonctions vitales. Deux expériences sur l’homme, l’une subie volontairement par un Hollandais, l’autre accidentelle, ont prouvé que la narcose par le C02 ne laissait aucune séquelle et que le retour à l’activité normale était très rapide. Les porcs utilisés pour l’expérience se sont réveillés au bout d’un peu moins de 2 mn et avaient repris leur comportement habituel en l’espace de 10 à i5 mn.
- Ceux que l’on abat en état d’anesthésie ne manifestent aucune réaction. Ils sont parfaitement « relaxés » et la saignée s’opère en un flot régulier. On n’observe que très exceptionnellement les épanchements ou diffusions de sang dans le tissu musculaire qui sont fréquents lorsque aucune insensibilisation n’intervient ou en cas d’anesthésie électrique. Ce dernier procédé provoque d’ailleurs un flot spasmodique, dû sans doute à un renforcement de la pression sanguine.
- Quant à l’influence du mode d’insensibilisation sur la qualité de la viande, elle a pu être appréciée par simple examen après un transport d’environ 200 km. Elle a été confirmée par de
- nombreuses mesures du pH qui ont montré que la déviation standard de ce facteur était deux fois plus élevée pour la viande de l’insensibilisation électrique que pour celle de l’insensibilisation par C02.
- Le procédé paraît donc confirmé : le seul point délicat est de régler minutieusement l’atmosphère car une concentration en C02 inférieure à 65 pour 100 ne donne qu’une anesthésie incom-
- Fig. S. — L’installation d’insensibilisation au COa de la fabrique de bacon de Kolding.
- A droite, un porc est introduit dans la chambre d’anesthésie. A gauche, un porc évanoui est placé sur le transporteur qui le mènera jusqu’au poste d’abattage.
- plète. Au-delà de 75 pour 100 des contractions se produisent et la saignée risque de ne pas être intégrale.
- Ce chapitre de la recherche témoigne de la complexité des problèmes que l’Institut de Roskilde est appelé à résoudre dans une spécialité technique qui a été rarement abordée avec des moyens aussi puissants et une méthode scientifique aussi poussée.
- Gaston Cohen.
- Les photos qui illustrent cet article nous ont été obligeamment communiquées par le Slagteriernes Forskninginstîtut, Roskilde (Danemark).
- Les insectes de l'ambre
- Une étude menée à l’Université de Californie sur de l’ambre recueilli au Sud du Mexique a révélé la présence de 7o espèces d’insectes fossiles, vieux d’environ 300 000 siècles. Il s’agit en majorité de mouches et de guêpes de petites dimensions, ces insectes étant plus facilement que d’autres piégés par la résine. Parfaitement conservés, ils montrent — à quelques détails près — une similitude parfaite avec des espèces existantes. Une des découvertes les plus intéressantes est celle d’abeilles sans aiguillon qui n’avaient jusqu’ici été recueillies que dans l’ambre méditerranéen, plus récent que l’ambre mexicain. On estime que ces abeilles seraient une forme primitive qui aurait évolué par la suite pour donner naissance à l’actuelle abeille mellifère.
- p.71 - vue 75/527
-
-
-
- 72
- Radioisotopes et recherche scientifique
- Etude d’un
- radioisotope :
- Al 26
- La Conférence internationale sur Vutilisation des radioisotopes dans la recherche scientifique, qui s’est tenue en septembre 1957 à Paris, nous a fourni une abondante documentation dont nous avons déjà donné quelques analyses concernant des questions de géophysique, géologie et géographie (La Nature, novembre 1957, p. 428). Nous poursuivons aujourd’hui en donnant une étude sur l’aluminium 26, où seront d’abord rappelées quelques généralités concernant le noyau atomique, les réactions nucléaires et les isotopes.
- L’étude de nombreux processus chimiques est grandement facilitée par l’utilisation des isotopes radioactifs. Ceux-ci, ayant pratiquement les mêmes propriétés chimiques que l’élément stable ordinaire correspondant, l’accompagnent dans toutes ses transformations. Leur radioactivité les rend alors aisément repérables, ce qui permet de suivre un élément dans les réactions auxquelles il prend part. D’où le nom de « traceur » donné à ces isotopes. On peut utiliser également les isotopes stables (non radioactifs). Cependant les isotopes radioactifs présentent l’avantage d’être facilement détectables et dosables par le rayonnement qu’ils émettent.
- Le phénomène d’isotopie est absolument général pour l’ensemble des éléments chimiques. Cependant tous les éléments ne sont pas également favorisés en ce qui concerne les isotopes utilisables comme traceurs. L’idéal serait de disposer pour chaque élément de deux ou plusieurs isotopes stables et d’un isotope radioactif ayant une durée de vie au moins égale à une heure (les durées de vie allant de quelques jours à quelques années étant les plus favorables). Il y a cinq ans, de tels radioisotopes étaient connus pour tous les éléments à l’exception des suivants : hélium, lithium, bore, azote, oxygène, néon, magnésium et aluminium. Tous ces éléments, sauf l’aluminium, ont au moins deux isotopes stables; l’aluminium est donc le seul à ne pas posséder de traceur commode. A l’heure actuelle on n’a pas encore pu utiliser de traceurs dont la durée de vie soit inférieure à io ma. Seules quelques expériences ont été faites avec l’azote 13 et le magnésium 27 qui ont une durée de vie de cet ordre; encore faut-il remarquer que ces expériences sont très délicates.
- Jusqu’en 1954 le seul isotope radioactif connu de l’aluminium avait une durée de vie de 6,6 s. Il n’était donc évidemment pas utilisable comme traceur. Cependant à la même époque des considérations théoriques développées par Moszkowski et Peaslee laissaient prévoir l’existence d’un aluminium 26 de longue durée de vie dont l’aluminium 26 de 6,6 s serait un isomère excité. M. Rightmire et son équipe du Carnegie Insti-tute of Technology, à Pittsburgh (U.S.A.), semblent être les premiers à avoir effectivement produit et séparé cet isotope.
- Après trois années d’études les caractéristiques de l’aluminium 26 semblent être maintenant déterminées avec sûreté. Il nous a paru intéressant, à l’occasion de la communication faite à la Conférence internationale sur les Radioisotopes par MM. Kohman, Rightmire, Ehmann et Simanton, d’exposer sur un exemple précis les méthodes utilisées pour l’étude des radioisotopes.
- Rappel de quelques faits fondamentaux. — Un noyau atomique se compose de Z protons (particules pourvues d’une charge égale et de signe opposé à celle de l’électron) et de
- N neutrons (particules semblables aux protons mais dépourvues de charge). Le nombre Z est le numéro atomique de l’élément considéré. Le nombre A = Z + N est le nombre de masse du noyau.
- L’élément aluminium, par exemple, est désigné par la notation :
- 13AI, où Z = i3 et A = 27.
- On appelle isotopes des éléments qui ont le même numéro atomique Z. Par exemple 13AI et *®A1 sont deux isotopes de l’élément aluminium.
- On utilise souvent la notation simplifiée Al 26 ou Al 27; le symbole Al sous-entend en effet Z = i3, car tous les atomes dont le noyau a i3 protons ont les propriétés chimiques de ce qu’il est convenu d’appeler aluminium.
- Lorsqu’un noyau peut exister sous deux états différents, ces deux états sont dits isomères. Ils ne diffèrent que par leur niveau d’énergie.
- Le système formé par les diverses particules qui constituent le noyau possède une certaine énergie potentielle. Cette énergie dépend entre autres des différents modes de rotation des particules. Ces modes de rotation forment une suite discrète, chacun d’eux étant caractérisé par une certaine valeur de l’énergie potentielle appelée niveau d’énergie. La mécanique ondulatoire attribue à chacun de ces niveaux un nombre (nombre de spin) qui caractérise le mode de rotation des particules. Pour un noyau le passage d’un niveau d’énergie à l’autre s’accompagne de l’émission d’un photon (particule de lumière) dont l’énergie est égale à la différence d’énergie entre le niveau initial et le niveau final. La mécanique ondulatoire enseigne que l’on peut associer à ce photon une onde électromagnétique de fréquence v telle que AE = hv, AE étant la différence d’énergie entre les deux niveaux. Les différences entre les niveaux d’énergie sont telles que les fréquences correspondantes placent ces rayonnements dans la catégorie des rayons X extrêmement durs (rayons y).
- Les énergies des rayons y, et d’une manière générale de toutes les particules, sont d’ordinaire exprimées en MeV (millions d’électron-volts), un électron-volt eY étant la quantité d’énergie égale à l’énergie cinétique qu’un électron acquiert lorsqu’il subit une élévation de potentiel de x volt (1 MeV = io6 eV = 1,60.io~6 erg).
- On dit qu’il y a transformation nucléaire lorsque soit le numéro atomique Z, soit le nombre de neutrons N, soit les deux à la fois varient. On parle de réaction nucléaire lorsque cette variation se produit à la suite d’un bombardement par un faisceau de projectiles nucléaires ; on parle de désintégration lorsque cette variation se produit spontanément. On peut, même si c’est purement formel, décomposer une réaction nucléaire en deux temps : un noyau Vj, absorbant une particule a, donne un autre noyau v2, lequel se désintègre en donnant un troisième noyau v3 et un certain nombre de particules b, c, ..., ce qui est résumé par la formule :
- a + Vi —^ v2 —v3 + b + c ...
- Premier stade ; absorption d'une particule. — Une telle réaction est en général produite par bombardement d’une cible formée par les noyaux v3 à l’aide d’un accélérateur (cyclotron, Van de Graaf...). Les particules a peuvent être : des neutrons (h), des protons (p), des deutons (d), des particules oc. Un deuton est le noyau de l’isotope de l’hydrogène appelé
- p.72 - vue 76/527
-
-
-
- 73
- hydrogène lourd ou deutérium JH ou ^D; il comprend donc un proton et un neutron assemblés.
- Lors de cette réaction a + —> v2, examinons différents
- cas qui se présentent selon la nature de la particule a :
- — Si a est un proton, le numéro atomique de v2 est égal à celui de Vj augmenté d’une unité :
- Z(v2) = Z(vj) + i ; donc : A(v2) = A(vj.) + i.
- — Si a est un deuton :
- Z(v2) = Z(Vl) + x ; N(v3) = N(Vl) + i ;
- donc : A(v2) = A(vJ + 2.
- — Si a est une particule a (noyau d’hélium 2He) :
- Z(v3) = Z(Vl) + 2 ; N(v2) = N(vj) + 2 ;
- donc : A(v2) = A(vx) + 4.
- — Si a est un neutron (jjn) :
- Z(v2) = Z(Vl) ; N(v3) = N(Vl) + 1 ;
- donc : A(v2) = A(va) + 1.
- Deuxième stade : expulsion de particules. -— Les mêmes règles s’appliquent mais il s’agit alors d’une diminution des nombres A, Z, N. Prenons par exemple la réaction :
- ?|Mg + lE «AI + on
- (magnésium + deuton —>- aluminium 26 + neutron).
- Elle se décompose en :
- 1m g + *H ->;ix -> la Al + ln.
- X étant un noyau intermédiaire plus ou moins hypothétique, cette réaction s’écrit symboliquement :
- Mg25(d, n)Al26
- (les lettres entre parenthèses symbolisant, la première la particule absorbée, la seconde la particule émise).
- A priori, étant donné le noyau intermédiaire, le deuxième stade de la réaction peut se faire suivant des chemins différents. Ces chemins sont indépendants de la façon dont a été formé le noyau intermédiaire et ne dépendent que des caractéristiques de celui-ci (niveau d’énergie, conditions quantiques, etc.).
- Désin tégration. — La désintégration peut avoir une forme analogue à celle du paragraphe précédent : v —> v' -f particules. Mais parmi les particules émises peuvent se trouver des électrons positifs ou négatifs provenant d’une réaction telle que la suivante :
- neutron —> proton + 1 électron négatif (négaton) ; ou : proton —>- neutron + 1 électron positif (positon)
- ou même : proton + négaton —>• neutron ; cet électron est en général pris au cortège électronique qui entoure le noyau. Exemple :
- i*N ijjc + p+.
- On voit que le nombre de masse A = N + Z reste inchangé alors que le nombre atomique Z a diminué d’une unité au profit de N. On a bien là un exemple de la réaction :
- proton —>- neutron +
- (Il est d’usage d’appeler émission p l’émission d’un électron positif ou négatif. On note cette émission par les symboles p+ ou p~).
- Rappelons enfin que la période T d’un radioélément est le temps nécessaire pour que la moitié des atomes initialement présents se soient désintégrés. La période varie, suivant les éléments, entre environ 100 milliards (io11) d’années et 1 milliardième (io~9) de seconde.
- Étude de l’aluminium 26. — Ces quelques notions sommairement rappelées, nous allons maintenant examiner les différentes étapes de l’étude de l’aluminium 26.
- Comme il a été dit plus haut, il devenait certain en ig54 qu’en plus de l’aluminium 26 de période 6,6 s il devait exister un isomère correspondant à un niveau énergétique plus faible. Cet isomère devait avoir une période de l’ordre de dix mille (io4) à 1 million (io6) d’années. C’est à cette époque que les auteurs cités précédemment ainsi que quelques autres cherchèrent à produire cet isomère. Parmi les nombreuses réactions possibles, les suivantes furent utilisées :
- Mg25(d, n)Al26;
- Mg26(d, 2n)Ak6;
- Mg26(p, n)Al26;
- Al27(p, pn)AI26;
- Al27(p, 2n.)Si26(p+)Al26 ;
- Al27(n, 2n)Al26;
- Si28(d, 0OAI26.
- Parmi ces réactions celles qui ont pour point de départ l’aluminium ne conviennent pas lorsqu’on veut obtenir de l’aluminium 26 à l’état pur, car la séparation de l’isotope et de l’aluminium 27 qui n’a pas réagi est évidemment très difficile puisqu’ils ont les mêmes propriétés chimiques. Le magnésium convient le mieux comme élément de départ, étant donné sa bonne conductibilité calorifique, son usinage facile et le fait qu’on peut l’obtenir très pur.
- Le magnésium ordinaire est un mélange de trois isotopes : Mg24 (77 p. 100), Mg25 (n,5 p. 100), Mg26 (11,1 p. xoo). Si le bombardement est effectué par des deutons les trois isotopes réagissent suivant les schémas :
- Mg24(d, a)Na22 ; Mg25(d, n)Ak6 ; Mg26(d, 2n)Ah6.
- Si le bombardement a lieu par protons on a les réactions :
- Mg25(p, a)Na22 ; Mg26(p, n)Al26.
- Dans les deux cas il y a production de sodium 22 qui est un radioisotope très utilisé au laboratoire comme source de positons, et en médecine à la fois comme agent thérapeutique et pour certains diagnostics.
- En fait, les auteurs du mémoire présenté à la Conférence internationale sur les radioisotopes ont utilisé les réactions du magnésium avec des deutons et des protons. On aura une idée des difficultés de la séparation quand on saura que l’activité due au sodium 22 est alors environ 2 millions de fois plus grande que celle due à l’aluminium 26.
- On a pu mettre au point un procédé chimique pour extraire l’aluminium 26 et le sodium 22 à l’état pur. Cette séparation comporte de nombreuses étapes et utilise principalement des ' colonnes échangeuses d’ions. La difficulté de la séparation est due à la très faible quantité d’Ah6 obtenu en comparaison des quantités de Na22, et à la présence de nombreux autres isotopes actifs provenant des impuretés (inévitables) du magnésium.
- Schéma de désintégration de l'aluminium 26. — Des
- considérations théoriques permettent à la fois de prévoir l’existence des deux isomères de l’aluminium et de déterminer leurs niveaux d’énergie. On trouve respectivement 4>oi et 4)25 MeV pour l’état fondamental (correspondant à l’isomère de longue période) et pour l’état excité (6,6 s de période).
- p.73 - vue 77/527
-
-
-
- 74
- L’étude du rayonnement émis par l’aluminium 26 montre qu’il est uniquement constitué de rayons y et de positons Q1+). On est donc amené à mettre en parallèle les niveaux d’énergie de l’aluminium 26 et du magnésium 26. On obtient alors le schéma de la figure 1 dans lequel l’état fondamental du magné-
- Mg26 Al 26
- -----------------4,25 MeV
- -----------------ÏO? MeV
- 2,97 MeV
- 183 MeV
- -------------------0MeV
- Fig. 1. — Niveaux d’énergie de l’aluminium 26 et du magnésium 26.
- L’état fondamental de Mg 26 est pris comme origine et noté 0 MeV.
- sium 26 est pris comme origine des niveaux d’énergie et où les niveaux i,83 et 2,97 MeV représentent des états du magnésium.
- Pour déterminer le schéma de désintégration on étudie en détail le spectre d’énergie des émissions et y.
- Émission [}+. — Pour obtenir le spectre de l’émission ^+, on fait traverser aux positons émis des plaques d’aluminium d’épaisseur donnée (mesurée en mg/cm2) et l’on compte après traversée le nombre de particules restantes. Seules sont donc comptées les particules ayant une énergie supérieure à une certaine valeur entièrement déterminée par l’épaisseur de la plaque, les positons d’énergie inférieure étant arrêtés au passage. On obtient donc, en variant l’épaisseur de la plaque, une coui’be qui donne le nombre de positons reçus en fonction de leur énergie. Cette courbe présente un point d’arrêt dont l’abscisse donne l’énergie maximale des (3+ émis par le noyau (fig. 2). Cette énergie est caractéristique de la réaction nucléaire.
- Le point d’arrêt à 495 ± 10 mg/cm2 correspond à une énergie de 1,16 + o,o5 MeV.
- Or, si l’on considère les différences d’énergie entre les niveaux i,83 et 2,97 MeV du Mg26 et le niveau 4,01 MeV de l’aluminium 26 qui sont égales respectivement à 2,18 et i,o4 MeV, on constate que la valeur 1,16 MeV qui représente l’énergie avec laquelle les positons sont émis du noyau est intermédiaire entre ces deux valeurs. Ceci est compatible avec le passage de l’Al26 à l’état i,83 MeV du Mg26 par émission de positon, le défaut d’énergie de 1,02 MeV étant attribuable à l’énergie emportée par un neutrino au cours de l’émission p+. Rappelons que l’hypothèse du neutrino, due à Pauli, consiste à admettre que chaque émission ^ s’accompagne en outre de l’émission d’un corpuscule de masse extrêmement faible sinon nulle, dépourvu de charge (d’où le nom de neutrino). L’énergie qui accompagne le processus est partagée entre l’électron et le neutrino de sorte qu’il nous faut compléter le schéma donné précédemment :
- proton —>- neutron + et le remplacer par le schéma réel :
- proton —> neutron + {3+ + neutrino.
- Cette hypothèse du neutrino a été formulée précisément pour rendre compte du fait que les rayons [} n’avaient pas une éner-
- Activité f?+ y
- Point d'arrêt
- fictivité y
- Activité p
- Epaisseur d'aluminium traversée (en mg/cm2)
- Fig. 2. — Spectre d’émission (3+ de l’aluminium 26.
- La mesure est faite avec deux compteurs, l’un ne distinguant pas les [3+ des y ^ courbe (1), l’autre comptant les y seuls. On obtient la courbe (2)
- par différence.
- gie définie alors que l’état initial et l’état final ont des énergies bien déterminées. Le cas de la désintégration de l’Al26 illustre particulièrement bien la nécessité d’une telle hypothèse puisque l’énergie emportée par les positons p+ lors du passage de l’Abô ou l’état excité de i,83 du Mga6 n’est pas égale à la différence des énergies correspondant à ces deux états.
- Émission y. — On obtient la courbe de la figure 3 donnant l’intensité d’émission en fonction de l’énergie. On utilise pour cette étude un scintillateur à cristal d’iodure de sodium activé par des traces de thallium suivi d’un photomultiplicateur.
- L’ensemble donne à l’entrée d’un circuit électronique approprié des impulsions dont l’amplitude est proportionnelle à l’énergie des rayons y reçus; les circuits électroniques classent ensuite ces impulsions par bandes d’énergie et comptent séparément leur nombre dans chaque bande. On obtient ainsi très commodément le spectre d’énergie cherché.
- On distingue sur cette courbe un pic à i ,83 MeV qui correspond au passage de l’état i,83 MeV du magnésium 26 à l’état fondamental comme prévu à la suite de l’élude du rayonnement ^+. Le pic à 2,96 MeV correspond au passage du magnésium 26 de l’état 2,97 à o MeV. Le pic à 1,12 MeV correspond au passage du magnésium 26 de 2,97 à 1,83 MeV. Le pic à o,5i MeV est dû à l’annihilation des positons, c’est-à-dire à la rencontre d’un positon et d’un négaton, ce qui provoque leur annihilation mutuelle et la transformation complète de leur masse en énergie rayonnée sous forme y. Les autres pics sont dus à des effets secondaires : citons par exemple le pic de 2,36 MeV qui résulte de l’addition de photons de o,5i et i,83 MeV arrivant exactement au même instant sur le sein-
- p.74 - vue 78/527
-
-
-
- 75
- Echelle *de droite
- Echelle
- degauche
- Energie ( MeV)
- Spectre d’émission y de l’aluminium 26.
- Fig. 3.
- tillateur. On peut déduire par des raisonnements très simples mais qu’il serait trop long de développer ici le pourcentage d’émission {3+ par rapport au total des désintégrations en considérant les intensités relatives des différents pics. On trouve ainsi 84,5 pour xoo de désintégrations p+. Le reste est à attribuer à la transformation d’un proton en neutron par capture d’un négaton, ce qui amène aussi bien au magnésium 26 que l’émission d’un (3+, les deux schémas :
- proton + neutron
- et : proton —> neutron -f
- étant équivalents.
- On en déduit facilement tous les pourcentages indiqués sur
- U10 'années.
- Fig. 4. — Schéma de désintégration de l’aluminium 26.
- La notation e indique la transformation : proton + négaton—neutron.
- la figure 4 qui représente le schéma complet de la désintégration de l’aluminium 26. On remarquera également l’émission accompagnant le passage direct de l’aluminium 26 de 6,6 s de période à l’état fondamental du magnésium 26.
- Détermination de la période. — La faible activité de l’aluminium 26 confirme les prévisions concernant la très longue période de cet isotope. Le calcul de la période à partir de l’activité nécessite la connaissance du nombre d’atomes du radioisotope qui ont été fabriqués. Si l’on connaît le nombre d’atomes fabriqués et l’activité, on en déduit immédiatement la période. Ce nombre peut en principe être déterminé d’après les conditions du bombardement par l’accélérateur. Mais malheureusement on n’a pas de données précises concernant le rendement du bombardement pour des réactions semblables. Pour obtenir une première approximation, les auteurs ont admis que toutes les réactions de transformation simples d’un élément donné ont à peu près le même rendement, en particulier les réactions.
- Mg26(d, 2n)Al26;
- Mg25(d, n)Ah6;
- Mg24(d, a)Na22.
- On a admis en plus que la quantité totale d’aluminium 26 qui est produite comporte les deux isomères en proportions égales, ce qui mène à une période comprise entre 100 000 et
- 10 millions d’années.
- A l’aide de renseignements plus précis on a pu réduire cet intervalle et à l’heure actuelle on admet que la période est comprise entre 5oo 000 et 2 millions d’années. Des mesures précises ont été entreprises à l’aide d’un spectrographe de masse. Les résultats n’ont pas encore été complètement publiés.
- Caractérisation de l'aluminium 26. — Il se trouve que l’aluminium 26 est à peu près le seul élément de moyenne ou longue période qui possède une raie de i,83 MeV dans le spectre d’émission y. De plus, cette émission se produisant lors de 99 pour 100 des désintégrations, elle est extrêmement favorable pour détecter et caractériser la présence d’aluminium 26.
- L’aluminium 26 dans la nature. — L’aluminium 26, du fait de sa période de ioG années, ne peut pas être un radionuclide primaire, c’est-à-dire que s’il en avait été formé en même temps que les autres éléments que nous connaissons,
- 11 n’en resterait plus trace de nos jours. On a cependant constaté que l’aluminium commercial était légèrement radioactif. On a pu montrer que cette activité était due à des impuretés radioactives dont il semble être très difficile de débarrasser l’aluminium. Mais en tous cas cette activité n’est pas due à de l’aluminium 26.
- L’aluminium 26 peut cependant exister à l’état de radionuclide induit, c’est-à-dire qu’il a pu être formé à la suite d’une réaction nucléaire naturelle. En particulier, il a pu se former sous l’action du rayonnement cosmique.
- On a donc cherché des traces d’aluminium 26 dans les météorites (Voir La Nature, novembre 1957, p. 43o). Les météorites représentent un matériau de choix pour l’étude des rayons cosmiques puisque ces rayons qu’elles ont reçus pendant leur séjour à l’extérieur de l’atmosphère terrestre n’ont pas subi d’absorption. On a pu mettre en évidence la présence d’aluminium 26 et en tirer des conclusions intéressantes concernant l’âge des météorites et des terrains avoisinants.
- Usages possibles. — A part l’intérêt qu’il présente pour la géologie et l’étude des rayons cosmiques, l’aluminium 26 peut être utile à plusieurs titres.
- Sa période est si longue que la décroissance de son émission avec le temps est négligeable. On peut donc l’employer comme source .. étalon de rayonnements p et y*
- p.75 - vue 79/527
-
-
-
- 76
- Mais il rendra certainement le plus de services comme traceur de l’élément aluminium. La première application importante vient d’en être faite pour l’étude de l’électrolyse du mélange alumine + cryolithe, en utilisant simultanément les traceurs sodium 24, fluor 18 et aluminium 26.
- Étant donné l’importance scientifique et technologique de l’élément aluminium, il y a sans aucun doute des applications innombrables pour le radioaluminium comme traceur.
- Un obstacle important à l’exploitation complète des possibilités de l’aluminium 26 réside dans l’impossibilité où l’on se trouve actuellement d’en produire des quantités de l’ordre du millicurie, quantité minimale que les laboratoires sont habitués à utiliser.
- Néanmoins, on a entrepris la production de ce radioisotope
- à l’aide d’accélérateurs de particules. Le sodium 22 qui est produit en même temps permet d’amortir considérablement les frais de production,
- La production de l’aluminium 26 dans les réacteurs nucléaires présente des difficultés, en particulier au stade de la séparation qui pourrait être plus difficile que celle du plutonium, par exemple.
- Cependant on peut retenir que l’existence d’un traceur de l’aluminium a été prouvée et qu’il offre de nombreuses possibilités. L’intérêt qu’il présente et la demande qui en sera faite décideront probablement en dernier ressort de sa production régulière en quantités notables.
- Félix Roy et Robert Rosset.
- Le phosphore 33
- Jusqu’à présent le phosphore 32 a été un des radioisotopes les plus utilisés dans le monde. Son proche parent, le phosphore 33, serait très utile mais il est peu employé du fait des difficultés que présente sa préparation. En particulier il est difficile à produire exempt de phosphore 32. Le Royal Institute of Technology de Stockholm envisage cependant sa production étant donné le grand intérêt qu’il présente.
- Cet intérêt est double :
- i° La période de P 33 est de 25 jours contre i4 jours pour P 32, ce qui le rend utilisable comme traceur en agriculture. En effet, supposons que l’on mette la même quantité de P 32 et de P 33 dans un engrais phosphaté par exemple en automne, au printemps suivant on trouvera douze fois plus de P 32 que de P 33 dams les plantes, oe qui rendra les-mesures d’autant plus faciles et les conclusions que l’on pourra tirer concernant le mécanisme d’assimilation d’autant plus sûres.
- 2° La possession de 2 isotopes d’un même élément permet le double marquage, ce qui présente un intérêt évident pour le phosphore sur l’importance biologique duquel il est inutile d’insister.
- Mesure des activités par
- Pour éliminer les charges électrostatiques (emmagasinées par des poussières par exemple) on utilise déjà des courants d’air ionisés par le rayonnement de radioisotopes; on utilise en particulier les rayons ^ de l’yttrium 90.
- Au cours de recherches sur le rendement de tels dispositifs, l’Institut de Physique nucléaire de Prague a trouvé que le produit du débit de l’air soumis à l’ionisation par la quantité d’ions contenue dans 1 cm3 de cet air est proportionnel à l’activité du radioisotope. Ceci a suggéré l’idée d’utiliser ce phénomène pour la mesure de l’activité de radioisotopes difficilement accessibles aux méthodes habituelles de mesure, telles
- Citons quelques possibilités du double marquage : dans les expériences sur des animaux, il est bien connu que les résultats diffèrent beaucoup d’un sujet à l’autre; il est donc plus intéressant de faire un marquage multiple sur un même animal que d’opérer sur un grand nombre d’animaux.
- Il peut être intéressant de marquer différemment deux atomes de phosphore qui ont, dans une même molécule, des fonctions chimiques différentes. On peut, d’autre part, marquer des molécules différentes contenant toutes du phosphore; ou bien encore marquer le même matériau à des époques différentes, de façon à étudier un processus dynamique.
- On voit donc que cet isotope, jusqu’à présent négligé, serait d’une grande utilité. U reste à espérer que les grands laboratoires producteurs de radioisotopes entreprendront sans tarder sa production malgré les difficultés qu’elle présente.
- Selon les estimations du Royal Institute of Technology, les besoins immédiats en P 33 représenteraient environ 1 pour 100 de la consommation de P 32. Mais ces besoins iraient certainement en croissant quand la production régulière en serait entreprise. R. R. et F. R.
- un courant d'air ionisé
- que des contaminations radioactives de parois intérieures de tubes, de cavités, de fissures, etc. La méthode consiste à envoyer un courant d’air dans le récipient dont on veut déterminer le degré de contamination et à mesurer à la sortie le taux d’ionisation de l’air. Un étalonnage, qu’il faut d’ailleurs refaire pour chaque radioisotope, donne l’activité du corps répandu dans le récipient. Pour des radioisotopes ainsi déposés et qui ne sont pas émetteurs de rayonnement ce procédé par ionisation de l’air semble être le seul utilisable. La sensibilité de cette méthode pour le strontium 90 est de 0,1 microcurie d’activité totale. R* R* et F. R.
- Un « microscope chimique »
- Un certain nombre de méthodes extrêmement intéressantes pour l’emploi de radioisotopes dans le domaine de la chimie biologique ont été mises au point récemment.
- Des études quantitatives ont été faites concernant l’assimilation de la nourriture par des tissus animaux et des bactéries. Le tissu, après avoir été mis pendant un temps suffisant en présence du milieu nutritif radioactivé, est extrait à l’aide d’un solvant convenable. Les différents produits passés en solution sont alors séparés par une chromatographie bidimensionnelle sur feuille de papier. Ce procédé, maintenant classique,
- permet de rassembler en un point particulier de la feuille chacun des produits chimiques qui constituent le mélange. L’originalité de ces procédés réside dans l’analyse quantitative, qui est ensuite faite, du chromatogramme. Une des façons d’opérer est la suivante : la feuille de papier passe entre deux compteurs de Geiger de façon que ceux-ci restent en face de chaque centimètre carré de surface pendant un temps déterminé à l’avance. On balaye ainsi toute la surface de la feuille et le résultat de chaque comptage est transmis à une machine à écrire qui le transcrit automatiquement sur une feuille de
- p.76 - vue 80/527
-
-
-
- 77
- papier défilant en synchronisme avec le chromatogramme. On obtient donc une feuille où sont repérées, à la fois, la nature du produit chimique (par les coordonnées du point) et sa quantité par le chiffre inscrit.
- Cette méthode semble permettre d’entreprendre commodément l’étude de certains métabolismes normaux ou pathologiques. L’appareil peut être considéré comme un puissant « microscope chimique » qui serait capable de révéler les mécanismes
- chimiques de la cellule vivante, de la même façon que le microscope oi’dinaire révèle sa structure.
- On a déjà pu étudier ainsi le rôle de l’insuline dans les cellules et montrer son importance dans d’autres processus que ceux du diabète ; on a pu également faire des études intéressantes sur les tissus cérébraux qui ont déjà donné quelques résultats de valeur, en particulier sur le rôle de l’ammoniac dans ces tissus. R. R. et F. R.
- Le chemin de fer de la Mecque sera-t-il reconstruit ?
- Des informations récentes ont laissé prévoir une prochaine remise en état de la voie ferrée du Hedjaz, communément appelée « chemin de fer de la Mecque ». Le premier effet de cette remise en état serait de faciliter les relations entre l’Arabie séoudite et la Méditerranée.
- Construite au début du siècle par le sultan et calife Abd-ul-Hamid, afin de relier la ville sainte des musulmans au reste de l’empire ottoman, la voie ferrée fut sabotée à la fin de la guerre 1914-1918 par le fameux colonel Lawrence : 25 ponts sautèrent à la dynamite et de nombreux tronçons de rails furent détruits, coupant ainsi l’armée turque du Hedjaz de ses bases. Après la guerre, les dissentiments religieux, familiaux et politiques entre les Husseinites et les Wahabites, installés maintenant respectivement en Jordanie-Irak et en Arabie, empêchèrent tout travail de réparation ; finalement, la voie se détériora complètement, et 500 km s’enfouirent dans le sable du désert. La Mecque ne fut plus accessible que par la voie maritime via Djeddab, pu bien par la route classique des caravanes conduisant les pèlerins au tombeau du Prophète.
- Actuellement, la voie s’arrête à Maan, dans le Sud jordanien, à 460 km de Damas via Amman. Au sud de Maan, quelques endroits sont encore visibles, mais la voie est inutilisable : les experts estiment à 200 000 le nombre des rails à reposer.
- La rencontre Hussein-Ibn Séoud à Budnah, en 1934, préludant à un rapprochement entre les deux dynasties, permit l’année suivante la réunion à Riad, en Arabie, d’une conférence à trois,
- groupant Arabes séoudiens, Jordaniens et Syriens. On y décida la création d’une commission technique chargée d’étudier la possibilité de la remise en état de la ligne. Celle-ci s’est mise au travail, mais de nouveaux retards sont intervenus, dus en partie à des causes politiques (crise de Suez, affaires syriennes). Récemment pourtant, on a appris la concession à la société américaine Engineering and Explorating Group de la reprise des travaux. Ce détail n’est pas pour étonner, quand on sait les relations étroites qui unissent le souverain séoudien aux milieux d’affaires d’outre-Atlan tique.
- Par ailleurs, la Jordanie aurait l’intention de construire un tronçon de voie destiné à relier Maan au port d’Akaba, sur le golfe du même nom. En effet, la voie ferrée de la Mecque n’aurait pas seulement l’intérêt de faciliter de nouveau les pèlerinages : elle se révélerait également à notre époque un instrument de vie économique de première importance. Entre autres avantages, elle permettrait le transport des fruits, produits agricoles et objets fabriqués de Syrie vers l’Arabie séoudite, à des conditions de prix bien moins onéreuses que par la voie maritime ou aérienne utilisée actuellement. Peut-être le tourisme serait-il, lui aussi, vivifié.
- Encore faudrait-il pour cela que la paix régnât dans le Proche-Orient. A cette condition, 1’ « artère vitale » du monde arabe, comme on se reprend à appeler le chemin de fer de la Mecque, connaîtra sans doute un renouveau qui contrastera avec le roman d’aventures dont, depuis soixante ans, elle a alimenté les péripéties. D. C.
- LE CIEL EN MARS 1958
- SOLEIL : du 1er mars au 1er avril (à 0h) sa déclinaison croît de — 7°3-r à + 4°16' ; la durée du jour passe de 10*57“ le 1er, à 12*45“ le 31, demi-diamètre apparent le ler = 16'9",9, le 3i = 16'2",0. — LUNE : Phases : P. L. le 5 à 18*28“ D. Q. le 12 à 10*4S“, N. L. le 20 à 9*00“, P. Q. le 28 à 11*18“ ; périgée le 6 à 9*, demi-diamètre app. L6'43" ; apogée le 20 à 19*, demi-diamètre app. 14'42". Principales conjonctions : avec Uranus le 3 à 11*, à 5°58'S ; avec Jupiter le 8 à 21*, à 1°37' S. ; avec Neptune le 9 à 3*, à 1°37' S. ; avec Saturne le 12 à 18*, à 2°46' N. ; avec Mars le 15 à 11*, à 6011' N. ; avec Vénus le 16 à 11*, à 1°17' N. ; avec Mercure le 21 à 22*, à 0°12' N. ; avec Uranus le 30 à 20*, à 6°5' S. Principales occultations : le 1er, de X Gémeaux (mag. 3,6), immersion à 22*23m,6 ; le 3, de v. Cancer (mag. 5,1), immersion à 18*32“,2 ; le 11, de v Scorpion (mag. 4,3), immersion à 3*7m,5
- et émersion à 3*29“,8 ; le 26, de 104 Taureau (mag. 5,0), immersion à 22*4“, 1 ; le 30, de A2 Cancer (mag. 5,7), immersion à 21*0“,0. — PLANÈTES : Mercure, est étoile du soir dans la deuxième moitié du mois, se couche le 26 à 19*58“, soit 1*47“ après le Soleil ; Vénus, magnifique étoile du matin se levant le 2 à 4*30“, soit 2*3“ avant le Soleil ; Mars, dans le Sagittaire puis le Capricorne, se montre aussi le matin quelques minutes avant Vénus ; Jupiter, dans la Vierge brille dès la fin de la soirée, le 14, lever à 21*2“, diamètre pol. app. 39",6 ; Saturne, dans Ophiuchus est étoile du matin, le 14, lever à 1*51“, diamètre pol. app. 14",8 ; Uranus, dans le Cancer s’aperçoit la majeure partie de la nuit, le 14, coucher à 4*45“, diamètre app. 3",8, position : a = 8*42“ et 8 = + 18°35' ; Neptune, dans la Vierge 6uit Jupiter à l’est, le 14 : diamètre app. 2",4, position : a = 14*11“ et 8 = —11018'. — ETOILES VARIABLES : Minima observables d‘Algol (2“,2-3“,5) le 2 à 20*,5, le 20 à 1*,4, le 22 à 22*,2, le 25 à 19*,0 ; minima de p Lyre (3“,4-4“,3) le 1er à 6*,5, le 14 à 4*,8, le 27 à 3*, 1. — TEMPS SIDERAL : à 0*, méridien de Paris : le 1er : 10*42“31s, le 11 : ll*21“57a, le 21 : 12*l“22s, le 31 : 12*40“48s.
- Phénomènes intéressants : Surveiller l’apparition de taches et de facules à la surface du Soleil. — Equinoxe de Printemps le 21 à 3*. — Du 21 au 26, lumière cendrée de la Lune, le soir. — Après le 15, on remarquera la bonne visibilité de Mercure à l’oéil nu le soir, plus grande élongation le 29 à 3*, à 18°43' E du Soleil. — On pourra encore rechercher Uranus à la jumelle, aux positions indiquées, ainsi que Neptune dans la Vierge, dont le mouvement est rétrograde. — On observera, d’autre part, que les belles constellations d’hiver, signalées le mois précédent, se couchent de plus en plus tôt.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- WÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊËÊtÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊKÊÊÊÊÊÊÊÊÊÊÊÊÊÊ*-
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- fondée en 1887 par C. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc. Demandez 1er, programmes au Siège Social s Hôtel des Sociétés Savantes 28, rue Serpente, PARIS-6'
- Permanence, tous les jours non fériés de lé à 17 h.
- Cotisations : Région Parisienne, 1 800 F ; France, 1 500 F ; Etranger, 2 300 F ; Etudiants, 250 F.
- Droits d’inscription, 200 F ; Etudiants, 140 F.
- Spécimen gratuit de la revue sur demande.
- L. Tartois.
- p.77 - vue 81/527
-
-
-
- 78
- LES LIVRES NOUVEAUX
- Und es ward Licht, par Rudolf Thiel. 1 vol. 398 p., 144 ill. Rowohlt Yerlag, Hambourg, 1956. Prix, relié : 19,80 DM.
- Sous ce titre biblique, l’auteur a brossé une histoire de l’Astronomie qui va de l’enfance mystique de cette science jusqu’à l’astronautique chère à Wernher von Braun. Si, comme le firmament, l’ouvrage présente quelques points nébuleux qui auraient gagné à être exposés plus en détail et si certains passages, en particulier le problème espace-temps, portent une marque très personnelle, l’emsemble n’en demeure pas moins un séduisant récit de l’extraordinaire marche en avant d’une science qui nous réserve encore bien des surprises. Des illustrations bien choisies intéressent un large public.
- Introduction à la recherche opérationnelle,
- par J. F. McCloskey et F. N. Trefethen. Traduit de l’américain par M. Verhulst et J. Lavault. 1 vol. 15,5 x 24, 214 p., 36 fig. Dunod, Paris, 1957. Prix, broché : 1 850 F ; relié : 2 150 F.
- Les recherches opérationnelles ont pris pendant la dernière guerre, en Grande-Bretagne d’abord, puis aux États-Unis, une importance exceptionnelle. Elles constituent un des aspects scientifiques les plus caractéristiques du conflit. Les problèmes qui se posaient étaient soumis à des équipes d’hommes de science relevant des disciplines les plus variées, mais ayant un caractère commun : l’habitude des raisonnements et des méthodes scientifiques. De leur avis dépendait la décision.
- Du plan militaire, la recherche opérationnelle est passée maintenant dans le domaine industriel et commercial où la complexité des problèmes en fait un outil tout désigné. Son application donnera à la deuxième révolution qui se prépare dans les domaines techniques et d’organisation son équivalent sur le plan des décisions.
- Le présent ouvrage, traduit de l’américain, donne pour la première fois en France un tableau d’ensemble de cette nouvelle discipline. Après avoir retracé son histoire, les auteurs en exposent les bases théoriques et traitent notamment des programmes linéaires, de la théorie des jeux et de celle des files d’attente. La 2* partie offre des cas pratiques.
- Les semi-conducteurs. Diodes, transistors et autres applications, par G. Goudet et C. Meule au. 1 vol. 16 x 25, 436 p., 108 fig. Eyrol-les, Paris, 1957. Prix : relié : 5 500 F.
- Il est impossible d’entreprendre quoi que ce soit de neuf dans le domaine des semi-conducteurs sans posséder une solide formation théorique. Plus de la moitié de cet ouvrage est donc consacrée à une étude théorique avec les éléments de mécanique ondulatoire nécessaires. Le niveau des connaissances indispensables est à peu près celui de la licence ès sciences, mais les explications sont très claires, les auteurs ne s’encombrent pas d’un formalisme inutile.
- La 2' partie traite des applications (redresseurs, diodes, transistors...). Le lecteur se fera une idée des problèmes pratiques soulevés par l’emploi des semi-conducteurs et des possibilités qu’ils ouvrent dans de nombreux domaines. Malheureusement, la plupart des procédés de fabrication étant secrets, la partie technologique de l’ouvrage s’en ressent. Bibliographie très complète classée par années.
- Électricité industrielle, notions d’électronique, par M. Bellier et A. Galichon. 1 vol. 14,5 x 20, 296 p., nombr. fig. Delagrave, Paris, 1957. Prix, broché : 680 F ; cart. : 790 F.
- Cet ouvrage fait partie d’une série de quatre développant le programme d’électricité des Écoles nationales professionnelles (lois générales, machines électriques, électronique, mesures et essais électriques). Les auteurs ont, dans la mesure du possible, « employé la méthode expérimentale, guidant l’élève de la manipulation aux théories générales, puis aux applications industrielles ». Sans faire de concessions abusives à la vulgarisation ou à la facilité, ils ont rassemblé l’essentiel de ce qui concerne les tubes à vide, tubes à gaz, rayons X, cellules photo-électriques, oscillographes cathodiques, télécommunications... Leur ouvrage est appelé à rendre de précieux services à divers stades de l’enseignement théorique ou pratique.
- Électronique industrielle, par G. Goudet. 1 vol. 16,5 x 25, 635 p., 417 fig. Eyrolles, Paris, 1957. Prix, relié : 5 500 F.
- Deuxième édition d’un livre dont le succès est mérité. L’auteur, dont les nombreux autres ouvrages témoignent de sa vocation didactique, a voulu en faire une initiation à la technique des courants faibles. Le lecteur y trouvera tout ce qui est nécessaire pour aborder la lecture des revues et ouvrages spécialisés. Plutôt qu’un recueil complet de toutes les « astuces » de montage utilisées en électronique, il trouvera ici des circuits classiques soigneusement expliqués et à l’occasion de leur étude il pourra s’imprégner des méthodes de raisonnement et de l’état d’esprit propres à l’électronique. Les connaissances nécessaires sont exposées systématiquement. Une lr* partie traite du calcul des circuits électriques en régime périodique, puis on utilise le calcul symbolique pour traiter des régimes transitoires. On peut cependant regretter que ne soient pas introduites la notion de quadripôle et les méthodes des calculs tensoriel et matriciel. Un long chapitre est consacré aux tubes à vide, puis sont étudiés ensuite, et c’est là la partie la plus intéressante de l’ouvrage, la production, l’amplification et la détection des signaux électriques. L’auteur utilise un appareil mathématique assez élémentaire et prend soin d’expliquer en outre physiquement les phénomènes étudiés. Dans la 2e partie on aborde l’optique électronique et ses applications : tube cathodique, microscope électronique et spectro-scope de masse. Une dernière partie est consacrée à des applications industrielles et aux servomécanismes. Copieuse bibliographie.
- Einschluss-Verbindungen, par Friedrich Cramer. 1 vol. 14 x 21, vr-116 p., 47 fig. Springer-Verlag, Berlin. Prix : 14,80 DM.
- Les composés d’inclusion, encore appelés clathrates, sont des combinaisons moléculaires de deux composés dont la formation s’explique par le fait que l’un d’eux, en général de faibles dimensions, est emprisonné dans l’édifice structural constitué par les molécules de l’autre ; parmi ceux-ci on cite les hydrates de gaz rares, certaines combinaisons de ces gaz avec l’hydro-quinone, de l’urée avec des alcools, de la thio-urée et des carbures paraffiniques, etc. Le présent travail, qui constitue une excellente mise au point sur ces composés, où l’auteur passe en revue leurs modes de formation, leur structure et les applications qu’on peut en tirer, montre l’importance de la structure en chimie.
- Introduction à la chimie des silicones, par
- Eugène-G. Rochow. Traduit par Georges Cha-pas. 1 vol. 16 x 25, 198 p., 8 fig. Dunod, Paris, 1957. Prix : 1 450 F.
- Traduction de la deuxième édition américaine de cet ouvrage, largement remanié et mis à jour. Ces dernières années, le vaste domaine des polymères silico-organiques a fait de grands progrès dans leurs diverses formes : huiles, résines, élastomères. Cet ouvrage, à la fois théorique et industriel, complétera très heureusement les cours classiques de chimie organique
- ---- A NOS LECTEURS ---------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6*
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- qui généralement ne consacrent que peu de place aux dérivés organiques du silicium.
- Soudure des plastiques. Volume II : Polyéthylène, par G. Haim. Traduit de l’anglais par M. Meyer. 1 vol. 16 x 25, xvm-154 p., 73 fig. Dunod, Paris, 1957. Prix, relié : 2 250 F.
- Cet ouvrage fait suite au premier volume de Soudures des plastiques de G. Haim et P. Zadé consacré aux généralités sur la chimie et la technologie des plastiques. Il traite plus spécialement de la mise en œuvre du polyéthylène pour la fabrication d’objets de grandes dimensions pour lesquels la méthode de moulage par injection n’est pas applicable. Après un rappel des propriétés et des formes commerciales du polyéthylène, l’auteur étudie en détail l’assemblage par soudure des éléments préalablement usinés. L’équipement nécessaire, les différents types de soudure, l’installation d’un atelier de soudure de plastiques, l’usinage du polyéthylène sont décrits avec le souci constant de fournir les renseignements techniques indispensables. Deux chapitres sont consacrés à deux applications importantes : revêtement des réservoirs en bois, en ciment ou en métal, et mise en place et jointage des canalisations. Considérations sur la sélection des apprentis soudeurs et des travaux pratiques destinés à perfectionner le soudeur en plastiques.
- L’Aéronautique en 1957. Numéro spécial de La Technique Moderne (tome 49, n° 5, mai 1957), 24 x 31, 161/248 p., fig. Dunod, Paris. Prix : 650 F.
- A l’occasion du 22e Salon de l’Aéronautique, La Technique Moderne a publié un important numéro spécial, faisant le point des différents aspects de cette industrie et des recherches qui s’y rapportent. Des spécialistes éminents ont traité des prototypes d’avions les plus récents, des groupes propulseurs et des équipements. Deux chapitres particulièrement à l’ordre du jour sont relatifs aux engins guidés et aux procédés d’usinage modernes. Lecture aisée pour tout ingénieur, même non spécialisé en aéronautique
- Handhook of Snakes of the United States and Canada, par Albert H. Wright et Anna A. Wright. 2 vol. 15,5 x 24, xxvm-1 106 p., 306 fig., 70 cartes. Cornell Univer-sity Press, Comstock Publishing Associates, Ithaca, New-York, 1957. Prix, relié : 14,75 dollars les deux vol.
- Ce bel ouvrage comprend tout d’abord des tableaux de détermination et la description des espèces, avec de très nombreuses figures, photographies d’individus entiers et dessins des principales particularités morphologiques utilisées en taxinomie ; on y voit, en particulier, de très belles figures de la tête de tous les types principaux, vus de face et de profil. Mais, l’intérêt du livre ne se borne pas à cette étude faunistique ; dans la plupart des cas, l’habitat des espèces est indiqué avec beaucoup de soin, ainsi que leur distribution géographique, leur période d’activité, des notes sur la nourriture, l’accouplement, la ponte et l’élevage. Les observations sur la nourriture sont souvent connues seulement par des animaux élevés en captivité ; mais, certains cas sont particulièrement intéressants, comme Natrix sipedon, qui se nourrit en grande partie des œufs d’un oiseau destructeur de truites et se montre ainsi utile. De nombreuses observations sur la biologie, citées dans l’introduction, retiendront l’attention des naturalistes qui ne sont pas uniquement intéressés par la faune américaine. Le premier volume traite les Leptotyphlopidés, serpents aveugles ou worm snakes qui vivént sous terre, les Boïdés et le début des Colubridés. Dans le second volume sont terminées les nombreuses espèces de Colubridés, les Elapidés ou serpents corail, protéroglyphes peu dangereux, et enfin les Grotalidés comprenant les genres Ancistro-don, Crotalus et Sistrurus, avec un petit nombre d’espèces mais de nombreuses formes locales.
- L’appareil vestibulaire. Anatomie, physiologie, pathologie (Conférences et travaux pratiques publiés sous la direction de A. Aubin). 1 vol. 14 x 22,5, 605 p., fig. Presses Universitaires de France, Paris, 1957. Prix : 2 850 F.
- Le rôle du vestibule de l’oreille interne est prédominant dans l’équilibration des animaux, et les altérations de son fonctionnement consti-
- p.78 - vue 82/527
-
-
-
- 79
- tuent un important chapitre de la pathologie humaine ; aussi les recherches, tant physiologiques que cliniques, sont-elles très actives à son sujet ; le cours international sur l’appareil vestibulaire, dont les conférences ont été groupées en volume, a eu lieu à la Faculté de Médecine de Paris en janvier 1955, avec le concours des meilleurs spécialistes français et étrangers. H s’ouvre par un excellent exposé qui analyse les mécanismes de l’équilibration chez les animaux, tandis que le second rassemble les connaissances acquises, depuis Flourens, sur l’anatomie et la physiologie comparées de l’appareil vestibulaire. Plusieurs conférences sont consacrées aux recherches récentes sur le fonctionnement du vestibule ; il faut citer surtout le remarquable ensemble de résultats obtenus par la méthode électrophysiologique, d’un grand intérêt pour tous les physiologistes. La plus grande partie du volume est plus médicale. On étudie le fonctionnement de l’appareil vestibulaire, chez les malades, au moyen de diverses épreuves cliniques ; certaines d’entre elles, classiques depuis longtemps, ont cependant été perfectionnées, tandis que d’autres (cupulométrie, nystagmographie) sont plus récentes ; toutes sont ici décrites, étudiées et critiquées par les cliniciens les plus qualifiés. Viennent ensuite les conférences consacrées aux syndromes ves-tibulalres, à la maladie de Ménière, au mal des transports, au traitement du vertige, puis les travaux pratiques qui avaient été proposés aux auditeurs du cours.
- Coutumes et croyances des Falachas, par
- Wolf Leslau. 1 vol. 18 x 28, xx-98 p. Travaux et Mémoires de ITnstitut d’Ethnologie,
- t. 61. Institut d’Ethnologie, Pains, 1957.
- Prix : 1 000 F.
- Ce recueil de textes amhariques, suivis de traductions, relatifs à la culture matérielle, au cycle de vie et surtout à la vie religieuse d’une secte juive éthiopienne, est le fruit d’une enquête orale menée en 1947 dans la région de Gondar. D’intéressants documents ont été réunis sur une communauté rurale, forte de 15 à 20 000 âmes, qui, pour vivre relativement repliée sur elle-même, n’en a pas moins subi quelque peu l’influence des Amharas, et qui modifie ou laisse tomber en désuétude certaines coutumes religieuses. Ces documents contribueront à clarifier les renseignements contradictoires que nous possédions sur une population dont on connaît l’existence depuis le ix* siècle.
- Hiro des Tuamotou, par Robert Pomel. 1 vol.
- 13,5 x 21, 220 p., cartes, schémas. Amiot-
- Dumont, Paris, 1957. Prix, relié : 965 F.
- Agréable et dépourvu de prétentions, ce récit nous promène à travers les atolls situés au S.-E. de Tahiti. Sous la conduite de M. Pomel, qui vit depuis de longues années en contact immédiat avec l’indigène, nous accédons à la psychologie, assez sommaire, du Polynésien. Loin des grandes voies maritimes, sur l’océan ou sur une île dont il est propriétaire et où il passe plusieurs mois avec un Maori pour seul compagnon, nous partageons les soucis quotidiens de l’auteur. Nous apprenons à connaître le charme simple de terres décrites avec un réalisme qui n’exclut pas la sympathie, mais qui refuse de sacrifier à un exotisme de pacotille.
- Contes et légendes des Oubykhs, par Georges Dumezh,. 1 vol. 18 x 28, xm-105 p. Travaux et Mémoires de l'Institut d’Ethnologie, t. 60. Institut d’Ethnologie, Paris, 1957. Prix : 800 F.
- Ces textes, transcrits phonétiquement et traduits, intéressent le linguiste autant que le folkloriste. Il convient de remercier M. Dumézil d’avoir recueilli, avant qu’il ne soit trop tard, la littérature orale d’une langue caucasienne peu étudiée et parlée aujourd’hui par quelques individus seulement dans deux villages turcs. Pour sa part, le folkloriste comparera ces contes à la somme réunie dans le corpus Aarne-Thompson et tirera certainement de cette confrontation d’utiles conclusions sur d’éventuelles parentés de thèmes.
- Les merveilles du monde, par Henri François et l’équipe de la revue Réalités. Préface de Jean Cocteau. 1 vol. 24 x 31, 344 p., très nombreuses photos en noir et en couleurs. Hachette, Paris, 1957. Prix, relié : 5 950 F.
- Les sept merveilles du monde sont ici devenues légion, et l’on nous avertit qu’on ne trouvera pas ici toutes les merveilles, mais seulement un choix des plus rigoureux, qui s’est exercé sur des dizaines de milliers de documents. On voit aussi que ce choix a tenu compte à la fois de la beauté ou de l’étrangeté de la chose représentée, et de l’excellence de la photographie. L’ensemble est prestigieux et à feuilleter le volume on est dès l’abord ébloui, avant d’en goûter une par une toutes les pages. Ce premier ouvrage de la collection Réalités nous - offre les « merveilles » classées en onze chapitres : les montagnes, les forteresses, les fieuves, les habitations, les villes, la mer, les régions polaires, les tombeaux, les déserts, les forêts, les temples. Chaque chapitre, réalisé avec le concours d’un éminent spécialiste, comprend un texte de quelques pages qui ne vise pas à tout dire, mais seulement à présenter et commenter l’essentiel ; ce sont ensuite les images, accompagnées de légendes qui en soulignent l’intérêt particulier ou établissent de judicieuses comparaisons. On comprendra que, selon les chapitres, ces merveilles sont celles de la nature ou celles, plus nombreuses ici, que l’homme a conçues et édifiées, « dispersion sublime et décourageante, écrit M. Jean Cocteau, des témoignages d’artistes qui, de siècle en siècle, vécurent très au-dessus des moyens de leur époque ». Encore ne nous présente-t-on ici que les merveilles de grand format. Sans doute d’autres volumes nous livreront les merveilles naturelles et artificielles de dimensions petites ou microscopiques : des diatomées aux fleurs et aux bijoux. Pour ne point se blaser, conseillons de déguster ce livre très lentement et chapitre par chapitre 1
- Irrigation, par M. Poirée et Ch. Ollier. 1 vol. . 16 x 24, 290 p., 105 fig. Eyrolles, Paris, 1957. Prix : 3 000 F H- t. 1. ; port et taxes inclus : 3 150 F.
- Une vue générale et précise à la fois des divers aspects de l’irrigation. Les éléments théoriques de l’arrosage y sont analysés avec rigueur et clarté, ce qui permet ensuite aux auteurs de justifier les différentes méthodes pratiques employées en irrigation, avant de les décrire en détail. Un large développement est réservé
- pu mut
- Dwiuu ï !.
- les documents et les théories les plus séduisantes de la science moderne présentés par le grand physicien...
- tou/ouM me Âmwu/i!
- BIOGRAPHIE OE LA TERRE
- LA CRÉATION DE L’UNIVERS
- UN, DEUX, TROIS... L’INFINI
- MONSIEUR TOMPKINS EXPLORE L’ATOME
- MONSIEUR TOMPKINS AU PAYS DES MERVEILLES
- MONSIEUR TOMPKINS S'EXPLORE LUI-MÊME
- 3 VOLUMES
- MAGNIFIQUEMENT PRÉSENTÉS SOUS RELIURE “Club”
- 4.600 F
- en librairie et chez DUN0D 92 rue Bonaparte - Paris
- ÉCOLE SUPÉRIEURE —VIENT DE PARAITRE
- DE BIOCHIMIE ET BIOLOGIE André CAILLEUX et André CHAVAN
- (Reconnue par l’État — A. M. 25 juillet 1955) 84, rue de Grenelle, Paris-/" DÉTERMINATION PRATIQUE
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles. Préparation aux diplômes d'Etat. Brevet de Technicien d'Analyses Biologiques, Biochimistes, Biologistes. DES ROCHES 5S édition Un vol. in-8° de 197 pages, 119 fig., un dépliant ... 650 F
- Cours du jour - Cours du soir Section d’enseignement " à domicile " i Joindre timbre pour notice) société d’édition d’enseignement supérieur 5, Place de la Sorbonne# PARIS-5*
- p.79 - vue 83/527
-
-
-
- 80
- en particulier à l’aspersion, méthode moderne, souple et pratique, qui connaît maintenant un grand essor. L’ouvrage rendra service aux nombreux spécialistes qui participent à l’étude et à la réalisation du vaste complexe que constitue un réseau d’arrosage : géomètres, agronomes, pédologues, constructeurs, agriculteurs. Cependant, ce livre est accessible même aux lecteurs non spécialisés qui s’intéressent à l’agriculture en général, à l’accroissement de ses rendements, à la productivité agricole.
- Encyclopédie Prisma de la couleur. Photo. Cinéma. 1 vol. 17 x 23,5, 256 p., dont 32 en quadrichromie. Éditions Prisma, Paris, 1957. Prix, relié : 3 330 F.
- Depuis quelques années la photographie en couleurs a été mise à la portée de tous les possesseurs d’un appareil de petit format. Les résultats obtenus sont extraordinaires, au point que la photographie en couleur est de\enue plus facile que celle en noir et blanc. Parallèlement, le cinéma en couleur a pris beaucoup d’extension. Cet ouvrage, écrit par des spécialistes, fournit une foule de renseignements précieux. Le mode d’exposition choisi est celui d'un classement alphabétique des sujets. Ce choix n’est pas toujours très heureux, quoique il présente certains avantages. On peut lui reprocher que, lisant un article consacré à un sujet déterminé, le lecteur qui ignore tout de ces questions est souvent obligé de rechercher dans d’autres parties de l’ouvrage la définition des termes techniques. Une exposition logique complétée par un bon index alphabétique aurait ôté plus avantageuse. Ce léger défaut mis ù part, il faut louer le soin apporté à la réalisation de l’ouvrage, sa documentation et son aspect agréable.
- Le monde sous-marin, Encyclopédie Prisma, publiée sous la direction de J.-A. Stevens, préface de J.-Y. Cousteau. 1 vol. 13,5 x 18, 560 p., dont 96 p. d’illustrations. Éditions Prisma, Paris, 1957. Prix, relié en toile : 2 985 F.
- Gomme le dit le commandant Cousteau dans sa préface, « l'exploration de la mer est relativement facile, eu égard aux technologies qui lui sont nécessaires », et c’est donc maintenant pour les hommes affaire de curiosité. Ce livre, qui se présente comme un dictionnaire très facile à consulter, stimulera cette curiosité en même temps qu’il fournira nombre de notions utiles sur tout le domaine qui s’offre à tant d’amateurs. Ceux-ci seront ainsi d’abord en possession d’un vocabulaire ; ils apprendront la signification exacte de tous les termes dont l’explorateur sous-marin a à faire usage, et, chemin faisant, c’est tout un faisceau de sciences et de techniques dont l’initiation leur sera offerte. Ils sauront ce qu’on peut étudier dans l'eau et au fond de la mer : l’eau elle-même, d’abord, ses qualités, ses mouvements, le relief, les êtres vivants, puis tous les moyens techniques d’étude et d’exploration : masques, scaphandres, bathyscaphe, photographie, etc. Citons, en outre, au hasard : chasse, corrosion, cultures marines, épaves, législation, nageurs de combat, sauvetage.
- Le visage de l'Arctique, par R. Harrington, traduit de l’anglais par Dominique Guillet. 1 vol. 13x19, 312 p., 71 photos h. t. Albin Michel, Paris, 1957. Prix, broché ; 1 200 F.
- R. Harrington est un journaliste canadien curieux et intelligent. Il a voulu un jour voir le Grand Nord et il est parti pour Coppermine, aux bords de l’Océan Glacial. Conquis par l’immensité de l’espace comme par la bonne humeur des Eskimos, il est revenu plusieurs fois, en divers endroits, parfaire sa connaissance de l’Arctique et son amitié pour ses habitants. Son récit est vivant, plein de notes intéressantes sur la vie de tous les jours, illustré de belles photos. Sans indulgence excessive, mais aussi sans parti pris, l’auteur présente un monde peu connu, où vivent de rares Blancs, missionnaires, trappeurs, commerçants de la Baie d’Hudson. Aux lecteurs de juger I Signalons que cet ouvrage ne traite que de la partie canadienne du Grand Nord qui se trouve entre Churchill et Coppermine. Il apporte un complément à l’ouvrage, par ailleurs excellent, de J. Malaurie sur les Eskimos du Groenland
- (Les derniers rois de Thulê), dont il a été rendu compte dans cette revue (novembre 1955, P. 435).
- Histoire de Bretagne, par A. Rebillon. 1 vol. 11 x 16, n° 316 de la collection Armand Colin, 224 p. A. Colin, Paris, 1957. Prix, broché : 300 F.
- L’ancien doyen de la Faculté des Lettres de Rennes a écrit avec chaleur une petite histoire de la province qui lui est chère. La vie économique, sociale, politique, culturelle de la Bretagne est analysée avec précision ; l’originalité bretonne, si souvent évoquée, est ici bien mise en lumière. Excellente introduction, malgré le cadre restreint de la collection, à la connaissance de cette attachante région qu'un plan régional de développement intéresse actuellement.
- Le Proche-Orient à l’heure occidentale, par
- G. Morissée. 1 vol. 14 x 20, 310 p. et 4 cartes en noir dans le texte. Plon, Paris, 1957. Prix, broché : 795 F.
- Le bouillonnant Proche-Orient est-il à. l’heure de l’Occident P On ne peut se défendre d’une certaine mélancolie en refermant ce livre, plein de la nostalgie de ce « monde d’hier» où l’auteur vécut ses jeunes années. L’exposé est sans prétention : c’est une conversation à bâtons rompus sur ce que fut le Proche-Orient et ce qu’il est devenu ; les souvenirs personnels s’y mêlent et agrémentent le récit. De l’Égypte à l’Iran par le Liban, la Palestine, l’Arabie, la Syrie, l’Irak, c'est une promenade agréable et pittoresque aux aperçus souvent originaux. On regrettera les négligences de syntaxe (les « malgré que » abondent I).
- Encyclopédie des eaux de consommation,
- par le Dr G. Sirjean (3 fascicules actuellement parus au format 21 x 27, 40 à 100 p., par fascicule). Prix des fascicules parus : n° 1 : 380 F ; n° 2 : 480 F ; n° 3 : 370 F. Éd. G. Sirjean, 19, rue Erlanger, Paris-16e.
- Celte encyclopédie, composée par l’auteur avec le concours de P. Frison et R. Colas, traite de matière exhaustive l’ensemble des problèmes que posent les eaux de consommation ; couleur, odeur, saveur, agressivité, turbidité. On y trouvera les définitions et les méthodes d’analyse et de détermination, ainsi que les procédés de mesure et de correction. Les fascicules pourront être mis à jour, par interposition de feuillets, à mesure des progrès accomplis dans cette branche. L’encyclopédie est destinée aux éudiants et aux ingénieurs, techniciens, architectes qui désirent posséder une documentation approfondie et actuelle sur l’eau de consommation.
- Rêveries d’un pêcheur solitaire, par
- M. Toesca. 1 vol. 12x18,5, 192 p., 12 pi. h. t. Albin Michel, Paris, 1957. Prix : 480 F.
- Dans cet ouvrage littéraire et non technique, l’auteur dit l’évasion parfaite que lui procure la pêche dans un ruisseau d’Auvergne avec ses rochers, ses cascades où se jouent les truites les plus sauvages, et où rien n’existe plus que la rivalité élémentaire entre l’homme et une nature qui ne se laisse pas violer facilement.
- La direction scientifique des entreprises, par Fred. W. Taylor. Traduit de l'américain par L. Maury. 1 vol. 16 x 25, 346 p. Dunod, Paris, 1957. Prix, broché : 1 650 F ; relié : 1 950 F.
- « Taylorisme », « taylorisation » sont des termes que l’on emploie souvent sans en connaître le contenu exact. Il était utile de placer à la fois la doctrine et ses prolongements dans leur contexte humain et prendre contact avec la personnalité de F. W. Taylor, apôtre de l’organisation scientifique du travail. La traduction de certaines de ses œuvres, à l’occasion du centenaire de sa naissance, pourra rectifier les jugements dont il fut l’objet : il s’est penché sur les gestes et les efforts des travailleurs, il a également mis l’accent sur les fréquentes erreurs ou négligences des chefs d’entreprises et de leur maîtrise. On lira avec intérêt, parfois même avec surprise, les pages où cet homme du xixe siècle a révélé sa philosophie de la productivité (très en avance sur son temps) et les épisodes dramatiques qui marquèrent ses expériences.
- Qu’entend-on par relations humaines ? par II. Bernaténé. 1 vol. 13,5 x 21, 24 p. Éditions Méthodes, 188, faubourg Saint-Martin, Paris, 1957. Prix : 300 F (franco : 335 F).
- Sous les termes de « relations humaines » sont rassemblés toutes sortes de problèmes qui concernent l’adaptation des individus aux entreprises au sein desquelles ils sont destinés à collaborer. M. Bernaténé résume les plus importants et suggère des méthodes pour les résoudre. L’ouvrage, des plus sommaires, sera néanmoins consulté avec fruit, comme un aide-mémoire.
- La biologie de l’Esprit, par Ed. W. Sinnott. Traduit de l’américain par Renée Villoteau. 1 vol. 14,5 x 21, 239 p. Gallimard, Paris, 1957. Prix : 690 F.
- Ce livre, traduit de l’américain, risque de choquer à la fois les biologistes et les psychologues. H prétend apporter une solution au problème des rapports entre l’esprit et le corps, en attribuant pour origine à ces deux forces de l’homme le même processus organique. La thèse exposée considère l’esprit comme la masse des impulsions naturelles, des désirs et des émotions qui émanent de l’activité de but protoplasmique. C’est un système philosophique basé sur une notion de finalité organique dans lequel trouvent également place les valeurs spirituelles, l’ame et Dieu.
- Je suis manadier, par Henri Atjbanel. 1 vol. 14 x 19, 182 p. Éd. du Conquistador, Paris, 1957. Prix : 330 F.
- Paru dans la collection « Mon métier », ce petit livre traite à vrai dire d'un métier assez exceptionnel. On y trouve un goût d’aventure, un grain de rêve et de poésie, de nombreuses évocations folkloriques et une réelle compréhension des bêtes.
- ERRATA
- Erreur sur un nom. — Dans notre article « La corrosion problème mondial » (novembre 1957), en citant les savants qui ont contribué aux études sur la corrosion, nous avons imprimé par erreur le nom de « Poitevin ». Tous les spécialistes auront compris qu’il s’agissait de M. Portevin, à qui nous présentons nos excuses.
- Cambridge et non Afanc/iesfer. — Notre article « Observations du premier satellite soviétique » (décembre 1957, p. 497) comportait une grave erreur d’attribution. Le travail présenté dans cet article (à l'exception des quatre dernières lignes qui mentionnent les observations radar faites à Manchester) a été exécuté, non à Manchester, mais au Mullard Radio Astronomy Laboratory, qui fait partie du Cavendish Laboratory de l’Université de Cambridge (la légende de la figure était à ce point de vue correcte). M. Martin Ryle et ses collaborateurs de Cambridge voudront bien nous excuser de cette inadvertance.
- PETITES ANNONCES
- (190 F la ligne, taxes comprises. Supplément de 100 F pour domiciliation aux bureaux de la revue).
- RECHERCHE génératrice éolienne moyenne et grande puissance. LANGINIER, 41, rue Bois-Bourgeois, Montbéliard (Doubs).
- RECHERCHONS, pour service ergothérapie, Centre de Rééducation Fonctionnelle, 60 km de Paris, moniteur atelier connaissant travail bois, fer, etc. S’adresser, sous n° 221, au bureau de la revue qui transmettra.
- Le gérant ; F. Dunod.
- DUNOD* ÉDITEUR, PARIS. — DÉPÔT LÉGAL : Ier TRIMESTRE 1908, N° 3l56. — IMPRIMÉ EN FRANCE. IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 3697. — 2-1968.
- p.80 - vue 84/527
-
-
-
- N° 3275
- Mars 1958
- LA NATURE
- L'énergie thermonucléaire
- I. Considérations théoriques
- La récente publication des résultats obtenus par les savants britanniques de Harwell avec leur machine a Zêta » a mis pour un temps au premier plan de l’actualité les recherches thermonucléaires. Dans un premier article, M. Michel Sorger rappellera les prûncipes théoriques qui sont à la base de l’utilisation possible de l’énergie de fusion des atomes légers. Un deuxième article sera consacré aux réalisations de laboratoire actuellement en cours dans le monde, ou du moins à ce que l’on peut en
- connaître.
- Nous avons déjà maintes fois parlé, dans les pages de cette revue, de l’énergie atomique de fission ainsi que des moyens de la libérer et de l’utiliser dans des réacteurs nucléaires ; et bien qu’une estimation économique précise soit encore prématurée, il semble que d’ici quelques années, la technologie nucléaire sera suffisamment au point pour permettre la production d’énergie à des prix sensiblement équivalents à ceux des sources classiques telles que le pétrole ou l’hydroélectricité.
- Nous nous proposons de parler maintenant, en deux articles, de l’énergie nucléaire de fusion et des possibilités d’obtenir et d’utiliser les réactions de fusion dans des engins industriels. Un fait doit être dès maintenant précisé : il n’existe pas encore aujourd’hui à notre connaissance de réacteur à fusion; des appareils comme la machine britannique Zêta, sur laquelle des renseignements viennent d’être publiés, ne peuvent être considérés à proprement parler comme des réacteurs à fusion. L’énergie thermonucléaire n’est encore qu’un espoir, une promesse; pour brillante qu’elle soit, elle ne se prête, et pour cause, à aucune estimation économique.
- Réactions nucléaires de fission et de fusion. —
- Les noyaux des atomes sont des édifices complexes de particules élémentaires, protons et neutrons, liées entre elles par des forces d’origine et de nature encore mal connues. C’est à la libération de ces forces que tend ce que l’on appelle au sens large l’énergie atomique.
- Pour un noyau donné (par exemple de P protons et N neutrons, soit de masse A = P + N), on peut définir une énergie dite de liaison, et qui représente en somme le travail qu’il faudrait fournir pour construire ce noyau à partir des particules constituantes infiniment éloignées les unes des autres à l’état initial. La valeur de cette énergie est donnée par la relation d’Einstein bien connue AE = AM.c2, dans laquelle ÀE représente l’énergie de liaison, AM la différence entre la masse du noyau constitué (masse que l’on peut mesurer à l’aide d’un spectromètre de masse par exemple) et la somme des masses des particules constituantes infiniment éloignées, c la vitesse
- de la lumière, les trois grandeurs étant exprimées en unités cohérentes.
- Une grandeur dérivée particulièrement intéressante est l’énergie de liaison par nucléon, ou rapport de l’énergie de liaison du noyau au nombre total de ses nucléons (protons et neutrons). La figure i donne les valeurs de l’énergie de liaison par nucléon en fonction du nombre de masse A du noyau considéré. On voit que l’énergie de liaison par nucléon passe par un maximum pour les valeurs moyennes de A, ce que l’on peut exprimer autrement en disant que globalement (les anomalies pour A faibles mises à part), les noyaux les plus stables sont ceux de A moyen. De là découle le fait que la fission d’un noyau lourd en deux ou plusieurs noyaux plus légers, ou la fusion de noyaux légers en un noyau plus lourd, sont des phénomènes qui peuvent s’accompagner d’une libération d’énergie, d’ailleurs énorme par l’apport aux énergies chimiques qui mettent en cause uniquement les cortèges électroniques des atomes.
- Dans les réactions nucléaires de fission, l’atome d’uranium est cassé en deux fragments plus légers après avoir absorbé un neutron, et l’énergie de fission est libérée sous forme d’énergie cinétique des fragments de fission et des neutrons réémis, et sous forme de rayonnements bêta et gamma. On sait que les neutrons ainsi réémis peuvent à leur tour provoquer d’autres fissions et être ainsi les agents propagateurs de la réaction en chaîne.
- Dans les réactions nucléaires de fusion, les atomes fusionnants sont précipités les uns sur les autres, et donnent nais-
- C 12
- 100
- Nombre de masse A
- Fig. 1. — Variation de Vénergie de liaison par nucléon en fonction du nombre de masse A.
- On voit que pour A. grand l’énergie de liaison tend vers 7 MeV par nucléon , la variation pour A. petit, plus irrégulière, est due à l’extraordinaire stabilité de certains noyaux légers comme He 4, 0 12 et O 16.
- p.81 - vue 85/527
-
-
-
- 82
- sance à un alome plus lourd, avec eventuellement émission de protons ou de neutrons; il n’y a pas, comme pour la fission, d’élément propagateur de la chaîne. De plus, l’existence de barrières de potentiel coulombien autour des noyaux rend de plus en plus difficile .l’accélération de ces noyaux l’un vers l’autre pour Jes amener à réagir, à mesure que leur nombre atomique croît. C’est dire que les réactions de fusion seront observées ou recherchées de préférence pour les noyaux légers. Le fait que le noyau incident doit avoir une certaine énergie minimum pour réagir avec le noyau cible s’exprime en disant qu’il existe un seuil pour cette réaction, bien que le bilan énergétique puisse être finalement positif. Nous donnons dans le tableau 1 une liste des principales réactions de fusion de noyaux légers, cependant que la figure 2 montre les variations des sections efficaces (x) pour deux réactions de fusion particulièrement importantes en fonction de l’énergie cinétique du deu-l.éron incident.
- Tableau I
- PRINCIPALES RÉACTIONS DE FUSION ENTBE NOYAUX LEGERS
- La notation A(b, c)D symbolise une réaction dans laquelle le noyau incident b est projeté sur le noyau cible A. Après formation très brève du complexe A b, la particule c est éjectée et on obtient le noyau D, produit de la réaction. On note par des majuscules le noyau cible et le noyau résultant, par des minuscules le noyau incident, et la particule éjectée qui, dans certains cas, peut n’être qu’un rayon y. p, proton ; n, neutron ; d, deutéron (noyau de deutérium) ; a, particule a (noyau d’hélium) ; y, rayon y.
- Réaction Energie libérée (en MeVj Seuil apjjroximatif de la réaction
- II) D[d, «i3He h- 3,27 10 keV
- N Dld, p)T - 4.0 10 keV
- (3) T(/>, y)* 1He - i9>7 10 lceV
- (4) T(rf, npHe - - 17,6
- (5i T|f, oc)2r 6Li(n, a)T - n,3
- (6) - - 4,8 faible
- 17) 6Li ip, a)3He - 4,0
- (8) 6Li(d, a)4He - 22,4 200 keV
- (O' 7Li (p, y/TIe - 17,3
- (10 (n 7Li{p, a)8Be 7Li d, a)r,He - 17,2 b 14,2
- (12 7Li(d, rt|8Be O +
- On voit ici les nombreuses réactions possibles avec les isotopes du lithium ; il semble qu’il y ait une relation entre cette liste et le rush financier que l’on a observé il y a quelques années, à tort ou à raison, sur les industries du lithium.
- Les recherches sur la libération à l’échelle industrielle de l’énergie libérée lors de la fusion de noyaux légers ne seront alors rien d’autre qu’une tentative pour provoquer ces réactions avec un rendement appréciable. La première idée qui vienne à l’esprit serait de concevoir un réacteur type accélérateur précipitant des noyaux incidents sur une cible, et récupérant l’énergie de fusion libérée dans la cible; malheureusement, vu les très faibles probabilités de chocs entre noyaux incidents et noyaux cibles, le rendement serait déplorable et ne repré-
- 1. Rappelons que la section efficace pour une réaction nucléaire traduit
- la probabilité relative de cette réaction, ou ce qu’on pourrait appeler la
- « gourmandise » du noyau cible pour le corpuscule incident ; elle peut
- s’exprimer comme une surface de dimension atomique, c’est-à-dire en
- barns, égaux à 10-21 cm2. Sensiblement égale au barn dans de nombreux
- cas ou, ce qui revient au même, à la section apparente géométrique du
- noyau, cette section efficace peut prendre des valeurs élevées (plusieurs
- centaines de barns) comme c’est le cas pour l’U 235 à l’égard des neutrons
- thermiques. Aux basses énergies, pour des noyaux chargés, les valeurs sont
- faibles puisque la « gourmandise» des noyaux fait place au contraire à des
- répulsions.
- senlerait qu’une petite fraction de l’énergie dépensée pour accélérer les noyaux incidents.
- Un autre procédé envisagé consiste à porter le mélange réactif à haute température, puisque énergie cinétique et température
- sont identiques. Compte tenu de la formule ^ mv2 * * * * * * * * * = Kl, où
- m est la masse de la particule, v sa vitesse, T la température absolue et k la constante de Boltzmann (égale à o,86i5.io~4 eV par degré), on trouve que pour des deutérons de masse 2 et des températures cinétiques de. quelques dizaines de keV correspondant aux seuils des réactions de fusion, les températures sont de l’ordre de plusieurs centaines de millions de degrés, valeurs astronomiques par rapport aux températures de quelques milliers de degrés réalisées déjà avec peine sur terre. S’il était possible de faire régner de telles températures dans un mélange réactif, les réactions de fusion auraient lieu, pouvant conduire à un bilan énergétique positif; ce mode d’obtention a été baptisé thermonucléaire, et c’est à résoudre ce problème que se sont attaqués les savants depuis quelques années.
- Energie du deutéron incident en keV
- Fig. 2. — Variation de la section efficace de trois réactions de fusion avec le deutérium ionisé comme particule incidente, en fonction de l’énergie de la particule.
- Les noyaux cibles sont respectivement l’hélium 3, le deutérium et le tritium (isotope de l’hydrogène, de masse 3). Les sections efficaces sont exprimées on barns, un barn étant égal à l0-2i cm2. On voit que les sections efficaces augmentent avec l’énergie. Aux basses énergies, elles sont mal
- connues.
- Nous ferons donc dès maintenant la distinction, qui nous sera utile par la suite, entre réactions de fusion induites par accélé ration de particules, comme on peut en observer dans certains accélérateurs de particules, et réactions thermonucléaires induites par très hautes températures. Dans le premier cas, le mouvement des particules incidentes est dirigé; dans le second cas, l’agitation est essentiellement désordonnée et d’origine thermique.
- De Vénergie des étoiles à la bombe H. — Avant de pousser plus avant cette étude, signalons que c’est en faisant appel à l’occurrence de réactions de fusion que les savants ont pu expliquer l’origine de l’énergie stellaire. En effet, dans les étoiles régnent des températures de plusieurs millions de degrés
- p.82 - vue 86/527
-
-
-
- 83
- et, les réactions thennonucléaires peuvent y avoir lieu avec un bilan positif, l’énergie libérée servant d’une part à entretenir les réactions de fusion et se déversant d’autre part dans l’univers sous forme de rayonnement.
- C’est ainsi que pour le soleil, l’énergie est fournie par ce que l’on appelle le cycle de Bethe (fig. 3), suite de réactions thermonucléaires et de désintégrations spontanées dans laquelle le carbone sert de catalyseur, et aboutissant à la fusion de quatre protons en un atome d’hélium et deux positons. La puissance spécifique dans le soleil est d’ailleurs très faible, 2 ergs par gramme et par seconde (inférieure à la puissance spécifique de la llamme d’une bougie), mais les quantités énormes de matière mises en cause, soit 2.1033 g, expliquent le bilan global. « C’est en transformant 564 millions de tonnes d’hydrogène en 56o millions de tonnes d’hélium par seconde dans sa région centrale que le soleil produit la lumière pesant (par l’équation d’Einstein) 4 millions de tonnes qu’il évacue par sa surface toutes les secondes. » Nous verrons par la suite que certains savants, tels que Thirring, ont envisagé les premiers réacteurs thermonucléaires sous forme de soleils miniatures confinés dans des récipients de quelques milliers de mètres de diamètre.
- Quoi qu’il en soil, ceci nous permet de dire que les réactions thormonucléaircs ne sont pas impossibles a priori, puisqu’elles
- Fig-. 3. — Schéma du cycle de Bethe, expliquant la formation continue d’énergie dans le Soleil par processus thermonucléaires, le carbone 12 servant de catalyseur.
- Les six réactions notées ici, dans lesquelles p, p+, y et v représentent respectivement un proton, un électron positif, un rayon y et un neutrino, aboutissent au bilan global 4p —> 4He + 2(j3+) -f 2v + 3y, la durée du cycle étant de l’ordre du million d’années. Comme on le voit en écrivant différemment ce système, il y a quatre réactions de fusion (a, b, c et d) et deux réactions de désintégration spontanée :
- (a) *«G + P -> 13N + y en 2,5.106 ans ;
- 16C + P+ + V en quelques secondes ;
- (b) i36C + P —> lfi + y en 5,4.104 ans ;
- (c) + P —> *8° +Y en 5.107 ans ;
- lDQ >* + [}+ + v en quelques secondes ;
- (A «N + p “G + *Ho en 2 000 ans.
- Ou volt \ ^ que ÿC se retrouve bien intact à , la Un, ce qui permet de lui donner
- le nom de catalyseur.
- existent dans des systèmes extra-terrestres. D’ailleurs, des températures de plusieurs millions de degrés ont été déjà créées sur terre, car ce sont les températures qui régnent au cœur d’une bombe atomique lors de son explosion. C’est, sur l’emploi instantané de cette température qu’est basée la bombe à hydrogène (fig. 4 et 5), une enveloppe de deutérium ou d’un mélange deutérium-tritium (ou encore deutérium-lithium 6) étant amenée à réagir en un temps très court pour libérer des puissances fantastiques. De même que le soleil a donné naissance à des projets de réacteurs à fusion, la bombe H a donné naissance à des projets de réacteurs thermonucléaires à micro explosions dans lesquels de petites bombes A serviraient de détonateurs ou de bougies; empressons-nous de dire qu’aucune solution concrète effective n’en a été proposée.
- Les problèmes du réacteur à fusion. — Nous pouvons maintenant citer les problèmes auxquels se heurtent les savants pour la conception ou la construction d’un réacteur thermo-nucléaire.
- Le premier problème, sachant que de telles réactions sont possibles (tableau I) et que des températures réactionnelles énormes sont éventuellement réalisables, est naturellement de porter le milieu combustible à la température à laquelle il pourra commencer à réagir. Si l’énergie produite lors des réactions de fusion induites se partage favorablement entre le milieu réactionnel et les pertes vers l’extérieur ou vers le système d’utilisation énergétique, les réactions pourront s’entretenir d’elles-mêmes, avec un fonctionnement permanent du système, et l’énergie fournie pour chauffer le gaz à l’état initial sera une énergie de démarrage.
- Mais aux températures envisagées, la matière se trouve dans un nouvel état, complètement ionisée; c’est ce que l’on appelle un plasma, matière constitutive des étoiles, et naturellement le second grand problème sera de contenir ce plasma dans des enceintes de dimensions raisonnables, dont la température de paroi ne devra pas dépasser quelques centaines de degrés.
- Ensuite se posera le problème de la récupération de l’énergie produite, et il semble dans les cas envisagés actuellement qu’on puisse envisager de récupérer cette énergie directement sous forme électrique, sans passer par l’intermédiaire de la chaleur.
- Enfin se pose le problème du contrôle de la réaction. Alors que dans un réacteur nucléaire à fission, une augmentation de la température a généralement pour effet de diminuer ou même d’arrêter la réaction en chaîne (coefficient de température négatif), il semble au contraire que dans un plasma à volume constant urne augmentation de température ait pour effet d’augmenter les vitesses et le taux de réaction (voir les courbes des sections efficaces de la figure 2).
- Certaines solutions semblent en vue pour un certain nombre de ces problèmes (comme le prouve Zêta par exemple), d’autres font l’objet de recherches nombreuses dont l’aboutissement serait encore suffisamment lointain au point de ne permettre encore aucune réalisation vraiment industrielle.
- Propriétés des plasmas. — Un plasma est de la matière complètement ionisée, c’est-à-dire dont les noyaux restent complètement séparés de leurs électrons, du fait de l’énorme agitation thermique. La charge électrique globale reste nulle : les ions ne peuvent pratiquement pas quitter le plasma, car leur départ reviendrait à créer une charge d’espace équivalente en principe à une force de rappel.
- Nous allons essayer de préciser les notions de densité, pression et température d’un plasma; quand la température sera exprimée en quantités d’énergie, généralement en kiloélecti'on-volts ou keV, nous parlerons de température cinétique, et nous admettrons u priori pour l’instant que nous pourrons parler d’une température moyenne pour les ions et les électrons, cette
- p.83 - vue 87/527
-
-
-
- 84
- température moyenne pouvant être définie dans certains cas à partir d’une répartition de Boltzmann pour les vitesses. Nous parlerons donc indifféremment de température en degrés ou de température cinétique en nous souvenant que io7 degrés Kelvin correspondent à une énergie moyenne de o,86 keV pour les particules.
- La seconde notion importante est celle de densité du milieu, la densité étant plus commodément définie ici comme le nombre de particules (ions ou électrons selon le cas) par centimètre cube du volume de plasma. Pour fixer les idées, rappelons qu’au centre du soleil, la densité est de nv ~ 5 io25 (soit environ 80 g par cm3) pour une température de l’ordre de 20 millions de degrés. Dans les plasmas que nous serons amenés à considérer, les densités ioniques seront de l’ordre de io15, ce qui représente à peu près io~5 fois la densité atmosphérique et permet de dire que le combustible d’un réacteur thermonucléaire serait principalement constitué par du vide !
- La pression cinétique (donc ne tenant pas compte de la pression de radiation que l’on définit à partir de la loi de Stefan-Boltzmann dont la validité d’ailleurs est douteuse pour les systèmes que nous considérons ici) est définie par P = RTp/jx, avec R = 8,3a.io7 CGS, p étant la densité en g/cm3 et p. la masse moléculaire moyenne du plasma. En ce qui concerne cette masse moléculaire moyenne, du fait que le nombre d’électrons est le nombre atomique et que celui-ci est sensiblement la moitié de la masse atomique, tous les noyaux un peu lourds contribuent à donner un gaz tel que p. = 2 ; l’hélium avec deux électrons et un noyau donnera p. = 4/3 et enfin l’hydrogène avec un électron et un noyau donnera p. = 1/2, cependant que le deutérium donnera 1. Pour le soleil, ceci donne des pressions supérieures au milliard d’atmosphères; dans un plasma de densité nD = io15, à 35o millions de degrés, la pression cinétique correspondante est de l’ordre de 5o atm.
- Comme le montre cet exemple dans lequel la valeur calculée de la pression est « manipulable », et compte tenu du fait qu’il sera difficile de diminuer la température (on a même au contraire tendance à l’augmenter), on est amené à prendre des densités faibles pour s’orienter vers des pressions qui ne soient pas exorbitantes. Nous confirmerons ce point de vue par la suite lors de la considération des puissances spécifiques.
- En ayant ainsi défini le plasma par sa densité, sa température et sa pression, nous devons considérer maintenant la production et les échanges d’énergie au sein de ce plasma. Nous avons vu qu’aux températures envisagées, les réactions de fusion peuvent se produire; il nous faut voir maintenant comment elles peuvent effectivement se produire et se propager dans le plasma. Tout d’abord, en nous reportant au tableau I, nous voyons que ces réactions ont en général un bilan fortement positif, l’énergie libérée étant par exemple de l’ordre de 4 MeV pour une énergie incidente de l’ordre de 4o keV, ce qui donne un facteur 100. Il suffirait donc en principe qu’un centième de cette énergie de réaction se retrouve à un moment donné sur un certain noyau de deutérium (ou n’importe quel noyau incident) pour que la réaction en chaîne puisse être entretenue. Or, le noyau produit lors de la première réaction, porteur d’une fraction importante de l’énergie de réaction (l’autre partie emportée à perte par le neutron par exemple) va échanger cette énergie avec d’autres ions ou avec les électrons du milieu. Ces actions avec les autres ions chargés entrent dans le cadre des interactions coulombiennes, dont on sait qu’il existe deux types : interactions à courte distance (processus décrit par Rutherford), ou succession d’interactions faibles avec les champs coulombiens de particules plus éloignées au cours desquelles la direction du mouvement est chaque fois modifiée au hasard; on montre par le calcul qu’en général les actions à grande distance ont dix fois plus dhmportance environ que les interactions directes du type Rutherford. Le temps moyen entre deux chocs coulombiens successifs est appelé temps de relaxa-
- tion ; du temps de relaxation on peut passer au libre parcours moyen entre deux chocs non réactifs, et on trouve par exemple, pour T = io9 °Ii et nD = 3.iolfî, l = 6.106 cm.
- Ce chiffre énorme nous donne une première idée de la rareté des chocs dans un plasma de dimension normale (à l’échelle terrestre). Entre deux réactions de fusion proprement dites (ou deux chocs réactifs), la vie moyenne pour l’exemple déjà donné (7) (ioô °K et na = 3.io15) est de l’ordre de xo s et le libre parcours correspondant est de l’ordre de 3.io9 cm. Cela veut dire qu’avant d’avoir une chance raisonnable d’interagir, le deutéron parcourra des distances de plusieurs dizaines de milliers de kilomètres, et son temps de séjour dans le système thermonucléaire projeté sera beaucoup trop court. Ce problème, qui ne se pose naturellement pas dans les systèmes stellaires soulève une des difficultés les plus graves des systèmes envisagés pour domestiquer la fusion.
- Vu les très faibles probabilités de transfert d’énergie par des chocs dont nous avons souligné la rareté, il est important de préciser quelle peut être la production d’énergie au sein d’un plasma supposé en équilibre, constitué d’ions de types 1 et 2 (dexxtérons et tritons par exemple) et d’électrons. La densité de puissance par centimètre cube est donnée par l’expression :
- p = Uin2 <ffDia>m0Jen W12,
- formule dans laquelle et n2 sont les densités d’ions des deux types susceptibles d’interagir, <y la section efficace d’interaction, i’12 la vitesse relative des deux particules et W12 l’énergie libérée dans une réaction individuelle, le tout exprimé en unités cohérentes. Dans cette expression, l’estimation de <<x'd12->moyoa est le point délicat, car il existe une distribution des vitesses relatives d’une part et la section efficace varie avec celle-ci d’autre part. Dans le cas de la réaction D—D souvent considérée en exemple ici, les deux ions sont identiques et l’expression pour la densité de puissance devient :
- P — ~l~ «2 < >inoycn W.
- Si de plus on admet une expression analytique pour la section efficace1 et une répartition nxaxwellienne pour les vitesses, on obtient pour la réaction DD, l’expression suivante :
- 2 i
- — -18,76 T—3
- < TO|)ü >„,„yen = 2Ü0.1 0-Ui T . e
- 1’ étant ici la température cinétique exprimée en keV et e la base des logarithmes népériens.
- Ceci conduit pour la réaction DD à une température cinétique moyenne de 100 keV et tenant compte de l’égale probabilité des réactions (1) et (2) du tableau I :
- Tdd = 9-10-30 nD2 w/cm3.
- O11 voit tout de suite que pour nD = xo15 ions/cm3, la puissance spécifique est d’environ 9 W/cm3, puissance spécifique relativement faible et comparable aux densités de puissance que Ton obtient dans un réacteur nucléaire à fission. Cette puissance peut ci'oître si on augmente le nombre d’ions par centimètre cube, mais les pressions croissent aussi et il semble que ces considérations pratiques limiteront les puissances spécifiques accessibles au domaine inférieur ou de l’ordre de 100 W/cm3.
- La figure 6 donne les puissances spécifiques disponibles en fonction de la température pour les réactions DD et DT avec rij = io15 ions/cm3, cependant que la figure 7 donne la
- 1. Nous parlerons souvent ici des réactions DD, qui semblent parmi les plus intéressantes, vu l’abondance relative du deutérium par rapport au tritium ou à un isotope du lithium. De plus, le fait de n’avoir qu’un type d’ions simplifie les considérations théoriques que l’on cherche à vérifier dans les montages expérimentaux que nous décrirons ultérieurement,
- p.84 - vue 88/527
-
-
-
- 85
- Fig. 4 et S. — L’explosion de la bombe H à Eniwetok.
- Photos prises à une hauteur de 4 000 m et à 75 km de l’explosion. En haut, aussitôt après l’explosion, la boule de feu atteint 5 km de diamètre. En bas, dix minutes plus tard, le nuage s’est étalé sur 40 km (Photos U.S.I.S.).
- p.85 - vue 89/527
-
-
-
- 86
- ao wo keV
- Température cinétique exprimée en keV
- Fig. 6. — Puissances spécifiques disponibles pour les répétions deutérium-deutérium et deutérium-tritium en fonction de la température, en supposant une densité ionique de JO15 ions/cm!,
- Les deux réactions D(d, n)3IIe et T(d, n)4IIe produisent des neutron%f|iiimés d’une certaine vitesse ; on considère que* ces neutrons, non chargés, l’interagissent pas avec les ions du plasma et s’en échappent, emportant donc avec eux une certaine énergie qui a été déduite pour établir les courbes ci-dessus. Nous donnons également la correspondance entre les deux échelles de température. On voit, en faisant l’analogie avec les courbes de sections efficaces, l’intérêt de travailler à température très élevée.
- variation de la puissance spécifique en fonction du nombre d’ions par centimètre cube pour une température cinétique de ioo keV, c’est-à-dire de l’ordre du milliard de degrés.
- Plasmas finis. — Pour un réacteur nucléaire à fission, on étudie d’abord un système homogène infini en cherchant à expliciter ce que l’on appelle le coefficient de multiplication infini pour les neutrons; ensuite l’étude des pertes par une surface finie conduit au schéma de réacteur réel. De même nous avons mentionné jusqu’alors les propriétés d’un plasma indéfini. Nous devons passer maintenant à la considération d’un plasma fini, et voir si ici aussi intervient une notion identique à celle de masse ou de taille critique. Et pour cela, nous devons préciser les échanges et pertes d’énergie pour un plasma, dont nous avons déjà dit quelques mots lors de la considération des libres parcours moyens et des chocs coulombiens.
- Pour un réacteur à fission, la notion de taille et de confinement est naturelle, alors que pour un plasma, il est beaucoup plus difficile de lui assigner des frontières matérielles, qui ne tarderaient pas à être volatilisées au contact du plasma. Ce sont les Russes Sakharov et Tamm qui les premiers ont suggéré l’emploi d’un champ magnétique pour le calorifugeage du plasma. Un plasma possède d’ailleurs certaines propriétés magnétiques, et il a tendance à se diriger vers les régions de champ magnétique faible, tout comme le ferait un fluide dia-magnétique, ce qui est défavorable pour le confinement du plasma; mais de plus, le plasma présente aussi un effet « paramagnétique » favorable, dû à l’anisotropie des conductivités électriques, parallèlement ou perpendiculairement aux lignes de force du champ magnétique. Ces phénomènes sont complexes et mal connus, mais il nous suffira de savoir qu’il est en
- principe possible de confiner un plasma en équilibrant sa pression cinétique par une pression magnétique antagoniste, obtenue par des champs magnétiques de quelques milliers de gauss. Signalons que là aussi réside peut-être une limitation technique pour l’augmentation des puissances spécifiques (ayant pour corollaire les augmentations de pression).
- Supposons donc que le problème du confinement ait trouvé une solution, et examinons les pertes d’énergie du plasma, en cherchant les « conditions critiques » auxquelles doit satisfaire ce plasma pour que, les pertes d’énergie étant inférieures à l’énergie globale produite, le système puisse être autoentretenu.
- La première idée en ce qui concerne les pertes est de faire appel à la loi du rayonnement en T4 de Stefan-Boltzmann, en négligeant les pertes par conduction liées directement au problème de l’enceinte. Les calculs ont été ainsi faits par Thirring pour des systèmes supposés en équilibre avec une température moyenne pour l’ensemble du système. La conséquence directe de ces hypothèses est que l’énergie est produite dans le volume alors que les pertes ont lieu par la surface, et que la notion de taille critique va donc s’introduire d’elle-même pour une densité ionique donnée et une température moyenne de réaction. La figure 8 représente effectivement un tel phénomène pour une densité arbitraire, le système étant supposé sphérique. On y vuit que plus le système est petit, plus la puissance spécifique doit être élevée.
- Deux remarques s’imposent quant aux hypothèses et conclusions de Thirring. D’une part, les températures considérées ici sont relativement faibles, quelques millions de degrés, alors qu'actuellement on considère des températures de l’ordre de plusieurs centaines de millions de degrés. D’autre part, et ceci est plus grave, la validité de la loi de Stefan-Boltzmann en T4,
- t
- Fraction de ta densité atmosphéric^t
- 10,s 10,e 1017 1û’8 to1
- Nombre nD de deu ferons par cm
- Fig. 7. — Puissances spécifiques en W/cm3 disponibles dans un plasma à la température moyenne de 100 keV 109 °K), en fonc-
- tion du nombre de deutérons par centimètre cube, ou en fonction de la pression partielle de deutérium exprimée en fraction de la densité atmosphérique, pour deux mélanges réactionnels deutérium-deutérium et deutérium-tritium.
- On >7oit que les domaines envisagés nnrol0is et p ^ 1 à 100 W correspondent à un vide déjà poussé. A. partir de ces courbes, on déduirait qu’un plasma de densité atmosphérique, soit nir^j 1020 exercerait à 1 milliard de degrés une pression cinétique de l’ordre de 10 millions d’atmosphères, soit environ 10 000 tonnes par centimètre car-ré 1
- p.86 - vue 90/527
-
-
-
- 87
- 1,2 1,6 2,0 2,1 2,8 ' 3,2 3,6
- Température en millions de degrés C
- Température cinétique en keV
- Fig. 8. — Exemple de calcul de « dimensions critiques » pour un engin thermonucléaire en supposant valable la loi de Stefan-Boltzmann en T4, pour les deux réactions DD et DT.
- Les courbes en trait plein (analogues à celles de la figure 6) sont les puissances disponibles par centimètre cube en fonction de la température, pour une densité ionique donnée. Les courbes en pointillé représentent, ramenées à 1 cm3 de matière et pour les mêmes conditions, les puissances dissipées par la surface. Ces courbes permettent de déterminer les conditions critiques. Par exemple, pour une sphère de 1 km de rayon, avec la réaction DD, la température devrait être au minimum de 2,7 millions de degrés. Les puissances spécifiques deviennent considérables quand les dimensions de l’engin thermonucléaire envisagé diminuent vers des tailles admissibles à l’échelle industrielle.
- traduisant un phénomène purement superficiel, semble douteuse dans les conditions que nous avons supposées, les dimensions du système étant beaucoup plus petites que les libres parcours moyens des particules tjbi le composent; ces libres parcours moyens, nous l’avons vu, sont de l’ordre de io6 cm entre deux chocs coulombiens et de l’ordre de io9 cm entre deux réactions de fusion pour des deutérons de xoo keY, c’est-à-dire de vitesse voisine de 3.ios cm/s.
- Ceci nous permet de dire que les calculs de Thirring doivent pouvoir s’appliquer aux systèmes stellaires, où les dimensions sont considérables (partie inférieure des courbes de la figure 8), mais que pour expliquer le comportement d’un plasma de dimensions raisonnables à l’échelle terrestre une autre explication doit être recherchée; par exemple, on peut admettre que
- les pertes ne sont pas effectivement un phénomène de surface mais bien un effet de volume, avec pour conséquences immédiates que la loi en T4 ne s’applique pas, et que les conditions d’entretien peuvent être indépendantes des dimensions.
- Si on tente d’appliquer la théorie du rayonnement de Heitler à un gaz complètement ionisé, on trouve pour la densité de puissance rayonnée sous forme de photons émis lors du freinage par les champs coulombiens :
- î
- pr = C io-30.Z*.rte2.T/ W/cm3,
- C est un coefficient qu’on peut prendre égal à o,54 ; Z est le numéro atomique des ions du plasma, ne et Te la densité et la température des élecli’ons du plasma exprimée en keV. Pour la réaction DD, cette expression devient :
- î
- = C.io-30 nD2.Te3 W/cm3.
- Si l’on admet que température électronique et température ionique sont très voisines, on peut alors écrire lé rapport de la puissance produite à la puissance rayonnée, soit :
- 1,92 io^-.T
- 7
- ; —18,76 T‘
- 6 «
- 1
- 3
- On voit alors que la condition d’entretien, soit pfi>pr, ne fait intervenir que la température, mais ni les dimensions ni la densité. Il n’y aurait donc pas dans ce cas de masse ou de taille critique, mais seulement une température critique, égale à Tc # 35 keV pour la réaction DD donnée ci-dessus en exemple, soit environ 35o millions de degrés, ce qui est encore bien supérieur aux 5 millions de degrés qu’il aurait été possible d’obtenir dans Zêta,
- Celte description devrait sans doute être retouchée pour tenir compte des différences entre les températures ionique et électronique, mais le modèle théorique devient vite très compliqué, et nous pensons que les phénomènes décrits ici peuvent donner une petite idée de cette question à la fois vaste et encore mal connue.
- *
- * *
- Nous avons vu rapidement les réactions nucléaires de fusion que l’on cherche à réaliser par voie thermique, réactions dites thermonùcléaires, et les propriétés principales des plasmas infinis et finis (indépendamment du temps) en supposant trouvé pour ces derniers un mode de confinement. Nous verrons par la suite l’état connu des recherchés thermonucléaires dans les divers pays (il est à craindre que ce que l’on ignore par suite du secret soit aussi très important), et nous terminerons ce rapide examen en essayant de deviner quelle pourrait être l’allure d’un engin thermonucléaire contrôlé.
- (à suivre). Michel Sorger.
- L'HORAIRE ÉNERGÉTIQUE
- Il est fort compréhensible que l’annonce des importantes expériences menées à Harwell ait pu avoir un grand retentissement dans les esprits. On ne peut faire autrement en effet que de lier les progrès accomplis dans la fusion nucléaire avec le problème actuel de l’énergie. Et l’on a le droit, sans scepticisme ni optimisme excessifs, d’entrevoir le moment où l’énergie thermonucléaire interviendra dans la production d’électricité, peut-être également dans la propulsion.
- Le tout est de pouvoir estimer la date où cet avènement peut raisonnablement être prévu. Premier point : la machine Zêta n’ëst pas l’équivalent de la pile de Fermi qui divergea en 19/12 et permit pour la première fois une réaction autoentretenue. Selon les atomistes, le chemin à parcourir pour parvenir, par la voie thermonucléaire, à un résultat semblable est encore long,; On a parlé d’un délai de 20 ans.
- Par la suite, la phase expérimentale étant terminée, un nou-
- p.87 - vue 91/527
-
-
-
- 88
- veau délai doit Cire prévu pour que l'industrie s’adapte à ce mode révolutionnaire de production d’énergie. Les problèmes qui se posent pour elle (traitement de la matière première, mise au point et fabrication des matériaux de structure et des appareils, projets de centrales, études de rentabilité, etc.) sont très différents de ceux qui ont pu être résolus en laboratoire. A litre d’indication, on peut mentionner que, pour l’énergie obtenue par fission, l’industrie des différents pays atomiques (U.S.A. et Grande-Bretagne compris) n’est pas encore au bout de la période d’adaptation.
- Deux délais sont donc à additionner qui conduiraient non loin de la fin de ce siècle pour le véritable démarrage de l’énergie thermonucléaire. Quelques données sont à mettre en regard, concernant la progression des besoins immédiats en énergie. Résumons la situation particulière, assez grave, dans laquelle se trouve la France :
- La consommation d’énergie sous toutes ses formes se chiffre annuellement par ii5 à 120 millions de tonnes d’équivalent charbon. Au cours des dernières années, la production métropolitaine n’a pu contribuer à satisfaire les besoins que dans la limite d’environ Go pour 100 et la progression de ces besoins s’est poursuivie au rythme de 4,4 pour 100 par an. C’est dire que, même en visant un objectif modeste, qui serait de ne jaas accroître le déficit, comblé chaque année par de lourdes
- importations de pétrole et de charbon, un intense effort d’équipement apparaît nécessaire.
- On connaît les perspectives les plus concrètes : exploitation intensive du gaz naturel de Lacq, création de nouvelles centrales hydroélectriques, substitution partielle des importations pétrolières sahariennes à celles du Moyen-Orient. Du côté de l’énergie nucléaire, l’Électricité de France a établi un programme prudent de création de prototypes successifs qui aboutirait en 19Gb à un chiffre de 85o MW installés.
- Il est manifeste que, même en conjuguant ces différentes ressources nouvelles, notre pays ne peut compter, dans les deux prochaines décennies, sur un bilan énergétique particulièrement favorable. Et à l’échéance 1975-1980, souvent envisagée par les spécialistes, l’énergie thermonucléaire n’en serait encore qu’à ses tout premiers débuts.
- La prévision la plus raisonnable (et désirable) est que l'énergie nucléaire par fission ait alors atteint le stade de la maturité et puisse intervenir massivement. Ceci pour répondre à ceux qui imaginent hâtivement que les combustibles thermonucléaires vont éliminer les combustibles nucléaires « classiques » (uranium et thorium), en raison de leurs indéniables inconvénients. L’horaire assez impitoyable de l’énergie leur assigne une place dont logiquement ils ne peuvent être chassés.
- Yves Mériel.
- Divergence et première montée en puissance d'E.L.3
- La nouvelle grande pile atomique française E.L.3, construite au Centre d’Ëtudes Nucléaires de Saclay dans le cadre du deuxième plan quinquennal atomique, aura connu en 1957 ses grandes heures « neutroniques ». Pile à haut flux (de l’ordre de 5.io13 neutrons par cm2 par seconde) destinée à des recherches physiques, métallurgiques, chimiques, biologiques liées aux développements de la jeune industrie énergétique nucléaire, E.L.3 est la troisième pile française à eau lourde, après Zoé et P.2 (récemment rebaptisée E.L.2); elle se distingue cependant de ces précédentes par la puissance qu’elle doit atteindre, soit environ i5 ooo> kW (Zoé 100 kW et E.L.2 environ 2 000 kW) et par l’ampleur des dispositifs expérimentaux offerts aux utilisateurs ; elle se distingue également par sa charge en combustible : la recherche des performances citées ci-dessus a obligé de recourir à de l’uranium faiblement enrichi en uranium 235 (d’origine étrangère), la teneur de i,35 pour xoo étant sensiblement double de celle de l’uranium naturel à 0,70 pour 100 d’U 235.
- Décidée à la fin de 1954, lu construction d’E.L.3 fut réalisée en un temps record puisque, moins de trois ans après, en juillet 1957, était réalisée la première divergence, c’est-à-dire que le chargement en uranium fut progressivement augmenté jus-
- qu’à ce que la masse critique fût atteinte et que la réaction en chaîne de fissions s’entretînt d’elle-même ; cette réaction fut ainsi maintenue pendant plusieurs jours à un niveau de puissance très faible, de l’ordre de quelques watts, afin de permettre aux physiciens de contrôler leurs calculs et de faire connaissance avec les propriétés de leur nouvelle pile.
- La pile fut ensuite arrêtée pendant plusieurs mois pour terminer l’installation des circuits de refroidissement de l’eau lourde devant permettre de fonctionner à des puissances supérieures. C’est ainsi que fin décembre aurait eu lieu la première montée en puissance d’E.L.3, jusqu’à une puissance de l’ordre de 2 à 3 MW. Modeste encore par rapport au chiffre visé, cette puissance est néanmoins un succès certain si l’on tient compte de la complexité d’un tel ensemble industriel et des nombreuses inconnues liées encore au fonctionnement des piles atomiques. Avec toute la prudence que nécessite une telle entreprise, si importante pour la jeune industrie atomique, la puissance d’E.L.3 va être ainsi lentement augmentée dans les prochains mois, jusqu’au plafond à partir duquel, puissant moyen de recherches et d’études, elle sera « remise » à la foule des utilisateurs qui l’attendent avec impatience.
- M. S.
- Utilisation pacifique des bombes atomiques ?
- M. Willard Libby, savant américain bien connu et membre de la Commission de l’Énergie atomique des États-Unis, a •déclaré récemment qu’un effort était fait actuellement pour étudier les possibilités d’utiliser l’énergie thermique stockée dans une petite bombe atomique. Entre autres, une bombe de faible importance aurait été placée dans ce but au fond d’un puits de mine, à 2G0 m de profondeur, dans une colline du terrain d’essais du Nevada. M. Libby dit que l’explosion fut audible et que la colline « sursauta » d’environ 20 cm, mais que ni chaleur ni rayonnement ne furent détectés à la surface
- du sol. Actuellement, un puits de forage est en cours vers le point de l’explosion. On peut rapprocher de cette information les renseignements donnés récemment par M. Edward Teller, un des pères de la bombe à hydrogène, qui travaille au Laboratoire des Rayonnements de l’Université de Californie. D’après M. Teller, on commencerait à savoir réaliser des explosions atomiques « propres » pour les besoins pacifiques. Ceci ouvrirait alors la voie à des travaux gigantesques de génie civil; on se souvient qüe les Russes avaient déjà invoqué une telle utilisation. M. S.
- p.88 - vue 92/527
-
-
-
- La centrale atomique de Shippingport en fonctionnement
- 80
- Fig. 1. — Vue aérienne de la centrale atomique de Shippingport (Photo U.S.I.S.).
- Le 2 décembre 1957, quinze ans exactement après la première réaction en chaîne obtenue à Chicago par Enrico Fermi, la centrale atomique de Shippingport a commencé à fournir du courant électrique aux usagers de la région de Pittsburgh aux États-Unis. Cette centrale avait été mise en chantier en septembre 1954, elle a coûté près de 34 milliards de francs et sa puissance réelle est de 60 000 kW.
- Les caractéristiques de cette centrale avaient été dévoilées en 1955 à la conférence de Genève (voir La Nature, décembre 1955). Rappelons qu’il s’agit d’un réacteur à uranium enrichi. La chaleur dégagée est transportée par de l’eau à 205° C sous i4o atm qui passe dans un échangeur et produit de la vapeur sèche qui actionne des turbines de type classique. L’eau sert ici à la fois à ralentir les neutrons et à emporter la chaleur de réaction. L’intérêt de cette réalisation est multiple. Elle nécessite l’étude de l’eau à haute température comme véhicule de la chaleur, dont l’emploi suppose résolus de très difficiles problèmes de corrosion.
- D’autre part, ce réacteur est intermédiaire entre les réacteurs
- normaux et les breeders; il a un coefficient de conversion élevé. En effet, sa charge est constituée de 75 kg d’uranium fortement enrichi en U 235 et de 12 t d’uranium naturel. L’uranium a38 se transforme par capture d’un neutron rapide en plutonium 239 qui est fissile et dont l’apport en énergie va croissant avec l’âge du réacteur.
- Ce réacteur doit servir de test pour l’utilisation civile de l’énergie atomique, son seul but étant de produire de l’énergie électrique. Le prix de revient de cette énergie est encore relativement élevé : o,o55 dollar par kilowattheure contre 0,008 en moyenne aux États-Unis. Ces prix sont assez difficiles à interpréter, puisqu’on ne sait pas comment ont été faits les calculs et en particulier en combien de temps la centrale doit être amortie. Il est cependant cerlain que le fait que cette centrale soit la première du genre en Amérique en grève lourdement le prix de revient. Des centrales ultérieurement construites sur cè modèle fourniraient certainement de l’énergie à bien meilleur compte et pourraient probablement concurrencer les sources classiques d’énergie. R. R. et F. R.
- Nectars et miels artificiels
- Traitement anti-hormonal du cancer
- M. Yoïrich, chercheur soviétique, a obtenu 85 espèces nouvelles de miel par la méthode des « nectars artificiels » : aux époques de l’année où les fleurs sont absentes, ces nectars sont déposés dans la ruche et les abeilles les transforment en miel. Ce sont des liquides de compositions très variées où interviennent des sucs de légumes et de fruits, des vitamines synthétiques, des hormones et divers médicaments, parmi lesquels la quinine. Cette pharmacopée apicole a l’avantage de fournir des produits qui se conservent pendant très longtemps : le miel, en effet, possède des propriétés bactéricides.
- Selon une communication faite à une récente réunion de cancérologues par Sir Stanford Cade, du Westminster Hospital de Londres, près de 200 cas ont été traités par l’ablation de la glande surrénale et (pour le sexe féminin) des ovaires. 55 pour 100 des personnes qui ont fait l’objet de cette intervention chirurgicale ont pu reprendre une vie normale. Ces résultats mettent en relief le rôle joué par les hormones dans le développement du cancer. Il se peut que la guérison partielle obtenue chirurgicalement puisse être également espérée en faisant appel à une substance chimique, l’amphénone, qui bloque les sécrétions surrénales.
- p.89 - vue 93/527
-
-
-
- 90
- Le rôle
- des sensibilités dans le chant
- internes
- Dans quatre précédents numéros (La Nature, janvier 1957, p. 1 ; février 1957, p. 41 ; juillet 1957, p. 249 ; novembre 1957, p. 432), M. Raoul Husson a montré quelle rénovation de nos connaissances s’effectue, depuis huit années, en matière de physiologie phonatoire sur la base de ses propres travaux et de ceux d’une équipe de spécialistes très divers centrés sur le Laboratoire de Physiologie de la Sorbonne et divers services d’hôpitaux parisiens. Ces travaux ont d’ailleurs stimulé une recherche identique en de nombreux laboratoires de pays étrangers, parmi lesquels on peut citer : la Clinique O.-R.-L. et l’Institut de Physiologie de Turin (Italie), l’Institut de Neuro-Phoniatrie de Buenos Aires (Argentine), la chaire d’Anatomie de la Faculté de Médecine de Zagreb (Yougoslavie), la chaire de Physique de l’Université de Prague (Tchécoslovaquie), le Laboratoire d’Acoustique du Conservatoire de Moscou (U.R.S.S.), le Centre de Recherches phonémaliques de Kyoto et te Laboratoire d’Acoustique de la Faculté de Nagoya (Japon), le Laboratoire de Phonétique de Bergen (Norvège ), etc. Nous offrons aujourd’hui à nos lecteurs, toujours sous la même plume, la relation de travaux expérimentaux entièrement originaux et récents, dont la systématisation constitue un véritable chapitre nouveau de la physiologie phonatoire, totalement insoupçonné il y a quelques années encote, et qui est toujours présentement l’objet de recherches approfondies.
- Les artistes lyriques les plus sérieux qui ont écrit sur la voix chantée ou sur leur art, dans tous les pays et à toutes les époques, ont toujours signalé avec force les sensibilités internes puissamment ressenties par eux au cours de l’émission vocale, et parfois étroitement, localisées. C’est le cas notamment, en France, de A. Labriet, P. Razavet, Rouard, G. Vaillant; et en Allemagne de Lily Lehmann, Thausing, Nadolovitch. Tous n’ont point manqué d’affirmer qu’une relation semblait exister entre la localisation et l’intensité de ces sensibilités internes d’une part, et la facilité et la qualité de leur émission d’autre part. Certains se sont même hasardés, avec un bonheur variable, à en donner une difficile description.
- Alors que ces relations répétées, émanant d’artistes éminents, eussent dû les conduire à examiner cette question avec tout le soin désirable, les laryngologistes faisant profession de « pho-niatrie » ne lui accordèrent, à quelques rares exceptions près, aucun intérêt. La plupart n’en parlent même pas dans leurs écrits. Certains même, comme Froeschels (anciennement à Vienne et actuellement à New York), ne virent dans ces sensibilités internes que le signe d’ « hyperfonctionnements », tandis que d’autres, en France, portaient un diagnostic de « psychopathie » sur les artistes qui osaient en signaler l’importance.
- Dans le présent article, notre point de vue sera strictement celui de la physiologie. Les sensibilités internes éveillées au cours du chant, et surtout du chant à grande puissance, entrant dans la catégorie très générale des sensibilités éveillées par toutes les motricités complexes ou « praxies », nous en analyserons d’abord la nature et les sièges périphériques. Nous suivrons ensuite la marche ascendante de ces messages sensitifs: Vpi'sMe coi'tex. Nous noterons au cours de cette ascension les.'possibilités d’actions réflectives multiples. Ceci pour aboutir à leur inclusion au sein de la notion générale de schéma corporel (due au
- Français J. Lhermitte) qui en couronne l’édifice, comme l’a montré A. Soulairac. Retournant ensuite à la fonction phonatoire, nous serons alors en mesure de dresser le tableau complet des répercussions exercées sur elle par l’ensemble des sensibilités internes phonatoires, chapitre entièrement nouveau et important de la physiologie de la voix, pressenti depuis un siècle par les professionnels du chant, et écarté jusqu’à nos jours par les physiologistes, assez inexplicablement.
- Le clavier périphérique des sensibilités internes d’origine phonatoire. — Les sensibilités internes éveillées par la phonation se répartissent, pour tout sujet, en neuf plages ou régions formant une sorte de clavier sensitif dont j’ai donné pour la première fois l’analyse dans mon cours libre de la Sorbonne, en janvier-février 1952; elles sont indiquées sur la figure 1.
- La plage n° 1, dite palatale antérieure, se continue vers l’arrière par la plage n° 2, dite palatale postérieure ou vélaire, et par la plage n° o, pharyngée postérieure. Stimulées par des pressions acoustiques, elles recueillent des sensibilités intérocep-tives transmises par le trijumeau, le glosso-pharyngien et le vague, parfois localisées avec précision.
- La région n° 4, laryngée, ne recueille que des sensibilités pro-prioceptives diffuses et étrangement faibles, le plus souvent non pei’çues.
- Fig. 1. — Plages et régions des principales sensibilités internes phonatoires.
- Plages 1, 2 et 3 : palatale antérieure, palatale postérieure ou vélaire, et pharyngée postérieure (intéroceptives). Région 4 : laryngée (pro-prioceptive, extrêmement faible). Région 5 : naso-faciale : (pallesthésique). Région 6 : trachéale
- (intéroceptive d i ff u s e, faible). Région 7 : thoracique (pallesthésique). Régions 8 et 9 : sangles abdominale et pelvienne (kinesthésiques).
- -.m
- Uf3 i?r ! ••..iiro.rrïcd
- . J
- p.90 - vue 94/527
-
-
-
- 91
- La région n° 5, qui intéresse tout le massif osseux de la face (et s’étend parfois au crâne), reçoit des stimulations vibratoires issues des secousses rythmées transmises par la boîte cartilagineuse laryngée au squelette. Elles éveillent des sensibilités pallesthésiques (x) parfois intenses, mais diffuses, recueillies en grande partie par le trijumeau.
- La plage intéroceptive n° 6, intra-trachéale, ne donne que rarement lieu à des sensations conscientes, et la région n° 7, thoracique, ne transmet que des sensibilités pallesthésiques diffuses et assez mal localisées.
- La région n° 8, limitée à la sangle abdominale, et la région n° 9, qui lui fait suite en s’étendant à la musculature pelvienne et même périnéale, sont le siège de sensibilités proprioceptives kinesthétiques susceptibles d’une grande intensité, qui se manifestent au cours de l’expiration phonique.
- Dans ce clavier étendu, les sensibilités les plus importantes (de beaucoup) et les mieux ressenties sont :
- i° Les sensibilités intéroceptives des plages palatales n° 1 et n° 2, que le sujet localise fort bien, mais sépare parfois mal des sensibilités pallesthésiques de la région voisine n° 5 naso-faciale; la terminologie professionnelle imagée des chanteurs, en toutes langues, y voit la place clu son;
- 20, Les sensibilités kinesthésiques des régions abdominales n° 8 (et parfois n° 9), nées de l’activité expiratrice ; le chanteur y voit l'appui ou soutien du souffle.
- Ajoutons que tous les professionnels de la voix s’accordent pour dire que rien ne doit être senti dans la région n° 4, c’est-à-dire au niveau du larynx, ceci malgré l’importance des pressions sous-glottiques réalisées dans le chant théâtral et le niveau colossal du tonus des accolements des cordes vocales exigé. Cette absence de proprioceptivité des cordes vocales paraît d’ailleurs en rapport avec l’extraordinaire rareté des fuseaux neuro-musculaires au sein des thyro-aryténoïdiens internes, jamais trouvés encore malgré plusieurs années de recherches histologiques en différents laboratoires.
- Les voies ascendantes spécifiques des sensibilités internes d’origine phonatoire. — Nous nous bornerons ici aux sensibilités conscientes, c’est-à-dire concourant au niveau du cortex à la formation d’un schéma corporel, et en nous limitant à celles recueillies dans les plages ou régions nos 1 et 5 bucco-faciales et transmises par le trijumeau, et à celles issues des activités expiratrices de la sangle abdominale.
- Les stimulations recueillies par le trijumeau, intéroceptives en ce qui concerne la muqueuse palatale et pallesthésiques en ce qui concerne le massif osseux naso-facial, gagnent d’abord le ganglion de Gasser. Pénétrant dans la protubérance, les fibres trigémellaires y font une première synapse dans les noyaux sensitifs du Y. De ces noyaux sensitifs part un second système de neurones qui, après entrecroisement, vient faire relais dans le thalamus, empruntant (en partie) le ruban de Reil médian. Du thalamus, un troisième système de neurones conduit ces stimulations dans les aires de perception qui leur sont réservées du cortex somesthésique (fîg. 2).
- Les stimulations kinesthésiques issues de la sangle abdominale parviennent d’abord aux racines sensitives des nerfs rachidiens intéressés, puis remontent dans la moelle par les faisceaux de Goll et de Burdach, inclus dans la partie interne du cordon postérieur homolatéral, pour aboutir aux noyaux bulbaires des mêmes noms. De là, un second système de neurones, après entrecroisement, les conduit au noyau externe du thalamus par le ruban de Reil médian. Un troisième système de neurones les dirige ensuite sur les aires 1, 2 et 3 de Brodmann, dans la pariétale ascendante et le lobule paracentral (fig. 3).
- Du cortex somesthésique, ces stimulations gagneront de nombreuses autres aires corticales, notamment les aires motrices de la frontale ascendante, les aires respiratoires i3 du segment orbitaire de la 3e frontale, les aires somatognosiques pariéto-tempo-rales où s’élaborent les schémas corporels, et Vhippocampe au sein de la grande circonvolution limbique de Broca par où une activité neuro-végétative concomitante pourra être déclenchée.
- 1. Rappelons qu’on appelle sensibilité pallesthésique celle qui est éveillée par une vibration ; sensibilité kinesthésique celle qui nous renseigne sur nos contractions musculaires ; sensibilité somesthésique celle qui a pour origine la surface du corps.
- Le système ascendant diffus activateur de MoruzzL Magoun. — Les voies spino-thalamiques ci-dessus décrites, dites spécifiques parce qu’elles aboutissent à des aires corticales
- Fig. 2. — Trajet schématique des sensibilités spécifiques recueillies par le trijumeau.
- Recueillies au niveau de la plage palatale activatrice principale PP AP, les stimulations gagnent les noyaux sensitifs du trijumeau NST au niveau du bulbe, montent au thalamus Th- après entrecroisement, puis sont dirigées sur' l’aire pariétale ascendante PA (voir aussi la figuré 5).
- Fig-. 3. — Trajet schématique des sensibilités kinesthésiques spécifiques recueillies au niveau de la sangle abdominale.
- Recueillies au niveau de la sangle abdominale par les nerfs rachidiens sensitifs NRS, les sensibilités remontent dans la moelle le long des cordons de Goll et de Burdach GGB, parviennent aux noyaux bulbaires des mêmes noms NGB, gagnent le thalamus Th, et de là sont dirigées sur l’aire pariétale ascendante PA (voir aussi la figure 5).
- CGB
- p.91 - vue 95/527
-
-
-
- 92
- Fig. 4. — Système facilitateur ascendant diffus de Moruzzi-Magoun (très schématique).
- Les stimulations sensitives et sensorielles de toutes natures remontent également vers le cortex par des collatérales qui convergent dans la substance réticulaire SR, gagnent l’hypothalamus postérieur au niveau des corps mamillaires CM, et de là certaines formations du thalamus Th, d’où elles rayonnent dans la totalité du cortex pour y provoquer un accroissement du niveau de l’activité centrale (avec toutes ses conséquences).
- spécifiques pour chaque type de sensibilité et chaque métamère corporel, ne sont pas les seules par lesquelles les stimulus sensitifs correspondants parviennent aux formations de l’encéphale. Des travaux relativement récents, datant en gros d’une dizaine d’années, ont montré que toutes les afférences sensitives (notamment) gagnaient également le cortex par des voies collatérales à celles ci-dessus décrites. Les fibres qu’elles empruntent suivent la formation réticulée du tronc central et convergent vers l’hypothalamus postérieur. De là, elles gagnent certaines formations thalamiques, d’où elles se distribuent à la totalité du cortex qu’elles activent de façon diffuse. Elles forment le système ascendant diffus de Moruzzi et Magoun (fig. 4). Il est dit également u activateur » parce que sa stimulation provoque l’élévation du niveau vigile du sujet ainsi que l’élévation du niveau de son activité centrale; elle provoque aussi un accroissement de l’intensité des sensations spécifiques perçues, et le réveil du sujet si celui-ci est endormi.
- Nous verrons un peu plus loin que cette activation centrale joue, dans la phonation, un rôle particulièrement important, mis en évidence par de nombreuses expériences aussi bien que par l’observation directe.
- Le schéma corporel vocal. — Les différents modes de sensibilités et de sensorialités contribuent peu à peu à former,
- Fie. 5. — Quelques aires corticales somesthésiques et somatognosiques (d’après Brodmann).
- Les aires 1, 2 et 3 divisent la circonvolution pariétale ascendante PA, dévolue à la somesthésie. Les sensibilités trigémellaires affleurent en ST, celles de la sangle abdominale en SS. Les régions 39 et 40 sont dévolues à la somatognosie. Les aires temporales 41 et 42 sont relatives à l’audition, et les aires 20, 21 et 22 paraissent -liées aux phénomènes de remémoration.
- dans la conscience de chaque sujet, la connaissance de son propre corps et de sa situation dans son environnement. C’est à cette image du corps, qui se forme au fond de chacun d.e nous, que J. Lhermitte a donné le nom de schéma corporel. La connaissance que nous pouvons avoir de ce schéma corporel porte le nom de « somatognosie ». Cette somatognosie est d’ailleurs tout autre chose que l’ensemble des données polysensorielles qui lui donnent naissance : elle nécessite en sus un processus psychique plus élevé réalisant l’intégration psychophysiologique de l’ensemble de ces données. Cette forme d’intégration va évidemment plus loin que nos sensations, nos gestes, nos émotions. Elle est, à chaque instant, détruite et renouvelée, tandis que notre schéma corporel se modifie sans cesse au gré de toutes les modulations de nos perceptions sensorielles et de notre conscience émotionnelle.
- L’élaboration du schéma corporel, au cours de la vie du sujet, nécessite, en sus du fonctionnement normal de toutes les aires réceptrices de la corticalité et des voies qui y aboutissent, l’intervention du cortex gnosique, en général avoisinant les aires spécifiques. Au sein de ce dernier, certaines aires de la région pariéto-temporale jouent un rôle particulièrement important (fig. 5) sur lequel nous ne pouvons insister ici.
- Revenons maintenant, après ces généralités, à la fonction phonatoire.
- Lorsqu’un sujet parle, et surtout lorsqu’il se livre au chant à grande intensité, il a conscience a chaque instant de l’ensemble des sensations qui lui proviennent du clavier général de ses sensibilités internes. Parmi ces dernières sont perçues avec une intensité particulière celles qui proviennent de la région palato-naso-faciale et celles qui proviennent de la sangle abdominale, dont les affleurements spécifiques intéressent les zones pariétales ascendantes i, 2 et 3 de Brodmann (fig. 5). Il convient de leur ajouter les aires auditives, nécessairement intéressées par les perceptions auditives concomitantes, et une part importante du cortex temporal dont le rôle est certain dans les phénomènes de remémoration. Quoi qu’il en soit du détail des formations corticales intéressées (et il semble bien que le lobe frontal et le rhinencéphale ne puissent en être exclus), le sujet prend conscience à chaque instant de son activité phonatoire par ce qu’André Soulairac a pu appeler (ig55) son schéma corporel vocal. Constitué progressivement au cours des quatre premières années de son éducation vocale, ce schéma corporel vocal intègre en tout premier lieu des sensibilités palatales et de la sangle abdominale; il leur est adjoint des perceptions auditives correspondantes; et des associations visuelles ne sont peut-être pas à exclure.
- Si le siège cortical, ou du moins les circuits corticaux intéressés, du schéma corporel vocal, sont encore loin d’être connus avec précision, l’existence même de ce schéma corpor-el vocal est une donnée neurologique qui ne saurait faire l’objet du moindre doute, et dont au surplus maintes propriétés sont déjà mises en évidence. Sa structure détaillée varie avec la technique vocale du sujet, dont elle n’est d’ailleurs que le reflet. Si chaque technique vocale donne naissance à un schéma corporel vocal particulier, ce dernier donne naissance à des effé-rences régulatrices qui contribuent à stabiliser la première. Nous en dirons quelques mots plus loin.
- Les plages palatales activatrices de la phonation.
- — Nous avons dit plus haut que, au cours de la phonation, les sensibilités intéroceptives les plus marquées et les mieux localisées siégeaient dans la bouche, le long de son plafond palatal. Elles s’étendent d’un point rapproché de la racine des incisives supérieures jusqu’au voile. La profondeur de cette zone varie sensiblement avec les voyelles, et surtout selon qu’elles sont ouvertes ou fermées. Pour chaque voyelle, elle varie du grave à l’aigu. Toutefois, le phénomène le plus remarquable, bien analysé par M. Jean Mauran, secrétaire général de l’Opéra-
- p.92 - vue 96/527
-
-
-
- 93
- Comique et ancien premier baryton de grand-opéra à l’Opéra de Paris, est la constance de la stimulation des sensibilités de la région ti'ès antérieure de cette zone, pour toute voyelle et toute hauteur tonale, lorsque les conditions du chant théâtral sont réalisées (üg. 6 a). Arrêtons-nous sur ce point.
- Il est d’abord facile de voir que la stimulation maximale de cette plage palatale est réservée à certains harmoniques de la fourniture laryngée : d’une façon plus précise, une formation nodale doit s’v trouver. Si l’on admet qu’un nœud de pression se trouve au niveau de la glotte, les harmoniques qui stimulent cette plage correspondent donc à des longueurs d’onde comprises entre io et i4 cm, soit donc appartenant à la bande de 2 5oo à 3 200 c/s. Or on sait que, dans toute voix suffisamment puissante, les harmoniques de cette bande de fréquences conte-
- a b
- Fig. 6. — Plage palatale activatrice principale et son évolution en fonction de la fréquence (mi-schématique).
- La plage palatale activatrice principale s’étend du point le plus antérieur M au point palatal postérieur A sur les sons ouverts et au point pharyngé postérieur A' sur les sons aigus couverts. En a (à gauche), les points A et M sur les sons ouverts sont tels que LA — 10 cm et LM = 14 cm, ce qui correspond aux longueurs d’onde des partiels laryngés de 2 500 et 3 200 cycles. En b (à droite), sur les sons aigus couverts, le point A est venu en A' par suite de l’abaissement du larynx. Le point M n’a pas sensiblement varié et correspond alors à la stimulation du partiel de 2 300 c/s environ. L’expérience met en évidence l’importance d’une forte stimulation maintenue sur toute la tessiture au point palatal antérieur M, que nous appelons « point de Mauran », du nom de l’artiste qui a le plus insisté sur sa signification normative.
- nus dans le spectre de toute voyelle forment un « clocher » particulièrement marqué (se reporter sur ce point à un précédent article : « Comment se forment les voyelles », La Nature, juillet 1957, p. 253, ire colonne). On s’explique donc pourquoi cette région palatale est si puissamment stimulée.
- Autre phénomène souvent signalé : lorsque le sujet effectue la « couverture du son » sur une voyelle ouverte quelconque, cette plage stimulée s’étend davantage vers l’arrière, embrassant parfois la région pharyngée postérieure. C’est tout simplement que le larynx s’est en général fortement abaissé dans l’exécution de ce « passage », et qu’alors les formations nodales correspondant aux partiels de l’ordre de 3 200 c/s viennent affleurer à ce niveau du haut-pharynx. La région palatale antérieure est alors stimulée par des partiels de l’ordre de 2 3oo c/s, toujours puissamment représentés dans le spectre des voyelles fermées émises dans ces conditions (fig. 6 b).
- Cette vaste région, embrassant les plages dénommées 1, 2 et 3 au début du présent article, offre donc un intérêt tout particulier dans la physiologie phonatoire, et nous allons voir que les stimulations intéroceptives qui en sont issues possèdent un rôle
- activateur marqué qui se répercute sur le mordant de la voix, rôle à la vérité si important que nous avons cru devoir donner à ces plages le nom général de plages activatrices de la phonation.
- Mécanisme des activations déclenchées par la sti= mutation intéroceptive des plages activatrices pata= taies. — L’expérience du chant, et surtout du chant à grande puissance ou chant théâtral (se reporter à notre article : « Physiologie du chant à grande puissance », La Nature, novembre 1957, p. 432), montre que des liens étroits existent entre les sensibilités internes perçues au niveau des plages palatales activatrices d’une part, et la présence d’harmoniques aigus intenses (supérieurs à 2 5oo c/s environ) dans la fourniture des voyelles d’autre part, ces derniers harmoniques constituant le mordant de la voix. Ces liens peuvent être précisés comme suit :
- i° Lorsque les plages activatrices palatales sont fortement stimulées, la voix présente du « mordant », et ce dernier croît avec la stimulation perçue ;
- 20 Si la stimulation des plages activatrices palatales diminue jusqu’à s’évanouir, le « mordant » de la voix décroît jusqu’à disparaître ; la voix peut alors garder son volume et sa coloration voc-alique propre, mais a perdu ses qualités liées aux harmoniques supérieurs à 2 5oo c/s, c’est-à-dire l’éclat, la pénétration et la directivité.
- De nombreuses expériences ont été faites en vue de préciser ces faits et surtout d’en éclaircir le mécanisme physiologique. Nous en relaterons quelques-unes.
- Expériences de Husson, Garde et Larger (Boucicaut, 1951). — Ces auteurs ont réalisé in situ et in vivo, dans le Service de Laryngologie dirigé à l’époque par le docteur André Moulonguet, membre de l’Académie de Médecine, la stimulation électrique de territoires buccaux relevant de l’innervation sensitive d’une branche du trijumeau. A cet effet, une électrode double était mastiquée à demeure avec du stents de dentiste, et alimentée avec une petite bobine d’induction. Durant l’expérience, le sujet émet un son tenu et la vibration des cordes vocales est observée au laryngo-stroboscope.
- Lorsque le courant passe, la réponse au niveau des cordes vocales est homolatérale si la stimulation est assez faible, bilatérale si la stimulation est forte, et gagne toute la musculature péri-laryngée si elle est très forte. Cette réponse se caractérise par un tonus accru ou même un supplément de contraction. En ce qui concerne la corde vocale, on la voit se raidir et l’amplitude de sa vibration diminue fortement; les effets sont particulièrement bien observables sur une émission de sons piano ou de fausset.
- Expériences de Husson et Garde (1952). — Ces expériences ont constitué en quelque sorte l’épreuve inverse de la précédente. Le sujet émet un son tenu longuement, d’intensité aussi constante que possible. Durant cette émission, on cocaï-nise, à l’aide d’un pinceau, la plage palatale n° 1 en commençant par sa partie la plus antérieure. A mesure que la cocaïnisation fait son effet et qu’elle s’étend vers le voile, le son émis blanchit, preuve d’un affaiblissement rapide du tonus des accole-ments laryngiens.
- Lorsque toute la surface palatale relative aux plages 1 et 2 est cocaïnisée, le sujet ne parvient plus, ni par une modification de l’appropriation buccale, ni par une élévation de la pression sous-glottique, à rétablir le « mordant » de son émission initiale, et l’observation laryngo-stroboscopique révèle une amplitude vibratoire accrue (signe d’hypotonie).
- Expériences d'Ester Sebastiani (Turin, 1957). — Dans la Clinique O.-R.-L. de Turin, dirigée par le professeur Fausto Bru-netti, et sous le contrôle de celui-ci, Mme le docteur Ester Sebastiani a réalisé in vivo des expériences consistant à supprimer les
- p.93 - vue 97/527
-
-
-
- 94
- stimulations palatales phonatoires par refroidissement au chlorure d’éthyle -des plages correspondantes, ceci sous vision laryngo-stroboscopique des cordes vocales en vibration. Le refroidissement était strictement latéralisé.
- A mesure que le refroidissement exerce son effet, et très rapidement, on voit la corde vocale homolatérale perdre sa raideur et vibrer avec une amplitude accrue (signe d’hypotonie).
- Action d'une chute de réverbération du local où l'on chante (Husson, 1951). — Lorsqu’un sujet chante dans une salle où le temps de réverbération s’abaisse progressivement et rapidement (et ceci peut être réalisé facilement, soit en développant un large rideau en face du sujet, soit en ouvrant portes et fenêtres en face de lui), sa voix blanchit immédiatement et perd 6on mordant. L’audition le montre tout de suite, et l’analyse spectrale de la voix le confirme (Winckel, ig54). Pendant ce temps, le sujet éprouve la sensation de « coton dans la bouche », de fuite d’air pulmonaire incoercible, et déclare qu’il ne « sent plus sa voix ».
- J’ai montré en ig5i que ces effets défavorables et désagréables étaient dus à une forte chute de pression intra-buccale, laquelle avait pour conséquences, d’abord une diminution de l’impédance ramenée sur le larynx (diminuant la pression intra-glottique) et ensuite une baisse de la stimulation intérocep-tive des plages palatales activatrices (conditionnant une chute du tonus du sphincter glottique). Pour plus de détails, le lecteur se reportera à notre article original paru dans les Annales des Télécommunications, VII, 2, 1952, et reproduit dans les Cahiers d'Acoustique, IV, 1952.
- Mécanisme général de l'activation laryngée déclenchée par la stimulation des plages palatales activatrices. —
- Les phénomènes activateurs (ou inhibiteurs) relatés ci-dessus, qui ne font que préciser de nombreuses self-observations souvent faites par les chanteurs, ne peuvent se comprendre qu’en faisant état des travaux récents de Moruzzi et Magoun rappelés plus haut et relatifs à l’existence d’un système ascendant diffus d’afférences susceptibles d’élever le tonus de la substance réticulée bulbo-protubérantielle. Nous n’avons pu en donner l’interprétation générale qu’en iq52.
- Comme les réponses aux stimulations faibles ou aux inhibitions sont homolatérales, l’arc réflexe réalisé ne dépasse pas le niveau bulbaire. Les stimulations recueillies par le trijumeau gagnent la longue colonne formée par les noyaux sensitifs du V (fig. 7). Elles se diffusent aux alentours par les voies courtes de la substance réticulée bulbo-protubérantielle, et gagnent ainsi le noyau ambigu homolatéral (voisin). Plus fortes, elles peuvent atteindre le noyau ambigu hétérolatéral, et même les noyaux moteurs du V (masticateurs), du VII (facial), du IX (glosso-pharyngien), du XI (spinal) et du XII (grand hypoglosse). Elles stimulent même parfois les noyaux végétatifs, salivaires inférieurs et supérieurs et cardio-pneumo-entériques, comme diverses observations le montrent.
- Autres aftérences activatrices du tonus du sphinc= ter glottique. — Le fait que les influx sensitifs recueillis par le trijumeau au niveau des plages palatales activatrices soient en mesure de dynamogénéiser les noyaux bulbaires récurrentiels, par le canal de la substance réticulée bulbaire (au sein de laquelle ces noyaux sont d’ailleurs inclus), conduit à penser que toutes les afférences susceptibles d’élever le tonus de cette substance réticulée activatrice auront une répercussion dynamogénéisante sur le tonus du sphincter glottique et la voix. C’est en effet ce qui a lieu, à des degrés divers, et ce que de multiples expériences ou observations ont pu montrer, dont nous allons rappeler les principales.
- En premier lieu tous les influx stato-kinétiques issus de la musculature somatique soit au cours de l’exécution d’un mou-
- vement volontaire, soit pendant le maintien d’une posture, concourent à cette fin. Une expérience simple, exécutée au Laboratoire de Physiologie de la Sorbonne en 1902 par Husson, Garde et Mlle Ameil, le montre avec évidence. Elle consiste à examiner au laryngo-stroboscope un sujet qui émet un son tenu, en position couchée sur le dos (décubitus dorsal) et relaxée : son larynx offre alors une image typique de parésie de Vadduction et de la tension. Sans quitter l’observation du larynx, on prie le sujet de décoller légèrement la tête de son appui occipital, puis de décoller progressivement de même ses épaules de leur appui : on voit alors l’image parétique du larynx qui disparaît, faisant place peu à peu à une tension et à une occlusion normales.
- En second lieu la régulation tonique qui s’exerce à partir du labyrinthe se répercute également sur le tonus du sphincter glottique. C’est ce qui a été mis en évidence en 1957 par les
- NCPE
- P PA P
- Fig. 7. — Arc réflexe (schématique) parcouru par l’activation palato-laryngée.
- Partie de la plage palatale activatrice principale PPA.P, la stimulation gagne les noyaux sensitifs du trijumeau NST, se diffuse au sein de la substance réticulée facilitatrice SRF avoisinante, et vient activer les noyaux moteurs voisins : du X (qui provoquent l’activation laryngée), du IX (pharyngien), du XI (spinal), du XII (grand hypoglosse), du VII (facial), du V (masticateurs), ainsi que les noyaux végétatifs salivaires supérieur et inférieur (NSS et NSI) et cardio-pneumo-entérique NCPE.
- expériences de Paolo Menzio, poursuivies à la Clinique O.-R.-L. universitaire de Turin (dirigée par le professeur Fausto Bru-netti). Elles ont consisté à exécuter une épreuve calorifique froide sur une oreille d’un sujet qui émet un son tenu sous vision laryngo-stroboscopique : avec un temps de latence de 4 à 5 s, on voit alors la corde homolatérale se raidir et perdre son amplitude vibratoire, indices d’un accroissement de son tonus, alors que sa fréquence vibratoire demeure inchangée.
- En troisième lieu, les stimulations auditives ne sont point non plus sans exercer une action puissante sur le tonus du sphincter glottique, comme l’ont mis en évidence les expériences de Garde et Larger dès igôi, exécutées à l’hôpital Boucicaut à Paris. L’action hyperstimulatrice qui en résulte sur le tonus de
- p.94 - vue 98/527
-
-
-
- 95
- Fig. S. — Directivités subjectives des projections des sensibilités
- internes céphaliques phonatoires.
- En a (à droite), le larynx est maintenu bas ; les sensibilités pajlatales, seules perçues, semblent se projeter horizontalement.. En b (à gauche), le larynx s’élève, la contraction des muscles stylo-pharyngo-laryngiens SPL fait naître une directivité subjective vers le vertex, qui se compose plus ou moins avec la précédente. AM, apophyse mastoïde ;
- AS, apophyse styloïde ; CC, cartilage cricoïde ; CT, cartilage thyroïde ;
- MI, maxillaire inférieur.
- la musculature laryngée, et qui dynamogénise la musculature de tout l’arbre respiratoire, constitue la véritable explication de la vieille épreuve dite de Lombard, dans laquelle le sujet élève à son insu l’intensité de sa voix lorsqu’on lui envoie dans les oreilles un puissant mélange de fréquences qui lui masque l’audition de sa propre voix. Mais ici les expériences systématiques ont mis en évidence des résultats complexes. Les fréquences très graves, inférieures à 5oo c/s, provoquent une chute du tonus laryngé et de l’excitabilité récurrentielle (Christian Chenay, 1956); des effets contraires sont enregistrés avec des fréquences supérieures à 1 000 c/s. Sur ces points, d’intéressantes expériences ont été faites par Toma-tis (1954), par Paul Chauchard et Henriette Mazoué (1955), et par nous-mêmes (1957). Nous ne pouvons insister.
- Bien d’autres afférences, susceptibles de charger la substance réticulée bulbaire, viennent encore élever le tonus du sphincter glottique et accroître le mordant de la voix. Citons notamment les influx sensitifs issus de la surface pulmonaire (action activatrice d’une polypnée légère, d’un essoufflement léger) ; les effets activateurs d’un accroissement de la tension psychologique (système activateur descendant) ; etc. Dans le même ordre d’idées pourrait également s’insérer l’action fortement stimulatrice de certaines hormones, et notamment de la thyroxine et de certains minéraloïdes cortico-surrénaux, comme les travaux de J.-IL Amado (1951-1955) l’ont fait connaître.
- Ajoutons enfin que Roger, Rossé et Zirondoli (1955), opérant sur le chien par des techniques électrophysiologiques de laboratoire, ont pu montrer que, parmi toutes les afférences susceptibles de charger la formation réticulée, la part la plus efficace revenait à celles qui sont transmises par le trijumeau. On s’explique mieux, ainsi, l’importance des effets stimulants exercés dans le chant par les plages palatales activatrices.
- Directivité subjective des projections des sensibi= lités internes céphaliques phonatoires. — Il est impossible de parler des sensibilités internes d’origine phonatoire sans citer tout un groupe de sensibilités différentes des précédentes, de nature plus subjective et partant plus difficiles à étudier, mais qui n’en occupent pas moins une place fort importante dans l’ensemble des sensations qui affleurent à la conscience du sujet pendant le chant et participent à la formation de son schéma corporel vocal.
- L’expérience montre en effet que tout sujet qui chante localise dans l’espace, devant lui et au-dessus de lui, la direction subjective des sons qu’il émet. C’est ainsi que l’Homme, en premier registre et dans tout l’octave n° 2 (de ia5 à 25o c/s), a l’impression subjective de projeter ses sons horizontalement devant lui. De même la Femme (tout au moins pour de nombreux sujets à voix aiguë), dans la quarte suraiguë de son second registre (de 900 à 1 200 c/s), a l’impression subjective de diriger ses sons verticalement vers le vertex.
- a
- Ces impressions, dont le caractère est très général, ont reçu une illustration célèbre dans l’ouvrage de Lily Lehmann (1909) intitulé Mon Art du chant. L’auteur y figure un éventail de directivités subjectives de ses propres sensibilités internes céphaliques en fonction de la fréquence d’émission (de Ut 3 à Fa 5), et esquisse une méthode pédagogique d’éducation vocale basée sur la recherche systématique, par l’élève, de ces directivités en fonction de la hauteur tonale émise (voir la figure 9 a qui en est inspirée).
- Le problème physiologique qui se posait en premier lieu, relativement à ces faits, consistait à découvrir l’origine physiologique de ces directivités, qui, bien que subjectives, n’en sont pas moins très générales. Nous l’avons résolu, entre 1951 et ig55, par l’anamnèse poussée, l’observation radioscopique et diverses expérimentations, effectuées sur de nombreux artistes de la Réunion des Théâtres lyriques nationaux français, notamment (dans l’ordre des chronaxies croissantes) : Mmes Mado Robin, Berthe Monmart, Suzanne Juyol, Simone Couderc, Geneviève Serres, Rita Gorr et MM. Roger Gallia, Pierre Ranck, Ernest Blanc, René Bianco, Georges Vaillant, LIenri Médus. Les résultats sont les suivants :
- i° La directivité subjective de projection d’un son vocal dans le plan horizontal, devant le sujet, est provoquée par la stimulation de la plage palatale activatrice antérieure n° 1 (se reporter à la figure 1) ; elle cesse avec cette stimulation (ce qui arrive dans l’émission de sons ouverts blancs de faible intensité) et reparaît avec elle (fig. 8 a) ;
- 20 La directivité subjective de projection verticale d’un son vocal vers le vertex est provoquée par la contraction des muscles stylo-pharyngo-laryngiens, qui élèvent le larynx en attirant toute la boîte cartilagineuse laryngée vers l’apophyse styloïde de la base du crâne; elle apparaît lorsque le larynx s’élève, et n’apparaît jamais (quelle que soit la note émise, même suraiguë) si le larynx est maintenu en position basse (fig. 8 b) ;
- 3° Lorsque ces deux directivités subjectives apparaissent simultanément, dans la quinte aiguë de chaque registre, elles se « composent » gi'osso modo en donnant naissance à des directivités intermédiaires localisées dans l’angle droit palato-frontal.
- Ces sensibilités particulières, qui donnent naissance à ces effets de directivités subjectives des sons émis, n’auraient qu’un intérêt de curiosité si nombre de professeurs et d’artistes lyriques n’avaient tendance à utiliser systématiquement leur recherche consciente en vue d’instaurer ou de stabiliser une technique vocale préférentielle. Elles acquièrent ainsi une importance considérable par le fait qu’elles sont effectivement liées à des postures particulières du pavillon laryngo-pharyngo-buccal.
- b
- p.95 - vue 99/527
-
-
-
- 96
- ^eme
- Registre
- UtB RéB
- g eme
- Registre
- 2 ème
- Registrej
- 2
- Registre
- 1e?Registre
- Fig. 9. — Éventails comparés des directivités subjectives des projections des sensibilités internes céphaliques phonatoires sur toute l’étendue d’une tessiture féminine : en a, larynx haut ; en b, larynx bas.
- En a : dessin inspiré de Lily Lehmann, et vérifié par l’anamnèse de divers sopranos. Noter : la communication rétro-vélaire, les sensibilités thoraciques en 1" registre, l’apparition des sensibilités crâniennes dès le Mi 4, la céphalisalion complète de l’Ut 5 (contre-Ut).
- En b : dessin réalisé par l’anamnèse des voix françaises féminines les plus puissantes du Théâtre national de l’Opéra, et de M1”8 Mado Robin pour les 3e et 4“ registres. Noter : la fermeture vélo-pliaryngée, la dilatation du pharynx, l’absence de registre de poitrine dans le grave, la palatalisation complète de tout le second registre jusqu’à l’Ut 5 (contre-Ut) inclus ; pour Mme Mado Robin, la palatalisation du 3° registre, et l’apparition d’une
- céphalisation sur le 4e registre seulement.
- Elles ne sont point indifférentes, notamment, au fonctionnement neuro-musculaire vocal (dit vibratoire) du sphincter glot-tique.
- Nous n’en donnerons ici qu’un exemple mais très suggestif. Les belles et puissantes voix des artistes (femmes) citées plus haut gardent toujours, jusqu’à la note la plus aiguë de leur second (ou même troisième) registre, une stricte directivité horizontale des sons émis, sans aucune participation céphalique vraie. Ceci provient des positions laryngées basses utilisées et maintenues sur toute la tessiture. Chez Mme Mado Robin, le soprano-sopranissimo de l’Histoire du chant, les directivités subjectives céphaliques n’apparaissent que dans son quatrième registre (de La 5 à Ré 6), consécutivement à l’apparition d’une remontée du larynx (fig. 9 b).
- Nous ne pouvons ici aller plus loin dans l’analyse de ces faits, malgré tout l’intérêt qui s’y attache. En particulier la réalisation de toute posture pharyngo-buccale exerce, sur le larynx, un ensemble de réactions neuro-réflectives et acoustiques particulières qui conditionnent son fonctionnement phonatoire (R. Husson, XVe réunion du Groupe O.-R.-L. de la Haute-Italie, Turin, 8 décembre 1957).
- Régulation automatique et self=contrôle de Vémis= sion vocale sur la base du schéma corporel vocal.
- — Le dernier grand fait expérimental qui achève de préciser toute l’importance du rôle des sensibilités internes dans la phonation, et surtout dans le chant à grande puissance, est le suivant : c’est par l’appréciation consciente, à chaque instant, de l’ensemble de leurs sensibilités internes phonatoires, que l’orateur et surtout le chanteur prennent conscience de leur effort phonatoire, qu’ils apprécient la qualité de leur émission, et que, dans une large mesure, ils peuvent la modifier et l’adap-
- ter aux besoins et aux circonstances. Autrement dit, c’est sur la perception de leur schéma corporel vocal qu’ils vont régler le fonctionnement de l’association sensitivo-motrice qui englobe tous les organes qui interviennent dans la phonation.
- Sans doute en est-il de même, de façon très générale, dans le jeu de toutes les praxies, c’est-à-dire de toutes les motricités fines et complexes qui concourent à la réalisation d’un geste ou d’une conduite. Mais, ici, l’acte à contrôler et à assurer est d’une nature bien particulière puisqu’il est composé de multiples activités motrices coordonnées dont la plupart échappent isolément à l’action directe de la volonté. L’étude des mécanismes régulateurs est donc ici d’un intérêt tout spécial.
- Ces mécanismes ont pu être saisis, à deux reprises au cours de nos recherches, et il a été ainsi observé que, sur la base du schéma corporel vocal, s’établissent peu à peu chez tout sujet : en premier lieu un ensemble de régulations automatiques ou semi-automatiques, à déclenchements réflexes; en second lieu des régulations adaptées, à déclenchements beaucoup plus volitifs. Toutes ces régulations portent sur des ajustements du tonus laryngien, sur des appropriations de postures pharyngo-buccales, et sur des adaptations respiratoires, qui ont pour but unique la reconstitution du schéma corporel vocal antérieurement perçu par le sujet ou son maintien indéfini. Nous achèverons cet article en en disant quelques mots.
- Si, avec Tomatis (1954), nous faisons chanter un sujet devant un microphone en faisant ensuite passer la fourniture vocalique recueillie au sein d’un système de filtres qui en modifie à volonté les diverses composantes en intensité, et si nous retournons la fourniture ainsi modifiée sur les oreilles du sujet (fig. 10), nous observons que, dans certaines conditions, la fourniture vocalique initiale issue du sujet se modifie d’elle-même (à son insu). Etudié de plus près au Laboratoire de Physiologie de la Sorbonne,
- p.96 - vue 100/527
-
-
-
- 97
- Fig. 10. — Montage expérimental permettant l'étude de l’effet Tomatis.
- Le sujet chante devant un microphone dont la tension traverse ensuite un amplificateur différentiel de fréquence ADF qui modifie à volonté la fourniture vocaiiquo émise. La fourniture ainsi modifiée est ramenée aux oreilles du sujet par des écouteurs sur casque.
- cet intéressant phénomène s’est laissé analyser comme suit i° si la fourniture F' modifiée est très voisine de la fourniture initiale F, cette dernière évolue spontanément vers F', par ajustement du tonus laryngien (observable au laryngo-stroboscope) et adaptation de la posture pharyngo-buccale (vérifiable radiosco-piquement); 2° si F' diffère beaucoup de F, la modification de cette dernière ne fait que s’amorcer; 3° si F' est par trop différente de F, il ne se passe rien. En fait, dans ces expériences, le sujet perçoit F', et c’est pourquoi les rétroactions phonatoires se font en fonction du schéma corporel de F', seul timbre perçu, comme A. Soulairac nous a aidé à l’analyser. Ces rétroactions se font par les célèbres « fibres gamma », récemment découvertes, qui règlent l’activité des fuseaux musculaires (R. Ilusson, Bulletin de l'Académie nationale de Médecine, Paris, t. 141, 1957, 393-3g8).
- Phénomènes également très symptomatiques lorsqu’un sujet chante dans une salle trop peu réverbérante. La pression intra-buccale diminue et avec elle l’impédance ramenée sur le larynx. Le sujet modifie alors inconsciemment son orifice buccal dans le sens d’une diminution de son ouverture, ce qui tend à élever le niveau de la pression intra-buccale et de l’impédance ramenée sur les cordes vocales. Si la chute de réverbération n’est pas trop grande, le schéma corporel vocal auquel le sujet est habitué est rétabli par le renforcement qui s’ensuit des sensibilités palatales. Si la chute de réverbération à compenser est trop
- grande, l'ajustement réflexe de l’ouverture buccale ne se produit plus, et le sujet doit procéder à un ajustement volitif adapté, ayant au préalable exigé, soit un dressage éducatif, soit une prise de conscience bien définie.
- Ces faits, analysés depuis peu, constituent tout un chapitre nouveau de la physiologie phonatoire expérimentale qui s’édifie. Ils montrent comment l’analyse physiologique et psychophysiologique, sous la pression des recherches, s’introduit peu à peu dans l’étude des comportements humains les plus complexes. En ce qui concerne la voix et le chant, ils nous font entrevoir la possibilité d’édifier une physiologie phonatoire différentielle dont, par la suite, la connaissance permettra d’aborder des problèmes sur le plan normatif, espoir souvent formulé par les professionnels de la voix dans tous les temps.
- Raoul Husson,
- Lauréat de l’Institut et de l’Académie de Médecine, Chargé d’un cours libre à la Sorbonne.
- Anomalies du développement causées par des parasites
- Dans la revue anglaise Nature du 5 octobre dernier, L. II. Finlayson et V. Ann Walters ont résumé une curieuse déviation du processus normal de la métamorphose causée par une infection parasitaire chez des papillons de la famille des Saturnides. Étudiant un Protozoaire du genre Nosema, de l’ordre des Microsporidies, trouvé dans Hyalophora (Plaiysa-mia) cecropia, puis cultivé chez Antheræa polyphemus et A. pernyi, ils ont constaté que dix-sept parmi les nombreux individus infestés ne se sont pas métamorphosés normalement. Les plus sévèrement affectés sont des adultes de H. cecropia qui ont gardé des caractères nymphaux. A l’examen, on constate que l’extrémité abdominale et les genitalia ont une forme rappelant celle de la nymphe; la cuticule du reste de l’abdomen et du thorax montre une mosaïque des types adulte et nymphal; enfin, à la base de chaque œil, il y a une bande
- sans pigment, anormale. Le fait intéressant est que de telles anomalies peuvent être produites expérimentalement par l’introduction de corpora allât a actifs ou d’hormone juvénile dans le corps de l’adulte en développement, pendant la période où ses propres corpora allata sont inactifs. Il semble que la présence du parasite affecte la balance endocrine de l’hôte, ce qui amène une répétition de structure à la métamorphose. L’implantation de corpora allata chez Galleria et Rhodnius provoque ainsi des répétitions localisées à l’endroit de la transplantation. Williams a montré qu’il existe, chez H. cecropia, des réserves d’hormones des corpora allata dans la plupart des tissus du corps, mais surtout dans l’abdomen. Il est possible que les tissus endommagés par le parasite libèrent leurs hormones et que celles-ci provoquent les anomalies constatées.
- L. C.
- Saucisses à pétrole
- Le lait et les toxiques
- Dans l’intention de remédier à la pénurie en tankers, des ingénieurs de Cambridge (U.S.A.) sont en train de procéder aux essais de containers souples en nylon revêtus de plastique et qui pourraient être remorqués en mer à la vitesse de 10 à 15 nœuds. Ces « saucisses », une fois remplies d’hydrocarbures, auraient une vingtaine de mètres de longueur et pèseraient environ 9 000 t.
- Selon une idée très répandue, l’absorption de lait serait un efficace moyen de lutte contre la plupart des intoxications. Des travaux de H. Wittgens et D. Niederstadt (Allemagne) démontrent au contraire que le lait augmenterait les effets de l'empoisonnement par le plomb. L’emploi du lait est également déconseillé dans les intoxications dues au phosphore, aux solvants et au D.D.T.
- p.97 - vue 101/527
-
-
-
- La curieuse nidification des Calaos
- Les Calaos sont de gros oiseaux qui habitent surtout la forêt africaine, remarquables par leur bec énorme, souvent surmonté d’une sorte de casque, volumineux chez les mâles surtout. Malgré son importance, le bec des Calaos est relativement léger, car le casque est constitué par un tissu osseux spongieux, recouvert d’un tégument de consistance cornée. Ces oiseaux ne peuvent passer inaperçus dans la forêt, non pas tant à cause de leur forte taille que par leur vol extraordinairement bruyant. Un trait de leurs mœurs, particulièrement caractéristique et intéressant, concerne la nidification. On sait depuis longtemps que la femelle des différentes espèces de Calaos pond dans un trou d’arbre creux, dans lequel elle reste cloîtrée pendant toute la durée de l’incubation des œufs et de l’élevage des jeunes; le mâle construit en effet devant l’entrée du nid un mur qui ne laisse qu’une petite ouverture par laquelle il vient apporter des aliments à sa femelle. Lawrence Kilham a apporté une étude très précise de cette particularité dans une très intéressante note des Smithsonian Miscellaneous Collections (n° 9, vol. 131, ig56).
- L’espèce de Calao étudiée par Kilham est le Bycanistes su,b-cylindricus, qui, passant par les forêts-galeries du nord du Congo Belge, habite depuis le Cameroun jusqu’à l’Uganda. C’est dans cette dernière région, dans la Mpanga Research Forest, au nord du lac Victoria, que les recherches ont été effectuées. Les couples de Bycanistes restent unis toute l’année. Les préliminaires de l’accouplement consistent en frottements du bec, quelques cris spéciaux et surtout en offrandes; c’est pi’es-que toujours le mâle qui apporte à sa femelle des feuilles, des débris de bois et surtout des fruits qu’il lui présente à l’extrémité de son long bec. L’offrande n’est presque jamais acceptée d’emblée; le mâle est obligé de présenter plusieurs fois le fruit à la femelle qui accepte enfin de le toucher simplement du bec; le mâle satisfait l’avale alors. Une fois le couple formé, les deux oiseaux cherchent un emplacement pour établir leur nid; c’est généralement dans un très grand arbre qu’ils explorent des trous déjà existants et en choisissent un ; le mâle agrandit ce trou en tirant des morceaux de bois pourri, que parfois la femelle lui prend du bec. Ce trou est toujours très éloigné du sol, à 18 ou 20 m de hauteur, souvent à un endroit où une grosse branche a été cassée. La femelle pénètre alors à l’intérieur et commence à préparer son nid, tandis que le mâle récolte de la terre humide et la lui apporte; plus rarement la femelle sort pour aller récolter elle-même. Les pelotes de terre ainsi recueillies ne sont généralement pas utilisées immédiatement, mais avalées; dans le jabot, elles se mélangent avec la sécrétion et avec le jus de certains fruits; c’est surtout le mâle qui se charge de cette préparation; le matériel utilisé est souvent tiré d’une termitière.
- La construction du nid se fait à des heures variables et dure au moins deux semaines. Le mâle se penche à l’intérieur mais ne prend pas une part directe à ce travail; c’est la femelle qui, de l’intérieur, construit un mur qui va rétrécir l’entrée jusqu’à rendre toute sortie impossible. Une fois le travail terminé, cette entrée est réduite à une fente allongée large de 4 à 5 cm et longue de 10 à 25 cm. Le mur est très solide; en introduisant la main dans la fente, on ne peut le démolir et, lors de la sortie de la femelle, des morceaux tombant d'une hauteur de plus de 20 m ne sont pas cassés. On peut y compter des couches concentriques dont chacune représente sans doute le travail d’un jour; des débris de plantes, d’insectes, des écorces sont incorporés sans ordre au ciment; souvent aussi, on voit une couche formée de noyaux et d’excréments, qui a été ajoutée par la femelle après la fermeture. Le nid lui-même est formé de débris de bois pourri, de plumes, mêlés de beaucoup de débris de fruits non digérés, qui attirent les fourmis et d’autres parasites.
- L’auteur donne l’observation d’un nid au moment où la
- Fig. 1 et 2. — Calaos âgés de dix mois, élevés en captivité.
- En haut, mâle. En bas, femelle.
- femelle allait commencer son emprisonnement volontaire de quatre mois. Le 7 novembre, le mâle était actif tard dans la soirée, apportant à sa femelle de la terre de termitière, lui en passant des boulettes, avec lesquelles elle travaillait; le lendemain, il reprenait son observation dès 5 h i5; le mâle se trouvait penché sur l’entrée du nid; le soleil donnait sur le trou et il put voir que le mur était complet et aucune construction n’était plus en cours. Pendant une heure, le mâle resta près de la place, puis il s’envola vers un grand arbre (Canarium schweinfurlhii) sur lequel il recueillit quelques fruits, puis retourna au nid, en un vol bruyant. Par l’étroite ouverture ménagée dans l’entrée du nid, il passa alors à la femelle cinq ou six fruits, qu’elle prit en émettant des notes gutturales basses.
- La femelle au nid est donc entièrement dépendante du mâle pour son alimentation jusqu’à sa sortie avec le jeune. Il semble y avoir une certaine régularité dans les visites du mâle, qu’on observe le matin surtout. Il vient, le plus souvent, avec un morceau d’écorce ou de bois qu’il présente à l’entrée du nid; ce n’est que lorsque la femelle a saisi ce bois qu’il lui offre des fruits, au nombre de. deux à dix-sept par visite. Parfois, le mâle pratique un nettoyage des alentours du nid souillés par des débris et déjections. La femelle opère de temps en
- p.98 - vue 102/527
-
-
-
- 99
- Fig. 3. — Entrée d’un nid de Calao, avec son mur cimenté par la femelle, et ne laissant qu’une étroite ouverture.
- temps des réparations dans le mur de clôture, en y appliquant les débris à sa disposition, mélangés à des excréments; elle peut aussi agrandir la cavité qui lui sert de prison et qui devient petite lorsque le jeune se développe. La ponte comprend deux œufs qui ont l’aspect et la taille des œufs de poule; mais il semble qu’un seul jeune se développe complèlement,
- l’autre étant éliminé peu après sa naissance. L’observation d’une femelle dans un nid, ouvert après six semaines, ne semble pas indiquer qu’elle ait subi une mue, ainsi que certains auteurs l’ont admis; son plumage était sali, mais en bon état général et complet.
- L’ouverture du nid est pratiquée par la femelle après environ quatre mois; une observation précise a pu être faite, du 8 novembre 1964 au 7 mars 1955, la femelle étant restée enfermée pendant 119 jours. Un accident peut provoquer une ouverture prématurée; ainsi, une femelle dont le mâle avait été tué par un oiseau de proie, après des appels de détresse, démolit le mur et s’échappa du nid, semblant avoir abandonné son jeune.
- Normalement, la mère et le jeune sortent ensemble et vont retrouver le mâle, qui se trouve toujours dans les environs du nid. La nourriture des Calaos est surtout composée des fruits d’une dizaine d’espèces d’arbres; les noyaux rejetés, en particulier ceux du Canarium schweinfurthii, sont souvent abondants par terre et permettent de repérer un nid. Contrairement aux données admises, par Bannermann en particulier, la nourriture animale n’est pas exclue du régime du Bycanisies subcylindricus; il consomme, outre les fruits, des insectes, des lézards, des œufs et même de petits oiseaux; en captivité, on lui fait accepter facilement des souris. Enfin, il est intéressant de noter la sensibilité remarquable de l’énorme bec du mâle, que l’on a vu apporter à sa femelle un œuf sans le casser.
- L. Chopabd.
- Les illustrations de cet article, empruntées au travail de M. Lawrence Kilham, nous ont été aimablement communiquées par la Smithsonian Institution, Washington.
- Marémotrice à double flot
- L’usine marémotrice à double flot, décrite par M. R. Ker-vran dans Le Génie Civil (août 1906), est entièrement différente des marémotrices dont l’étude se poursuit actuellement pour l’estuaire de la Rance et la baie du Mont-Saint-Michel (La Nature, juillet 1967, p. 268). Son principe en effet est de tirer parti du décalage horaire qui existe entre les marées de part et d’autre d’un isthme.
- L’exemple choisi par M. Kervran et qui fait l’objet d’un projet longuement mûri fera mieux comprendre les latitudes offertes par le double flot. Il s’agit en l’espèce de la presqu’île du Cotentin, prise à la hauteur de Carentan à l’est et de Saint-Germain-sur-Ay à l’ouest. Sur la côte voisine de Carentan, la marée est en retard de 3 h i5 mn (en moyenne) par rapport à la côte opposée. De part et d’autre, le flot remonte déjà profondément dans les terres, empruntant le chenal de Carentan à l’est et le ria de l’Ay à l’ouest. Un canal a été envisagé, qui joindrait les deux masses d’eau et il est facile de prévoir ce qui se passera dans ce canal : selon les heures de la marée, un courant s’établira dans un sens ou dans l’autre.
- A-t-on intérêt à ménager une chute au point médian où le décalage horaire de 3 h i5 mn se trouverait simplement maintenu ? Non, estime R. Kervran; il est au contraire intéressant d’accroître le retard de la iriarée est en installant la future usine au voisinage de la côte ouest dans un site qui serait voisin du Val ou de Reliefontaine. Ainsi, profitant de ce que — on le sait par expérience — la marée enregistre un retard notable en remontant et descendant les chenaux et les estuaires, on parviendrait à mettre les deux flots en opposition totale. Un cycle s’établirait où la chute maximale serait obtenue, tantôt vers l’ouest, tantôt vers l’est.
- Signalons que, compte tenu de l’extrême amplitude des marées du côté Mont-Saint-Michel, la chute pourrait atteindre en vives eaux 7,7 m. En eaux moyennes, elle serait de 4,5 m. On sait que les groupes-bulbes immergés, du modèle de ceux pi’évus pour la Rance, permettent d’exploiter des chutes très inférieures à ces chiffres : en fait, la marémotrice à double flot ne serait arrêtée que 45 mn (autour du point d’équilibre des deux marées) pendant lesquelles la chute oscillerait entre o et 1 m. La durée totale de fonctionnement serait donc d’environ 21 h sur 24.
- Le projet exposé dans Le Génie Civil est celui d’une usine pilote comprenant i5 groupes de 8 000 kVA, soit une puissance totale installée de 120 000 kVA. Sa productivité annuelle est estimée à 385 000 000 kWh. Ces données ont été établies en fonction du débit de la chute qui dépend évidemment de la section du canal. Cette section (trapézoïdale) est : ii3 m au plafond, 137 m au ciel, 8 m hauteur. R. Kervran fait observer que ces dimensions ne sont pas limitatives. Des agrandissements ultérieurs de la marémotrice peuvent être conçus en élargissant le canal.
- Il semble que, topographiquement, la région basse et marécageuse qui s’étend entre Carentan et Saint-Germain se prête assez bien à un percement de grande envergure. Les travaux de terrassement ne risquent pas de se heurter à des difficultés majeures.
- Toutefois, avant que la marémotrice à double flot parvienne au stade des réalisations, il sera nécessaire, de l’avis même de l’auteur du projet, que l’étude soit complétée, en procédant notamment à des essais sur modèle réduit.
- Y. M.
- p.99 - vue 103/527
-
-
-
- 100
- NOUVEAUX POLDERS DANS LE MARAIS POITEVIN
- Récemment s’est déroulée à la mairie de la commune de l’Aiguillon (Vendée), la cérémonie de l’adjudication des travaux d’une digue nouvelle sur le littoral du Bas-Poitou. Plusieurs firmes avaient déposé des soumissions cachetées; toutes s’étaient assuré le concours de techniciens hollandais. L’ensemble des travaux envisagés atteint la valeur approximative de 700 millions de francs ; le début de la réalisation de ce plan de conquête de polders attire de nouveau l’attention sur les marais poitevins et sur les problèmes qui s’y rattachent.
- A l’époque romaine, la mer remontait dans l’intérieur jusqu’aux environs de Luçon et de Marans. Le golfe des Piétons séparait le massif ancien et la bordure calcaire de la Vendée actuelle des plateaux calcaires d’Aunis-Saintonge : dans cette zone de subsidence (c’est-à-dire où le sous-sol a tendance à s’affaisser lentement), le dépôt des alluvions s’opéra graduelle ment au cours des siècles : Sèvre Niortaise, Charente, Lay et rivières vendéennes comblèrent peu à peu ce rentrant du littoral (fig. 1). Aujourd’hui encore, la sédimentation s’effectue régulièrement dans la baie de l’Aiguillon, où l’amplitude des marées atteint 5 m (fig. 2).
- Dès le xue siècle, des efforts avaient abouti à l’assèchement d’une partie des marais côtiers, notamment grâce au travail des moines : il subsiste aujourd’hui un canal dit « des Cinq-Abbés », dont le creusement remonte à 1219. D’autres travaux suivirent, principalement au cours du xvne siècle, où le Hollandais Brad-ley dirigea le drainage de la contrée pour le compte du roi Henri IV. Aujourd’hui, les marais desséchés s’étendent en bordure de la côte, de la Tranche-sur-Mer jusqu’à Marans, au nord de la Rochelle (fig. 1).
- A intervalles réguliers (pour les dernières fois en i856 et 1911), les riverains de la baie de l’Aiguillon ont endigué les « lais de mer » : il s’agit des dépôts alluviaux accumulés et progressivement exhaussés. Les secteurs les plus rapprochés de la terre ferme sont envahis par une végétation halophile qui les transforme en prés-salés, dont les bestiaux et ovins broutent
- Fig. 1. — Carte de la baie de l’Aiguillon
- (Cartographie La Nature).
- le fourrage. Les secteurs plus éloignés, moins élevés, restent à l’état d’étendue de vase nue, brillante sous le soleil de l’été (fig. 3) : c’est cette vasière, couverte et découverte chaque jour par la marée, que les géographes appellent slikke, d’après un vieux nom flamand qui signifie précisément vase, boue, limon. Quant au pré-salé, que seules recouvrent les marées exceptionnelles, il est appelé schorre ou herbu (fig. 4).
- Aujourd’hui, le schorre s’étend sur une largeur d’environ
- Fig. 2. — La baie de l’Aiguillon près de l’embouchure de la Sèvre Niortaise (Photo P. Wagret).
- Les photos des figures 2, 3, 4 et 5 ont été prises à marée basse.
- p.100 - vue 104/527
-
-
-
- 101
- Fig'. 3. — Vasière dans la baie de l’Aiguillon.
- (Photo P. Wagret).
- 7 à 8oo m en avant des digues de 19 n : il est donc mûr pour être endigué et colonisé à son tour, afin de devenir un polder. C’est cette opération qui commence en ce moment : elle doit conquérir à la culture une zone d’une superficie de 1 200 ha.
- Comment s’effectuera la mise en valeur du polder? Deux solutions sont envisagées : soit attribuer des terres aux cultivateurs des communes riveraines, soit faire venir des familles de jeunes exploitants du Bocage vendéen, chassés par le manque de terres et contraints d’émigrer. Cette seconde idée paraît la meilleure, à la fois sous l’angle économique et au point de vue social. S’inspirant en partie de l’exemple hollandais du Zui-derzée et des bonifications italiennes, elle diviserait le sol en exploitations-modèles, chacune de 20 à 25 ha d’un seul tenant. Tout cela suppose des travaux d’adduction d’eau (l’eau potable
- Fig. 4. — Dans la baie de l’Aiguillon : limite de la « slihke » et de V « herbu ».
- manque dans le marais, où tout l’habitat est groupé, et où un cultivateur est parfois à 8 km de ses terres) ; il faudra également construire des routes et préparer le sol, lequel au début restera très salé.
- La richesse des prises de mer justifie tous les travaux : sur ce bri argileux, il n’est pas rare d’obtenir des récoltes fabuleuses; au lendemain de la prise de 1911, n’a-t-on pas enregistré jusqu’à 65 quintaux à l’hectare pour l’escourgeon ? La fertilité naturelle, sans engrais, des polders est réellement extraordinaire.
- Parallèlement à ces conquêtes pacifiques sur la mer, un autre aspect du plan actuel est à retenir : il concerne le drainage effectif des marais du Lay, dans la région comprise à l’est du canal de Luçon à la mer. Ce vaste secteur (26 000 ha), moins bien drainé que le marais de Luçon, est régulièrement inondé tous les hivers par les eaux du Lay descendu des hauteurs de Vendée. Le Lay n’a en effet aucune pente dans la partie inférieure de son cours, où il décrit de nombreuses sinuosités. Le temps n’est plus où bricks et goélettes accostaient au port de l’Aiguillon pour charger du blé. Le chenal est impraticable, car la marée le remonte et le résultat en est un accroissement de l’envasement de la rivière. Cet obstacle supplémentaire oblige les eaux douces à se répandre dans les zones voisines.
- Douze associations syndicales de propriétaires se renvoyaient la balle depuis des dizaines d’années (on compte plusieurs arrêts du Conseil au xviii8 siècle, qui jamais ne furent suivis d’effet). La constitution en 1929 d’un syndicat unique de défense contre la mer et contre les inondations, groupant les 4 000 propriétaires intéressés, a permis la mise sur pied d’un plan cohérent.
- Le cours du Lay doit être rectifié dans sa partie inférieure, et acquérir une largeur de 25 m. Deux écluses seront construites à Moricq et près de l’Aiguillon, afin de former bassin de chasse et empêcher le flot de combler progressivement le chenal. Une partie des eaux du Lay sera par ailleurs détournée vers des canaux de décharge qui les entraîneront directement vers la mer; trois écluses nouvelles compléteront les trois écluses actuelles (fig. 1) et constitueront autant de bassins de chasse. C’est entre ces diverses écluses que sera aménagé le nouveau polder dont il a été question plus haut.
- La rectification du Lay se traduira par une amélioration sensible des rendements agricoles des marais environnants, désor-
- Fig. 5. — Bouchots à moules près de la pointe de Saint-Clément. (Photos P. Wagret).
- p.101 - vue 105/527
-
-
-
- 102
- mais à l’abri des inondations périodiques. Les services du Génie rural estiment à 25 pour ioo l’accroissement de la productivité qui s’ensuivra : le rendement en foin des prairies passera de 3o à 4o quintaux à l’hectare; la production laitière s’accroîtra de 3o pour ioo; le nombre des bovins augmentera également.
- La réalisation du plan entre dans le cadre de l’aménagement des marais de l’Ouest, prévu par le décret du 20 mai 1955. L’État se charge du financement à concurrence de 60 pour 100 (5o pour 100 à la charge du ministère de l’Agriculture et 10 pour 100 à la charge du ministère des Travaux Publics) ; le reste est fourni par les propriétaires des marais, assistés par le conseil général de la Vendée.
- Un autre projet, plus ambitieux, prévoit la fermeture totale de la baie de l’Aiguillon au moyen d’une digue de 5 km qui joindrait la pointe de l’Aiguillon à la côte d’Aunis (pointe Saint-Clément). Des 8 000 ha isolés de la mer, les 7/8 seraient récupérés et mis en culture : le centre formerait un lac d’eau douce de 1 000 ha, alimenté par la Sèvre Niortaise, et communiquant avec la mer par une écluse.
- Ce plan n’est, autre que celui qui a été réalisé par les Hollandais avec la création de l’Ijsselmeer, mais à une échelle toute différente (le lac d’Ijssel est vaste de 100 000 ha). Son exécution permettrait, souligne un rapport de la Chambre d'Agriculture des Deux-Sèvres, rédigé par A. Morisset, l’évacuation des crues 24 h sur 24 dans un lac intérieur affranchi du jeu de la marée. « Ce réservoir d’eau douce serait d’une valeur inestimable en période sèche : il permettrait l’irrigation, il supprimerait le cau-
- chemar de l'abreuvement du bétail en été dans le marais desséché. Le colmatage des canaux et rivières par les vases de marée n’aurait plus lieu. »
- Un autre avantage réside dans le raccourcissement du front de défense contre la mer : une digue moderne de 5 km serait bien plus résistante que les 20 km de digues vétustes actuelles réparties sur le pourtour de la baie. Un avertissement à ce sujet a été lancé en ig54 par le Comiié d’Océanographie et d’Êtude des côtes : « On peut prédire à coup sûr que le vieillissement des digues des polders de Vendée, s’il n’y est porté remède, conduira fatalement dans un avenir plus ou moins rapproché, à l’occasion d’une pleine mer de vive-eau coïncidant avec une tempête exceptionnelle, à une inondation partielle ou totale des terrains conquis sur la mer. »
- Certes, des intérêts devront être sauvegardés : il s’agit notamment de la pêche et de l’élevage des huîtres et des moules (fig. 5), particulièrement actifs dans la baie de l’Aiguillon : la seule commune de l’Aiguillon fournit annuellement 8 millions d’huîtres et 2 5oo 000 kg de moules. Une solution satisfaisante peut être trouvée à cette question, comme le font les Hollandais au moment d’exécuter l’endiguement des îles de Zélande.
- Concluons avec R. Dumont : « Le problème mérite une étude générale, il est à la portée de notre pays; ce n’est tout de même pas le Zuiderzée. » Ce que les Hollandais réussissent de façon si grandiose peut servir d’exemple aux descendants des pionniers du vieux Marais Poitevin.
- Paul Wagret.
- Le premier satellite américain
- Contrairement à ce que l’on pouvait penser, le premier satellite américain dont le lancement aura été réussi n’est pas le Vanguard, étudié conjointement par la Marine, l’U. S. Air Foi’ce et des organismes scientifiques privés, mais celui de l’Armée de terre, qui a été lancé le 3i janvier dernier. D’un poids de i3,6 kg, pratiquement équivalent à celui du Vanguard, il en diffère sensiblement par sa forme qui est celle d’un tube cylindrique de 90 cm de longueur et de i5 cm de diamètre,
- Emetteur de TSF de grande puissance
- Mesure de l’erosion due aux micromêtéorites (Les appareils se trouvent derrière l'anneau)
- Mesure de la température extérieure
- Cône frontal
- Mesure de la température intérieure (Lajauge se trouve derrière l'émetteur)
- terminé à l’avant par une pointe conique (fig. 1). O11 sait que le satellite du Vanguard est de forme sphérique (La- Nature, octobre 1956, p. 402).
- L’ensemble de la fusée porteuse, baptisée Jupiter, se compose de quatre étages et mesure environ 23 m de longueur. Le premier étage est une fusée Redstone dérivée de la V2 allemande. (A ce propos, on sait que le directeur technique du Centre d’Engins de l’Armée de terre américaine est le docteur
- von Rraun, responsable du Centre des Fusées de Peenemunde, d’où sont sorties les Vi et V2). Mais alors que la V2 utilisait comme propergols de l’alcool éthylique et de l’oxygène liquide, sur le Redstone l’alcool éthylique a été remplacé par de l’hydrazine, composé organique dérivé de l’acide nitrique. La poussée obtenue est alors de 35 t, ce qui indique que le poids total de l’Explorateur et de sa fusée porteuse ne dépasse pas une trentaine de tonnes, poids bien inférieur au poids de départ des spoutniks (voir La Nature, octobre 1957, p. 453). Les autres étages sont constitués par un assemblage de petites fusées à poudre « Recruit », au nombre de onze pour le second étage, de trois pour le troisième et
- Fig. 1. — Coupe du satellite américain « Explorateur ».
- Mesure
- de la température du cône
- Emetteur de faible puissance
- Anneau de fibre de verre
- p.102 - vue 106/527
-
-
-
- 103
- d’une seule de ces fusées pour le quatrième qui porte avec lui le satellite.
- L’orbite déci’ite par le satellite américain est beaucoup plus grande que celles de ses deux prédécesseurs soviétiques, puisque l’apogée se situerait à quelque 2 700 km de distance de notre planète, soit plus d’une fois et demie la distance de l’apogée du Spoutnik II, et trois fois celle de l’apogée du Spoutnik I. Les Américains espèrent ainsi retarder le plus longtemps possible le retour du satellite dans l’atmosphère terrestre et par là sa volatilisation par réchauffement dû au frottement. D’ores et déjà, des durées de vie de plusieurs années ont été avancées, mais il faut considérer ces chiffres avec une grande méfiance et attendre que des mesures précises des variations de la période de révolution soient effectuées pour pouvoir conclure. Cette période de révolution est pour le moment de 106 mn, soit du môme ordre de grandeur que celle des spoutniks. Seul le premier étage est guidé; on utilise pour cela un dispositif « à inertie w construit par la Ford Instrument Company Sperry Rand.
- Le principe sur lequel repose ce système de guidage est la détection des accélérations subies par l’engin, à partir desquelles,
- Axe se déplaçant ie long dun potentiomètre
- Fig. 2. — Schéma d’un accéléromètre.
- /iïlasse
- par deux intégrations successives, on peut calculer les variations de position de l’engin. Les accélérations sont mesurées par des accéléromètres, que l’on peut schématiser par des masses liées à chacune de leurs extrémités à un ressort et assujetties à se déplacer en ligne droite (fîg. 2) ; toute accélération dirigée dans un sens ou dans l’autre suivant l’axe des deux ressorts soumettra la masse à une force qui produira un déplacement proportionnel à l’accélération en question, donc permettant de la mesurer.
- Le conti’ôle du vol s’obtient au moyen de gouvernes aérodynamiques placées à l’arrière de la fusée Redstone dans la veine d’éjection et qui agissent par déviation des gaz brûlés dans un sens convenable.
- Fig. 3 et 4. — A gauche : La fusée Jupiter C, porteuse du satellite américain. A droite : Le satellite est fixé au sommet du 4* étage
- de la fusée.
- (Photos U.S.I.S.).
- Le satellite emporte environ 4,5 kg d’instruments, comprenant deux émetteurs à la fréquence de 108 mégacycles, des appareils de mesure de la température de surface et de la température interne, et un compteur de Geiger-Müller pour la mesure des rayons cosmiques.
- D’autres lancements de satellites analogues sont prévus dans les prochains mois. La figure 1 montre la disposition des principaux organes.
- Jacques Spincouut.
- Phénomènes allergiques
- Un article de Howard Osgood dans The Journal of Allergy (28 mars 1957) a attiré de nouveau l’attention sur les phénomènes allergiques causés par les Trichoptères. Ces insectes ressemblent à de petits papillons, mais en diffèrent par les pièces buccales qui ne forment jamais une trompe. Les ailes, au lieu d’être couvertes d’écailles comme celles des papillons, montrent souvent un revêtement plus ou moins dense de poils et sont bordées de franges de longs poils très serrés. Ces poils se détachent très facilement, flottent dans l’air et, inhalés par certaines personnes allergiques, produisent des troubles assez sérieux de rhinite, d’irritation conjonctive et d’asthme. Les Trichoptères adultes sont connus sous le nom de Phryganes et leurs larves sont souvent employées comme appât par les pêcheurs. Ces larves vivent dans les eaux douces et se construisent un fourreau de brindilles et de feuilles qui leur a fait donner le nom de porte-bois.
- Toutes les phryganes vivent au bord des eaux et certaines espèces sont extrêmement communes. C’est ainsi que des apparitions denses, pouvant durer plusieurs jours, ont été observées
- causés par un insecte
- sur les bords de la rivière Niagara, près de sa sortie du lac Erié ; de véritables invasions se sont montrées sur les deux rives, près de Buffalo, dans l’État de New York et de Fort-Erié, au Canada. Dans cette région, on a observé, en juin 1950, un nuage 'occupant plus de deux milles le long de la rivière, sur une profondeur d’un demi-mille et 3a pieds de haut; le nombre des insectes, appartenant pour la plupart à l’espèce Hydropsyche bijida, a alors été évalué à deux milliards. Dans une autre occasion, C 800 individus furent capturés en dix coups de filet et Howard Osgood a compté 5 000 phryganes posées sur la fenêtre éclairée d’une maison.
- C’est d’ailleurs dans cette région que Parlato a signalé pour la première fois, en 1929, les phénomènes allergiques dus à ces insectes; on les a depuis observés très fréquemment et ils sont connus dans le pays sous le nom de sandfly fever. Il ne semble pas que de telles invasions de Trichoptères aient été observées en Europe, mais il est bon d’attirer l’attention sur leurs inconvénients possibles.
- L. C.
- p.103 - vue 107/527
-
-
-
- La lutte contre la corrosion
- Rôle et avenir des produits frittés
- 1. La métallurgie des poudres
- Dans un récent article, nous avons rappelé la gravité du problème mondial de la corrosion et nous avons donné une étude de MM. J. Hérenguel et P. Lelong sur les métaux et alliages légers en milieu corrodant (La Nature, novembre 1957, p. 444). Continuant cette enquête, nous publions ci-après un exposé de M. Pi. Meyer, chef du laboratoire des Eaux-Claires, à la Société. d’Ëlectro-Chimie, d’Électro-Métallurgie et des Aciéries électriques d’Ugine, qui en deux articles traitera du rôle des produits frittés et des cermets dans la lutte contre la corrosion.
- Pouk bier» comprendre les rapports qui existent entre les produits métalliques frittés et la lutte conti’e la corrosion, il est nécessaire de parler d’abord brièvement de la métallurgie des poudres et des produits frittés qu’elle permet d’obtenir.
- La métallurgie des poudres est l’une des nombreuses techniques d’obtention de pièces métalliques finies. Elle comprend les opérations fondamentales que nous allons d’abord rappeler.
- Préparation d'une poudre ou d'un mélange de poudres métalliques. — Il existe de nombreux procédés qui permettent de produire une substance métallique à l’état divisé : broyage mécanique, pulvérisation d’un métal fondu (poudres atomisées), réduction d’un composé pulvérulent du métal (oxyde, sel...) par un gaz, un liquide ou un solide réducteur (hydrogène, oxyde de carbone, sodium, magnésium, carbone...), dépôt électrolytique sous forme de poudre ou de métal fragile, décomposition thermique d’un composé (carbonyle, hydrure).
- La matière première étant une poudre, il est facile de réaliser mécaniquement ou chimiquement (par coprécipitation d’oxvdes par exemple) un mélange intime des divers consti-
- tuants d’un matériau complexe; ce matériau peut contenir non seulement des métaux (en vue de la formation d’un alliage par exemple), mais aussi des constituants semi-métalliques (comme des composés de métaux ayant des propriétés particulières, tels les carbures, les borures, les nitrures...) et même non métalliques (oxydes réfractaires, graphite, substances abrasives, etc.).
- Ce fait constitue peut-être la particularité la plus frappante de cette technique. On sait que la méthode habituelle de préparation des substances métalliques, fusion des constituants et coulée, ne permet que très difficilement de disperser une phase distincte (métallique ou non métallique) dans un métal ou un alliage : une ségrégation se produit toujours à un degré variable suivant la densité relative des composants. La métallurgie des poudres permet, par contre, de synthétiser des matériaux complexes à peu près quelconques, contenant de nombreuses phases finement dispersées, réagissant ou non les unes sur les autres et formant ou non un alliage. La dispersion est réalisée initialement à l’état pulvérulent et elle se conserve, car le traitement thermique final appelé frittage se fait à une température telle que l’ensemble de la pièce ne fond pas et conserve sa forme. Aucune ségrégation des phases ne se produit en général.
- La métallurgie des poudres est la seule technique qui permette de produire ces matériaux métalliques complexes. Cette puissance de synthèse est soumise naturellement aux règles d’équilibre et de réactions entre solides ou liquides habituelles et c’est en se basant sur les lois de la thermochimie et de la métallurgie classique qu’il est possible de trouver les conditions pratiques de création d’un nouveau matériau. Remarquons que ces conditions peuvent conduire quelquefois à une fabrication onéreuse qui n’est justifiée que pour l’obtention d’un matériau ayant des propriétés spéciales.
- Agglomération de la poudre. — Elle se fait le plus souvent par compression unidirectionnelle de la poudre versée dans un moule métallique prismatique, sous une pression relativement élevée (o,5 à io t/cm2). Cette opération a pour but de fournir une pièce cohérente ayant une forme homothétique de celle de la pièce finale désirée. C’est la seule opération de mise en forme de la métallurgie des poudres et elle a l’avantage de pouvoir être réalisée très rapidement (2 000 pièces à l’heure par exemple) et avec une précision constante. Certains outillages de compression exécutés en alliage dur (carbure de tungstène) peuvent agglomérer jusqu’à un million de comprimés en fer sans que l’usure influe sensiblement sur les cotes des pièces. La compression a un deuxième rôle, c’est de rapprocher mutuellement les grains et d’augmenter les zones de
- Fig. 1. — Pièces de machine en fer fritté.
- p.104 - vue 108/527
-
-
-
- 105
- Stockage
- Poudres métalliques et non métalliques
- Mélange
- (éventuellement broyage)
- (-
- XW.
- Agglomération
- Frittage
- Presse de compression à froid
- Techniques spéciales
- tassement en moule compression hydrostatique centrifugation filage
- Calibrage
- Traitements thermiques
- Finition de surface
- Four
- Pièce
- finie
- 1
- Presse à calibrer
- Gaz protecteur
- I
- Aggloméré
- Four continu
- Compression a chaud
- Pièce frittée
- Presse à chaud
- Second frittage
- Seconde
- compression
- O
- imprégnation
- ZZD
- fl
- Four continu
- Fig. 2. — Schéma des opérations élémentaires de la métallurgie des poudres.
- contact, ce qui favorisera les processus durant le frittage. Par suite de la capacité d’écoulement très limitée de la poudre et de la plasticité en général faible des grains, on n’obtient qu’une pièce poreuse, suffisamment solide, mais fragile.
- Frittage. — C’est l’opération fondamentale qui donne à la pièce sa structure et sa résistance mécanique. C’est un traitement thermique sous gaz protecteur dans lequel l’aggloméré est porté pendant un temps déterminé (i h en moyenne, mais pouvant varier de i5 mn à plusieurs heures) à une certaine température, toujours inférieure à la température de fusion totale de la pièce. La pièce ne se déforme donc pas; elle garde sa forme extérieure. Durant le frittage, divers processus s’effectuent successivement suivant la température et le temps (diffusion en surface, diffusion en volume, transfert de matière, réaction entre phases, recristallisation et grossissement du grain).
- Le résultat est une pièce ayant une structure homogène bien définie et possédant une résistance mécanique notable. Malgré une diminution presque homothétique des dimensions (par suite de la suppression partielle et de la modification des pores), la pièce frittée est en général encore poreuse. Cette porosité est quelquefois désirable (cas des coussinets autolubrifiants et des éléments filtrants) et elle n’est en fait réalisable que par la métallurgie des poudres. Cependant, dans la plupart des cas, on recherche une résistance mécanique élevée. Or, celle-ci (dureté, résistance à la traction, module d’élasticité) croît en fonction directe de la densité apparente de la pièce. On cherche donc à diminuer le plus possible la porosité résiduelle en employant des poudres convenables et en choisissant des conditions de compression et de frittage appropriées. Quelquefois, il est nécessaire d’entreprendre une seconde compression et un second frittage pour atteindre une densité suffisante et des caractéristiques mécaniques élevées. Un autre moyen pour obtenir une pièce non poreuse est l’imprégnation d’une pièce frittée métallique poreuse par un autre métal plus fusible fondu.
- Deux exemples sont les plus connus : le fer imprégné de cuivre et le tungstène imprégné de cuivre ou d’argent (pour les contacts électriques).
- Ce qui précède est relatif au frittage en phase solide, ce qui se produit lorsqu’il n’y a qu’un seul constituant (métal ou alliage pur). Mais il arrive que certains des constituants forment une phase liquide à la température de frittage, la phase liquide n’occupant au plus que 20 à 3o pour 100 du volume de la pièce pour qu’elle ne se déforme pas. Le frittage est alors favorisé si la phase liquide réagit sur le solide ; elle sert en quelque sorte de brasure entre les grains de la phase restée solide. Dans ce cas, on peut obtenir une pièce pratiquement compacte, sans porosité.
- Signalons que dans la compression à chaud, on exécute simultanément la mise en forme par agglomération et le frittage : la poudre est comprimée à haute température dans un moule chauffé (en acier réfractaire ou en graphite). On obtient directement une pièce de forme et sans porosité. Ce procédé est cependant réservé à des matériaux particuliers (par exemple les cermets et autres alliages réfractaires) qu’il serait difficile de rendre compacts par simple compression à froid puis frittage.
- La figure 2 indique schématiquement la suite deg principales opérations qui interviennent en métallurgie des poudres.
- *
- * #
- Les opérations fondamentales vues précédemment sont liées aux deux aspects que présente la métallurgie des poudres et elles permettent de classer en deux grands groupes les raisons d’emploi de cette technique :
- Procédé de mise en forme de pièces finies. — Les possibilités de compression permettent de produire économique-
- p.105 - vue 109/527
-
-
-
- 106
- ment de petites pièces de machines et des éléments de construction. Ce procédé concurrence directement les nombreuses autres méthodes utilisées actuellement pour la fabrication des pièces : moulage, filage, matriçage, repoussage, emboutissage, usinage, etc. Comme le montre le tableau I, la métallurgie des poudres se distingue surtout par sa capacité de production de grandes séries de petites pièces à dimensions précises et sans perte de matière. Les matériaux utilisés sont le fer, l’acier au carbone ou faiblement allié, l’acier inoxydable, le cuivre, le bronze, le laiton, le maillechort, le nickel, l’aluminium. On trouve aujourd’hui des pièces frittées dans tous les domaines de la construction mécanique (automobile et. autres véhicules, appareils domestiques, électrotechnique...) (fig. i). Pratiquement nulle il y a 25 ans, on estime à plus de 4o ooo t par an la production mondiale actuelle de pièces de machines frittées (y compris les coussinets autolubrifiants). Un tel développement a pu se faire, d’une part, grâce à des améliorations technologiques poussées dans les opérations de fabrication, de façon à réduire le prix de revient, et, d’autre part, à la suite d’une diffusion très vaste chez les utilisateurs des connaissances pratiques relatives aux possibilités de fabrication et d’emploi des pièces frittées. Comme pour toute autre méthode de fabrication, le projet d’une pièce de machine à exécuter par la métallurgie des poudres doit être étudié en fonction de ce nouveau mode de préparation. Toute méconnaissance de ce principe conduit à des mécomptes.
- Procédé exclusif pour la fabrication de matériaux. —
- Comme on l’a vu plus haut, la métallurgie des poudres apparaît comme la seule méthode de préparation de matériaux à structure ou à composition spéciale :
- — Matériaux poreux, ayant une porosité ouverte régulièrement répartie et de grosseur de pores déterminée : éléments filtrants en bronze ou acier inoxydable (fig. 3), coussinets autolubrifiants en bronze, fer ou acier inoxydable, éléments poreux servant d’électrode ou de support de catalyseur (plaques en nickel d’accumulateur alcalin par exemple).
- — Métaux et alliages réfractaires, tels le tungstène, le molybdène, le tantale, dont le point de fusion est trop élevé pour que la fusion soit praticable sans contamination nocive du métal par le creuset ou les gaz.
- — Pseudo-alliages, c’est-à-dire substances formées d’un mélange de plusieurs phases métalliques dispersées, non susceptibles de former complètement entre elles un alliage ou an
- Tableau I
- La métallurgie des poudres gomme méthode de mise en forme DE PIÈCES métalliques; ses éléments caractéristiques pour la technique de fabrication et le prix de revient des pièces. (D’après Materials and Methods, février 1956).
- Choix da métal :
- Complexité de la
- pièce :
- Dimensions maxi-
- males :
- Dimensions in i n i~
- males :
- Propriétés mêcani-
- ques :
- Précisions des dimensions :
- Caractéristique s structurales spéciales :
- Aspect de la surface :
- Précision des détails de surface :
- Alise en fabrication :
- Vitesse de fabrication :
- Prix de la matière première :
- Prix de l’outillage de mise en forme :
- Quantité delà série:
- Frais de m ain-d’œuvre :
- Frais de finition :
- Pertes dues aux chutes :
- Théoriquement très vaste, mais limité économiquement : fer, aciers, cuivre, bronze, laiton, nickel et alliages, alliages réfractaires ; cependant on peut utiliser des matériaux (poudres) qui ne peuvent se mettre en forme par d’autres procédés.
- Limitée : d’une part la pièce doit être démou-lable, d’autre part les poudres métalliques ne transmettent pas les pressions.
- Faibles ; pratiquement limitées à ioo x ioo mm.
- Faibles ; on peut descendre jusqu’à moins de i ,5 x i,5 mm.
- Moyennes à bonnes, selon les conditions de fabrication.
- Très bonnes : ± 0,02 à rfco,i mm suivant la forme.
- Possibilité d’obtenir des pièces à porosité déterminée et des pièces en matériaux composites.
- Moyennement lisse.
- Moyenne.
- Relativement lente ; étude soignée des outillages de compression.
- Très élevée ; on atteint facilement 1 800 pièces par heure.
- Moyen à éUrvé ; certaines poudres sont très chères.
- Moyen (5o 000 à 1 000 000 F).
- En général supérieure à 10 000 pièces ; de petites séries sont cependant fréquentes.
- Moyens ; nécessité d’une certaine main-d’œuvre spécialisée.
- Faibles ; un usinage est très rarement nécessaire. Très faibles : les déchets sont pratiquement nuis.
- composé à l’état solide, ces phases ayant des points de fusion très différents. Il en existe de nombreux types :
- —• Alliages pour contacts électriques : tungstène-cuivre, tungstène-argent, nickel-argent;
- — Alliages fer-cuivre pour pièces de machine;
- — Alliages de haute densité tungstène-nickel ;
- — Alliages anlifriction cuivre-plomb, fer-plomb.
- C’est pour ces pseudo-alliages que l’on emploie avec succès la méthode d’imprégnation dont on a parlé plus haut comme moyen pour obtenir une pièce non poreuse. Par exemple, un contact électrique tungstène-cuivre est obtenu en préparant d’abord par frittage entre 1 200° et 1 5oo° C une pièce poreuse en tungstène fritté (porosité 10 à 4o pour 100). Ensuite cette pièce est introduite dans un four à 1 i5o° C en contact avec un morceau de cuivre de masse déterminée : celui-ci fond
- Fig. 3. — Éléments filtrants en bronze poreux.
- p.106 - vue 110/527
-
-
-
- 107
- et s’infiltre facilement dans tout le volume poreux de la pièce de tungstène.
- — Matériaux mixtes, contenant des phases métalliques et non métalliques. Citons d’abord :
- — Les matériaux graphités : cuivre-graphite pour balais des machines électriques; argent-graphite pour contacts électriques glissants ; alliage complexe-graphite pour pièces de glissement (garnitures, coussinets, segments);
- — Les matériaux de frottement utilisés comme garnitures d’embrayage et de frein; ils sont constitués par un bronze complexe dans lequel sont dispersées des particules abrasives et du graphite; ils présentent une tenue remarquable aux températures élevées de fonctionnement.
- Les autres produits de ce groupe peuvent être réunis sous le terme général de cermets. Ils englobent tous les matériaux contenant une phase dure, réfractaire, fragile et une phase métallique ductile servant de liant. La phase réfractaire peut avoir un caractère métallique, mais elle est aussi un oxyde ou un autre composé non métallique. Comme on le verra par la suite, les cermets ont subi récemment un développement remarquable. Mentionnons que dans les cermets on rattache maintenant les matériaux connus sous le nom d’alliages durs à base de carbure
- de tungstène et de cobalt et utilisés à cause de leur dureté et de leur résistance mécanique à chaud comme outils de coupe, filières, matrices, outils de forage...
- — Métaux et alliages de grande pureté et à composition préréglée : l’absence de toute contamination par un creuset ou par un gaz permet d’obtenir à partir d’un mélange en proportions précises des poudres pures des métaux constituants, des alliages frittés ayant des teneurs extrêmement faibles en impuretés. Le frittage, qui s’effectue généralement sous un gaz réducteur pur ou sous vide, est aussi un traitement d’affinage, pendant lequel certaines des impuretés présentes (soufre, carbone, oxygène) sont éliminées. Comme exemples il faut citer le fer et le nickel extra-purs pour la technique du vide et les tubes électroniques, les alliages fer-nickel ou fer-nickel-cobalt à coefficient de dilatation bien déterminé pour les soudures verre-métal, les alliages fer-nickel-molybdène pour les noyaux magnétiques à haute perméabilité.
- Les métaux récemment développés (titane, zirconium, uranium, béryllium) sont de même préparés à l’état pur par frittage de poudre, dans le cas où la méthode par fusion ne convient pas.
- (à suivre). R. Meyeh.
- Produits de beauté à base de sucs de légumes
- Dans la Revue des Industries de la Parfumerie et de la Cosmétique (septembre 1957), M. P. Rovesti, de l’Institut des Dérivés végétaux de Milan, rappelle la haute valeur euûermique de certains sucs de fruits ou de légumes, non seulement pour leur teneur en vitamines, hormones, eau physiologique, substances pec-tiques, mais aussi pour leurs endocytines régulatrices et stimulatrices de la nutrition normale des tissus et facteurs de croissance très actifs. Mais, à cause de leurs constituants partiellement colloïdaux, des microéléments thermolabiles qu’ils renferment, de leuT tendance à oxyder les autres produits qu’ils contiennent, le traitement et la conservation des jus sont particulièrement délicats. Même aux températures les plus basses possibles, la pasteurisation les affecte gravement. Par ailleurs, des altérations plus sérieuses encore sont le fait des actions enzymatiques, bactériennes et mycosiques. Or, une stabilisation purement chimique est impraticable.
- Cependant, des résultats valables ont été obtenus par stérilisation électronique et introduction de substances antibiotiques particulières qui entravent toute action de dégradation chimique, colloïdale et biologique. De tous temps de tels sucs ont été utilisés en pulpes, extraits ou sucs pressés. Ainsi on se sert en Éthiopie d’un mélange trituré de pulpe de concombres, tomates sauvages, additionné d’un peu de beurre, pour les soins du visage.
- La comparaison entre les sucs de légumes (« laits verts végétaux ») et le lait animal ordinaire établie par M. Tallarico montre que, si les teneurs en protéines et hydrates de carbone sont presque égales dans les deux cas, le lait animal est plus riche en graisse et plus pauvre en vitamines. Des éléments nobles entrent dans la constitution des végétaux employés : carotène pour la carotte et le potiron, fer organique pour les épinards,
- vitamine G pour la tomate. La récolte est à faire au printemps, la richesse auxinique étant alors plus grande.
- L’auteur passe rapidement en revue quelques-uns des légumes ou fruits. Si le suc de carotte (carotène, acide ascorbique) a une action bien connue contre certaines affections cutanées et agit comme topique analgésique, il se révèle par ailleurs comme tonifiant les tissus et ayant un effet eudermique réel.
- Bien que le plus souvent entièrement absent, le parfum seul s’y trouvant, le concombre est utilisé en principe dans les produits de cosmétique. Par ses substances assouplissantes et adoucissantes, le suc pur, en application par compresses, gaze, lait et crème, permet de remarquables résultats. A noter encore les vertus décongestives et émollientes de la laitue.
- Si le suc de tomate est facile à obtenir, son odeur et sa couleur ont contrarié son emploi qui entraîne souplesse, velouté et impression de détente cutanée. Même effet calmant et tonifiant du céleri. La saponine que renferme en grandes quantités le suc d’épinards favorise son absorption. Enfin, très bon produit eudermique, le suc de potiron agit contre les brûlures et rougeurs de la peau.
- Des résultats plus favorables et plus stables sont obtenus en combinant cure externe et désintoxication interne par les mêmes sucs. A l’état de dispersion colloïdale très fine sont contenus, dans ces sucs, de la chlorophylle et du carotène, des pigments et des composés aux effets extraordinairement bénéfiques sur la peau et qui agissent en synergie avec les autres constituants comme les phytohormones, endocytines, produits aromatiques... Tous ces éléments oligodynamiques de la peau font sentir leurs effets après une dizaine de jours de traitement par masques, applications ou crèmes, le traitement étant effectué un jour sur deux. P. G.
- Une grande route va relier Le Cap à Nairobi
- Les relations entre les différentes parties de l’Afrique n’ont jamais été faciles : le continent noir manque de chemins de fer et de routes convenables, à part les deux extrémités que sont l’Afrique du Nord et PUnion sud-africaine. Longtemps, l’Angleterre caressa le rêve d’un chemin de fer impérial joignant Le Cap au Caire : ce fut en particulier le dessein de Cecil Rhodes, à la fin du siècle dernier.
- Aujourd’hui, le rôle des chemins de fer semble promis à un avenir moins brillant que celui des routes, et c’est d’une grande route qui doit relier Le Cap à Nairobi, capitale du Kenya, que s’est entretenu le récent congrès des routes d’Afrique (Salisbury, Rhodésie du Sud, mai-juin 1957). Originellement, le projet prévoyait une liaison routière Le Cap-Le Caire, mais l’attitude égyptienne
- n’encourage actuellement pas cette réalisation. La route Le Cap-Nairobi doit être l’ossature du trafic de l’Afrique australe et orientale ; des routes secondaires viendront se greffer sur le tronc principal. De vastes territoires seront tirés de l’isolement et de la stagnation économique grâce à cette route qui pourra être comparée, toutes proportions gardées, à la route panaméricaine.
- La longueur de la route excède 3 500 milles (5 600 km) ; elle sera dès l’origine construite de façon à supporter un trafic de poids lourds, et ses normes seront équivalentes à celles des principales routes de Grande-Bretagne. Un délai de six années a été prévu pour l’achèvement de sa réalisation, dont le coût total reviendra à 28 milliards F.
- P. W.
- p.107 - vue 111/527
-
-
-
- 108
- Remèdes à la pénurie d’eau douce
- L’eau est certainement, sinon le seul, du moins le principal facteur du peuplement de la planète. Et chaque fois qu’est évoquée la vive expansion démographique des dernières décennies, on ne manque pas d’établir une relation entre les chiffres en hausse de la population et la surface des terres cultivables, celles-ci ne jDouvant être considérées comme telles que si, d’une manière ou d’une autre, elles sont dotées de l’humidité nécessaire.
- S’il n’était tenu compte que de cette donnée de base, on pourrait facilement (et arbitrairement) fixer l’habitabilité de tel ou tel territoire en fonction de la nourriture qu’il produit et des besoins en calories de chaque organisme humain. Une simple statistique où l’on additionnerait les hectares de terres, affectées d’un coefficient de productivité maximum, permettrait de mesurer le volume d’eau correspondant à cette habitabilité.
- Ce faisant, on aboutirait à un chiffre infiniment plus bas que celui qui peut être actuellement constaté dans les pays civilisés.
- Le fait saillant, bien qu’assez rarement évoqué, est la surconsommation grandissante de l’eau qui accompagne fatalement le développement des agglomérations urbaines et surtout industrielles. De 1900 à 1953, Paris a exactement doublé sa consommation d’eau par habitant qui est passée de 225 1 à 45o 1 par jour. Chiffre encore relativement modéré si on le compare à ceux de plusieurs villes américaines : New York, 5Go 1; Cleve-land, 6G2 J; Washington, 719 1; Chicago, 980 1.
- Il est assez difficile, dans cette consommation moyenne, de faire la part exacte de l’eau utilisée directement par chaque individu et de celle qui doit être mise sur le compte de services collectifs, tels que lavoirs, restaurants, hôpitaux, écoles, piscines, abattoirs, arrosage municipal, etc. Le chiffre global comprend en outre l’eau que consomment les diverses industries englobées par la cité. Tout porte à croire qu’il s’en trouve lourdement grevé.
- Mais dès que l’agglomération prend davantage un caractère industriel que résidentiel, les besoins deviennent considérables. Voici, par tonne de produit fabriqué, la consommation en eau de différentes industries :
- Produits chimiques. 77 m3 Laine Ol 00 0 m
- Sidérurgie i5o )> Textiles artificiels . 790 »
- Coton 200 )) Fil de rayonne .. 1 3oo ))
- Acier (produit fini). 270 » Aluminium 1 3oo »
- Papier 600 » Butadiène 1 3oo »
- Si l’on envisage, sur une année, le chiffre d’ensemble de la consommation nationale, on s’aperçoit qu’en France la part des industries est sensiblement égale (2 000 000 000 m3) à celle des besoins privés. Elle la dépasse certainement en Allemagne fédérale, avec 3 Goo 000 000 m3. Aux Etats-Unis, les Etats de l’Est où se trouvent les plus formidables concentrations industrielles de la planète consomment 77 000 000 000 m3, dont 17 000 000 000 seulement pour les usages domestiques et municipaux. Rien de surprenant si les États-Unis, bien que le territoire en question soit abondamment arrosé, aient été les premiers à s’émouvoir de la menace qui pèse constamment sur eux, en raison des difficultés toujours plus grandes qu’ils éprouvent à satisfaire de tels besoins.
- Les solutions de ce problème sont heureusement multiples et ne seront pas d’un seul coup épuisées. Elles comprennent : l’aménagement des cours d’eau, l’accumulation dans des réservoirs, la dispersion géographique des industries, la récupération et le recyclage de l’eau, la répression du gaspillage. On doit cependant prévoir le moment où, localement, le volume d’eau disponible (qui n’est ni extensible, ni transférable à longue dis-
- tance) tracera la limite de l’expansion démographique et industrielle. Et, comme il ne s’est agi jusqu’ici que de l’eau douce, on devra sérieusement envisager de faire appel à des ressources nouvelles, c’est-à-dire à l’eau des océans.
- Il est évident qu’une pareille solution, si elle se révèle possible, n’aura pas une portée universelle. Nombre de régions saturées, comme le bassin de la Ruhr en Allemagne, la Pennsylvanie aux Etats-Unis, le Nord et le Pas-de-Calais en France, resteraient uniquement tributaires du réseau hydrographique et des eaux souterraines. Mais en regard on constate que, dans une large proportion, les grandes villes se sont construites sur le bord de la mer. Celles qui actuellement sont en rapide ascension, en Afi’ique notamment, sont presque toutes des ports. La transformation de l’eau de mer en eau douce répondrait déjà, sur le plan industriel et urbain, à d’énormes besoins.
- A cela il faut ajouter la possibilité qu’offrirait cette transformation de mettre en valeur toute une série de territoires, situés en bordure des zones arides. Un exemple classique est celui de la côte péruvienne et chilienne du Pacifique où les terres se prêteraient parfaitement à la culture, mais où l'irrigation n’est possible que le long des cours d’eau qui descendent de la Cordillère des Andes. Des exemples de ce genre peuvent être trouvés en de nombreux endroits du globe. Presque tout le pourtour de la Méditerranée est plus ou moins à court d’eau douce. Et cette pénurie est particulièrement dramatique dans la plupart des îles de Grèce, de Dalmatie et de France qui, paradoxalement, manquent d’eau, tout en ayant autour d’elles une inépuisable masse liquide.
- Ceci explique pourquoi les organismes internationaux (O.N.U. et O.E.C.E.) ont inclus dans leurs programmes l’étude du dessalage, ou plutôt de la déminéi’alisation de l’eau. Cette étude, actuellement en cours et qui a été confiée à des spécialistes de plusieurs pays, revêt les aspects les plus divers. Il ne s’agit pas seulement en effet de l’utilisation de l’eau de mer (avec d’ailleurs des écarts considérables de salinité) : le problème se pose également jmur des territoires tels que les Pays-Bas, où la nappe phréatique est progressivement envahie pnr les apports minéraux du Rhin, déversoir de plusieurs grandes régions industrielles et qui charrie environ i5 000 t par jour de sels.
- Ailleurs, le long des lagunes, ce sont les eaux saumâtres que l’on pourrait déminéraliser à moindres frais. L’échelle varie en fait depuis les 20 000 mg/1 de l’eau de mer de salure moyenne jusqu’aux x 000 mg/1 des eaux faiblement minéralisées (le titrage étant calculé en mg de chlore). Les besoins eux-mêmes sont qualitativement dissemblables : pour l’eau potable, on admet un titre de 3oo mg/1, alors que l’eau destinée aux chaudières, à des industries chimiques, papetières, textiles devrait être poussée à un plus grand degré de pureté.
- C’est pourquoi on ne saurait encore évaluer les mérites respectifs des procédés actuellement soumis à l'expérience : le critère essentiel est évidemment le prix de revient, fonction lui-même des investissements à réaliser et de la consommation d’énergie. Il est vraisemblable que souvent les conditions locales ou des exigences particulières inclineront vers l’emploi de l’un ou l’autre de ces procédés.
- Se trouvent aujourd’hui sur les rangs :
- —• Le procédé classique de la distillation, perfectionné et rendu plus économique par la compression de vapeur",
- —•. La distillation solaire, spécialement adaptée en théorie aux régions tropicales;
- — Les échanges d'ions, procédé coûteux, appliqué par de nombreuses industries, mais susceptible d’être élargi et perfectionné ; '
- p.108 - vue 112/527
-
-
-
- 109
- — La dialyse et l'électrodialyse, procédés délicats, dont la mise au point industrielle est en cours et qui théoriquement fourniraient un prix de revient assez bas;
- — Enfin, la congélation.
- Sur ce dernier procédé, nous présentons ci-après un article de M. L. Kervran, directeur de conférences à l’Institut d’études
- politiques de l’Université de Paris, membre de la Commission de Dessalement du Conseil supérieur de la Recherche scientifique. Le dessalage par congélation est d’autant plus intéressant qu’il se prête, avec la plus grande souplesse, à diverses applications.
- G. C.
- Le dessalage par congélation
- Parmi les nombreux procédés en usage ou en projet pour déminéraliser l’eau de mer et permettre un approvisionnement en eau douce toutes les fois que celle-ci n’est pas disponible, la congélation s’oppose de manière particulièrement séduisante à la distillation. Il semble en premier lieu que le prix de revient de l’eau douce doive être moins élevé dans le premier cas que dans le second : la dépense d’énergie calorifique pour réaliser l'évaporation d’un kilogramme d’eau se chiffre en effet par 5/jo grandes calories, alors que 80 frigories suffisent pour transformer ce même kilogramme d’eau en glace. En admettant même que la frigorie puisse être quatre fois plus chère que la calorie (ce qui est certainement un maximum), le rapport en faveur de la congélation ressortirait encore à 32o/54o.
- En outre, les qualités de l’eau adoucie par congélation seront incontestablement supérieures à celles de l’eau de distillation. Non seulement elle pourra être distribuée fraîche, mais elle conservera la totalité des gaz dissous (l’oxygène notamment) et des oligo-éléments que contient l’eau de mer. Elle a donc toutes les chances de ne pas entraîner de carences physiologiques, ce que l’on redoute dans l’utilisation exclusive de l’eau distillée pour la boisson, ce qui oblige d’ailleurs à une reminéralisation sous forme généralement d’apports calcaires.
- Premières expériences- — Le principe sur lequel repose le dessalage (ou la déminéralisation) de l’eau de mer par congélation est assez simple. On sait depuis longtemps qu’une eau salée, une fois transformée en glace, se retrouve à un degré de minéralisation nettement plus faible. Le fait a d’ailleurs été relevé à maintes reprises par les explorateurs polaires : les glaces de la banquise sont toujours d’une salure moindre que la masse liquide qui les supporte.
- Cette simple observation ne rend évidemment pas compte du processus naturel de dessalement de l’eau de mer. Elle se congèle, on le sait, à la température de — i6° C, mais cette congélation n’est en réalité que partielle : la glace marine présente une structure vacuolaire où des cristaux de glace douce alternent avec des poches d’eau salée à une concentration telle qu’elle est rebelle à toute congélation. La séparation et l’élimination des éléments minéraux se réalisent donc spontanément.
- On a tout lieu de supposer que l’essorage de la glace de banquise s’opère à la longue par gravité, mais reste en définitive incomplet. Tout procédé industriel qui viserait à une séparation rapide et totale (ou presque totale) des éléments minéraux exige nécessairement une ou plusieurs opérations secondaires.
- Dans un rapport datant de 196/1, l’Unesco avait signalé que le procédé rationnel de dessalage impliquait une pulvérisation de la glace salée, suivie d’un « turbinage », c’est-à-dire d’une rotation accélérée où l’eau salée se trouverait éliminée par centrifugation. Des essais en ce sens ont été entrepris aux États-Unis et en Belgique : ils se sont heurtés à certaines difficultés, dont la principale est un enrobage des cristaux de glace par les éléments poisseux, adhérents (d’origine biologique), qui entrent dans la composition de l’eau de mer. Une dernière opération s’imposerait donc, à savoir un lavage de la glace pulvérulente à l’eau douce. C’est seulement au bout de trois lavages qu’un résultat acceptable a pu être obtenu. Il est inutile de souligner le caractère anti-économique de cette méthode : outre le supplé-
- Fig. 1. — Congélateurs d’eau de mer en fonctionnement à l’île d’Yeu.
- Au premier plan, batterie de deux congélateurs qui produisent chacun 10 t de glace de mer par jour. Au fond, un congélateur plus grand, produisant
- 20 t/j.
- ment d’énergie qu’elle requiert, elle entraîne une consommation importante d’eau douce, alors que tout est dirigé en vue d’en produire et non d’en consommer.
- Afin d’éviter cet écueil, un procédé avait été inventé en 1937 par Steinbach où la glace marine était également essorée dans un tore rotatif, mais la congélation était conduite avec une extrême lenteur, grâce à quoi la formation des cristaux se trouvait retardée. L’eau à salure concentrée pouvait s’échapper avant d’avoir été emprisonnée par un réseau trop dense de cristaux. La glace épurée ne contenait plus que 2,5 g/l. Mais l’opération durait 8,5 h et le rendement était trop faible pour qu’une exploitation industrielle pût être envisagée.
- Le procédé récemment mis au point par un ingénieur français, M. Trépaud, n’était pas destiné à l’origine au dessalage de l’eau de mer. L’objectif était plus simplement de fabriquer une glace de salure modérée (10 à 12 g/l) correspondant de très près à la teneur en sel de la chair de poissons marins. Cette teneur, rappelons-le, qui est très inférieure à celle (en moyenne) de l’eau de mer, a permis au Dr Bombard de réaliser l’expérience désormais célèbre du « naufragé volontaire ». Mais à l’encontre des besoins physiologiques humains où la chair des poissons pressée fournit une boisson à la limite de l’élimination rénale, la conservation des poissons se trouve largement améliorée si la glace qui les entoure reproduit aussi exactement que possible leur salure interne-
- p.109 - vue 113/527
-
-
-
- 110
- La glace douce donne lieu en effet à un échange osmotique entre elle-même et les tissus des poissons : leur chair se dessale, perd son goût et une partie de ses qualités. On dit vulgairement qu’elle est « délavée ». L’avantage d’une glace de mer produite industriellement apparaît donc évident et c’est à l’intention des pêches maritimes que fut conçu tout d’abord l’appareil de M. Trépaud (fig. i et 3). Mais l’auteur de ces lignes, ayant eu l’occasion de visiter l’usine de l’île d’Yeu où cet appareil était en service, acquit la conviction que, par le même procédé, le problème plus général du dessalage de l’eau de mer pourrait trouver sa solution. Il put du même coup promouvoir et interpréter les essais systématiques poursuivis pendant quatre ans par la Société Trépaud.
- Description du procédé Trépaud. — L’appareil, représenté schématiquement sur la figure 2, se compose essentiellement : i° d’un échangeur-générateur où l’eau de mer est transformée en glace grâce à une circulation de saumure à — 70 fournie par une machine frigorifique; 20 d’un transporteur à bande continue (la bande étant constituée par un grillage) ; 3° d’une souffleuse d’air ; 4° de cuves pour la récupération des eaux résiduelles et la réception de la glace douce. Afin de faire apparaître les proportions de l’eau de mer traitée, de la glace douce obtenue et des eaux résiduelles, nous supposons un cycle amorcé par l’admission dans l’échangeur d’un mètre cube, soit 1 000 1 d’eau de mer.
- Premier stade. — Par l’échange des frigories, l’eau de mer qui se trouve incluse dans les tubes verticaux répartis dans l’échangeur et baignés par la saumure froide prend en glace, progressivement, sous forme d’un cylindre. Cette opération étant achevée, le registre qui se trouve sous l’échangeur, obéissant à une commande automatique, s’ouvre et l’eau résiduelle (non prise en glace), se trouvant à l’intérieur du cylindre de glace, est vidangée et s’écoule dans une cuve. Son volume est d’envi-
- Echangeur générateur déglacé
- 1 -s 10001.
- T Eau de mer
- 1
- -S°
- Saumure venant de ta machine frigorifique
- Glace
- ron 678 1, sa température — 4°. Sa salure, 42,3 g/l, est sensiblement supérieure à celle de l'eau de mer admise dans l’échangeur (35 g/l).
- Dès que l’écoulement est déclenché, la saumure froide de l’échangeur est remplacée par une saumure tiède à + 5°, ce qui a pour effet de démouler les cylindres de glace inclus dans les tubes de l’échangeur.
- Ils tombent à leur tour, mais au cours de leur chute, ils passent sous un couteau rotatif qui les sépare en bouts annulaires de 6 cm environ de longueur.
- Un amas de glace fragmentée, représentant 322 1, s’est ainsi accumulé sur un plan incliné qui précède le transporteur. Cette glace est à une salure voisine de 10 g/l.
- Deuxième stade. — Étalée par une herse fixe en une couche de 6 à 10 cm d’épaisseur, la glace est entraînée au-delà du plan incliné vers le transporteur. Elle se trouve alors sous la buse de ventilation où elle est exposée à un courant d’air de vitesse modérée (2 à 5 m par seconde) agissant verticalement. Ce soufflage a pour effet de libérer la plus grande partie de l’eau incluse dans les cristaux de glace, ceci à la faveur d’une légère fusion superficielle.
- Ce deuxième contingent d’eau résiduelle est recueilli dans une cuve. Il se chiffre au bilan par un volume de 129 1, à la température de + 20 et à la salure de 24,2 g/l. Au bout du transporteur, 193 1 de glace douce sont recueillis. La salmre définitive est de o,5 g/l. Après fusion accélérée par une circulation externe d’eau de mer, l’eau douce se déverse dans le circuit de distribution.
- Les chiffres mentionnés ci-dessus, et reproduits sur le schéma, représentent une moyenne plus ou moins conventionnelle. Il est parfaitement admissible de livrer à la consommation une eau dont la teneur en sel est de 1 g/l. Ceci permettrait de recueillir 280 1 de glace douce au lieu de 193. L’appareil doit donc pouvoir être réglé en vue d’un résultat déterminé : ce réglage, qui se traduit par l’accélération ou le ralentissement de la bande transporteuse ainsi que par la vitesse de l’air envoyé par le ventilateur, peut être rendu automatique. Il suffit pour cela de faire intervenir un appareil plongé dans la cuve de l’eau de fusion et qui, sensible aux variations de salinité (variations de la résistivité), modifie le régime des moteurs du transporteur et du ventilateur.
- Fig. 2. — Représentation schématique de l’appareil Trépaud, faisant ressortir les différentes étapes de la fabrication de l’eau douce.
- Explications dans le texte.
- p.110 - vue 114/527
-
-
-
- 111
- Les récupérations. — Le rendement industriel du dessalage de l’eau de mer par congélation est évidemment fonction des diverses récupérations qui peuvent être réalisées dans l’application du procédé. Ces récupérations sont de deux sortes : i° Récupérations de frigories à l’intention de l’appareil; 20 Récupérations diverses destinées à 1’extérieur.
- Nous n’avons pas mentionné au départ la température à laquelle l’eau de mer parvient à l’échangeur où elle est transformée en glace. Il est évident, à cet égard, que la consommation d’énergie par la machine frigorifique qui fournit la saumure (élément essentiel du prix de revient) peut être considérablement abaissée si l’eau de mer est déjà réfrigérée lorsqu’elle est admise dans l’échangeur.
- Selon toute vraisemblance, le dessalage par congélation trouvera la plupart de ses applications sur les côtes qui bordent les zones arides (Mauritanie, A.E.F., Pérou, etc.) et l’on doit considérer que l’eau de mer.sera pompée à des températures variant généralement entre 20° et 25° C. Il est à remarquer, par ailleurs, que la glace douce, résultat de la dernière opération, se trouve, au moment où elle est recueillie, à la température de — 20 C : pour l’acheminer rapidement vers le réseau de distribution, il est urgent de l’amener au plus vite à l’état liquide et l’on peut fixer à 4- io° C la température où elle circulera dans les canalisations.
- L’échange calories contre frigories s’impose donc de part et d’autre. Il sera normalement réalisé en recueillant la glace dans un bac à double paroi, permettant une circulation continue de l’eau de mer dans l’intervalle entre les deux parois. Les calculs ont permis de se rendre compte que, dans le cas d’une eau de mer à f 20°, le résultat désiré (ramener cette eau à + 20) serait facilement obtenu par ce seul échangeur.
- Toutefois, lorsque la température de l’eau de pompage est égale ou supérieure à 25° C, il pourra être nécessaire de mettre en circuit un deuxième échangeur, où les frigories seront fournies par la première eau résiduelle. Remarquons en outre que l’utilité de ce deuxième échangeur est également conditionnée par le rapport entre le volume d’eau de mer traitée et celui de la glace douce produite.
- Mais, de toute manière, l’excédent de frigories, s’il existe, pourrait être utilisé à l’extérieur, soit pour le conditionnement de l’air dans des habitations voisines, soit pour la réfrigération de locaux où sont entreposées des denrées alimentaires ou autres. Hormis cette récupération de frigories, il faut également envisager (pour une. installation importante) la récupération chimique des sels de la première eau résiduelle. Il ne semble pas que NaCl puisse être pratiquement repris; les sels de magnésium par contre seraient assez, facilement récupérables par précipitation sous forme de sels insolubles pouvant être transformés en métal par électrolyse. De même, les sels de potassium seraient extraits en vue de la fabrication d’engrais.
- Certaines utilisations de la deuxième eau résiduelle, dont la salure est déjà diminuée (24 g/l), sont éventuellement possibles pour l’irrigation de pâturages avec plantes halophiles et drainage pour éviter un accroissement de salinité dû à l’évaporation, ce qui suppose une forte irrigation, un lessivage du sol.
- Production et rendement. — Le procédé n’ayant encore été appliqué qu’à échelle réduite, il est difficile d’apprécier de manière rigoureuse les conditions où le dessalage par congélation ferait l’objet d’une exploitation industrielle.
- Les estimations actuelles ne peuvent faire état que de l’appareil Trépaud, tel qu’il existe à l’usine de l’xle d’Yeu, où il fabrique par jour 4o t de glace primaire, c’est-à-dire incomplètement dessalée. Toutefois, un équipement plus important permettrait de prévoir, mettant en œuvre 6 appareils de plus grand format, une production de 1 000 m3 d’eau douce par jour.
- La dépense en énergie, compte tenu de la récupération des frigories, pourrait être fixée à 4o kWh/m3. En se référant à un
- Fig. 3. — Déchargement dans un bateau de pêche de la glace de mer adoucie à 10 g par litre.
- prix de 6 F le kWh et en faisant intervenir les frais de main-d’œuvre, frais généraux et amortissements, le litre d’eau douce ressortirait finalement à o,55 F le litre. Le rendement et le prix pourraient sans doute être améliorés dans des installations de plus grande envergure.
- Quelques remarques s’imposent. Le standard international de l’eau potable a été fixé à o,5 g/l, mais il concerne des eaux terrestres, chargées généralement de sels calcaires et magnésiens. La présence de ces sels comporte divers inconvénients, tant pour la cuisson des aliments que dans les tubes des chaudières. Une eau marine, au contraire, qui conserverait une salure de i,5 à 2 g/l, serait presque uniquement chargée de NaCl qui ne présente pas ces inconvénients. Il est même souhaitable, dans les pays chauds, de faire absorber à l’organisme un supplément de ce sel pour compenser ses pertes par évaporation. Ajoutons que l’eau de mer, après dessalage par congélation, conserve de nombreux oligo-éléments (aluminium, cuivre, fer, manganèse, silicium, zinc) qui disparaissent dans les procédés par distillation. Or le rôle physiologique de ces oligo-éléments a été souvent mis en relief par les recherches de ces dernières années.
- Il convient enfin de rappeler que le même procédé de congélation permet d’obtenir, soit une glace adaptée aux besoins de la pêche, soit de l’eau douce. Faire alterner ces deux utilisations pourrait être opportun dans un assez grand nombre de cas (îles, villes côtières où l’eau douce est insuffisante l’été, etc.).
- Peut-être n’est-il pas inutile non plus de signaler que, si le procédé convient à l’eau de mer, il s’applique avec un meilleur, rendement encore à des eaux moins salées. De nombreuses eaux d’Algérie, du Sahara, etc., ont une teneur en sels qui va souvent de 5 à i5 g/l. Une eau brute à 8 g/I de sels donne une glace à o,5 g/l de sels avec 4oo kg de glace par mètre cube d’eau brute. Les 600 1 d’eau résiduelle ne sont pas-perdus puisqu’ils sont à + 20 C, ce qui est précieux dans ceS pays chauds, et, après utilisation de leurs frigories (conditionnement d’air, conservation de denrées...), ils peuvent convenir pour des lavages, en se servant des détergents modernes, ou pour divers autres usages.
- L. Kervran,
- Directeur de conférences à l’Institut d’Ëtudes politiques.
- p.111 - vue 115/527
-
-
-
- 112
- L'audition binaurale et l'orientation auditive
- Nous avons vu, dans un article précédent (*) que, surtout aux très faibles intensités, il n’est pas .indifférent d’entendre avec les deux oreilles ou avec une seule; mais c’est dans le domaine de l’orientation que l’audition binaurale a toute son importance, de même que la vision binoculaire intervient surtout pour la perception visuelle du relief (1 2).
- S’orienter au son, c’est reconnaître la direction dans laquelle se trouve une source sonore, c’est donc, dans une certaine mesure, localiser cette source. Cependant, pour localiser une source sonore, il faut en principe lui assigner trois coordonnées, deux angles et une distance : l’azimut, angle du plan vertical de la source avec un plan vertical de référence (on choisit le plan de symétrie de la tête du sujet); la hauteur, angle que forme, avec le plan horizontal, la direction qui joint la tête du sujet à la source; enfin, sur cette direction, la distance du sujet à la source (fig. i).
- Fig. 1. — Les trois coordonnées qui définissent la position d’une source sonore.
- S, source sonore ; a, azimut (compté de 0° à 180°, à gauclie et à droite) ; h, hauteur (comptée de 0° à 90°, vers le haut ou vers le bas) ;
- d, distance.
- Mais la détermination de la hauteur et celle de la distance sont en général médiocres; aussi la localisation complète d’une source sonore est-elle habituellement très difficile;' d’une façon courante, la localisation se réduit à la détermination de la direction d’une source dans le plan horizontal : devant, derrière, à droite, à gauche; le sujet s’efforce de préciser la direction en se plaçant de façon à entendre la source en face de lui : tel est le mécanisme de l’orientation auditive.
- Bases de l'orientation auditive. — On a reconnu que la localisation en direction dans le plan horizontal est liée à l’existence de différences entre les sons qui parviennent aux deux oreilles, différence d’intensité et différence de phase, et les expériences ont permis d’apprécier le rôle de chacun de ces facteurs.
- Pendant longtemps, en effet, le problème de la localisation
- Fig. 2. — Cage de Pierce ( 1901), dispositif utilisé pour l’étude de la localisation d’une source sonore.
- La source sonore est un récepteur téléphonique dont la direction peut être repérée en azimut et en hauteur.
- des sources sonores est resté sur le plan de la discussion théorique entre les psychologues; les uns pensaient que l’espace sonore est une donnée immédiate de la perception auditive, c’est-à-dire que tout son est forcément perçu comme provenant d’une source placée d’une certaine façon par rapport à l’auditeur; les autres pensaient au contraire que l’espace sonore est construit secondairement avec les données des autres sens, c’est-à-dire que nous apprenons à situer les sources sonores dans l’espace qui nous entoure.
- Si l’on excepte quelques observations isolées faites auparavant, on peut dire que le problème a été porté sur le plan expérimental par lord Rayleigh en 1876. Le grand physicien a d’abord montré qu’il était possible de localiser une source sonore en direction; placé, les yeux fermés, au centre d’un cercle formé par de nombreuses personnes, il réussissait, chaque fois que l’une d’elles parlait, à indiquer à quelques degrés près la direction dans laquelle elle se trouvait; utilisant ensuite des diapasons, il s’aperçut que la localisation était moins bonne, surtout pour les graves. Il énonça alors la théorie suivant
- Azimut 0°
- Plan frontal
- (azimut 90°)
- Azimut 180
- 1. La mesure des sons et la sensibilité auditive, par A.. Gbibenski, La Nature, janvier 1958, p. 10.
- 2. La vision binoculaire, par Y. Le Grand, La Nature, février 1954, p. 47.
- Fig. 3. — Confusions fréquentes dans la localisation en direction dans le plan horizontal.
- Ox est confondu avec Ox', et la direction « en avant » (azimut 0°) avec « en arrrière » (azimut 180°).
- p.112 - vue 116/527
-
-
-
- 113
- laquelle la localisation se fait par différence d’intensité du son aux deux oreilles, cette différence étant négligeable pour les sons de fréquence inférieure à i5o. Trente ans plus tard, il reconnut l’existence d’une localisation par différence de phase; conduisant séparément aux deux oreilles les sons de deux diapasons de 128 c/s, dont l’un était légèrement désaccordé, il entendait des battements, et le son de battement se déplaçait alternativement de droite à gauche et de gauche à droite; or, lorsque deux sons battent ensemble, la différence de phase passe successivement par toutes les valeurs possibles; le son était donc en avance de phase alternativement à une oreille et à l’autre; comme, d’autre part, la fréquence de 128 c/s est trop faible pour qu’il y ait localisation par différence d’intensité, lord Rayleigh concluait de cette expérience que la localisation doit être due, pour les graves, à la différence de phase des sons parvenant aux deux oreilles.
- Divers dispositifs, dont l’un est représenté sur la figure 2, ont été utilisés en vue de déterminer le plus petit angle dont il faut déplacer la source pour percevoir un changement de direction ; cet angle a sa valeur la plus faible quand la source est en avant dans le plan de symétrie (1 degré) et croît sur les côtés jusqu’à atteindre xo degrés dans le plan frontal; il décroît ensuite vers l’arrière, mais reste plus grand dans le dos qu’en avant. On comprend ainsi que la plus grande précision dans la localisation en direction soit obtenue en cherchant à faire face à la source sonore.
- Tous les observateurs sont d’accord pour reconnaître que, s’il n’y a jamais d’erreur sur la latéralisation à droite ou à gauche, les confusions sont fréquentes entre une direction vei’s l’avant et une dii’ection vers l’aiTière, symétrique de la pi’écédente par rapport au plan frontal (fig. 3); notamment, lorsqu’une source sonore est placée dans le plan de symétrie du sujet, celui-ci a souvent de lu difficulté à l'econnaître sans bouger la tête si elle est exactement devant ou exactement derrière lui. Tous les observateurs ont également noté que la localisation est meilleure pour les bruits que pour les sons purs.
- Fig. 4. — Expérience montrant le rôle de la différence d’intensité dans la localisation.
- Le son d’un tuyau ou d’un diapason parvient aux deux oreilles par deux conduits d’égale longueur ; le sujet place la source sonore dans le plan médian. On diaphragme l’un des conduits (fl-b), ce qui limite l’intensité en même temps que le diamètre ; si le diaphragme est à droite, le sujet entend le son venir d’une source qu’il place à sa gauche.
- Rôle de la différence d’intensité dans la localisa*
- tion. -— Loi’sque deux sons, différant seulement par l’intensité, sont conduits séparément aux deux oreilles, l’auditeur n’en perçoit qu’un et localise l’image de la source du côté de l’oreille qui reçoit le son le plus intense; si les deux sons ont la même intensité, il place la soui’ce dans le milieu (fig. 4).
- La plus faible différence d’intensité qui fasse percevoir un déplacement de la source vers l’un des côtés est d’environ 1 décibel; lorsque la différence d’intensité croît à partir de cette valeur la source semble s’écarter de plus en plus sur le côté, l’angle dont elle se déplace étant approximativement proportionnel à la différence d’intensité exprimée en décibels.
- Mais il s’agit là de la localisation d’une source sonore imaginaire, et on peut se demander quel est effectivement le rôle de la différence d’intensité lorsqu’il s’agit d’une source réelle.
- La différence d’intensité peut être due théoriquement à deux raisons : i° les deux oreilles ne sont pas à la même distance de
- “ -10_
- g-S -ZQ
- 5000 10000
- Fréquence
- Fig. 5. — Différence du niveau de sonorie produit par la réception d’un son pur dans l’oreille droite, lorsque la source passe de la droite à la gauche du sujet.
- On voit que T « ombre sonore » due à la tête, inexistante pour les graves, ne devient importante que pour les fréquences élevées (D’après Steinberg
- et Snow).
- la soui’ce; 20 l’oreille qui n’est pas du côté de la source est « à l’ombre ,» de la tête.
- Il est certain que la dil'féi'ence d’intensité due à l’inégalité des distances parcourues est très faible, et seul l’effet d’ombre doit être considéré, mais il est négligeable pour les sons de grande longueur d’onde, c’est-à-dire pour les graves; en raison de la diffraction, en effet, la tête 11e constitue pas un obstacle à la propagation de ces vibrations. Steinberg et Snow ont mesuré, aux diverses fréquences, la différence du niveau de sonorie créé par la réception, dans l’oreille droite, d’un son dont la source est placée à la droite ou à la gauche du sujet (azimut 90° à droite ou à gauche) ; on voit sur la figure 5 que la différence n’apparaît que pour les fréquences supérieures à 3oo c/s et n’atteint des valeurs importantes qu’à partir de 3 000 c/s. La différence d’intensité aux deux oreilles n’explique donc pas la localisation pour les sons graves, et n’est vraiment efficace que pour les sons suffisamment aigus. Les résultats précédents se rapportent à des sons purs; pour un son complexe (musique ou voix par exemple) dont la source se déplace, il n’y a pas seulement un changement d’intensité, mais aussi de composition, puisque les composantes aiguës sont proportionnellement plus affaiblies que les graves à l’oreille la plus éloignée de la source. Steinberg et Snow ont mesuré la variation du niveau de sonorie de la voix humaine reçue à chacune des oreilles, en fonction de la position de la source (fig. 6) : la différence entre les deux oreilles croît
- iille droit,
- •S -6
- 100 120 140 160 180
- Angle (degrés)
- Fig. 6. — Variation du niveau de sonorie réalisé par la réception de la voix parlée dans chacune des deux oreilles, en fonction de la position de la source sonore.
- La source tourne autour du sujet par ta droite, depuis l’azimut 0° jusqu’à l’azimut 180° (D’après Steinberg et Snow).
- p.113 - vue 117/527
-
-
-
- 114
- très vite lorsque la source s’éloigne du plan de symétrie, et cela explique que, comme lord Rayleigh l’avait observé, la voix permette aisément l’orientation.
- Rôle de la différence de marche et de la diffé-rence de phase. — Le rôle de la différence de marche peut être mis en évidence par une expérience simple (fig. 7). En champ libre, si la source sonore est en face du sujet, le son parcourt la même distance pour parvenir aux deux oreilles, et
- Fig. 7. — Expérience montrant le rôle de ta différence de marche dans l’orientation.
- Les deux oreilles sont réunies par un tuyau, disposé d’ailleurs de façon quelconque ; si l’on frappe le tuyau au milieu de sa longueur, le sujet entend un son dans le plan médian ; si le choc est donné en dehors du milieu (1 cm de décalage suffit), le son semble -venir de la droite ou de la gauche, suivant le cas.
- 1 1 ' 1 1 ' 1 1 '
- D
- Fig. 9. — Expérience de Wilson et Myers.
- Le son du diapason D est conduit séparément aux deux oreilles ; les trajets peuvent être modifiés au moyen de la partie coulissante AB ; l'observateur localise le diapason du côté du trajet le plus court, à condition que la différence de marche reste inférieure à une demi-longueur d’onde.
- les durées de parcours sont les mêmes; si la source est sur le côté, au contraire, les durées de parcours sont inégales, et l’une des oreilles reçoit le son avec un retard qui est égal au temps mis pour parcourir la distance supplémentaire (fig. 8). Ce retard a la plus grande valeur possible lorsque la source est exactement à droite ou à gauche, dans le plan frontal;' le supplément de distance à parcourir est alors la distance des oreilles, 21 cm en moyenne, et, la vitesse du son étant de 33o m/s, le retard à l’oreille la plus éloignée est de o,63 milliseconde.
- Si, au moyen de doux récepteurs téléphoniques, on conduit aux deux oreilles des clicks décalés dans le temps (un click est un claquement sonore très bref, constitué par une seule vibration), le sujet a l’illusion d’une source sonore située du côté de l’oreille qui reçoit le premier click; il suffit pour cela que le décalage soit de o,o3 milliseconde; s’il devient plus grand, la source semble s’écarter de plus en plus du plan médian, et paraît être tout à fait sur le côté lorsque l’intervalle atteint o,63 milliseconde environ; pour un intervalle de x à 2 millisecondes, le sujet entend deux clicks, successivement d’un côté et de l’autre.
- Le retard est d’ailleurs compensable par une différence d’in-
- A B
- Fig. S. •— Moments d’arrivée du son aux deux oreilles suivant la position de la source.
- En A, la source sonore est en face du sujet, les distances à parcourir sont égales et le son arrive en même temps aux deux oreilles. — En B, la source est sur le côté droit ; le son arrive à l’oreille gauche avec un retard égal au temps mis pour parcourir la distance supplémentaire OX.
- tensilé; si l’une des oreilles reçoit en avance un son un peu plus faible, la source imaginaire peut être localisée au milieu.
- Lorsqu’au lieu de clicks, il s’agit de sons entretenus, le retard s’exprime par une différence de phase; soupçonné déjà par lord Rayleigh, le rôle de la phase a été nettement mis en évidence par Wilson et Myers (1908) au moyen du dispositif représenté par la figure 9 : le son d’un diapason parvient séparément aux oreilles par deux tuyaux, comportant une partie coulissante; lorsque les deux trajets sont inégaux, le sujet localise le diapason du côté de l’oreille pour laquelle le son est en avance de phase, c’est-à-dire du côté du trajet le plus court, à condition toutefois que la différence de trajet n’excède pas la demi-longueur d’onde de la fréquence considérée.
- Quand la réception se fait en champ libre, l’oreille la plus éloignée de la source est en retard de phase sur l’autre, comme dans l’expérience de Wilson et Myers; mais, là encore, le retard de phase n’est interprétable sans ambiguïté que si la différence de marche est inférieux-e à une demi-longueur d’onde ; en effet, lorsque la différence de marche devient égale à la demi-longueur d’onde, il est impossible de dire laquelle des deux vibrations
- Fig. 10. Rôle de la différence de phase dans l’orientation auditive.
- En A, la demi-longueur d’onde est supérieure à la différence de marche (OX ou O'X) ; le son est, à un instant donné, en retard de phase à l’oreille la plus éloignée de la source ; la localisation est possible. — En B, la demi-longueur d’onde est égale à la différence de marche ; le son est, aux deux oreilles, en opposition de phase ; il n’est pas possible de reconnaître de quel côté est la source.
- p.114 - vue 118/527
-
-
-
- 115
- est en retard sur l’autre (fig. io), et pour une différence de marche plus grande encore, le retard devient une avance de phase. De même, si deux coureurs, sur une piste circulaire, sont diamétralement opposés, une personne qui n’a pas assisté au début de la course ne peut pas savoir lequel des deux est en tête, et si le second coureur perd encore du terrain, il semblera être en avance sur le premier.
- Par suite, l’orientation par différence de phase semble être réservée aux vibrations pour lesquelles la demi-longueur d’onde est supérieure à la plus grande différence de marche possible, soit 2i cm (distance des oreilles), c’est-à-dire aux vibrations de fréquence inférieure à 800 c/s; ce sont justement celles pour lesquelles la différence d’intensité est faible ou nulle.
- Cependant, divers auteurs ont essayé de déterminer la limite d’efficacité des différences de phase et, dans certaines expériences, la localisation par ce moyen s’est montrée possible pour des fréquences de 2 000, et même 3 000 c/s; l’interprétation de ces faits est difficile, et il y a de grandes variations suivant les sujets.
- Il en est de même pour les battements binauraux ; on sait que ceux-ci peuvent être réalisés en envoyant aux oreilles, au moyen de deux récepteurs téléphoniques, des sons de fréquence légèrement différente; dans ces conditions, l’avance de phase intéresse alternativement l’une et l’autre oreille, et le sujet entend souvent un son dont la source paraît se déplacer d’un côté à l’autre à une cadence qui est égale à la différence de fréquence des deux sons; il peut même avoir l’impression que la source sonore tourne autour de sa tête. Cette sensation est surtout nette si la cadence est lente (2 par seconde ou moins) ; à un rythme plus rapide, la sensation se transforme et devient semblable à celle des battements habituels; d’autre part, cette perception du déplacement de la source dépend des sujets, et peut varier pour chacun d’eux; la suggestion influe sur les résultats de l’expérience, et une personne « prévenue » entend beaucoup plus facilement la source tourner autour d’elle; l’attitude d’esprit du sujet a donc une grande importance.
- WW ir
- c. ca la
- 200 300 500 1000 2000 3000 5000 10000
- Fréquence
- Fig. 11. — Erreurs de localisation d’une source sonore en fonction de la fréquence.
- Les points reportés sur le graphique représentent des moyennes obtenues avec divers observateurs, dans plusieurs séries d’expériences (D’après Stevens et Newman).
- Efficacité combinée de l’intensité et de la phase.
- — De ce qui précède, on peut conclure que l’orientation se fait grâce aux différences de phase pour les graves, aux différences d’intensité pour les aigus, avec une région intermédiaire où les deux facteurs interviennent, mais sans permettre une aussi bonne détermination.
- C’est ce qui a été bien mis en évidence par les expériences de Stevens et Newman; en vue d’éviter tout effet dû à la réflexion du son, ces expériences ont été faites sur le toit d’un immeuble élevé; l’observateur assis dans un fauteuil, la source sonore était un haut-parleur porté par un bras qui pouvait décrire un cercle complet dans le plan horizontal des oreilles du sujet. Celui-ci devait indiquer les positions données au haut-parleur; ses indications étaient naturellement entachées d’erreurs, et la figure ix-représente les moyennes des erreurs, en
- 100 200 300 500 1000 2000 3000 5000 10000
- Fréquence
- Fig. 12. — Efficacité de la différence de phase et de la différence d’intensité dans la localisation des sources sonores.
- La courbe en trait plein représente l’angle maximum dont une source s’écarte du plan médian pour une différence de phase interaurale de 180° (échelle de gauche). La courbe en trait interrompu représente la différence d’intensité mesurée aux deux oreilles pour une source placée sur le côté du sujet (azimut 90°) (échelle de droite) (D’après Sivian et Weute).
- degrés, faites à diverses fréquences. On voit que la localisation est bonne pour les graves jusqu’à 1 000 c/s environ, et pour les aigus à partir de 10 000 c/s; elle est très mauvaise entre les fréquences 2 000 et 5 000.
- C’est exactement ce que l’on pouvait attendre de l’existence de deux facteurs de localisation, intervenant, l’un, pour les graves, l’autre, pour les aigus. La courbe de la figure 11 peut d’ailleurs être considérée comme résultant de la superposition de deux courbes, traduisant respectivement l’efficacité des différences de phase et celle des différences d’intensité (fig. 12).
- La courbe de la figure 11 a été établie en ne tenant pas compte des cas où il y a confusion entre une direction « devant » et une direction « derrière » symétriques l’une de l’autre par rapport au plan fi’ontal; mais les mêmes auteurs ont étudié le pourcentage de ces confusions, en fonction de la fréquence; pour les fréquences inférieures à 2 000 c/s, il n’est pas très diffé-ï’ent de ce que donnerait une répartition au hasard, tandis qu’au-dessus de 4 000, il devient très faible (fig. i3); il apparaît ainsi que la distinction entre « devant » et « derrière » est beaucoup plus facile lorsque, le rôle de la différence de phase étant inexistant, celui de la différence d’intensité prédomine.
- L’orientation monaurale. — Nous avons déjà signalé que les sons complexes et les bruits sont localisés plus facilement que les sons purs; en effet, les composantes graves étant localisées par la phase, les aiguës par l’intensité, les deux cri-tères s’appuient l’un l’autre; en outre, l’atténuation des aigus à l’oreille qui est « à l’ombre » de la tête ne change pas seulement l’intensité du son, mais aussi sa composition; il en résulte une modification qualitative de la sensation qui a une grande importance pour les sons familiers; les personnes sourdes d’une oreille localisent aisément de tels sons, et cette localisation monaurale est, en fait, presque aussi bonne que la localisation binaurale.
- c
- 100 200 300 500 1000 2000 3000 5000 10000
- Fréquence
- Fig. 13. — Pourcentage de confusions entre l’avant et l’arrière, en fonction de la fréquence.
- (D’après Stevens et Newman).
- p.115 - vue 119/527
-
-
-
- 116
- L’orientation monaurale n’est d’ailleurs pas impossible avec les sons purs, mais elle est beaucoup plus difficile, et elle ne peut se faire sans des déplacements de la tête, qui modifient la direction d’arrivée du son par rapport à l’oreille (dans les expériences sur l’orientation binaurale, la tête est naturellement immobile).
- Rôle des déplacements de ta tête dans la localisa=
- don. — Les mouvements de la tête interviennent aussi dans la localisation binaurale des sources sonores. Entre les expériences réalisées en laboratoire, au moyen d’écouteurs appliqués sur les oreilles, et la réception, en champ libre, des sons provenant d’une source extérieure, il existe une différence importante : dans le premier cas, le sujet localise le son dans sa tête, ou très près; dans le second cas, au contraire, le son est parfaitement rapporté à une source extérieure. Wallach pense que ce jugement est rendu possible par le fait que, en champ acoustique libre, l’auditeur peut modifier les rapports de phase et d’intensité aux deux oreilles, par de petits déplacements de la tête; au contraire, de tels déplacements ne modifient rien si la réception se fait par des écouteurs fixés à la tête.
- En tournant la tête autour d’un axe vertical, les différences binaurales de phase et d’intensité varient, et leur variation dépend de la distance; on pourrait supposer qu’il y a là une base pour l’appréciation des distances, mais les expériences ont montré que cette évaluation est très mauvaise, sauf naturellement pour les bruits familiers,
- Lorsque le sujet peut tourner la tête, si peu que ce soit, autour d’un axe vertical, il ne se trompe plus sur la localisation d’une source placée exactement devant ou exactement derrière lui; en effet, si la source est en avant, en tournant la tête légèrement à gauche, le son paraît venir de droite, tandis qu.’il semble venir de gauche si la source est en arrière.
- Quand la source est exactement au-dessus du sujet, la rotation de la tête autour d’un axe vertical n’altère pas les rapports de phase et d’intensité aux deux oreilles, et c’est ce qui permet, dans ce cas, de reconnaître la direction d’arrivée du son; Wallach a montré que si une source sonore, située dans le plan horizontal de la tête, tourne en même temps qu’elle, le sujet rapporte le son à une source placée au-dessus de lui.
- Pour des positions diverses de la source, les mouvements de la tête altèrent de façon plus ou moins importante les différences binaurales, et ils fournissent sans doute une base pour la localisation, en hauteur notamment; ces mouvements eux-mêmes sont perçus grâce à la sensibilité musculaire et à l’appareil vestibulaire, et les données de ces systèmes sensoriels sont intégrées avee les données auditives (et visuelles, le cas échéant).
- La stéréophonie. — La connaissance des bases de l’orientation auditive a conduit à la reproduction stéréophonique des sons.
- Dans une transmission radiophonique ordinaire, l’origine des sons, pour l’auditeur, est le haut-parleur; tous les instruments dans un orchestre, tous les acteurs dans une pièce de théâtre, semblent se trouver au même endroit, et il n’y a pas d’ « espace sonore ».
- La stéréophonie cherche à conserver la perspective sonore; le moyen le plus simple, en même temps que le meilleur, consiste à utiliser deux microphones, situés comme les oreilles d’un mannequin, et à les relier, par des voies de transmission indépendantes, à deux écouteurs placés sur les oreilles de l’auditeur (fig. i4). Dans ces conditions, la reproduction stéréophonique est parfaite, et l’auditeur entend les instruments ou les acteurs avec leur répartition réelle dans l’espace; les déplacements sont perçus également; ainsi, dans une expérience au cours de laquelle une personne portant des chaussures à clous avançait à grand bruit vers le mannequin et les microphones, on a vu
- Scène ou orchestre
- Fig-. 14. — Schéma de la transmission stéréophonique à deux Voies.
- En A, les deux microphones ; en B, l’auditeur avec les écouteurs sur les oreilles.
- l’auditeur, qui se trouvait dans une autre pièce, reculer pour qu’on ne lui marche pas sur les pieds !
- Lorsque la reproduction est assurée par des haut-parleurs, il faut théoriquement un assez grand nombre de microphones, associés à un nombre correspondant de haut-parleurs; en pratique, cependant, la transmission à deux voies (deux microphones, deux haut-parleurs) donne une restitution satisfaisante de la perspective sonore; c’est de cette façon qu’ont été réalisées les émissions stéréophoniques de la R.T.F. ; les deux voies de transmission étaient deux postes qui émettaient sur des longueurs d’onde différentes, et les auditeurs devaient disposer de deux récepteurs accordés sur l’un et l’autre de ces émetteurs. Dans ces conditions, l’émission était entendue « dans l’espace ». Est-il besoin d’ajouter que, pour ceux des auditeurs qui n’ont qu’un récepteur, une telle émission n’est pas différente d’une émission ordinaire ?
- André Gribenski,
- Agrégé de l’Université.
- Pétrole et eau douce
- Un article récent de la revue hollandaise Water traite de la pollution des eaux souterraines .par les produits pétroliers. Ceux qui, comme l’essence et le kérosène, peuvent se diluer et être éliminés dans les eaux de surface sont stables dans les nappes aquifères, au même titre que le fuel, les lubrifiants et le gas-oil qui le sont de toute manière. Il suffit par ailleurs d’une dose de 1 mg/1 pour que le goût et l’odeur de l’eau la rendent impropre à la consommation. A cela, il faut ajouter que les produits pétroliers contiennent diverses substances cancérigènes, telles que le benzol, l’anthracène, le phénantlirène.
- On doit noter que l’essence s’infiltre dans le sol dix fois plus-vite que l’eau et se trouve donc rapidement incorporée aux courants souterrains : il est rare que les précautions indispensables soient prises comme par exemple l’implantation obligatoire des parcs de stockage loin de toute nappe de faible profondeur. Il ne semble pas non plus que toute l’attention désirable soit accordée aux conséquences des recherches pétrolières : l’exploration sismique peut par exemple provoquer la rupture de certaines structures qui préservent les nappes, les forages également risquent de mettre en contact les roches pétrolifères et aquifères. Aux États-Unis, de nombreuses sources ont été rendues inutilisables dans les bassins pétroliers en voie de prospection ou en exploitation. Y. M.
- p.116 - vue 120/527
-
-
-
- LE VOL DES INSECTES
- 117
- Dans la série des Monographies de Biologie expérimentale, publiée par l’Université de Cambridge, vient de paraître un volume consacré, au vol des Insectes (I). L’auteur aborde le sujet, non seulement en biologiste, mais aussi en physicien, avec le souci de montrer ses rapports étroits avec la physiologie comparée et l’aérodynamique. L’aile des insectes, qui apparaît dès le Carbonifère inférieur, s’est montrée d’abord comme une expansion des tergites thoraciques et sa fonction primitive devait être simplement celle d’un planeur, permettant à l’insecte de s’élancer d’un arbre vers le sol. Le pli basal s’est peu à peu rétréci et une articulation s’est formée qui, chez les insectes actuels, présente une structure compliquée. Avant d’aborder le côté physiologique de la question, l’auteur étudie cette structure dans son premier chapitre. Le second chapitre est consacré au mécanisme du battement des ailes. Il s’agit d’un acte très complexe, comportant, outre les mouvements d’élévation et d’abaissement de l’aile, des déplacements en avant et en arrière, ainsi que des mouvements de- pronation et de supination, le tout entraînant des changements de la forme générale. La trajectoire du battement est largement affectée par le déplacement d’air dû à la vitesse de propagation de l’insecte.
- C’est chez le criquet Schistocerca que les mouvements de l’aile ont été le mieux étudiés récemment. Par rapport au corps de l’insecte, l’extrémité de l’aile se meut dans un cercle irrégulier ; par rapport à l’air, le mouvement est une courbe irrégulière, en dents de scie. L’observation de la courbe de l’extrémité et surtout les mesures faites d’après des images cinématographiques rapides montrent que le battement de l’aile ne peut être considéré comme une sinusoïde et ne peut être exprimé par aucune formule mathématique simple. L’étude des muscles moteurs montre que leur action est plus complexe que ne le suppose le schéma classique de Chabrior, indiquant un mouvement de déplacement vertical du riolum par rapport au sternum ; les déformations du thorax sont
- 1. Insect flight, par J. W. S. Phii\ri.e, Cambridge Monographs in Expe-rimonlal Uiology, n° 9. Un vol. 14 x 22, 133 p., cartonné. Prix : 15 sh.
- bien plus compliquées et les forces élastiques apportent une contribution importante à la genèse des battements de l’aile. L’auteur étudie ensuite l’histologie et la physiologie des muscles du vol, consacrant un paragraphe spécial à la biochimie. Dans les muscles striés, il y a une localisation définie des substances biochimiques sur différentes parties de la cellule ; comme on peut obtenir, par centrifugation, les fibrilles, le sarcome et le sarcoplasme à l’état de préparation presque pure, une connaissance de la spécialisation intracellulaire biochimique de ces tissus a pu être obtenue. Un autre paragraphe est consacré aux réponses électriques et mécaniques des muscles et l’auteur se trouve amené à exposer les recherches faites par Pringie, non sur les muscles alaires, mais sur les muscles dont 'les contractions produisent le chant chez la cigale Platypleura capitata. Le quatrième chapitre est entièrement consacré à la question très spéciale de l’analyse énergétique du vol des insectes.
- Enfin, le volume se termine par une étude détaillée des mécanismes nerveux et sensoriels. Les ailes des insectes sont des organes très sensibles ; elles reçoivent un tronc nerveux sensitif, dont les fibres s’étendent le long des principales nervures. Les organes des sens auxquels elles aboutissent sont des poils et soies, de taille variable, des sensilla campaniformes et chordotonaux ; les soies sont répandues1 sur presque toute la surface, les deux autres catégories bien plus localisées. La fonction des soies doit être avant tout tactile, mais elles jouent- peut-être aussi un rôle dans le vol en réagissant aux courants d’air qui se produisent sur l’aile en mouvement. Les sensilla campaniformes sont des mécano-récepteurs, sensibles aux excitations de l’exocuticule. Quant aux organes chordotonaux des aile», ils doivent avoir, comme ceux qui se trouvent sur d’autres parties du corps, une fonction auditive ; mais ils indiquent probablement aussi les changements de pression de l’air. Ce très rapide résumé ne donne qu’une idée bien imparfaite de l’importance de ce travail qui apporte une mise au point très moderne d’une question fort intéressante de la biologie des insectes. L. C.
- Sélection par transplantation d'ovules
- Le procédé de transplantation d’ovules, expérimenté voici quelques années sur les vaches, vient d’être appliqué avec succès à sept brebis par l’Office de Recherche agricole du Royaume-Uni à Cambridge. Rappelons en quoi consiste ce procédé : une femelle de race pure, présentant des caractères spécialement recherchés (valeur par exemple et abondance de la toison), est fécondée par un bélier de la même race. Une fois l’ovule transformé en embryon, il est extrait et implanté dans l’utérus d’une brebis de race moins noble. Celle-ci ne joue le rôle que de nourricière et n’intervient pas dans la transmission génétique des caractères. La pre-
- mière brebis reste la mère authentique. L’avantage de cette méthode, si elle vient à être employée sur une vaste échelle, serait d’épargner aux reproductrices sélectionnées la longue période de gestation et de les rendre disponibles pour de plus fréquentes fécondations. L’amélioration des races par voie de sélection serait ainsi considérablement accélérée. On peut même prévoir que cette accélération serait telle qu’au bout de peu d’années (le renouvellement du cheptel avant été obtenu intégralement) la transplantation cesserait d’être nécessaire, ou n’aurait plus que des applications épisodiques.
- LE CIEL EN AVRIL 1958
- SOLEIL : du 1er avril au 1er mai (à 0h) sa déclinaison croît de + 4° 16' à + 14°fjJ' ; la durée du pour passe de UMg™ la 1er à l.4h28m le 30 ; demi-diamètre apparent le 1er = 16T",9, le 30 = 15'54",0. —LUNE : Phases : P. L. le 4 h 3*45“, D. Q. le 10 à 23h50m, N. L. le 19 à 3h23m, P. Q. le 20 à 21h36m ; périgée le 3 à 2Lh, demi-diamètre app. 16'44" ; apogée le 16 à 23h, demi-diamètre app. 14'42". Principales conjonctions : avec Jupiter le 5 à 4h, à •J°o2/ S. : avec Neptune le h à 12h, à 1°3T S. ; avec Saturne le 9 à -2h, à 2°53' N. ; avec Mars le 13 à 13 h, à 6°37' N. ; avec Vénus le 15 à 0h, à 4°9' N. ; avec Mercure le 18 à 19h, à 0o49'' S. ; avec TJranus le 27 à 3h, à 6°6' S. Principales occultations : le 6, de a Balance (mag. 2,9) immersion à 4h25m,7 ; le 24, de 26 Gémeaux (mag. 5,1) immersion à 22h2Sm,4 ; le 25, de 67 Gémeaux (mag. 6,7) immersion à 20h39m,l et de 68 Gémeaux (mag. 5,1) immersion à 20h40m,l. — PLANÈTES : Mercure, encore un peu visible le soir au début du mois, puis devient inobservable, en conjonction infér. avec le Soleil le 16 à 18h ; Vénus, très belle étoile du matin se levant le 7 à 3Ml111, soit lh35m avant le Soleil ; Mars, dans le Capricorne, puis le Verseau, se lève le matin un peu avant Vénus ; Jupiter, dans la Vierge, brille magnifiquement toute la nuit, en opposition avec le Soleil le 17, diamètre pol. app. 41",4 ; Saturne, dans Ophiuehus, est visible dès minuit ; le 19, diamètre pol. app. 15",8, anneaux : grand axe 39",7, petit axe + 17",7 ; Uranus, dans le Cancer, est encore visible une bonne partie de la nuit ; le 19, coucher à 2ll22®, diamètre app.
- 3",S, position : a = 8h40m, 6 = + J!J°U ; Neptune, dans la Vierge, suit Jupiter à l’est, en opposition avec le Soleil le 24 ; le 19, diamètre app. 2",4, position : a = l-l^S311, ô = — 11°0'. — ÉTOILES VARIABLES : Minima observables d'Algol (2“,2-3m,5), le 9 à 3h,l, le 11 à 23h,9, le 14 à 20h,7 ; minima de (3 Lyre (3m,4-4m,3) le 9 à lh,4, le 21 à 23h,7 ; maximum de R Serpent (5m,6-14m,0) le 4, de R Cygne (5m,9-14m,6) le 20, de U Orion (om,2-12m,9) le 23. — TEMPS SIDÉRAL : au méridien de Paris, à 0h (T. U.) : le Ie1- : 12Mpnl5s, le 11 : 13ll24“10s, le 21 : 14»3»36V le 1er mai : 14h43mls.
- Phénomènes intéressants. — Surveiller l’activité solaire.
- — Du 20 au 25, lumière cendrée de la Lune, le soir. — Le 4, éclipse de Lune par la pénombre visible en France, commencement à 3h44m,4, milieu à 3h59m,5, fin à 4h14m,6, grandeur de l’éclipse : 0,013, phénomène théorique et insignifiant. — Le 19', éclipse annulaire de Soleil, invisible en France, maximum à 3h26»ï,6, grandeur : 0,970. — On remarquera l’excellente visibilité de Jupiter, très brillant. — Uranus stationne à l’est de l’amas de la Crèche.
- — Chercher à apercevoir Neptune dans une petite lunette. — Étoiles filantes : Du 19 au 22, Lyrides (radiant 104 Hercule), rapides, à traînées persistantes.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- p.117 - vue 121/527
-
-
-
- 118
- LES LIVRES NOUVEAUX
- Arithmétique et Algèbre modernes. Tome II Anneaux et corps. Calcul algébrique. Idéaux et divisibilité (Coll. Euclide), par Albert Châtelet. 1 vol. 14,5 x 19,5, vm-277-728 p. Presses Universitaires de France, Paris, 1956. Prix : 1 800 F + t. 1.
- Second volume d’un ouvrage destiné à donner une vue d’ensemble de l’algèbre moderne. Accessible au niveau de la licence.
- The Sun, par G. Abetti. 1 vol. 14,5 x 22, 336 p., 97 fig., 147 pl. h. t. Faber and Faber, Londres, 1957. Prix, relié : 63 sh.
- Après la parution du magnifique ouvrage consacré au Soleil publié en 1953 sous la direction de Kuiper (The Sun, Chicago Press), il était souhaitable qu’un astronome reprît avec les mêmes données une étude d’ensemble accessible au non-initié. Cette traduction anglaise de la dernière édition du célèbre livre du Pr Abetti, nous comble tout à fait à ce sujet. Après un chapitre consacré aux instruments servant spécialement à l’étude du Soleil, nous abordons les recherches effectuées grâce aux télescopes ou à la plaque photographique, puis par l’observation du spectre : jamais la spec-trograplne ne s’est révélée aussi féconde qu’à propos de l’astre du jour. L’étude de la couronne, domaine dans lequel s’est illustré notre compatriote B. Lyot, complète cette description du Soleil. Nous sommes maintenant en mesure d’examiner les hypothèses concernant sa constitution interne et les mécanismes nucléaires dont il est le siège, et de le comparer aux autres étoiles. Les répercussions sur terre de l’activité solaire, dont on sait l’importance chaque jour accrue et l’émission hertzienne, font l’objet du dernier chapitre. Abondante et superbe illustration.
- Earthquakes, par G. A. Eiby. 1 vol. 14 x 22, 168 p., 54 fig., 32 pl. h. t. Muller, Londres, 1957. Prix, entoilé : 21 sh.
- Un géophysicien de l’observatoire sismologique de Wellington a écrit cet ouvrage populaire sur les tremblements de terre de Nouvelle-Zélande. Il les décrit pour le profane, mais il montre aussi les moyens scientifiques d’étude et intéresse le lecteur à divers problèmes de géophysique. Ouvrage attrayant et solide, bien illustré.
- La terre, planète inconnue ; F Année Géophysique, par L. Barnier. 1 vol. 11,5 x 18, 10 fig. Savoir et connaître, Paris, 1957. Prix : 390 F.
- Once around the Sun, par Ronald Fraser.
- 1 vol. 14 x 21, 160 p., nombreuses figures et planches. Hodder and Stoughton, Londres, 1957. Prix, relié : 16 sh.
- Guide to International Geophysical Year,
- publié par Sir J. Woroie. 1 vol. 14 x 21,5, 48 p., figures. Methuen, Londres, 1957. Prix :
- 2 sh. 6 d.
- L’immense entreprise scientifique qu’est l’Année Géophysique Internationale 1957-1958 a déjà suscité de nombreux articles et plusieurs ouvrages de vulgarisation dont nous présentons quelques-uns. Le premier, destiné au grand public, a l’avantage d’exposer en langue française et de façon accessible à tous les nombreux problèmes que les chercheurs de l’Année Géophysique se sont donné pour but de résoudre. Sa lecture montre combien la connaissance de la planète sur laquelle nous vivons est encore fragmentaire ; mais l’effort de simplification auquel s’est livré l’auteur se solde trop souvent par des titres ronflants qui n’ajoutent rien au contenu du livre, sans heureusement dénaturer les faits scientifiques. D’un niveau sensiblement équivalent, le second ouvrage insiste davantage sur la météorologie, le magnétisme terrestre et les relations solaïres-terres-tres. Le programme des recherches de l’Année Géophysique fait l’objet de plusieurs chapitres, et des photographies originales et intéressantes contribuent à la réussite de ce livre. Enfin, nous recommandons vivement la lecture de la petite monographie publiée chez Methuen, qui donnera en peu de temps aux personnes ayant quelques connaissances en physique une idée précise et assez complète des recherches qui s’effectuent à l’occasion de l’Année Géophysique.
- Les vibrations mécaniques, par G. W. Van
- Santen. 1 vol. 15,5 x 23,5, 328 p., 216 fig. Bibliothèque technique Philips, Eindhoven. Dunod, Paris, 1957. Prix, relié : 2 800 F.
- Cet ouvrage est une introduction à l’étude des vibrations mécaniques. Il expose d’abord la théorie élémentaire : généralités, vibrations libres et forcées, amortissement, isolation, résonance, propagation, degrés de liberté... Notons en passant un exposé plein d’intérêt sur les analogies entre oscillations mécaniques et oscillations électriques. L’auteur s’attache ensuite à traiter des problèmes importants rencontrés en pratique : acoustique, vibration des arbres en torsion et flexion, amortissement dans divers matériaux. Il termine en traitant des effets nuisibles des vibrations, des appareils de mesure mécaniques et électro-mécaniques, de leur principe, et donne quelques conseils pratiques pour les mesures. L’écriture mathématique dépasse rarement le niveau élémentaire.
- Histoire de la lumière, par Vasco Ronchi, traduit de l’italien par Juliette Taxon. 1 vol.
- 14 x 22,5, 292 p., fig. A. Colin, Taris, 1956.
- Prix : 1 200 F.
- Dans l’histoire des sciences, la lumière a une place privilégiée. A en croire la genèse elle fit son apparition le troisième jour de la création et ce sont des considérations tant sur sa nature intime que sur les équations générales qui régissent sa propagation qui ont amené ces deux grands bouleversements de la physique : la mécanique quantique et la relativité. L’auleur retrace l’évolution des conceptions depuis le monde gréco-romain jusqu’à nos jours en passant par ces grands noms qui jalonnent rifistoire : Descartes, Newton, Huygens, Fresnel, Einstein.
- American Institute of Physics Handbook,
- édité sous la direction de D. Gray. 1 vol. 15,5 x 23,5, 1 530 p., fig. McGraw-Hill, Londres et New York, 1957. Prix, relié : 112 sh. 6 d.
- Il est impossible d’énumérer la multitude de constantes physiques, de résultats expérimentaux compilés dans cet ouvrage. 90 spécialistes ont collaboré pour rassembler les plus récentes déterminations de constantes, les plus récents résultats expérimentaux dans un champ qui va do la météorologie aux sections efficaces des réactions nucléaires, des caractéristiques de moteurs électriques aux chaleurs de vaporisation des liquides. L’ouvrage mérite son titre de « manuel » en intercalant entre les tableaux de chiffres de courts exposés expliquant les formules. Exposés complétés par de très nombreuses références bibliographiques. Il faut signaler néanmoins que la spécialisation même des collaborateurs n’est pas sans inconvénients. Ainsi ou trouvera le module d’Young, le coefficient de Poisson, la résilience des très nombreux alliages, mais nulle part le coefficient de compressibilité des solides. Source de données numériques et de références modernes précieuse pour les bibliothèques de laboratoires aussi bien universitaires qu’industriels.
- Chimie physique, par W. J. Moore. Traduit de l’américain par H. Aberdam. 1 vol. 16x25. 640 p., 203 fig. Dunod, Paris, 1957, Prix, relié : 4 800 F
- --- A NOS LECTEURS ---------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-69
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- Cet ouvrage réunit des sujets que l’on trouve rarement ensemble. Après une étude complète de la thermodynamique chimique (équilibres, changements d’états, Ihéorie cinétique, etc.), l’auteur étudie d’une façon plutôt qualitative mais très claire la constitution de la molécule et de l’atome, puis traite de la physique et de la chimie nucléaires. On trouve aussi entre autres une bonne étude très à jour de la cinétique chimique et un excellent chapitre sur l’électrochimie. On pourrait reprocher à oe manuel de manquer parfois de rigueur dans les démonstrations, mais la lecture en est plus aisée et il est facilement abordable pour quiconque possède un minimum de culture mathématique.
- L’oscillographe cathodique, par M. Nadler. Traduit de l’anglais par H. Aberdam. 1 vol. 14 x 22, 288 p., fig. Dunod, Paris, 1957. Prix ; 1 960 F.
- L’oscillographe cathodique est devenu aussi indispensable aux hommes de science qu’un voli mètre ou un ampèremètre ; presque tous les ingénieurs et techniciens sont amenés à s’en servir. Il a rendu faciles un grand nombre de mesures jusque-là impossibles ou difficiles. Cet ouvrage explique son fonctionnement de façon à permettre à quiconque de l’utiliser intelligemment et au mieux de ses possibilités.
- La chimie nucléaire et ses applications, par
- M. Haïssinsky, directeur de recherches au G.N.R.S. 1 vol. 16 x 24, 652 p., nombr. fig. Masson, Paris, 1957. Prix, broché : 5 000 F ; cart. toile : 5 600 F.
- Comme l’annonce ‘l’auteur dans sa préface, il a cherché à donner dans cet ouvrage une mise au point synthétique des connaissances accumulées dans le domaine des transformations de la matière à l’échelle du noyau, c’est-à-dire de la chimie nucléaire proprement dite, de la radiochimie, de la chimie des radiations et de Leurs applications, désormais innombrables. Les notions fondamentales de la radioactivité sont supposées connues du lecteur ; toutefois, dans un court chapitre, sont rappelées les étapes principales de sa découverte, jusqu’à celle de la fission et à la création des accélérateurs. On étudie ensuite les particules, les noyaux, les transformations spontanées, les réactions nucléaires, la fission, puis les radioéléments naturels et les transuraniens. Les 17 derniers chapitres sont consacrés aux applications : effets et séparations isotopiques ; applications géochimiques ; action sur les gaz ; action sur les solutions, radiolyses et effets biologiques ; action sur les solides ; fluorescence et coloration ; enfin, nombreuses applications des indicateurs radioactifs en analyse chimique, électrochimie, biochimie et physiologie, technique et industrie. Introduction très complète à l’étude d’un puissant -outil d’analyse et de contrôle qui trouve son emploi dans des domaines de plus en plus variés et étendus.
- Stochiometrische Aufgabensammlung, par Wilhelm Bahrdt et Roderich Scheer. 1 vol. 10,5 x 15,5, 118 p. Walter de Gruyter, Berlin, 1957. Prix : 2,40 DM.
- Les problèmes de chimie élémentaire, quoique très aisés à résoudre, déroutent pourtant fréquemment les débutants; à ceux-ci nous conseillerons donc de résoudre certains des exercices qui au nombre d’environ 500 figurent dans ce petit volume de la collection bien connue Goschen où sont indiquées leurs solutions.
- L’analyse qualitative et les réactions en solution, par G. Charcot. 1 vol. 17 x 25, 368 p., 91 fig. Masson, Paris, 1957, Prix, broché : 3 000 F ; carfc. toile : 3 600 F.
- Cette 4e édition d’un livre devenu classique a été remaniée en vue de mettre davantage en évidence les moyens offerts par la chimie des solutions. L’analyse qualitative est présentée comme un problème particulier. La lre partie traite des divers types de réactions. L’utilisation des données physico-chimiques est très claire, à la portée du débutant. De nombreux exemples ont pour but de familiariser le lecteur avec l’emploi de ces notions. Dans chaque chapitre, l’auteur montre comment on peut prévoir les réactions, comment on peut déplacer les équilibres. Il insiste finalement sur la mise en œuvre raisonnée des divers moyens dont on dispose pour provoquer ou empêcher les réactions en vue d’un but donné. La 2° partie décrit les propriétés de près de 70 éléments
- p.118 - vue 122/527
-
-
-
- y compris ceux qui ont pris récemment une certaine importance : titane, zirconium, vanadium, uranium, etc. Près de 2 000 constantes sélectionnées et mises à jour en 1956 sont données.
- Histoire de la Chimie, par J. Cueillebon. 1 vol. 11,5 x 17,5, 128 p. Coll. Que sais-je ? Presses Universitaires de France, Paris, 1957. Prix : 180 F.
- Ce petit livre retrace les faits expérimentaux ^ et le cheminement des théories et do la pensée qui, depuis 3 000 ans, en passant par l’alchimie, ont abouti la chimie moderne. Il intéressera tous les esprits curieux de l’histoire d’une science qui jouera un rôle de première importance dans le monde de demain.
- Bases fondamentales et applications de la thermodynamique chimique, par Maurice Dodé. I. Les principes. Les systèmes idéaux gazeux et avec phases condensées pures. 1 vol 16x24, iv-514 p., fig. SEDES, Paris, 1956. Prix : 4 000 F.
- Après l’exposé de quelques généralités sur la thermodynamique, l’auteur insiste sur le premier et le deuxième principe, puis sur la notion d’entropie et présente ensuite les diverses fonctions caractéristiques. L’affinité est spécialement étudiée, à l’aide de nombreux exemples particulièrement bien choisis, tandis qu’un aperçu est fourni sur la mécanique ondulatoire et la thermodynamique statistique. Il s’agit là d’un excellent travail ayant pour objet d’éclaircir des connaissances essentielles mais souvent confuses dans l’esprit de ceux qui ont à les utiliser.
- Titane, zirconium et autres éléments d’importance pour l’industrie. 1 vol. 15,5 x 24, 132 p., 17 iîg. O.E.C.E., Paris, 1956. Prix : 500 F.
- Série, de rapports sur des éléments d’un intérêt primordial pour le développement de la technique moderne. La première partie traite de la production de l’éponge de titane, de sa fusion ; de la transformation, de l’analyse et de l’aspect économique du titane. La seconde, du zirconium et sous les mêmes titres. La 3" partie est consacrée au béryllium. La 4" partie traite de manière plus succincte du tantale, du molybdène et du tungstène. Enfin, une 5e et dernière partie de la production et de la purification des matières utilisées pour la fabrication des semi-conducteurs : germanium et silicium.
- La technique de la télévision sans mathématiques, par W. A. Holm. 1 vol. 15 x 21, 350 p., 246 fig. Bibliothèque Technique Philips, Dunod, Paris, 1957. Prix, relié : 1 800 F.
- Cet ouvrage très complet, présenté sous une forme claire et attrayante, dévoile tous les mystères de la télévision et ne comporte ni formules ni exposés mathématiques. Bien que l’auteur se garde d’entrer dans des détails peu compréhensibles au lecteur non technicien, aucun problème intéressant n’a été omis. L’ouvrage sera utile aux dépanneurs, aux revendeurs de radio et téléviseurs, aux élèves des écoles techniques et à tous ceux qui s’intéressent à la télévision.
- Aide-Mémoire Dunod : Électrotechnique
- générale, par M. Denis-Papin. 1 vol. 10 x 15, 260 p., 242 fig. 5e édit. Dunod, Paris, 1957. Prix, relié : 480 F.
- On trouve ici aussi bien l’exposé de la théorie de l’électromagnétisme que des schémas d’installations électriques domestiques. L’indication constante des unités permet l’utilisation immédiate de chaque formule ou propriété. Cette édition bien à jour fait une place importante aux conceptions modernes sur l’électromagnétisme. On trouve à la fin du livre les tables et formules usuelles : puissances, logarithmes, constantes physiques, conversion des unités, etc.
- Les plastiques armés, par R. Uzac et F. La-ponTE. 1 vol. 14 x 22, 360 p., ill. Dunod, Paris, 1957. Prix, relié : 3 300 F.
- L’apparition des résines polyesters et époxy, appelées également résines de contact, a permis un essor considérable des plastiques armés ; une faible pression est suffisante pour assurer le contact do la résine au renforcement choisi et permet d’utiliser les fibres de verre qui confèrent au plastique dos propriétés exceptionnelles. Il est permis de penser que les propriétés de ce matériau déjà remarquables le deviendront encore plus dans l’avenir, qu’on dépassera les résistances mécaniques des alliages légers et même de l’acier grâce à une meilleure utilisation des qualités mécaniques des fibres de verre. Des résines « sur mesure » permettront également de résoudre des problèmes particuliers.
- La propulsion par fusées, par Marcel Bar-rère, André Jabmotte, Baudoin Fraeijs de Veu-beke, Jean Vandenkerckhove. 1 vol. 16 x 25, 392 p., nombr. fig. Dunod, Paris, 1957. Prix : 6 700 F.
- Ce très bon livre, qui fait le tour complet de la technique des fusées, s’adresse plus particulièrement aux ingénieurs spécialisés dans l’aéronautique. Les applications de la propulsion par fusée couvrent maintenant un tel domaine que ce livre s’imposait. Après l’étude du fonctionnement des moteurs-fusées et des caractéristiques des divers propergols, les auteurs abordent le problème très important des instabilités de combustion. L’ouvrage s’achève par une étude des applications des fusées à la propulsion des engins et des calculs des trajectoires.
- An introduction to automatic digital computers, par K. Livesley. 1 vol. 14,5 x 22, viii-53 p., 4 fig., 4 pl. hors texte. Cambridge University Press, Londres, 1957. Prix, relié : 8 sh. 6 d.
- Cette plaquette est destinée aux ingénieurs et aux étudiants. L’auteur explique très clairement le fonctionnement logique des calculateurs (programming). L’exposé est illustré par une description rapide des organes fondamentaux et quelques applications des calculateurs à la résolution de problèmes courants. L’auteur remplit parfaitement son but : rendre le lecteur conscient de l’existence et de l’efficacité des calculateurs digitaux.
- La radioactivité des roches, par R. Goppens. 1 vol. 11,5 x 17,5, 126 p., 14 fig. Coll. Que sais-je ? Presses Universitaires de France, Paris, 1957. Prix : 180 F.
- Après un rappel sur ce que l’on sait de la constitution de la matière, l’auteur traite de la radioactivité des roches ignées et sédimentaires, de la mesure des temps géologiques par. la radioactivité, enfin de son rôle dans le bilan thermique du globe et des diverses hypothèses en présence.
- Introduction à l’étude des roches métamorphiques et des gîtes métallifères, par P. Laffitte. 1 vol. 16 x 24, 358 p., 106 fig., 39 tableaux. Masson, Paris, 1957. Prix :
- 4 000 F.
- Cet ouvrage est destiné aux géologues pour les familiariser avec les notions de sciences physiques, physicochimie et thermodynamique, qui leur sont nécessaires et qui sont les plus importantes pour les pétrographes. L’auteur les expose au point de vue géologique et choisit ses exemples dans le domaine de la pétrographie. Après des généralités physicochimiques, il traite de la composition chimique des roches, de la thermodynamique, de la pétrologie des roches métamorphiques. Références bibliographiques. L’ouvrage vise surtout à donner une tournure d’esprit, une méthode de travail.
- Flore de l’Afrique du Nord, par le Dr René Maire, publiée par les soins de M. Guinochet, professeur à l’Université d’Alger, Vol. IV ; Monocotyledonœ ; Glumifloræ ; Cyperaceœ, Principes, Spathifloræ, Commelinales. 1 vol. 16,5 x 25, 336 p., 170 fig. Paul Lechevalier, Paris, 1957. Prix : 3 500 F.
- Comme on le sait, l’infatigable botaniste qu’était le professeur R. Maire est malheureusement décédé avant d’avoir pu mener à bien la publication de cette flore tant attendue. M. Marcel Guinochet s’est consacré à la tâche difficile et ingrate de réunir les notes de son prédécesseur et de réaliser cette publication. En voici le 4° volume, et l’on souhaite vivement que les autres pourront suivre dans un avenir proche. C’est de cette oeuvre que devront partir des études plus approfondies sur la flore de l’Afrique du Nord.
- Genetics in plant breeding, Brookhaven Sym-posia in Biology, n° 9, U.S.A. Energy Commission. 1 vol. 18 x 25, 236 p. Associated Universities Inc., U.S.A., 1956. Prix, broché : 1,25 dollar.
- La jeune génétique agricole a déjà obtenu quelques résultats importants qui ont été exposés dans le colloque de Brookhaven par quatorze spécialistes de premier plan. Principaux sujets traités : manipulations chromosomiques ; suppression de l’autostérilité et de la stérilité mâle ; variabilité naturelle ou induite (par radiations ou substances mutagènes) ; biométrie.
- Les clefs de la découverte, par Gilbert Ans-cieau. 1 vol. 13 x 18, 240 p. Presses d’Ile-de-France, Paris, 1956. Prix : 750 F.
- Après avoir défini l’esprit de la découverte, l’auteur en offre les clefs : savoir lire et étudier une carte, s’essayer à cartographier ; puis il entraîne l’enfant ou l’adolescent dans une série de promenades, à la vérité bien connues déjà, mais où il lui montre ce qu’il y a à découvrir : les plantes, la montagne, un village, les maisons dans le paysage, la forêt, la ville, réserves et parcs nationaux, etc. Tout peut être l’objet de remarques intéressantes, et à vrai
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 19551
- 84, rue de Grenelle, Paris-7’
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d'Etat.
- Brevet de Technicien d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour - Cours du soir
- Section d'enseignement " à domicile " tJoindre timbre pour notice)
- — VIENT DE PARAITRE ..un......
- Jean ROSTAND
- LES ANOMALIES
- DES
- AMPHIBIENS ANOURES
- Un vol. in-4° coq. de 100 pages, avec 84 photos inédites . I 800 F
- SOCIÉTÉ D’ÉDITION D’ENSEIGNEMENT SUPÉRIEUR
- 5, Place de la Sorbonne, PARIS-5'
- p.119 - vue 123/527
-
-
-
- 120
- W
- PERFORATIONS
- ûtdéeétvaééeà
- avec les
- ŒILLETS MV
- en
- toile gommée transparente
- chez votre papetier
- Fabrication fÉOtecÛft
- CH158 A
- dire c’est l’école en plein air, mais sans programme défini. Un bon guide pour les parents et les maîtres qui voudront développer chez les jeunes le goût de l’observation et de la réflexion.
- Atlas zur Welt Geschichte. 1 vol. 21 x 28, 160 p. de cartes en couleurs. G. Westermann, Brunswick, 1956. Prix, relié : 22,50 DM.
- h9 Atlas historique Westermann, dû à une équipe de professeurs allemands, est présenté avec un luxe de détails et un raffinement dignes des plus grands éloges. L’Antiquité comprend 44 pages, le Moyen Age 47, l’époque moderne et contemporaine 69. Beaucoup de cartes sont originales (le monachisme, les universités médiévales, l’expansion de l’art baroque...) ; certai-
- nes poussent jusqu’à l’ère actuelle (déplacements de population après 1945, politique du pétrole). L’ouvrage se consulte avec plaisir, tellement il est bien conçu et agréable à l’œil. C’est un atout pour les étudiants, les intellectuels, les écrivains et toutes les personnes cultivées.
- L’Asie, par Martin Htjrlimann. Trad. de l’allemand par Maurice Delorme. 1 vol. 22 x 31, xx-31 p., 4 pl. h. t. en coul., 289 héliogr. ii. I., carie. Braun, Paris, 1956. Prix, relié : 3 900 F.
- Cet album paru dans la collection AtlanÜs doit à sa présentation et au discernement apporté au choix des illustra lions de se situer très nettement au-dessus de la valeur moyenne des ouvrages similaires. 11 nous offre un « visage de l’Asie... essentiellement tourné vers le passé » ; monuments, paysages, plus discrètement types humains transportent le lecteur de la Turquie au Japon et de la Sibérie à l’Indonésie. Mordilles édifiées par la nature et par l’homme, scènes Typiques ou pittoresques sont condensées dans des photographies dont la provenance multiple explique la diversité et la qualité exceptionnelle, Ce splendide prélude au voyage à travers le plus vaste des continents prouve que si l’Asie rejoint le monde moderne à grandes enjambées, elle n’en conserve pas moins, dans son ensemble, une individualité propre à réjouir tous les adversaires de l’uniformisation.
- Critical notes on évolution, par William L. Fischer. 1 vol. 15 x 21, 111 p., broché. Munich, 1957.
- « L’origine de la vie est un problème qui n’est ouvert qu’aux spéculations poétiques, théologiques et philosophiques. » Ces dernières sont seules à préoccuper l’auteur. Il établit, si nous avons bien compris, que l’évolution n’a jamais existé que dans l’imagination monstrueuse des savants matérialistes.
- Précis de décoration dans les arts du feu, par A. C. Heiligenstein. 1 vol. 15 x 21, 192 p., 65 fig. Dunod, Paris, 1957. Prix : 1 200 F.
- Après avoir décrit l’installation pratique d’un atelier de décorateur, l’auteur se propose de révéler à tous ceux qu’attire la décoration du verre, de la porcelaine ou de la faïence, les « secrets » de cette technique, vieille comme le monde, mais qui exige de nombreux tours de main. Agréable à lire, ce précis de la décoration sera d’une grande utilité grâce à la précision des modes o|>ératoires qu’il décrit.
- ERRATUM
- Le prix du béryl. -- Reproduisant une information de noire confrère L'Industrie chimique sur un gisement (le béryl en Haute-Vienne, nous indiquions que le. prix du minerai était de 1 500 à 2 500 F la tonne (La Nature, janvier 1958. p. 1 C). Reproduisons aussi la rect ilication donnée ultérieurement par cette revue. C’est 150 000 F ;ï 200 000 F la tonne qu’il fallait Tire.
- PETITES ANNONCES
- (190 F la ligne, taxes comprises. Supplément de 100 F pour domiciliation aux bureaux de la revue).
- Lecteur de La Nature RECHERCHE les numéros suivants de cette revue :
- 3924 : n° 2596.
- 1926 : n° 2703.
- 1927 : n°* 2757, 2763, 2764, 2765, 2768, 2773
- et 2775.
- 1930 : nos 2841, 2842, 2845 et 2846.
- 1945 : nos 3080, 3081, 3082, 3091, 3097 et 3098.
- 1947 : n° 3146.
- Prière s’adresser à M. P. SGHLUiND, 59, rue de Verdun, Mulhouse (Haut-Rhin).
- MASSON ET C™
- ÉDITEURS, PARIS
- Dans la collection « Évolution des Sciences »
- Causes de la répartition des êtres vivants
- PALÉOGÉOGRAPHIE, BIOGÉOGRAPHIE DYNAMIQUE
- par
- Raymond FURON
- Sous-directeur du Muséum National d’Histoire Naturelle Membre de l’Académie des Sciences d’Outre-Mer
- Comme terrain commun à plusieurs disciplines, la paléobiogéographie prend aujourd’hui une importance considérable. Ses limites et ses méthodes ne sont pas encore codifiées. Cet ouvrage, conçu par l’auteur comme un essai, apparaîtra en réalité, par l’équilibre de l’exposé et son souci de clarté, comme un véritable « précis », s’adressant aussi bien aux
- étudiants qu’aux spécialistes et aux lecteurs cultivés de la collection.
- Un volume de 168 pages avec 15 figures et cartes.............................................. I 000 F
- Le gérant : F. Dunod, — dunod, éditeur, paris. — dépôt légal : ier trimestre ir>58, n° 3i56. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3ïo566), LAVAL, N° 87.11. — S-ïQfiS.
- p.120 - vue 124/527
-
-
-
- N° 3276
- Avril 1958
- _ LA NATURE
- 1^1
- ç.# Ml ,,
- L énergie thermonucléaire
- 2. État actuel des recherches dans le monde (I)
- De nombreux pays, tels que les États-Unis, l’U.R.S.S., la Grande-Bretagne, la Suède, le Japon, la France, sont engagés maintenant dans les recherches thermonucléaires. L’annonce de leur entrée dans ce domaine s’est faite parfois avec mystère comme pour les États-Unis lors de la première Conférence de Genève sur les applications pacifiques de l’énergie atomique, parfois avec « fracas » comme le célèbre discours de Kourchatov à Harwell. Périodiquement, des chants de victoire sont entonnés, comme les Britanniques l’ont fait récemment avec l’annonce de Zêta. Que cachent ces agissements, où en sont en réalité les recherches thermonucléaires dans le monde ? C’est à ces questions que nous allons tenter de répondre, compte tenu des informations dont nous disposons.
- Nous prendrons pour ce faire une précaution préparatoire. Il s’agit bien de l'echerches, et non pas de réalisations. En effet,
- 1. Voir : L’énergie thermonucléaire ; 1. Considérations théoriques, par Michel Sorger, La Nature, mars 1958, p. 81.
- comme nous l’avons dit au début de notre première partie, il n’existe pas à notre connaissance d’engin thermonucléaire autoentretenu, même de puissance nulle, et aucune date réelle ne peut être proposée pour un premier engin de ce type. Et ceci, s’il en était besoin après les difficultés techniques que nous avons décrites dans notre premier article, peut donner une idée de la difficulté des problèmes à résoudre, puisque dès les années 1925*1928 on commença à parler de réactions et d’énergie thermonucléaires sans avoir pu en trente ans construire un premier prototype, alors que pour l’énergie atomique de fission, quelques années après la découverte de la fission par Ilahn et Strassmann, Ije premier réacteur à fissions autoentretenues démarrait à Chicago (décembre 194a).
- Malheureusement enfin, des questions de prestige politique et de secret militaire musellent plus ou moins les recherches thermonucléaires, dont les résultats ne sont annoncés qu’à petites doses. Ceci ne nous permettra pas de brosser un tableau
- Fig. 1. — Vue générale de Vinstallation pour les études sur la fusion nucléaire, au Centre d’essais de Fon-tenay-aux-Roses,
- Le plateau circulaire en bois couvre la batterie de condensateurs, qui va se décharger dans le tore en aluminium que l’on voit ici suspendu au centre de la photographie. En premier plan, caméra ultra-rapide permettant de filmer les phases successives de la décharge (fréquence 1 million d’images par seconde).
- (Photo C.E.A.).
- p.121 - vue 125/527
-
-
-
- 122
- complet des recherches thermonucléaires dans le monde, mais seulement de présenter l’essentiel de ce qui a été effectivement « déclassé » et qui ne représente qu’une partie (dont on ignore même l’importance) des travaux effectués dans les principaux pays. Et ceci nous interdira de prévoir lequel des pays engagés en ces recherches semble avoir fait le plus grand pas.
- Les recherches soviétiques. — Le premier pays à avoir présenté un ensemble de résultats sur les recherches thermonucléaires est l’Union Soviétique, le 25 avril 1956, lors de la visite de l’académicien Kourchatov aux établissements de recherches de Harwell en Grande-Bretagne. Les travaux décrits mettaient en jeu des décharges électriques oscillantes à travers des plasmas gazeux dans des tubes cylindriques, vraisemblablement avec du deutérium. \
- Comme on sait, un plasma se comporte comme un conducteur, meilleur que le cuivre aux hautes températures (plusieurs millions ou dizaines de millions de degrés), cependant moins bon qu’un supraconducteur, contrairement à ce qui a été écrit parfois. Un moyen proposé pour échauffer un plasma et le porter aux températures réactionnelles des ions pour obtenir des réactions de fusion est donc de chauffer le plasma par effet Joule en le faisant traverser par un courant. Pour obtenir des effets appréciables, vu les valeurs de la densité du plasma et de sa conductivité d’une part, et les températures énormes qu’il faut atteindre d’autre part, il est nécessaire de faire passer des courants très intenses, beaucoup plus intenses même qu’il n’est usuel en pratique industrielle pour des courants permanents. De telles intensités, plusieurs centaines de milliers ou millions d’ampères, sont obtenues cependant lors de décharges intenses, et c’est pourquoi les chercheurs se sont orientés généralement vers l’étude des décharges dans les gaz. Avec de telles décharges, sur lesquelles agiront des champs magnétiques variés pour étudier le confinement du plasma, on possède un moyen possible pour aborder ce formidable problème des réactions thermonucléaires au sein d’un plasma, comme l’a expliqué Kourchatov dans son discours de Harwell devant les physiciens britanniques à la fois médusés par une telle audace et contraints au silence;
- L’emploi de ces décharges pourrait conduire en principe à tin engin thermonucléaire s’il était possible de réaliser un échauffement périodique du plasma et d’y provoquer les réactions thermonucléaires en phase avec l’intensité maximale du courant, mais il semble que d’autres difficultés viennent s’y ajouter et que cette méthode ne puisse conduire pour l’instant à la réalisation d’un tel engin, sans que ceci diminue en rien l’intérêt de ces études.
- Sous la direction de l’académicien Léontovich, l’étude expérimentale des physiciens soviétiques sur les décharges intenses fut accomplie pour de nombreuses et diverses valeurs des paramètres qui caractérisent les conditions initiales de la décharge. Nous détaillerons quelque peu cette partie en signalant que ces renseignements relatifs aux expériences soviétiques, donnés pour la première fois, sont d’une portée plus générale et que les dispositifs décrits ici sont généralement semblables à ceux utilisés par la suite dans les divers pays. Furent étudiées ainsi des décharges dans l’hydrogène, le deutérium, l’argon, le xénon, et dans des mélanges gazeux (deutérium-hélium, deutérium-argon, deutérium-xénon) de concentrations relatives différentes, pour des pressions du gaz ou du mélange gazeux allant de o,oo5 mm Hg à i atmosphère, et dans des tubes de décharge généralement.rectilignes, de diamètre compris entre 5 et 6o cm, la distance entre électrodes terminales variant de quelques centimètres à 2 m; Pour provoquer les décharges, des batteries de condensateurs à haute tension ont été utilisées, en veillant à ce que les conducteurs liant les batteries aux électrodes aient une inductance minimum (de l’ordre de 0,02 à o,o3 microherirys) afin de ne pas limiter la valeur de l’intensité ainsi que là rapidité avec laquelle elle augmente; par exemple, les tensions uti-
- lisées furent de l’ordre de 5o 000 V pour une capacité totale de la batterie de condensateurs de quelques centaines de micro-farads.
- Avec des tensions de quelques dizaines de kilovolts, l’intensité maximale du courant variait de 100 000 à 2 000 000 A, la vitesse de croissance de l’intensité du courant se situant donc entre io10 et io12 A/s pour des décharges dont la durée est de l’ordre de quelques microsecondes. La puissance maximale instantanée émise dans le plasma au cours de ces expériences atteignit une valeur de l’ordre de 4o millions de kilowatts ! ... à ne pas confondre avec l’énergie totale produite qui resta, vu les temps très courts, à des valeurs négligeables.
- Avant de passer à la description même de ces expériences, nous devons mentionner un point particulièrement délicat et qui a nécessité un très gros effort : c’est le problème des mesures des principaux paramètres qui caractérisent l’état du plasma pendant le passage du courant lors des décharges intenses. Des appareils de prise de vues ultra-rapides permettant d’obtenir jusqu’à deux millions de clichés par seconde furent utilisés, conjointement avec la photographie avec des cellules de Kerr munies d’obturateurs spéciaux à déclenchement électrique très rapide. Tensions et intensités de la décharge furent mesurées à l’aide d’oscillographes. En plus des tensions et intensités, les enregistrements oscillographiques portaient sur l’intensité des raies spectrales distinctes émises par le plasma (d’où mesures de température), sur l’intensité des neutrons et des rayons X, sur la grandeur des variations périodiques de la pression mesurée à l’aide de quartz piézoélectriques et aussi sur la valeur instantanée de l’intensité du champ magnétique et du champ électrique en des points différents du plasma. Le champ magnétique et le champ électrique ont été mesurés à l’aide de petites sondes ou électrodes ayant la forme de bobines, de boucles, d’aiguilles de très petites dimensions et de formes diverses, pouvant être placées en des points divers à l’intérieur du tube à décharge.
- La figure 2 montre l’allure des phénomènes enregistrés lors d’une décharge oscillante de grande intensité dans un plasma. La première courbe montre la variation de l’intensité de la décharge au cours du temps, c’est-à-dire en quelques microsecondes; la deuxième courbe montre la variation de la tension
- t
- Figr. 2. — Aspect des oscillogrammes d’intensité de courant, de tension et de la bouffée de neutrons dans une décharge, d’après
- Kourchatov.
- p.122 - vue 126/527
-
-
-
- alors que dans la troisième courbe on voit l'enregistrement d’une bouffée de neutrons. On voit que dans une première phase, qui semble la plus intéressante au point de vue scientifique, l’intensité du courant dans le plasma atteint un premier maximum, la tension croissant rapidement jusqu’à ce que se produise une chute brutale qu’accompagne une dépression plus ou moins prononcée sur l’oscillogramme de l’intensité. Cette chute brutale de tension est suivie d’une remontée rapide suivie d’une nouvelle chute qu’accompagne encore une dépression de l’intensité (dans certains cas, trois oscillations furent observées). L’apparition des dépressions sur l’oscillogramme d’intensité signifierait que des contractions et des dilatations successives se produisent dans la colonne de plasma; cette hypothèse se trouvera confirmée par des prises de vues en cinématographie ultra-rapide, soit à travers un tore en matière transparente, soit par défilement d’un film devant une fente étroite transparente (ce dei’nier procédé permettant l’enregistrement continu). Il fut ainsi possible d’enregistrer les contractions et dilatations successives de la colonne de plasma dans le tube à décharge. De plus, le champ magnétique et le champ électrique dans le plasma furent mesurés et mis en relation avec les enregistrements oscillographiques de la tension et de l’intensité ainsi qu’avec les prises de vue photographiques ou cinématographiques. On en infère que dans une décharge brutale où l’intensité croît rapidement, il se peut que la vitesse radiale du plasma soit très élevée, la vitesse maximale pendant la contraction ou la dilatation pouvant atteindre plusieurs centaines de kilomètres par seconde, ce qui signifie que l’énergie cinétique d’entraînement des ions du plasma serait de l’ordre de plusieurs centaines d’électron-volts.
- Ces mesures ont permis de brosser le tableau suivant de la décharge, que représente la figure 3. Aussitôt après le claquage ou début de la décharge, la zone conductrice du courant est
- Fig. 3. — Divers aspects au cours du temps de la densité du courant dans la section droite du tube à décharge.
- La distribution après la première contraction de la colonne de plasma est représentée dans la figure de droite.
- une mince couche cylindrique située au voisinage des parois du tube à décharge. La frontière intérieure de cette couche, au début lentement et ensuite plus rapidement, se rapproche de l’axe; après un certain laps de temps, le courant utilise la totalité du tube par suite de ce déplacement de la frontière intérieure de la couche conductrice. L’instant où le courant atteint l’axe coïncide pratiquement avec le moment où apparaît la première dépression de l’oscillogramme. A ce moment la densité du courant au voisinage de l’axe vaut plusieurs douzaines de fois la densité moyenne dans une section droite du tube. Au cours des dilatations et contractions qui se produisent , alors, la densité de courant demeure très élevée dans une zone centrale bien que l’on observe des fluctuations notables.
- Les températures atteintes lors de telles décharges seraient en principe de l’ordre du million de degrés, donc encore bien loin des quelque 35o millions de degrés que nous avons vu être nécessaires pour avoir des réactions thermonucléaires autoentretenues dans un plasma de deutérium. Rappelons que les températures dans les décharges sont estimées, comme en astrophysique, à partir des raies spectrales émises. Cependant, la
- figure 2 montre, dans sa troisième courbe, l’enregistrement de bouffées de neutrons, simultanées à la deuxième contraction, ce qui n’a pas laissé de surprendre les expérimentateurs; l’origine de ces neutrons a fait et continue à faire couler beaucoup d’encre. S’agit-il, comme il fut d’abord espéré, de neutrons provenant de réactions thermonucléaires, et ceci en dépit des températures encore basses qui sont obtenues dans un tube à décharge ? Bien que la question ne soit pas définitivement résolue, il semble actuellement que ces neutrons ne soient pas d’origine thermonucléaire (supposant une équipartition, isotrope, de l’énergie thermique ou cinétique des ions du plasma), mais qu’ils résulteraient des réactions induites entre ions du plasma accélérées dans une direction donnée; ce qui fait dire qu’un tube à décharge pourrait être considéré plus facilement comme un accélérateur de particules d’un type nouveau que comme un « pré-engin » thermonucléaire.
- L’interprétation théorique de ces diverses expériences, encore que bien incomplète, a amené les physiciens à modifier certains de leurs concepts. Excessivement complexe, l’électrodynamique des plasmas est une science nouvelle qui n’en est encore qu’à ses premiers pas, premiers pas timides encore, et nous restons incapables d’expliquer la multiplicité des phénomènes qui se déroulent dans les décharges à forte intensité que nous avons brièvement décrits ici et tels que Kourchatov les avait faits pour la première fois sortir du secret.
- Depuis cette intervention de Kourchatov, nous savons fort peu de choses sur le développement des études soviétiques. Des températures supérieures auraient été atteintes, une meilleure croissance des phénomènes de contraction aurait été développée ; lors de la 3e Conférence internationale sur les phénomènes d’ionisation dans les gaz, qui s’est tenue à Venise en juin iç)57, beaucoup ont attendu, mais en vain, un nouveau coup de théâtre des chercheurs soviétiques. Les seules conclusions qu’il fut possible de tirer de la participation soviétique à cette conférence furent que vraisemblablement aucune réaction thermonucléaire prouvée n’avait été réalisée en Russie, mais que l’état de développement des recherches soviétiques était certainement équivalent à celui des Occidentaux, encore qu’aucune estimation de l’ampleur de l’effort soviétique n’ait pu être effectuée.
- Les recherches américaines. — Nous pourrions résumer la politique américaine en .matière de recherches thermonucléaires par la phrase : « Nous aussi, nous faisons des recherches, et... » car il n’y eut jamais de programme nettement défini et exposé publiquement comme ce fut le cas pour le programme civil de réacteurs nucléaires de puissance de la Commission de l’Énergie atomique des États-Unis. Cependant, quelques trop rares conférences de presse de l’amiral Strauss, président de l’U.S.A.E.G., et quelques « déclassifications » hâtives au moment de Zêta nous permettent, par recoupements, d«'avoir une idée de ce programme, nommé programme ou projet Sherwood. Les difficultés théoriques de réactions thermo-nucléaires contrôlées auraient été abordées déjà pendant la guerre par Teller, Fermi et Tuck au laboratoire de Los Alamos. Depuis lors, les vicissitudes du projet ont été nombreuses, le programme se divisant en plusieurs voies. Il semble, en effet, et ce serait là un des éléments de la confiance des Américains pour leurs recherches (en dépit de l’absence de résultats spectaculaires), que les recherches soient entreprises dans plusieurs voies différentes, comme les Russes peut-être et à l’opposition des Anglais axés sur une voie principale. Cela caractérise l’état d’esprit et les énormes moyens des Américains, et se retrouve dans l’énergie atomique où le nombre de voies d’approche est élevé (réacteurs pressurisés ou à ébullition, réacteurs au sodium, aux hydrocarbures, à gaz, réacteurs homogènes, réacteurs rapides, etc.) comparativement au nombre de voies plus modeste de la Grande-Bretagne (réacteurs type Calder Hall ou réacteur rapide).
- p.123 - vue 127/527
-
-
-
- 124
- L’ampleur de recherches se situant non seulement en résultats, mais aussi volontiers en dollars aux États-Unis, il semble que les sommes réservées dans le budget U. S. pour le projet Sherwood de réactions thermonucléaires contrôlées soient respectivement de 10,7 millions de dollars pour l’année fiscale 1957, 23,6 millions de dollars pour l’année 1958, et 25,5 millions de dollars (soit de l’ordre de 10 milliards de francs) pour l’année fiscale 1959. Comme on le voit, les sommes investies sont loin d’être négligeables, avec 5oo personnes environ travaillant en iq5j sur l’ensemble du projet.
- Cinq centres principaux s’occupent aux États-Unis des recherches thermonucléaires. Ce sont respectivement les centres d’Oak Ridge et de Los Alamos, déjà célèbres pour leurs contributions au domaine de l’énergie atomique, le laboratoire de Princeton, le laboratoire de Livermore géré par l’Université de Californie, et enfin l’Université de New York. Dans trois de ces centres au moins, et peut-être dans quatre, les voies d’approche du problème sont différentes, une part importante des travaux théoriques étant réalisée par l’Université de New York.
- Les appareils, d’un type analogue à ceux que nous avons décrits avec quelques détails pour les recherches soviétiques, sont des cylindres droits ou des tores, et plusieurs modèles différents déjà ont été construits, appelés « Columbus » et a Perhap-satron », mot construit sur le modèle du cyclotron avec le mot perhaps (peut-être). Les Columbus et les Perhapsatron servent essentiellement à l’étude des phénomènes liés aux décharges dans les gaz, avec des champs magnétiques stabilisateurs ou de confinement, la contraction du plasma ou striction (encore appelée pinch ejfect par les Anglo-Saxons) étant un des phénomènes essentiels.
- Pour tout chercheur thermonucléaire, le but à atteindre serait de produire une réaction de fusion libérant au moins autant d’énergie qu’elle en consomme, ce qui est encore lointain puisque actuellement les rapports seraient de l’ordre de io~12. Plus
- proche est le but de produire des températures de plusieurs dizaines de millions de degrés, et de confiner le plasma dans son état de striction aussi longtemps que possible après chaque décharge électrique, si possible pendant plusieurs secondes au lieu des quelques microsecondes actuellement obtenues.
- Eu égard à ces objectifs, quelles sont les performances des appareils américains ? En juillet dernier, à Los Alamos, l’appareil à tube droit, Columbus II (fig. 5), de 10 cm de diamètre et 3o cm de longueur, a commencé à produire des bouffées de neutrons (d’origine non prouvée comme étant thermonucléaire) de 10 à 100 millions de neutrons par impulsion, à une température supposée, mais non établie réellement, de 5 millions de degrés centigrades, mais pour des durées inférieures ou égales au millionième de seconde. De même, le Columbus S-4 à Los Alamos (fig. 6), à tube droit, de 12,5 cm de diamètre et 60 cm de long, en porcelaine, aurait produit environ 10 000 neutrons
- Vide antiretour
- pour l'étincelle
- Tube à décharge
- <Entrée
- retour
- Transformateur
- Fig. 4. ;— Schéma du tube droit à décharge du type Columbus, montrant les circuits électriques utilisés pour obtenir la contraction des gaz chauds ionisés s’éloignant des parois du tube.
- Comme il est indiqué, la tension de décharge est de 15 kV, la capacité totale étant de 10 microfarads. Le tube en quartz transparent permet de voir la décharge au cours des expériences.
- Fig. 5. — Batterie de condensateurs de l’appareil Colombus II.
- Cette batterie permet de faire passer dans le tube à décharge un courant de 300 000 A. en moins de 10 microsecondes. Le tube à décharge lui-même, situé au centre du montage, n’est pas visible sur la photographie. Vu les températures encore faibles obtenues, de l’ordre du million de degrés, 011 voit l’importance des moyens à mettre en œuvre pour réaliser de telles expériences (Photo U.S.I.S.).
- p.124 - vue 128/527
-
-
-
- 125
- Fig. 6. — Vue du Columbus S-4 de Los Alamos.
- Au contraire de la précédente, cette photo montre l’organe essentiel des expériences de fusion contrôlée, c’est-à-dire le tube à décharge. Dans ce tube rempli de deutérium faiblement ionisé, une décharge de plus de 300 000 A aura pour effet de contracter la colonne de gaz chaud et de l’éloigner des parois (Photo U.S.I.S.).
- par impulsion très courte toujours, avec des températures qui auraient atteint 3 millions de degrés centigrades.
- Le Perhapsatron S-3 torique, à Los Alamos, a qommencé à fonctionner en décembre 1957 (fig. 7); le diamètre du cercle générateur est de 5,3 cm, le grand diamètre du tore étant de 32,4 cm. Les températures sont estimées à 5 millions de degrés (calculées sur la base des émissions de neutrons, mais par aucun autre moyen). On aurait obtenu un bon confinement du plasma DD, « bien stabilisé » électromagnétiquement pendant... 2 microsecondes.
- Finalement, d’après le peu que l’on peut savoir du projet Sherwood, un gros appareil serait en construction à Princeton, au Centre de recherches Forrestal. Connu sous le nom de Stel-larator modèle C et devant démarrer en i960 ou 1961, cet appareil, d’après l’amiral Strauss, cc ne sera pas une unité-pilote ou un prototype d’engin thermonucléaire; ce sera exclusivement un outil de recherche, rendant possible un certain travail expérimental qui ne pourrait être effectué aussi efficacement avec des modèles plus petits ». Construit sous la direction de Lyrnan Spitzer Jr., le Stellarator modèle C devrait permettre d’atteindre des températures de l’ordre de 4o à 5o millions de degrés centigrades, avec un confinement du plasma dans un état de striction pour une durée que l’on espère au moins égale à plusieurs millisecondes.
- Les recherches britanniques. — Il est indéniable que la Grande-Bretagne a fait un effort considérable dans le
- Fig. 7. — Le cœur de l’appareil connu sous le nom de Perhapsatron, appareil à décharge de forme torique, en verre ou en quartz.
- (Photo U.S.I.S.).
- Fig. 8. — Vue générale du Perhapsatron, précurseur du Stellarator.
- On voit ici au centre du gros transformateur le tube de la figure 6 avec ses connexions électriques. Le Stellarator, mettant en jeu des énergies et des températures très supérieures, ressemblera, à une échelle beaucoup plus grande, à ce montage du Perhapsatron.
- {Photo U.S.I.S.).
- p.125 - vue 129/527
-
-
-
- 126 -
- Fig. 9. — Vue partielle du tube torique à décharge de Zêta.
- On voit au fond L’appareillage utilisé pour faire le vide ; les enroulements que l’on voit autour du tore sont destinés à produire un champ magnétique stabilisant la décharge et l’empêchant d’atteindre les parois du tube lors des dilatations qui suivent les contractions.
- domaine des recherches thermonucléaires, et Zêta, bien que loin encore du véritable engin thermonucléaire, est cependant une réussite certaine tout à l’honneur des savants britanniques (fîg. 9). Il serait prématuré cependant d’en conclure que la Grande-Bretagne est devenue leader incontesté en ce domaine. Une voie principale semble explorée, alors que plusieurs le sont aux États-Unis et vraisemblablement en U.R.S.S. Rester sur l’expectative en la matière ne diminue en rien notre intérêt pour la très belle réalisation de Harwcll.
- Deux groupes différents travaillent d’ailleurs en Grande-Bretagne sur les recherches thermonucléaires. Le groupe de Harwell, d’une part, sous la direction du Dr Thonemann, et le groupe d’Aldermaston, d’autre part (Associated Electrical Industrie Ltd).
- Zêta (Zéro Energy Thennonuclear Apparatus), construite par le groupe de Iiarwell pour étudier le confinement d’un plasma par le champ magnétique associé au courant qui traverse le gaz à haute température, est vraisemblablement le plus gros appareil qui ait été construit à ce jour pour les recherches thermo-nucléaires. C’est essentiellement un tore en aluminium, le diamètre du cercle générateur étant de x m, le diamètre moyen du tore de 3 m. Le gaz, généralement à une pression de 10~4 mm de mercure environ, est rendu préalablement faiblement conducteur par une décharge à fréquence radio. Le plasma gazeux ionisé forme le secondaire d’un grand transformateur à impulsion avec noyau d’acier. Un banc de condensateurs d’une énergie totale de 5oo 000 joules est déchargé dans le primaire du transformateur et produit une impulsion de courant unidirectionnel dans le gaz avec une intensité maximale de 200 000 A. Un champ magnétique axial permanent dans le tore est engendré par des enroulements autour du tore dans lesquels passe un courant permettant de varier ce champ entre o et 4oo gauss.
- • Zêta a commencé à fonctionner en août 1957. Des températures de 5 millions de degrés centigrades ont été obtenues, mesurées spectroscopiquement, dans du deutérium isolé des
- Fig. 10. — Cette figure schématique représente la décharge « contractée » dans le tore de Zêta.
- On voit sur la droite le transformateur. (Photos Ambassade de Grande-Bretagne).
- p.126 - vue 130/527
-
-
-
- 127
- Fig. 11. — Le cœur de la machine « Equateur » au Centre d’essais de Fontenay-aux-Roses.
- C’est dans le tube en tore (à droite) que sera déchargée la batterie de condensateurs. Au premier plan, le spectrographe qui permet d’enregistrer les raies émises et d’en déduire la température de la réaction (Photo C.E.A.).
- parois pour des périodes de 2 à 5 millisecondes (progrès déjà considérable) ; les neutrons qui furent émis dans le gaz le furent pendant environ une milliseconde; des décharges ont été ainsi reproduites à intervalles de 10 s. A 2 millions de degrés, on a seulement quelques neutrons; le nombre de neutrons est multiplié par 3oo et égale environ io6 à chaque impulsion vers 5 millions de degrés. S’il était possible d’atteindre 25 millions de degrés, le nombre de neutrons par impulsion serait encore multiplié par io4.
- Ceci nous amène d’ailleurs à faire deux remarques. Premièrement, même à 25 millions de degrés, l’énergie produite resterait très faible devant l’énergie consommée, ce qui nous maintient toujours assez loin du but à atteindre. Deuxièmement, les productions de neutrons accrues avec la température nous font toucher du doigt la prudence qu’il faut manifester devant des déclarations trop optimistes : s’il est vrai que dans les engins thermonucléaires il n’y aura pas de produits de fission (on sait le délicat problème de stockage qu’ils posent à l’énergie atomique), il n’en est pas moins vrai aussi que les quantités très importantes de neutrons produits conduiront à édifier des protections absorbantes comme dans un réacteur nucléaire, avec une forte radioactivité induite dans les premières épaisseurs de cette protection ou dans tous les appareillages de confinement ou de transfert de chaleur exposés à ces flux de neutrons.
- Parallèlement aux travaux du groupe de Harwell qui culminent dans la réalisation de Zêta, dont l’origine thermonucléaire des neutrons n’a pas non plus été catégoriquement prouvée, ont eu lieu à Aldermaston des travaux très intéressants bien que plus modestes. Des températures de 5 millions de degrés auraient été atteintes avec un appareil relativement plus petit. Dans quelques mois, un nouvel appareil baptise Scepter III
- devrait permettre d’atteindre 10 à 12 millions de degrés, cependant qu’un modèle encore plus poussé en cours de conception devrait permettre d’obtenir 5o millions de degrés.
- En ce qui concerne les étapes ultérieures des recherches britanniques, nous nous référerons à Sir John Gockroft pour en dessiner l’objectif, sans que des dates puissent naturellement être assignées à chacune de ces étapes.
- La première étape fut de réaliser des températures de 5 millions de degrés pendant un temps suffisant, grâce à Zêta. Il est envisagé d’augmenter l’intensité du courant de la décharge dans Zêta en ayant recours à un nombre de condensateurs plus élevé, et peut-être d’atteindre ainsi les 25 millions de degrés dont nous parlions ci-dessus. Pendant ce temps sera préparé le successeur de Zêta.
- La seconde étape sera celle de ce successeur. De nouvelles méthodes pour chauffer le gaz à des températures plus élevées et de nouvelles techniques pour mesurer ces températures seront essayées.
- Dans la troisième étape sera abordé le problème de Vengi-neering d’un prototype de centrale thermonucléaire pratique et économique.
- La quatrième étape serait alors celle des applications commerciales...
- Les recherches françaises. — Aux centres de Saclay et de Fontenay-aux-Roses, une équipe dirigée par MM. Vendryès et Hubert s’est, elle aussi, depuis un certain temps déjà, attaquée aux problèmes de l’énergie thermonucléaire. Les efforts ont abouti à ce que l’on a appelé « la petite sceur de Zêta », dont le vrai nom d’ailleurs est Équateur. Diverses expériences en cours de réalisation, avec des tubes cylindriques, avant le discours de Kourchatov, ont permis depuis de retrouver en grande partie les résultats décrits par Kourchatov. Équateur, qui résulte de ces expériences, est un tore de 80 cm de grand diamètre, en aluminium; la décharge est induite par une bobine située dans la partie centrale du tore, et des enroulements autour du tore permettent de créer un champ magnétique axial.
- Plusieurs autres machines, plus ambitieuses, sont en projet ou en cours de réalisation et placent la France parmi les premiers pays à entreprendre un programme dans le domaine des recherches thermonucléaires.
- Autres pays et conclusion. — La Suède, le Japon, l’Allemagne, l’Italie poursuivent ou commencent des recherches thermonucléaires. Mentions spéciales doivent être faites pour la Suède en train de construire à Uppsala une machine du type Zêta, mais deux fois plus grosse et qui devrait être prête d’ici quelques mois, et pour l’Allemagne qui, avec Schluter, a proposé un nouveau mode de chauffage du plasma, dit de gyro-relaxation.
- D’ici quelques années fonctionneront un peu partout dans le monde, principalement dans les pays que nous avons cités, des appareils qui permettront d’atteindre des températures de l’ordre de 5o millions de degrés, comme Scepter III ou le Stel-larator modèle C déjà annoncés. Doit-on en conclure qu’un réacteur thermonucléaire se présentera comme une Zêta décuplée ? Rien encore ne permet de l’affirmer, ni de prévoir la date d’un premier engin où les réactions seraient autoentretenues.
- Tout au plus peut-on espérer que, soit par des machines du type Zêta, soit par des machines où un soleil miniature serait créé au centre d’une sphère de 3oo ou 5oo m de diamètre, l’homme aura à sa disposition avec le deutérium contenu dans les océans, des sources quasi inépuisables d’énergie. Reste à savoir si c’est là le vrai problème.
- Michel Sorger.
- p.127 - vue 131/527
-
-
-
- 128
- Les Aristoloches et la staurogamie
- L’adaptation staurogamique, c’est-à-dire la réalisation évolutive de structures florales aptes à augmenter considérablement les chances de pollinisation croisée, et par conséquent un libre échange de gènes à l’intérieur de populations spécifiques, compte parmi les acquisitions classiques et fondamentales de la Biologie. Cette notion, entrevue d’abord par Koelreuter (1761), puis découverte par Arena (1767) et Spren-gel (1793), a été développée surtout par Delpino, Darwin, Knuth, Mueller, etc.
- D’autre part, le problème de cette adaptation s’est placé aussitôt au centre même des débats métabiologiques concernant la vexata quæsiio du finalisme évolutif et de l’adaptation écologique dirigée. Mais, si dans l’état actuel de nos connaissances tous les biologistes sont bien prêts à admettre qu’il y a, tout au moins chez certains groupes taxonomiques, comme une sorte de spécialisation progressive « tendant « vers la staurogamie, en ce qui concerne l’explication causale théorique de cette spécialisation, règne, par contre, un profond désaccord et un confus éclectisme d’interprétations. 11 s’agit donc d’un problème qui n’a cessé d’être actuel et d’importance tout à fait centrale dans le domaine de la biologie causale. Beaucoup, il est vrai, reste encore à faire, tant sur le plan de l’observation et de l’expérimentation que sur celui des spéculations synthétiques.
- De toute façon, parmi les adaptations staurogamiques qui s’imposent davantage à l’observation et à la méditation, nous rappelons le « pseudo-accouplement » entre certains Hyménoptères mâles et les Orchidées du genre Ophiys, dont nous avons récemment parlé dans cette revue (La Nature, mai 1957, p. 180), et la « capture » des insectes pollinisateurs dans la fleur des Aristolochia, dont nous voudrions essayer de donner une rapide vue d’ensemble dans le présent article. Nous nous proposons de tracer d’abord un bref profil taxonomique et phy-togéographique du genre Aristolochia, puis d’examiner le plan général des structures florales qui sont impliquées dans les processus staurogamiques, et enfin de tirer, dans la mesure où cela se démontrera compatible avec nos connaissances, des conclusions générales au sujet de cette adaptation.
- Les Aristolochiacées et le genre Aristolochia. —
- La définition et le placement de la famille des Aristolochiacées au sein des grands systèmes phylétiques élaborés par les taxo-nomistes au cours de ce dernier siècle sont encore controversés et incertains. Sans entrer dans les détails des discussions phylogénétiques, basées surtout sur des faits d’anatomie comparée, nous indiquerons cependant que Hallier, Engler, Warming-Mœbius, Rendle, Hutchinson et le monographe Schmidt (Aris-tolochiaceæ, 1935) placent les Aristolochiacées dans un phylum à part, n’ayant que de faibles affinités avec les groupes considérés généralement comme voisins. Ainsi, l’on considère souvent cette famille à côté des Rafflésiacées et des Hydnoracées, dans le phylum isolé des Aristolochiales. Tout récemment a paru un travail de Gregory (1956) sur la systématique des Aristolochiacées, et c’est à cette importante contribution que nous renvoyons le lecteur pour plus de détails. Une très bonne vue d’ensemble est d’ailleurs donnée aussi par Schmidt (1935).
- Le genre Aristolochia, établi par Tournefort et Linné (1735, 1753), a été placé dans la sous-famille des Aristolochioï-dées et dans la tribu des Aristolochiées, à côté du genre monotypique Holostylis (une espèce du Brésil et du Paraguay), et, dans ses grandes lignes, c’est sur les remarquables travaux de Klotzsch (1859), Duchartre (dans De Candolle, i864), Bâillon *(1888)i Baldacci (1894). Langhe (1924) et Schmidt •(193 5) que se base la taxonomie moderne du genre.
- Celui-ci compte environ 3oo espèces, distribuées dans presque toutes les régions tempérées et tropicales du globe. Il s’agit de
- végétaux toujours verts ou à cycle assimilatif printanier-estival, à rhizomes rampants ou tubéreux, à habitus herbacé, suffru-tescent, à tiges très souvent volubiles ou lianiformes. Des Aristoloches ont été signalées dans les flores fossiles nord-américaine et européenne dès le Crétacé et le Néozoïque (Berryn, 1920; Potonié et Gothan, 1921; Kellogg, Merrian, Stock, Chaney et Mason, 1927), tandis que Kolakowski a décrit tout récemmeftt (1956) une nouvelle espèce fossile des couches pliocènes de Méore-Atara (Abkhazia).
- Comme il a été maintes fois signalé pour d’autres groupes taxonomiques d’origine paléotertiaire, chez Aristolochia, il y a de même une intéressante corrélation d’ordre phytogéogra-phique (aires), et taxonomique (cycles de formes). Cela vient sans doute du fait d’une ségrégation assez ancienne de formes dans des aires géographiques plus ou moins étanches et disjointes. Ainsi, Schmidt a pu distinguer dix aires actuelles de haute fréquence d’espèces d'Aristolochia, à savoir : dans l’Amérique du Nord, autour du Bassin méditerranéen, en Extrême-Orient, dans la région indo-malaise, en Papouasie, en Australie, en Afrique tropicale, à Madagascar, dans l’Amérique centrale et sud-tropicale. Il est cependant facile de constater que la plus importante concentration d’espèces et de modèles floraux, et par conséquent de gènes, se trouve dans l’aire indo-malaise et dans l’Amérique centro-tropicale. Ce sont en effet les régions à Aristoloches par excellence.
- Dans la; région méditerranéenne, nous trouvons inféodé le groupe des Euaristolochia Klotz., subordonné à la section Diplo-lobus Duch., comptant quelque 17 espèces, dont 8 font partie des flores méditerranéennes de France, Italie, etc. (A. pistolo-chia L., A. longa L., A. rotunda L., A. pallida W. K., A. cle-matitis L., A. altissima Desf., A. sicula Tin. et A. bætica L.). Dans les Baléares, se trouve l’A. Bianorii Senn. et Pau, endémisme très intéressant et joli. Mais les Aristoloches sont bien mieux représentées dans le domaine floristique centro-oriental de la Méditerranée, avec maintes espèces endémiques du plus haut intérêt biotaxonomique (A. melanocheila Bornm., A. sem-pervirens L., A. pontica Lam., A. cretica Lam., etc.).
- Structures et fonctions florales. — Ce qui est singulièrement frappant chez toutes les Aristoloches, ce sont la forme, les couleurs, les odeurs des fleurs, et leur rôle dans des processus staurogamiques qui se montrent parfois fort complexes et déconcertants.
- Les fleurs sont physiologiquement dicogamiques, et plus précisément protogynes, c’est-à-dire que les pistils mûrissent les premiers, et, en général, ce n’est que lorsque les stigmates ont perdu leur réceptivité que les étamines de la même fleur libèrent leur pollen. Quoique la floraison d’une plante puisse durer parfois très longtemps (jusqu’à plusieurs mois), la période d’an-thèse de chaque fleur est généralement éphémère, puisqu’elle évolue entièrement dans un laps de temps de un à quatre jours.
- 'Les fleurs sont de type tubuleux et présentent dans la plupart des cas trois zones axiles morphologiquement distinctes : l’utri-cule, sorte de renflement basal renfermant les organes sexuels, le tube, qui débouche dans l’utricule, et, enfin, une partie terminale en lèvre ou lobée (fig. 3).
- L’utricule se présente très diversement d’une espèce à l’autre : varient la forme, le volume, la pilosité des parois internes, etc. Chez les Euaristolochia méditerranéennes, il est généralement globuleux ou piriforme.
- Stigmates et anthères, renfermées dans l’utricule, sont soudées «en un gynostèmer court, sessile. ou brièvement pédonculé (A. anguicida). On compte normalement 6 étamines (ou plutôt 6 anthères sessiles accolées à la colonne gynostémiale), exceptionnellement 5 (A. pentandra), 10 (A. triactina) ou même 24
- p.128 - vue 132/527
-
-
-
- Fig. 1. — Quelques Aristoloches exotiques.
- De haut en bas et de gauche à droite : Arislolochia Pohliana Duch. (imité de Martius, Fl. Brasil.) ; A. ringens Vahl. (imité de Bâillon) ; A. cymbi-fera Mart. et Zucc. (= A. labiosci Ker.) (imité de Kerner von Marilaun) ; A. triactina Hook. f. (imité de Hutciiinson) ; A. Goldieana Hook f. (d’après une photo de Zenker dans Encler, Pflanzemvelt Afrikas) ; A. grandiflora S\v. (= A. gigas Lindl.) (imité de Schmidt) ; A. fimbriata Cham. (imité
- de Schmidt) (Aquarelles de L. Ferlan).
- p.129 - vue 133/527
-
-
-
- 130
- I, A. pistolochia L. ; 2, .4. altissima Desf. ; 3, A. rotunda L. ; 4!, A. pallida W. K. ; 5, A. clematitis L. (Dessins de L. Ferlan).
- Fig. 3. — Fleur d’Aristolochia clematitis, commune en France.
- A gauche : L, partie labiée ; T, tube ; U, utricule ; O, ovaire. A droite, position de la fleur dans le stade femelle et le stade mâle.
- (Dessins de L. Ferlan).
- (A. Goldieana), disposées autour de la base de la colonne, équidistantes ou rapprochées deux à deux (A. sipho). Les lobes stigmatiques sont au nombre de 6, plus rarement de 5, io, 12 ou 20, et ils sont placés en dessus des anthères, au sommet de la colonne (fig. 4).
- Le tube, qui met en communication la partie labiée avec
- Fig. 4. — Schéma du gynostème des Aristolochia.
- l.st., lobes stigmatiques ; ét., étamines (Dessin de L. Ferlan).
- l’utricule, est de forme très variable aussi : droit et cylindrique, ou courbé en U, en S, ou étranglé en forme d’entonnoir, etc. Gomme nous le verrons par la suite, il fonctionne souvent comme une nasse ou un siphon, « capturant » en quelque sorte les insectes lors de leur visite.
- La partie apicale labiée, enfin, est certainement la plus curieuse et polymorphe. Elle peut être à une seule lèvre (A. clematitis, A. longa, etc.), bilabiée {A. brasiliensis, A. serpenta-ria, etc.) ou à lobes radiaux plans ou en coupe (A. triactina, A. Goldieana, etc.). Les couleurs dominantes sont le rouge de chair et le pourpre violacé livide, à teintes uniformes ou plus souvent à stries, marbrures, ou nervures sombres sur fond jaunâtre ou verdâtre clair. L’effet chromatique de viande en décomposition est parfois tout à fait frappant. Les couleurs varient d’une façon fort sensible non seulement d’une espèce à l’autre, mais souvent aussi dans une même fleur avec le déroulement de l’anthèse. Dans ce dernier cas, de rapides changements de pH dans les vacuoles des cellules épithéliales, à la
- p.130 - vue 134/527
-
-
-
- 131
- Fig. 5. — Coupe schématique de la Heur d’Aristolochia clema-titis au stade femelle.
- On voit deux moucherons capturés et un troisième qui commence à s’engager dans le tube. (.Dessin de L. Ferlan).
- suite de la pollinisation ou de la succession des phases sexuelles, sont évidemment impliqués.
- La grandeur des fleurs est des plus variables : A. Lindeniana mesure à peine 2 cm, tandis qu’A. grandiflora atteint facilement 1 m environ de longueur totale. Les espèces de notre flore ont des fleurs qui se tiennent normalement entre 3 et 6 cm environ. Mais ce qui compte en dernier lieu pour la sélection des insectes pollinisateurs, c’est le diamètre qu’atteint le tube floral dans son trajet le plus étroit.
- Biologie florale. — Le processus staurogamique est bien connu surtout des Euaristolochia méditerranéennes, et surtout de l’A. clematitis dont on a entrepris l’étude détaillée à partir des xvme et xix3 siècles (Sprengel, 1793 ; Correns, 1891 ; Ule, 1898, etc.). La biologie florale des espèces extra-européennes a été étudiée surtout par Burck, Ule (1898, 1899), Kny (1895), Maillifert (1918), Cammerloher (1923, 1927), Lindner (1928), Johri et Bhatnager (19&5), auxquels nous sommes redevables de contributions du plus haut intérêt. Il n’est d’ailleurs pas douteux que les recherches chez les espèces exotiques réserveraient encore maintes surprises pour ceux qui voudraient bien s’y adonner.
- La fleur des Aristoloches est un appareil à piège temporaire ; elle attire les insectes pendant la phase de réceptivité stigma-tique. La « capture » a lieu dès que les insectes ont fait un trajet minimal dans le tube. Us sont alors contraints de poursuivre leur déplacement vers l’utricule, du fait que la sortie est rendue très difficile ou même impossible. Ils parviennent ainsi dans l’utricule, et ce n’est que lorsque la déhiscence des anthères a eu lieu que la sortie redevient possible, voire facilitée.
- Nous examinerons successivement la nature chimique des odeurs qui attirent les insectes, puis les divers dispositifs « capturants n du tube.
- Kerner von Marilaun (190.5. 2e édit.), a défini les odeurs qui émanent des fleurs d'Aristolochia comme étant des odeurs de « type indoloïde », d’après L'indole, terme dérivé de la putréfaction bactérienne du tryptophane suivant les étapes bien connues qui se succèdent comme suit : tryptophane —> scatole (bêta-méthylindole) —> indole.
- De toute façon, il est hors de doute que les Aristoloches
- libèrent lors de l’anthèse, comme le font beaucoup d’Aroï-dées, etc., des bioamines et de l’ammoniac. Chez l’A. grandiflora (= A. gigas) par exemple, ont été décelées expérimentalement de la triméthylamine et de l’ammoniac (Winterslein, dans Klein, iqSS), la première desquelles est dégagée lors de la décomposition d’une petite fraction de choline (triméthyloxy-éthylammonium) suivant le schéma :
- (CH2),N — CIL — CIL OII -> N(CIÎ3)3 + CIL,OH — CIL,OH
- I
- OH
- Choline. Triméthylamine. Glycol.
- En outre, quoique nous ne soyons pas encore en état de l’affirmer d’une façon certaine, il ne semble pas exclu a priori que, tout au moins chez certaines espèces, il y a aussi dégagement de monométhylamine (II3C — NIL), produit de la démolition du glycocolle, et d’isobutylamine (QJ-I^N).
- Ces substances diffusent à température ordinaire à l’état gazeux et présentent une odeur ammoniacale désagréable qui rappelle le poisson ou la chair pourrie, et elles ont le pouvoir d’attirer d’une façon très efficace des Diptères qui ont normalement une alimentation saprophage ou coprophage comme Drosophila, Sepsis, Ceratopogon, Chironomus, Sapromyza, Cecydomyia, ainsi que d’autres nombreux Cypsélidés, Ephydri-nés, etc. Tout fait croire que l’origine du gradient odorifère doit être localisée à l’intérieur de l’utricule.
- Le tube floral, d’autre part, présente pour les insectes un accès assez facile dès le début de l’anthèse (stade femelle). La seule élimination qui entre en jeu pour les insectes attirés concerne leur taille qui doit être évidemment compatible avec la moindre section du tube. Pendant la même phase sexuelle, la sortie des Diptères, par contre, n’est pas aussi facile : divers obstacles se présentent suivant les espèces d1 Aristolochia considérées. Ce sont, d’une façon générale, des structures à nasse ou à siphon, ou les deux à la fois.
- Pendant la phase femelle (fleurs dressées) d’A. clematitis, ainsi que chez beaucoup d’autres espèces du genre, on observe dans le tube de nombreux poils pluricellulaires orientés vers l’utricule et fonctionnant en nasse (fig. 5 et 6). Ils sont pédon-culés asymétriquement sur une cellule à parois légèrement épaissies, et présentent une importante résistance élastique due
- Coupe schématique du tube floral d’Aristolochia clematitis.
- o, poils à nasse en position normale ; b, poil coincé et barrant le passage ; c, poil flétri ; d, à la place d’un poil tombé persiste la cellule basale. La flèche en trait continu indique la direction d’entrée, celle à trait interrompu, la sortie du tube floral.
- (Dessin original de L. Ferlan).
- p.131 - vue 135/527
-
-
-
- 132
- à des pressions de turgescence qui atteignent l’ordre de 20 atm (Correns). Lorsque les poils sont sollicités dans le sens de la sortie (fig. 6 b), ils se coincent et barrent le passage dans le tube, prêts à revenir dans la position initiale dès que la sollicitation cesse. Chez quelques espèces tropicales, il y a des poils à structure moins complexe, très longs, qui produisent d’ailleurs une occlusion du tube tout aussi efficace.
- Lorsque la pollinisation a eu lieu et lorsque la fleur entre dans la phase mâle, les poils flétrissent et tombent (fig. 6 c et d), permettant ainsi la sortie. En même temps interviennent souvent des modifications géotropiques dans la fleur qui permettent une sortie très facile aux insectes précédemment capturés.
- Tout à fait extraordinaire et frappant est le mécanisme de « capture » chez Aristolochia Lindneri (fig. 7), décrit par Berger et Lindner (1928) et rapporté par Schmidt. Chez cette espèce on trouve au bout du tube une paroi percée d’un trou évaginé en forme d’entonnoir qui met en communication celui-là avec
- Fig. 7. — Fleur d’Aristolochia Lindneri.
- Coupe schématique de l’utricule et du tube pendant la phase femelle (à gauche) et la phase nulle (à droite) (Imite de Lindner, 1928, et
- Schmidt, 1935).
- l’utricule. Pendant le stade prologyne, l’utricule est translucide et clair, surtout autour de la base gynostémiale (fenêtre basale), tandis que le tube est très pigmenté, sombre et presque opaque. Les insectes parvenus dans l'ulrioule, en essayant de sortir, volettent et se déplacent, butant çà et là contre les zones claires des parois, guidés par un phototropisme positif; ce faisant, ils viennent souvent en contact avec les lobes stigmatiques et, lors du stade mâle subséquent, ils se chargent de pollen. A ce moment a lieu une curieuse inversion des pigmentations dans les parties de la fleur : l’utrioule s’obscurcit, prenant une couleur assez sombre, tandis que le tube se décolore et devient, à son tour, translucide. Les insectes attirés par une arrivée de lumière plus intense, s’engagent finalement dans le tube et parviennent à sortir de la fleur. Bientôt, ils seront de nouveau attirés par une fleur plus jeune sur les stigmates de laquelle ils déposeront occasionnellement le pollen dont ils sont chargés.
- Un jeu d’alternance presque pareil dans la pigmentation est
- connu aussi de l’A. macroara qui possède d’ailleurs un système pileux en nasse dans le tube.
- Chez de nombreuses espèces extra-européennes, on trouve des tubes glabres, glissants et cireux, pliés et courbés en siphon, qui empêchent ou rendent difficile la sortie des insectes (A. sipho, A. arborea, A. tricaudata, A. tomentosa, A. grandi-flora, etc.). Dans certains cas, la permanence des insectes dans l’utricule est assurée par du nectar ou des poils nourriciers (.Futterhaare, « poils-fourrage », dans le sens de Porsch et des auteurs allemands).
- Bien entendu, il ne nous a été possible dans cet article que d’illustrer quelques-unes des nombreuses combinaisons structurales et fonctionnelles réalisées chez les Aristolochia. Essayer de tracer un cadre staurogamique plus complet et détaillé nous mènerait trop loin. Il sera d’ailleurs plus intéressant, peut-être, d’examiner, à titre de conclusion et de synthèse, les aspects généraux du problème de l’adaptation staurogamique tel qu’il se pose chez ces plantes étranges.
- L*adaptation staurogamique. — Contrairement à ce qu’on serait porté à croire, les structures vraiment originales et exclusives sont, chez Aristolochia, fort rares. Il s’agit plutôt de détails qu’on retrouve isolés chez un grand nombre de végétaux, mais qui sont ici réunis et comme « synchronisés » entre eux au point de vue fonctionnel. Pris un à un, ces détails n’ont, en général, qu’une très faible valeur adaptative, voire même nulle, ou, de toute façon, ils ne sont pas directement en corrélation avec les processus staurogamiques.
- En ce qui concerne la choline (liée aux très diffuses lécithi-nes) et la triméthylamine qui en dérive, nous constatons qu’elles ne sont guère produites dans des groupes taxonomiques spécialisés. On les retrouve, avec la monométhylamine et l’iso-butylamine, chez un grand nombre de familles et de genres végétaux. D’autre part, des poils internes soumis à de brusques variations de turgescence et de pH, et des inversions géotropiques de la fleur lors de la succession dicogamique ou anthé-sique, sont très répandus dans le règne végétal.
- Le problème de l’adaptation staurogamique se pose cependant à cause de cette curieuse convergence et concomitance de détails, et l’on se trouve en face des possibilités explicatives classiques, en quelque sorte opposées : finalisme interne adaptatif, sorte d’anti-hasard de la matière vivante, dans le sens de Cuénot, ou bien évolution de structures casuelles présentant vis-à-vis de la fréquence de pollinisation croisée une nette valeur sélective positive.
- Il n’est pas dans nos intentions de souscrire décidément à l’une des thèses théoriques en discussion. Nous nous bornerons à souligner qu’aucune des deux tendances, ni aucune des variantes conceptuelles qui en découlent, ne sont à même, du moins dans l’état actuel de nos connaissances, de nous donner une synthèse explicative à la fois satisfaisante au point de vue expérimental et cohérente au point de vue spéculatif. En thème de finalisme interne, il n’y a guère d’expérimentation rigoureuse concevable. D’autre part, en ce qui concerne l’évolution par mutations et sélection, il ne faut pas négliger non plus le fait que la panmixie elle-même représente, dans une certaine mesure, du fait d’un échange continu et sans discrimination de gènes, un facteur qui opère dans le sens de L’homogénéité et non de la différenciation des populations. D’autre part, l’appréciation et le jugement en matière de « structures sélectives » aussi complexes, sont extrêmement aléatoires et subjectifs.
- Cela dit, il faut ajouter aussi qu’il y a des faits concrets d’observation dont une interprétation univoque n’est pas possible. Suivant la forma mentis qui façonne une hypothèse, ces mêmes faits peuvent être introduits tant dans une théorie basée sur un anti-hasard interne que dans une théorie s’appuyant sur la sélection en termes de fréquence ou d’élimination de caractères apparus fortuitement par mutation.
- Nous rappelons, par exemple, que malgré leurs structures
- • i* \
- p.132 - vue 136/527
-
-
-
- 133
- florales « capturantes » parfaites, diverses espèces sont normalement autogames (A. elegans, A. barbata, A. ridicula, etc.). Chez d’autres, l’autofécondation est occasionnellement possible du fait d’un décalage dans la protogynie qui peut avoir lieu de temps en temps. Bien plus, la géitonogamie, ou fécondation réciproque entre fleurs d’un même individu, est très souvent la règle, même chez des espèces ayant des structures florales d’apparence strictement allogame.
- Dans un autre cas, rapporté par Cammerloher, le synchronisme entre le début de l’anthèse et la phase de réceptivité stig-matique, est dans une large mesure sous la dépendance de facteurs climatiques, telles l’humidité, la température, etc. Ainsi, A. arborea, transplantée du Mexique aux Buitenzorg Botanical Gardens (Java), ouvrait ses fleurs avec un décalage sensible par rapport à la succession protogyne normale, et précisément pendant la phase mâle, d’où une stérilité complète dans le nouvel habitat.
- En conclusion, il ne nous reste qu’à souligner que le problème théorique de l’adaptation staurogamique chez les Aristoloches est encore complètement ouvert. Si l’on veut d’ailleurs espérer des progrès dans ce domaine, tout en respectant une rigoureuse cohérence, il faudra étudier encore beaucoup de cas concrets, surtout sur le plan expérimental. Il faudra avant tout renoncer courageusement à la commodité des néologismes dialectiques qui croient remédier aux difficultés explicatives en satisfaisant seulement une facile fantaisie.
- Les étapes fondamentales et constructives de la Biologie, comme de toute science, se déroulent sur le plan de l’expérimentation, et mieux vaut avouer que beaucoup reste encore à faire plutôt que de s’accommoder d’une brillante construction verbale et prématurée.
- L. Ferlan,
- Station expérimentale de culture du maïs, Bergame (Italie).
- L’inspection des voûtes des ouvrages d’art
- L’administration des chemins de fer britanniques a conçu et fait exécuter par deux firmes de construction mécanique, un ingénieux véhicule qui permet d’inspecter les voûtes des viaducs, de manière aussi originale qu’audacieuse.
- Le cliché que nous reproduisons est, par lui-même, assez expressif pour que l’on comprenne du premier coup le mode d’utilisation de l’appareil. On devine en même temps que le fonctionnement de ses diverses articulations ne peut manquer d’être assez complexe. Deux impératifs en effet sont à respecter : d’une part, toutes les pièces doivent être repliées pour occuper un espace minimal lorsque le véhicule voyage sur les rails; en position de travail, d’autre part, des déplacements en tous sens doivent pouvoir être obtenus, afin que les occupants de la plate-forme d’inspection soient en mesure d’accomplir leur mission.
- Un portique portant une cabine d’opérateur pivote sur une charnière à coussinets. Ce mouvement est commandé par une soupape qui agit sur un piston hydraulique. Le portique se trouve à une hauteur telle qu’il peut tourner au-dessus d’un parapet de 1,37 m en laissant un espace libre de 0,20 m. Les deux bras qui portent la cabine d’inspection sont portés par un arbre horizontal. Deux leviers de commande impriment aux bras les mouvements ascendants ou descendants nécessaires à la manoeuvre. Ils obéissent à l’action de deux pistons hydrauliques.
- La plate-forme d’inspection peut supporter une charge utile de 270 kg. Ses dimensions sont : 2,1 x 0,86 m. Elle peut descendre jusqu’à 8,70 m au-dessous du niveau des rails et s’engager sous la voûte sur une distance horizontale de 4,5o m. Les techniciens qui occupent cette plate-forme peuvent eux-mêmes régler ses déplacements en agissant sur d’autres commandes. Ils disposent également d’une commande en vue de leur translation longitudinale, dans l’axe du viaduc, qui est assurée par un treuil et un câble ancrés sous le wagon. La vitesse de ce mouvement est au maximum de 6 m à la minute.
- La force motrice est fournie par un moteur Diesel qui actionne trois pompes hydrauliques qui transmettent l’énergie aux pistons et au treuil. Par mesure de sécurité, toutes les commandes sont doubles. Un générateur à courant continu de 3 kW fournit l’énergie nécessaire aux projecteurs qui se trouvent sur le wagon et sur la plate-forme, ainsi qu’aux outils électriques qui permettent de démolir les maçonneries défectueuses.
- Les techniciens disposent d’un téléphone, d’une table pour y déployer leurs plans et d’un klaxon qui sert à demander le déplacement du wagon vers les arches successives du viaduc.
- Fig. 1. — La plate-forme d’inspection, pendant la visite d’un viaduc.
- (Photo British Railways, North Eastern Région, aimablement communiquée par La Vie du Rail).
- Il est facile d’apprécier l’efficacité de cet appareillage et de mesurer les obstacles que l’on doit surmonter, lorsqu’on ne le possède pas, pour inspecter les voûtes des ouvrages d’art.
- p.133 - vue 137/527
-
-
-
- La lutte contre la corrosion
- Rôle et avenir des produits frittés
- 2* Les produits frittés et la corrosion ; les cermets
- Après la rapide vue d’ensemble sur la métallurgie des poudres, que nous avons dressée dans notre précédent article (1), on peut se demander quels sont les liens qui existent entre ce procédé et la lutte contre la corrosion.
- Corrosion des produits frittés en métaux courants.
- — Tout d’abord si l’on considère le premier aspect de la métallurgie des poudres, c’est-à-dire procédé de fabrication de pièces mécaniques, on constate que les métaux utilisés sont les métaux courants, fer, alliages cuivreux... Les problèmes de corrosion se posent de la même façon pour les pièces mécaniques frittées que pour les pièces coulées. Cependant, par suite de la structure différente des pièces frittées, la vitesse de corrosion est en général augmentée. La multiplication des limites de grains résultant de la finesse du grain et l’existence de pores débouchant en surface (ce qui crée une surface totale de pièce accessible à la corrosion bien plus grande que la surface apparente) favorisent une réaction rapide avec les agents corrosifs. La protection des pièces mécaniques frittées contre la corrosion apparaît donc d’autant plus nécessaire, surtout dans le cas des alliages ferreux. Les méthodes habituelles de protection sont utilisées pour les pièces frittées :
- — imprégnation d’huile;
- — dépôt électrolytique : cadmiage, nickelage, chromage;
- — noircissement par oxydation dans le cas du fer;
- — chromisation, par diffusion par voie gazeuse;
- — phosphatation.
- Remarquons que la porosité superficielle est souvent une gêne dans l’exécution des revêtements qui sè font en milieu liquide, à cause de la pénétration possible de sels à l’intérieur de la pièce. C’est pourquoi des modifications doivent être apportées aux méthodes courantes pour obtenir des revêtements adhérents et stables.
- Des problèmes de corrosion se posent aussi lors de la fabrication des poudres métalliques et durant leur transformation en pièces frittées. Une poudre présente une grande surface accessible à l’air ambiant et cette surface est d’autant plus grande que la poudre est plus fine et que la forme de ses grains est plus irrégulière. Une poudre fine en métal oxydable (fer, cuivre) s’oxydera donc partiellement à l’air. Une poudre dont les grains sont oxydés superficiellement et ont adsorbé de l’humidité, se comprime plus difficilement et peut donner de mauvais résultats après frittage. On voit donc la nécessité de préparer des poudres les moins oxydées possibles et de les conserver à l’abri de l’action progressive de l’oxygène et de l’humidité de l’air. Un stockage en silos sous gaz sec non oxydant (azote, C02) est souvent recommandé. Il faut mentionner aussi un cas extrême de corrosion : les poudres métalliques extrêmement fines (grosseur de grain élémentaire ayant l’ordre de i'/ioo à i/xo de micron) sont pyrophoriques ; elles sont tellement actives chimiquement qu’elles s’enflamment et s’oxydent totalement à l’air avec une plus ou moins grande rapidité en atteignant parfois des températures supérieures à 8oo° C. Beaucoup de métaux (Fe, Co, Ni, Mo, W, Cu, Ti, Zr, U, ...) peuvent être à l’état de poudre pyrophorique lorsqu’ils sont préparés à une température suffisamment basse pour que le grain élémentaire
- 1. Rôle et avenir des produits frittés ; 1. La métallurgie des poudres, par R. Meyeh, La Nature, mars 1958, p. 104.
- n’ait pas la possibilité de grossir. Ce n’est que dans des cas très rares qu’il est nécessaire de mettre en œuvre des poudres pyrophoriques ; des installations spéciales (enceintes en gaz inerte) ou des méthodes appropriées (immersion de la poudre dans un liquide inerte, eau ou solvant organique) sont utilisées pour traiter de telles poudres.
- Matériaux frittés résistant à la corrosion : les cermets. — De ce qui précède, il apparaît que les pièces de machines frittées ne sont pas favorisées particulièrement au point de vue résistance à la corrosion, au contraire. Nous allons -voir maintenant qu’heureusement la puissance de synthèse de la métallurgie des poudres est utilisée pleinement pour la réalisation de matériaux dont la résistance à la corrosion à froid et surtout à température élevée est remarquable.
- Tout d’abord on a cherché depuis quelque temps à produire par frittage des pièces en alliages qui, à l’état coulé, présentent une résistance accrue à la corrosion chimique. L’acier inoxydable 18-8 et ses dérivés, le Monel, sont déjà utilisés pour la fabrication de petites pièces mécaniques soumises à des agents corrosifs (dans les instruments de contrôle pour les industries chimiques par exemple). De la même façon, on réalise des éléments filtrants métalliques, sous forme de tôles, de disques, de cylindres, en nickel, acier inoxydable, Monel (Cu-Ni), Has-telloy (Ni-Fe-Mo), titane, et dont la résistance à la corrosion est analogue à celle de l’alliage coulé correspondant. Gomme exemples, citons l’épuration de solutions de soude concentrée sur des filtres en nickel et la filtration d’acide nitrique fumant sur des éléments en acier inoxydable.
- Un certain intérêt est aussi porté aux alliages d’aluminium; ils ont une densité faible, une résistance mécanique satisfaisante, un prix de revient assez bas et ils n’exigent en général aucune protection spéciale contre la corrosion. La poudre d’aluminium est cependant toujours oxydée et cet oxyde est stable, c’est pourquoi le frittage de l’aluminium ou de ses alliages est une opération difficile et qui n’est pas encore totalement au point. Il y a déjà eu des réalisations intéressantes comme le métal S.A.P. développé en Suisse, et qui est en réalité un matériau mixte aluminium-alumine préparé à l’état non poreux par compression à chaud de poudre lamellaire d’aluminium et forgeage ou filage. Par rapport aux alliages légers coulés, ce nouveau matériau présente une meilleure résistance au fluage jusqu’à 5oo° C; en outre, il résiste bien à la corrosion atmosphérique.
- Ce matériau mixte nous amène maintenant à parler des matériaux résistant à haute température ou cermets. Une grande partie des matériaux de ce groupe ont ceci de commun qu’ils ont été développés durant ces dix dernières années dans le but de trouver une substance pouvant être utilisée mécaniquement à haute température (goo-x ioo° C), plus particulièrement dans les turbo-réacteurs et les moteurs-fusées. Les qualités exigées sont : stabilité structurale et dureté à chaud, résistance au fluage, résistance au choc thermique et enfin résistance à l’oxydation à haute température à l’air.
- En général, ces propriétés quelquefois opposées n’existent pas simultanément pour des corps purs : aussi a-t-on cherché à associer dans une même substance compacte deux ou plusieurs phases dispersées les unes dans les autres et présentant chacune certaines des caractéristiques exigées. C’est sur ce principe de base
- p.134 - vue 138/527
-
-
-
- 135
- Tableau I.
- Points de fusion des substances réfractaires
- ¥000
- °c
- 3500
- Métaux Métalloïdes Borures
- -
- 3000
- 2500
- W
- Re
- -Ta-
- HfB,
- TaB2 'Ti B
- ZrB,
- 2 NbBj WB
- - Os
- Ru
- Mo
- iMb-
- Ir
- 2000
- 1500
- Hf
- B
- Rh-
- Th
- Pt
- Pd
- W,B
- Carbures HfC TaC
- -NbC-
- TiC
- ZrC
- Mo B
- VB*MoB2 -Mo2B—
- CrB*
- -CrB-
- vc
- SiC
- Mo2C
- Th C
- , w2c wc
- UC
- UC2 B^C
- Be2C
- C r'a C 2
- Nitrures
- hf N
- BN
- Ti IN
- ZrN
- Oxydes
- Th 02
- ThN UN
- Be3N2 VN NbN
- Si 3 N-„
- -Cr N
- MgO Hf02 Zr02
- BeO
- SU ici u res
- Al., 0-,
- Ce02
- Ta Si,
- WSq
- Sulfures
- Mb Si2 IVIoSl
- VSi,
- Ti Si2
- CnSi2
- -ZrSi,
- qu’on a pu préparer, grâce aux techniques de métallurgie des poudres, des produits appelés cermets. Ce terme (céramique-métal) a été étendu au-delà de la composition oxyde céramique + métal, prévue au début, et il est admis actuellement de lui faire englober tous les matériaux réfractaires et résistant mécaniquement à chaud composés d’une ou plusieurs phases dures et réfractaires mais fragiles, et d’une phase métallique ductile ayant une bonne conductibilité thermique et qui sert de liant. Signalons que les propriétés du cermet ne sont pas strictement additives de celles des composants et que des propriétés nouvelles dues à la structure physique particulière apparaissent.
- Le tableau I permet de comparer les points de fusion des substances réfractaires dans les divers groupes. On remarque les propriétés favorables des borures (ZrB2, TiB2), des carbures (TiC, ...), des oxydes et aussi de certains sulfures de terres rares (CeS).
- En ce qui concerne la résistance à l’oxydation à chaud, elle dépend à la fois des deux phases constituant le cermet. D’où la recherche de corps réfractaires résistant à l’oxydation à des températures toujours plus hautes et l’emploi comme phase métallique ductile de métaux et alliages très résistants à la corrosion à chaud (nickel, cobalt, chrome et leurs alliages, silicium.,.). Le tableau II donne la température limite de
- Tableau II.
- bonne tenue à l’air des diverses substances réfractaires connues.
- On peut dire sommairement que la résistance à l’oxydation à chaud d’un cermet est liée à la formation d’une couche d’oxyde stable compacte, adhérente et imperméable. Une structure vitreuse de la couche semble favorable, ce qui expliquerait le comportement exceptionnel de certains siliciures à l’air à des températures dépassant i 5oo° C par suite de la formation d’une couche de silice ou de silicates. La présence de zirconium, de titane ou de chrome dans la couche d’oxyde améliore aussi la résistance à l’oxydation. Pour une substance reconnue comme tenant bien à l’air (vers i ooo° G par ex.), la loi d’oxydation est parabolique, c’est-à-dire que par suite de l’étanchéité de la couche formée, la vitesse de fixation de l’oxygène (qui ne se fait plus que par dif-sion vers l’intérieur) se ralentit très vite pour devenir pratiquement nulle au bout de peu de temps.
- Signalons enfin que certains métaux et alliages (molybdène et alliages en particulier, dont certains préparés par frittage) présentent à haute température des propriétés mécaniques satisfaisantes, mais qu’ils ne résistent pas à l’oxydation au-dessus de 4oo-5oo° C. C’est pour résoudre ce problème qu’ont été mises au point diverses techniques de revêtements résistant à l’oxydation. Cela revient à synthétiser une couche réfractaire analogue à celle existant sur les matériaux tenant bien à l’oxydation. Pour le revêtement du molybdène et de ses alliages,
- Résistance a l’oxa dation des métaux
- CeS
- S i ri, S,
- ET COMPOSES REFRACTAIRES : TEMPERATURE LIMITE DE STABILITÉ A L AIR
- 1100
- 1¥00
- 1100
- 800
- 500
- Métaux
- Pt Rh
- Pd
- Zr Cr Hf Ti —Th —
- W V Ir
- Re—Ru—
- Nb Os
- - Ta Mo
- Métalloïdes
- B Si
- Borures
- CrB-
- HfB, ZrB, TiB2~
- TaB2' NbBz MoB2-
- W,B-VB,-
- Carbures
- SiC
- ZrC
- NbC
- Cr3C2
- B*C
- HfC TaC TiC
- VC
- WC
- Nitrures
- ZrN Ti N B N
- TaN NbN VN
- Oxydes
- BeO ThO, MgO
- Al, 0,Zr0,
- Siliciures
- MoSi2
- WSi, CrSi,
- Ta Si,
- NbSiz Zr$i2 Ti Si2
- p.135 - vue 139/527
-
-
-
- 136
- on a proposé la siliciuration, la chromisation, les revêtements céramiques, etc.
- Revenant maintenant au sujet principal, celui-ci apparaît comme tellement vaste et complexe qu’il n’est pas possible ici de suivre logiquement la genèse de tous ces matériaux. On se bornera donc à étudier successivement des matériaux typiques déjà employés industriellement ou dont l’utilisation est prochaine.
- Alliages durs à base de carbure de tungstène. — Il
- s’agit des alliages durs bien connus constituant les pastilles rapportées des outils de coupe, les lilières, les embouts des outils de forage, etc. Constitués d’une phase très dure en carbure de tungstène pur et d’un liant métallique qui est du cobalt, ces alliages présentent une bonne résistance à la corrosion chimique : ils résistent aux acides sulfurique, fluorhydrique à froid, aux solutions alcalines à chaud; ces propriétés sont intéressantes lorsque le carbure est utilisé comme filière dans les trains d’étirage à décapage acide. L’addition de carbure de titane au carbure de tungstène améliore nettement la tenue vis-à-vis des acides, en particulier les acides chlorhydrique et nitrique dilués à ioo° C. Noter que dans les cas d’attaque par un acide, c’est la phase cobalt qui se dissout en laissant le carbure pratiquement inchangé.
- En ce qui concerne la résistance à l’oxydation par l’air à chaud, elle est déjà remarquable; on sait que c’est elle qui per-
- _ § jg. ,,, un
- Fig-, 1. — Pièces en carbure de chrome.
- Filières, sièges de vannes et clapets, cales et billes non magnétiques, buses d’injection d’aluminium fondu.
- met d’employer les outils de coupe à pastille de carbure à des vitesses de coupe très élevées, portant l’extrémité de l’outil à plus de 8oo° C sans usure ni oxydation sensibles. L’addition de carbure de titane dans l’alliage dur améliore considérablement la résistance à l’oxydation. La couche d’oxydes (W03 + Cos04) est friable et poreuse dans le cas de l’alliage simple WC + Co : en présence de titane, la loi d’oxydation devient parabolique, et la couche d’oxyde formée est adhérente et imperméable. Ce fait est attribué à la formation d’un oxyde TiO en surface, oxyde compact ayant la même structure cubique et la même maille que TiC ou que la solution solide TiC-WC. Cette meilleure résistance à l’oxydation et la présence d’un film adhérent d’oxyde qui empêche le frottement et la soudure du copeau sur la zone métallique, sont la cause de la supériorité de ces alliages durs dans l’usinage des matériaux à longs copeaux et des aciers en particulier.
- Alliages durs à base de carbure de chrome. — Ce n’est que récemment qu'a été mis sur le marché un nouvel alliage dur contenant environ 85 pour ioo de carbure de chrome
- Cr3C2, le reste étant du nickel. Cet alliage est plus fragile et moins tenace que les alliages durs habituels pour outils de coupe. Il n’est d’ailleurs pas utilisé dans ce but, mais il possède d’autres propriétés extrêmement intéressantes :
- — résistance à la corrosion chimique remarquable : acide nitrique, eau régale, acide chlorhydrique; l’inertie est complète au brouillard salin et aux acides organiques ;
- — résistance parfaite à l’oxydation à l’air jusqu’à x ooo° C;
- — bonne résistance à l’abrasion et à l’érosion;
- — densité faible, ne contient pas d’éléments rares, amagné-tique ;
- — même coefficient de dilatation que l’acier.
- Il semble jouer par rapport aux alliages durs courants le même rôle que l’acier inoxydable par rapport aux aciers habituels. Il est utilisé surtout pour ses propriétés de résistance à la corrosion et à l’abrasion : pièces de vannes et soupapes, billes, coussinets, guides, doigts de jauges, blocs étalons, garnitures de pompes, buses pour gaz chauds, matrices à chaud, pièces d’usure dans les machines alimentaires et les industries chimiques (fig. i).
- Alliages durs et réfractaires à base de carbure de titane. — Le carbure de titane est parmi les carbures de métaux réfractaires courants celui qui est à la fois le plus résistant à l’oxydation à chaud, un des plus réfractaires (point de fusion 3 ooo° C) et un des moins chers. Additionné d’un liant métallique approprié, il a permis de créer des matériaux qui actuellement peuvent être utilisés dans la construction d’aubes de turboréacteurs. La composition initiale TiC + Ni ou TiC + Co, contenant de 20 à 4o pour 100 de métal liant, a été améliorée au point de vue résistance à l’oxydation à 1 ooo° C par deux moyens :
- — addition au carbure de titane de quelques pour-cent d’un autre carbure entrant en solution solide : carbure de chrome, carbure de tantale, carbure de molybdène; la couche d’oxyde protectrice est ainsi plus stable et plus étanche;
- — remplacement du liant en métal pur par un liant en alliage réfractaire à base de chrome : nickel-chrome ou cobalt-chrome ; on améliore ainsi considérablement la tenue à haute température.
- La teneur en liant pour ces produits détermine leur fragilité et aussi leur insistance à l’oxydation : lorsque la teneur en phase ductile s’élève, le matériau résiste mieux à l’oxydation, la fragilité diminue, mais le fluage augmente. Il s’agit donc de trouver une composition donnant les qualités les mieux adaptées à l’utilisation.
- On peut considérer cette classe de matériaux comme actuellement au point et utilisable pour des pièces mécaniques fonctionnant à l’air jusqu’à 900-950° G. La résistance au fluage en 100 h à 1 000° C est de l’ordre de xo kg/mm2.
- Cermets vrais oxyde-métal. — Alors que les produits vus précédemment résultent de l’association de deux phases dont la non métallique (le carbure) possède tout de même des caractères très voisins d’une phase métallique (conductibilité électrique et thermique, solution solide possible avec des métaux...), les cermets vrais combinent deux phases à propriétés opposées en tous points :
- — une phase oxyde céramique, qui est souvent de l’alumine, ou de la magnésie, de la thorine, etc., dure, fragile, réfractaire ;
- — une phase métallique servant de liant : on utilise souvent le chrome ou le nickel.
- La liaison entre ces phases dissemblables est le problème fondamental ; dans le produit le plus connu alumine-chrome, la liaison est acquise par l’existence d’une faible teneur d’oxyde de chrome qui entre facilement en solution solide avec l’alumine.
- p.136 - vue 140/527
-
-
-
- 137
- Ce type de cermet présente une très bonne résistance à l’oxydation jusqu’à des températures dépassant i 200° C, la résistance au fluage est aussi très bonne à ces températures, malheureusement un tel matériau possède toujours une certaine fragilité (due à la phase oxyde) qui l’exclut pour le moment des utilisations où des chocs sont possibles (aubes de turbine).
- Dans le même groupe, il faudrait mentionner des cermets étudiés récemment et qui sont à base de silicium; une composition contenant après frittage la phase Si02, Ti02 liée par du silicium présente une résistance à la coi'rosion à chaud intéressante.
- Matériaux à base de borures. — L’emploi des borures dans les cermets est récent et il est le résultat de l’étude de nombreux systèmes binaires et ternaires et de la recherche systématique de composés réfractaires dans le domaine des carbures, des borures, des nitrures, des siliciures.
- Les borures les plus intéressants, car stables à l’air à plus de 1 4oo° C sont le borure de titane et surtout les borures de zirconium et de chrome. La couche d’oxyde formée est en effet adhérente et étanche. Additionnés d’un liant métallique approprié, préparés par les méthodes habituelles de la métallurgie des poudres, ces borures forment une classe de matériaux réfractaires cependant bien distincte de celle englobant les cermets à base de carbure. Ces borures, purs, ont un caractère métallique très accusé, ils réagissent en général à la température de frittage (qui est très élevée et dépasse souvent 2 ooo° C) avec les métaux servant de liant, en formant des composés complexes.
- Deux types de produits réfractaires commencent à être fabriqués industriellement :
- Le borure de zirconium : matériau relativement fragile à froid, il se caractérise par une stabilité remarquable à haute température (plus de 2 000e C) et une grande dureté; sa résistance au fluage est satisfaisante, ainsi que sa résistance à l’oxydation à l’air à 1 ooo° C. Il est bon conducteur électrique et thermique. Ses propriétés les plus intéressantes sont sa résistance à la corrosion chimique à haute température et sa faculté de ne pas être mouillé par la plupart des métaux fondus. Il résiste ainsi aux acides nitrique et chlorhydrique, à l’eau oxygénée, aux fluorures fondus. Il n’est pas attaqué à des températures allant jusqu’à 1 ioo° C par les métaux fondus suivants : aluminium, étain, laiton, plomb, cuivre, magnésium. Il résiste aussi au silicium fondu; par contre, il est lentement attaqué par le fer et les alliages ferreux fondus, ainsi que par les alliages chrome-nickel fondus.
- Fig. 2. — Pièces en borure de zirconium et en borure de chrome.
- En borure de zirconium : tuyère de fusée, gaine de couple thermoélectrique pour métal fondu, creuset pour évaporation sous vide. En borure de chrome : baguette pour revêtement au pistolet.
- Ses utilisations possibles résultent des propriétés précédentes : brûleurs et tuyères pour hautes températures, pièces de fuséesr dispositifs en contact avec les métaux fondus, : gaines de thermocouple, pièces de pompes à alliages liquides, coussinets, buses d’atomisation de métaux liquides, contacts électriques (lig. 2).
- Le borure de chrome, par rapport au borure de zirconium, se caractérise par une résistance à l’oxydation accrue et surtout une meilleure résistance au choc. La résistance mécanique à chaud est remarquable. Il résiste à l’attaque par les acides nitrique, chlorhydrique, sulfurique, fluorhydrique. Enfin il résiste très bien à l’abrasion.
- Ses emplois sont ceux où interviennent corrosion et abrasion à chaud : pièces d’usure, coussinets dans l’industrie chimique; sièges de vannes et de soupapes; tuyères et buses pour fusées; aubes de turbine à gaz.
- Dans la même classe des borures, il convient de citer le borure de molybdène-nickel. S’il ne résiste pas à l’oxydation à très haute température, il possède pourtant d’intéressantes propriétés anticorrosion : il résiste à l’acide sulfurique par exemple. Il serait utile pour la construction de buses d’injection dans les industries chimiques. Dans un autre domaine, ce borure complexe constitue d’excellents outils de coupe, remplaçant dans certains cas les outils habituels au carbure.
- Composés intermétalliques, — C’est une nouvelle classe de matériaux contenant une seule phase principale. Ce sont des composés définis dont les propriétés intermédiaires entre celles des métaux et des oxydes sont tout à fait distinctes de celles des métaux constituants. C’est pour cette raison qu’on peut encore les appeler des cermets, quoiqu’ils n’en soient pas au point de vue structure. Deux compositions semblent les plus intéressantes :
- Le siliciure de molybdène MoSi2. — A l’état pur, fritté, compact, ce composé résiste d’une façon exceptionnelle à l’oxydation à l’air. Il peut être utilisé jusqu’à plus de 1 700° C à l’air; aussi constitue-t-il une base pour la fabrication d’éléments chauffants pouvant fonctionner couramment à l’air à 1 6oo° C. Il est stable à 1 ooo° C en présence de gaz contenant du soufre. En outre, il résiste à de nombreux acides et à l’action de métaux fondus comme l’étain, le zinc, le plomb.
- L’aluminiure de nickel MAI. — Le point de, fusion de ce matériau composé principalement par la phase définie MAI, est voisin de 1 65o° C, donc supérieur à celui des matériaux composants. Il est préparé par frittage à partir de poudres et, à l’état fritté, compact, il présente une certaine ductilité, propriété assez rarement rencontrée dans les matériaux réfractaires. Sa résistance à l’oxydation à 1 ooo° G est excellente. Ce produit, en cours de développement, s’impose donc dans les installations à haute température exigeant pour les pièces une résistance aux chocs suffisante. En outre, il n’est pas attaqué par les verres fondus.
- Fabrication des cermets. — Les cermets sont des matériaux généralement dui’s, à point de fusion élevé et qui doivent être obtenus compacts pour que leurs propriétés mécaniques et leur résistance à la corrosion soient maximales. Ces faits rendent nécessaire l’utilisation de techniques appropriées :
- — Préparation des poudres de carbures, borures, siliciures..., par réactions entre les éléments composants à haute température (1 5oo à 2 5oo° C) ;
- — Broyage prolongé des substances réfractaires seules, puis mélange avec la poudre métallique par broyage sous liquide; des broyeurs à billes à haut rendement ou des microniseurs sont utilisés ;
- — Compression à froid;
- — Préfrittage à température moyenne, pour obtenir une
- p.137 - vue 141/527
-
-
-
- 138
- pièce cohérente mais encore assez douce pour pouvoir être usinée, découpée, percée ;
- — Frittage à haute température (i 5oo à 3 ooo° C) sous gaz protecteur ou sous vide; on emploie le plus souvent un four à induction II. F. pour cette opération. La suppression de la porosité est due soit à la présence d’une phase liquide (alliage métallique servant de liant), soit à une réaction partielle entre phase réfractaire et phase métallique, réaction pouvant être favorisée par la présence d’une faible teneur d’une troisième substance servant d’intermédiaire entre les deux phases.
- Cependant dans certains cas, ces opérations classiques ne permettent pas d’obtenir un cermet compact satisfaisant.. On utilise alors soit la compression à chaud (entre i 5oo et 3 ooo° C) dans des matrices en graphite, soit l’imprégnation; dans ce dernier procédé, on produit d’abord une pièce poreuse en substance réfractaire (additionnée d’une faible teneur en alliage métallique), puis la pièce frittée est imprégnée par la quantité voulue d’alliage fondu servant de liant. C’est ainsi qu'on prépare certains cermets carbure de titane-alliage nickel-chrome.
- On remarque que le processus de fabrication des cermets est assez complexe. En outre, une rectification à la meule diaman-tée est souvent nécessaire pour donner des dimensions précises à la pièce. Le prix de revient élevé de la fabrication de telles pièces est cependant justifié par la valeur de la matière première et surtout par les propriétés exceptionnelles des pièces finies.
- Utilisations des poudres métalliques dans les revêtements anticorrosion. — Ce sujet est à la limite du domaine de la métallui’gie des poudres; mais il n’en est pas moins intéressant de signaler que les poudres métalliques sont aujourd’hui une matière première importante de l’anticorro-sion. Cette utilisation se présente sous plusieurs aspects :
- Peintures à pigment métallique. — L’emploi de poudres métalliques (bronze, zinc, aluminium, plomb) dans la constitution de peintures de protection est très ancien. Pour augmenter le pouvoir couvrant, on utilise de préférence des poudres lamellaires (préparées par bocardage). Parmi les améliorations récentes dans ce domaine, signalons l’emploi comme pigment de poudres d’acier inoxydable donnant des revêtements ayant une résistance remarquable à la corrosion. D’autre part, certaines peintures actuelles à base de caoutchouc chloré ou de résines synthétiques (polyéthylène par exemple) tolèrent une très forte teneur en charge métallique atteignant 92 pour 100; ceci assure un meilleur contact entre particules de métal, d’où une meilleure protection du métal sous-jacent contre la corrosion (suppression des couples électrochimiques).
- Métallisation au pistolet. — Ce procédé est aujourd’hui très utilisé pour recouvrir les pièces d’acier d’une couche adhérente et étanche d’aluminium, zinc, bronze ou acier inoxydable. Les chalumeaux de projection sont alimentés soit par des fils, soit par des poudres. Récemment ont été mis au point des alliages nickel-bore-silicium qui, projetés au pistolet à partir de poudre, donnent une couche mince et régulière très dure, résistante à l’abrasion, et en outre résistant bien à la corrosion et à l’oxydation à chaud : certains de ces alliages résistent à l’acide nitrique fumant à froid, et peuvent être utilisés dans l’air jusqu’à 75o° C.
- Revêtements en cermets. — Depuis quelques années, cette question est l’objet de nombreuses études. Les revêtements purement céramiques sur les métaux sont fragiles, résistent mal au choc et l’adhérence est souvent médiocre lors de contraintes à haute température. Aussi on recherche actuellement des revêtements plus ductiles et .tout aussi résistants à l’oxydation que les revêtements céramiques; la solution est de former sur le métal à protéger une couche de cermet métal-oxyde. La présence dé métal dans la couche assure une liaison solide avec le
- support et rend le revêtement moins fragile. On a proposé des mélanges contenant du chrome et diverses substances céramiques (par ex. silicate de baryum), qui sont appliqués en suspension aqueuse par projection ou au trempé. Après traitement thermique de frittage dans l’hydrogène, on obtient un revête* ment dur et stable.
- Récemment un revêtement a été lancé industriellement aux États-Unis. Il est à base de nickel-oxyde de magnésium (67 : 33). Il permet de protéger l’acier, l’acier inoxydable, l’Inconel, le Vitallium, et une importante application serait la protection des pièces de moteur à réaction et à fusée. Le revêtement est appliqué de préférence par projection à l’aide d’un chalumeau oxy-acétylénique alimenté par la poudre de cermet. On peut aussi le déposer au pinceau à partir d’une suspension aqueuse contenant du silicate de sodium; après séchage, le dépôt est traité par le chalumeau à x 200° C. Un tel revêtement résiste très bien à l’oxydation à l’air à 1 ooo° C; il résiste parfaitement au choc thermique et l’adhérence sur le support est excellente, même en cas de déformation du support. Enfin au test de stabilité de 5 mn à 1 55o° C en surface, le revêtement se com porte de façon satisfaisante.
- Un revêtement intéressant est celui réalisé par projection de borure de chrome au pistolet ; il permet de protéger l’acier contre la corrosion par l’aluminium fondu.
- Une telle méthode de revêtement au moyen d’un cermet permettra sans doute dans l’avenir de résoudre la question si importante de la protection du molybdène et de ses alliages contre l’oxydation à très haute température par une couche très résistante mécaniquement.
- Conclusion. — La métallurgie des poudres a été à l’origine du développement récent des matériaux résistant à haute température et à la corrosion à chaud. Des progrès sont encore à prévoir dans ce domaine, aussi bien en ce qui concerne de nouvelles substances que dans l’amélioration des propriétés, en particulier résistance au choc et résistance à l’oxydation à des températures encore plus élevées. On réalise maintenant des pièces mécaniques utilisables à l’air sous des contraintes atteignant 10 kg/mm2 jusqu’à 1 ooo° C. Les progrès des engins à réaction et des fusées exigeraient un fonctionnement sûr jusqu’à 1 200 ou même 1 4oo° C. Il est probable que les pi’ochaines années verront, l’apparition des matériaux demandés par les constructeurs. Ces matériaux seront vraisemblablement obtenus par la métallurgie des poudres, mais leur mise au point n’aura été possible que grâce aux efforts conjugués des métallurgistes, des céramistes, des chimistes, des thermodvnamiciens, des mécaniciens, car de plus en plus le succès ne vient que par la réunion des connaissances et de l’expérience des spécialistes de toutes les branches d’industrie.
- R. Meyer.
- Le fromage de Hollande restera rond
- Certains importateurs de fromages de Hollande, notamment des Allemands, avaient exprimé Lavis que la forme traditionnellement ronde des boules constituait un obstacle à un transport et à un classement rationnels ; une forme carrée, ou plus exactement cubique, serait plus favorable, estimait-on. Une enquête approfondie vient d’être conduite aux ..Pays-Bas sur cette importante question : elle a abouti à la conclusion que la réputation du fromage de Hollande était en partie due • à sa forme bien connue ainsi qu’à la teinte rouge ou jaune de sa carapace protectrice de paraffine. En conclusion, la commission d’enquête déclare que le fromage de Hollande demeurera rond aussi longtemps que la Terre elle-même.
- Par ailleurs, les vaches hollandaises se classent en tête de toutes les vaches du monde en ce qui concerne la quantité de lait produit. Pour l'aimée 1936, les chiffres sont les suivants : Pays-Bas, 3 910 kg par animal et' par an ; Belgique, 3 710 kg ; Danemark, 3 429 kg ; Luxembourg, 3 230 kg ; Suisse, 3 130 kg.
- p.138 - vue 142/527
-
-
-
- Une réserve naturelle cTOiseaux
- L’espkit alarmé à juste titre, les savants et le Comité de Protection de la Nature tout particulièrement font actuellement les plus héroïques efforts pour sauvegarder, s’il en est encore temps, les réserves de tous les pays du monde soucieux de donner aux points géographiques les plus aptes à la reproduction des espèces menacées une ultime possibilité de régénération.
- Cette méthode appliquée aux régions déjà délimitées sous le nom de « Sanctuaires de la Nature », permet d’interdire par des lois des contrées gardées par des conditions géographiques et par des agents assermentés. Nous savons que, tant bien que mal, certaines faunes et flores sont en voie de reconstitution et qu’à côté d’espèces irrémédiablement éteintes, d’autres, sur un germe infime, ont repris une vitalité nouvelle d’autant mieux assurée que surveillée dans son expansion progressive. Les pays civilisés ne sont pas moins exposés que les solitudes les plus écartées; aux méfaits des humains et des agglomérations industrielles, s’ajoutent les dérèglements atmosphériques comme aussi les cataclysmes dus à l’envahissement de certaines places par le mazout, aux pluies radioactives, aux insecticides qui détruisent la vie là où ils sévissent. Les phares eux-mêmes sont, on le sait, très meurtriers.
- #
- * *
- Cependant, et avec une puissance que nous n’avons pas et en dehors de toute protection organisée, la nature se défend d’elle-même sur certains milieux favorisés. Je ne veux en donner qu’un exemple très simple par la somme de mes observations sur ma région même où de fréquents séjours me permettent de constater les fluctuations d’une faune de quadrupèdes et d’oiseaux, caractérisant la physionomie des associations spéciale-
- ment ornithologiques du Perche et du Vendômois entre des limites de peu d’étendue, mais suffisantes pour cette étude systématique datant de quarante-six ans.
- Ces deux régions, limitrophes, sont spécialement agricoles et se protègent d’elles-mêmes par la priorité des cultures. Bien que sillonnées de routes passagères, de chemins de traverse pour les autochtones circulant à pied ou en voiture à cheval afin de regagner leur travail saisonnier, on peut envisager que la multiplicité des biotopes fournit ici, à la faune avienne surtout, des conditions des plus propices et de longue date éprouvées dans la continuité d’une évolution naturelle pratiquement introublée et même favorisée par un régime essentiellement agricole que l’industrie ne peut supplanter.
- Des champs entourés de haies particulièrement donnent au Perche, depuis la Normandie par Alençon et le Maine, jusqu’au Loir par la vallée de la Braye, son aspect original et assurent à ses oiseaux une sécurité tout à fait efficace. Dès que l’herbe et les céréales ou les plantes fourragères poussent dans nos champs, est créé un espace inviolable; le cultivateur au besoin saurait le défendre par des moyens absolus, péremptoires. Cet homme qui a le sens de ses intérêts ancré par la peine que lui coûtent les intempéries redoutées et redoutables, ce terrien qui sait le prix des cataclysmes, les alertes que lui causent les saisons et les aléas des « accas » (x) d’eau, des inondations et de la grêle, des gelées prolongées dans un printemps incertain, compte les richesses d’une terre profonde et généreuse, attend sa fortune de ses plantations de pommiers et de poiriers croissant sur les levées des haies ou en plantureuses allées au milieu des champs. Secondé par l’élevage du cheval et des bêtes à cornes, il récolte dans nos vallées les foins des immenses prairies qui ne sont fau-
- 1. Accas, terme percheron venu du bas-latin « accasus » : chute
- p.139 - vue 143/527
-
-
-
- 140
- chées qu’à la fin de juin; donc, tout le printemps, l’herbe protège des couvées innombrables.
- Dans cet ensemble végétal, il faut comprendre, généralement sur les éminences, des bois au sol pierreux de venue moins belle que les grandes forêts voisines : Vibraye, Bercé, Frèteval, Vendôme ou Meslay. Mais ce groupement d’essences constitué par les Galouries, le Fief-Corbin par exemple, agrège dans sa seule tenue un nombre d’espèces constantes qui s’y reproduisent annuellement; depuis un demi-siècle que je les étudie, la crise de diminution qui sévit ailleurs sur la faune n’agit pas ici encore. Je ne connais, pour troubler cet équilibre, que les rapaces de certaines espèces, quelques carnassiers comme le chat domestique, le renard, le putois, l’hermine et autres Mustélidés. Mais ce même équilibre naturel, malgré aussi les sévices de l’écureuil, du vison, de la corneille, de la pie ou du geai, reste étale parce que la densité végétale est telle qu’elle obstrue encore les incursions des dénicheurs, enfants ou adultes.
- Fig. 2. — Hobereau poursuivant une Hirondelle.
- Un simple jardin comme le mien, sur 80 m de long et 4o de large, ouvert au sud sur la campagne, tournant le dos à une agglomération de i 5oo âmes, légèrement élevé et en pente vers l’ouest, peuplé d’arbres et de buissons avec des haies et des murs tapissés de lierre ou de vignes vierges, mon simple jardin limitrophe d’autres jardins, prenant vue de haut sur les « prées » et les aulnaies de la Braye et de la Genne, me permet de dénombrer une foule d’oiseaux estivants ou de passage.
- *
- * *
- Dès la fin de février, je vois s’établir la Grive draine (fig. 3) au chant altier et qui semble défier les rigueurs hivernales. Tel vieux pommier aux grosses branches bourrées de lichens lui permettra de bâtir assez haut son nid mimétique que je me garderai bien de troubler. Les vocalises du mâle défraieront largement ma curiosité.
- Le Pinson des arbres sera représenté par deux couples et nichera dans les mêmes conditions, le lichen tapissant extérieurement le berceau si artistement tissé de ses petits.
- La Mésange à longue queue logera son nid ovoïde au flanc d’un arbre dont il simulera à ravir le revêtement, à moins qu’aussi hardie que le Roitelet huppé elle ne le suspende par un enchevêtrement de crin et de toiles d’araignées entre les ramilles retombantes d’un sapin de Nordman ou d’un épicéa. J’ai eu le bonheur de trouver un jour, à un mètre du sol, un nid de ce Roitelet et construit sous les basses branches d’un Abies tandis que je m’évertuais à penser que le mâle, au faîte de mes conifères, chantait près d’un minuscule hamac inacces-
- sible; il contenait neuf œufs rose chair auréolés d’infimes points rougeâtres.
- Un architecte très commun, à nid ovoïde bourré de mousse à l’extérieur, c’est le Troglodyte, sédentaire, habitant des tas de bois et des hangars, au chant vibrant et qui apparaît à chaque instant sur un pignon ou à la tête d’un fagot, à moins que ce ne soit à l’œil-de-bœuf latéral de son logis.
- Deux couples de Rossignols des murailles croisaient constamment, ce printemps, à travers le jardin. Ils habitaient, l’un un lierre épais, l’autre un trou dans le mur Est de l’église qui faisait écran à leurs mélancoliques cantilènes.
- Le pigeonnage sert d’estrade à de nombreux Étourneaux-Sansonnets qui nichent dans la muraille côte à côte avec les Martinets, la Hulotte et les Choucas, à moins qu’ils ne disputent au Pic vert un trou de pommier trop restreint pour la Chouette de nos vergers : la Chevêche à la voix de revenante.
- C’est dans ce verger que j’écoute toujours avec passion depuis mon enfance les voix de tous les petits oiseaux qui ont fait pacte avec mes arbres et dont les générations se perpétuent sans manques sensibles.
- Le Rossignol y fait son nid au sol, cependant sans continuité, alors que la Fauvette à tète noire (fig. 4) y chante toujours et que la Fauvette des jardins, si elle y vient grasseyer sa sonore chanson, s’en rapproche surtout pour se gaver de cerises ou de baies de sureau bien mûres. Les sureaux en effet ne manquent pas ici et c’est, à l’époque de leur fructification, le rendez-vous des Fauvettes, des Pouillots fitis et véloce, de l’Hypolais polyglotte, si mal nommée car elle n’a pas le langage ubiquiste de sa congénère l’Ictérine qui n’habite pas notre région et vit dans le Nord, l’Est et le Midi de la France. Là aussi vient le Loriot nicheur de nos aulnaies; son chant me le révèle plus souvent que sa livrée dorée d’oiseau des tropiques, farouche et rapide.
- *
- * *
- Mais certains oiseaux font ici des apparitions déconcertantes. Le Torcol entre autres se révèle maintenant par sa voix de ventriloque, au printemps, après une absence de 25 ans de la région. Le Rouge-queue tithys y est au contraire en accroissement, de même que le Serin cini qui gagne de plus en plus le Nord de la France. Le Gobe-mouche noir passe, isolé et très rare, en avi-il, alors que sa descente d’automne le montre fréquent. Les itinéraires d’aller et de retour sont donc différents.
- Ces fluctuations ne sont pour surprendre personne bien qu’on soit porté à attendre la constance des migrateurs quand des erratiques comme le Bec-croisé des Pins (fig. 5) apparaissent tous les ans en troupes d’une quinzaine qui dévalisent non seulement les pommes des épicéas, mais les « pommes en l’air » du verger. Certaine année, tous les fruits d’un même pommier furent proprement nettoyés de leurs pépins, le relief de la pomme restant dans l’arbre, creusé outrageusement et illusoire. De temps à autre aussi, à la même place, j’ai pu observer de rares Sizerins Cabarets de passage venant, à des années de distance, là même, sur des capitules épanouis au coin d’un jardinet en friche.
- Ainsi on perçoit que la Nature soit mystérieuse bien que saisonnière par ses caractères plus généraux. C’est pour cette raison que tous les ans, je sais qu’au moment de la sortie de nid des jeunes Hirondelles de fenêtre, le Faucon hobereau (fig. 2) au vol si prompt viendra au cœur du village saisir parmi elles la proie quotidienne de sa nichée. Des mêmes bois voisins, l’Épervier, en toute saison, vient chiper des moineaux sur le bord du toit.
- Le Ramier, la Tourterelle ont pris l’habitude de nicher, le premier dans un tilleul, la seconde dans des coudrières. La Caille se fait seulement entendre en bordure de mon pré mais appartient réellement à la prairie comme le Râle des Genêts que j’entends aussi dans les beaux soirs d’été. Le Pigeon Colombin
- p.140 - vue 144/527
-
-
-
- 141
- Fig. 3 à 8. — En haut, de gauche à droite : Grive draine, chantant ; Fauvette à tête noire ; Bec-croisé s’attaquant à une pomme. En bas, de gauche à droite : Pic Epeichette creusant un tronc ; Mésange huppée sortant de son nid ; Perdrix rouge, chantant.
- (Dessins inédits de Roger Reboussin).
- plus farouche encore, en accroissement lent, préfère les arbres creux des bois ou les vieux peupliers de Hollande de la vallée.
- *
- # *
- Si le ciel est sillonné des vols fauchants du Martinet noir jusqu’à la première tempête de la fin de juillet, après trois mois de séjour exactement dans mon voisinage, j’y remarque, à chaque saison d’aller ou de retour des migrateurs, la silhouette typique des Oies sauvages, des Grues, des Hérons cendrés, des Vanneaux et des Canards sauvages, mais aussi, en été, celle de l’Engoulevent qui chasse aux insectes crépusculaires; de même celle de la Bécasse en automne ou du Courlis cendré. J’y perçois, à la belle saison, le cri de l’OEdicnème et, dans la nuit d’hiver, le sifflement de passage de la Grive Mauvis. Au printemps, hors le chant du Rossignol, la nuit, autre chantre du clair d’étoiles, l’Alouette lulu qui vole en égrenant sa longue psalmodie, en orbes immenses sous la voûte du ciel.
- ♦
- # *
- Le matin, avant l’aube, est très propice pour observer dans son intimité la plus secrète la population d’un coin de terre
- même aussi restreint. On pourra comme moi assister à la parade du Merle noir (fig. g), près de sa femelle, pelotonnée dans son manteau brun, qui trottine devant lui; il se ramasse sur ses tarses et, le cou dressé, la tête un peu abaissée, ouvre à l’extrême son bec jaune et lui révèle les splendeurs de son gosier de même couleur. Cela, sans un cri, précède un accouplement silencieux. Silencieuse aussi, la poursuite amoureuse des Accenteurs mou-chets; à terre, sur les basses branches où ce « traîne-buisson » se faufile comme s’il ne savait voler, le mâle donne du bec à chaque instant dans le cloaque de sa femelle prête à recevoir la caresse finale. J’ai pu voir cela ce printemps, vérifiant ainsi les observations de mon défunt ami Jacques Delamain.
- Commencent alors les chants du Rossignol de murailles, des premiers, du Rouge-queue tithys, du Merle, du Troglodyte avant l’apparition du soleil que saluent Pinsons, Verdiers, Chardonnerets, Moineaux domestiques enfin. Un seul Bruant, le Bruant zizi, affectionne mon jardin et y niche; son chant de sauterelle résonne à toute heure, suivant ses habitudes, et même dans les heures de grand soleil. De même, la Huppe qui passe d’un verger à l’autre, vagabonde, peinte en blanc et noir sur un ton de terre cuite comme une statuette grecque; elle étouffe son chant dans le lointain des arbres en bordure de prairie.
- De là vient, de temps en temps, un inspecteur des nids animé de sombres projets; masquée de noir, la Pie-grièche écorcheur jette son cri froid du haut d’un arbre tandis qu’au ras de
- p.141 - vue 145/527
-
-
-
- 142
- l’herbe du pré vole et zigzague le Gobe-mouche gris chasseur de diptères et de papillons et qui niche' sur les treilles collées aux murs de ma maison. Il arrive au début de mai seulement comme le Loriot, tandis que le Rouge-gorge, qui nous charme de son chant l’hiver avec le Traîne-buisson et le Troglodyte restés seuls, vient d’éclore une première couvée.
- Dès que les noisettes sont rousses, le Pic Epeiche qui a élevé sa famille au bois, vient attaquer une à une les avelines. Il en saisit une, la fiche dans une fissure de noyer ou de cerisier et cogne dur pour extraire le noyau. La Sitelle fait de même et elle est si adroite que c’est souvent la tête en bas qu’elle extrait le fruit; s’il lui échappe, il est rattrapé au vol avant qu’il n’ait touché le sol. Il y a beaucoup de gâchis dans ce labeur; la terre est jonchée de coquilles parasitées par le Balanin des noisettes. Le Pic Epeichette (fig. 6) ne s’attaque
- Fig. 9. — Parade nuptiale du Merle noir.
- A gaucho, la femelle ; à droite, le mâle.
- guère à celte provende, ayant plutôt le régime insectivore du Grimpereau des jardins qui escalade les arbres avec un chant flùté et qui suit une gamme ascensionnelle rythmant sa ligne de montée. L’Epeichetle tambourine comme l’Epeiche pour appeler sa femelle au printemps ; la préparation du nid et la chasse aux xylophages sont plus silencieuses.
- J’ai donc exposé ici le nombre et la densité des oiseaux typiques d’un jardin percheron bien situé et ne ferai grâce à mon lecteur des Mésanges (charbonnière, bleue et nonetle) sédentaires de tout verger, de la Mésange noire qui vient seulement en hiver, ni de la Mésange huppée qui visite mes arbres seulement sans nicher autre part que dans nos bois de pins où elle emprunte trou de Pic ou bauge d’Ecureuil pour capitonner son manoir (fig. 7).
- *
- * *
- A tous les étages de la végétation pa_ssent et repassent donc spécialement des oiseaux familiers; chaque saison renouvelle l’animation du site différemment coloré par le soleil, la nuit, la rosée, le givre ou la neige. Personne ne les trouble jamais; c’est une réserve qui s’éprouve elle-même et vit comme toute entité naturelle avec ses naissances, ses mariages, ses migrations et ses décès, ses renouvellements constants en densité égale.
- *
- * *
- Le Perche compte dans ses prairies et ses marais des espèces qui constituent la sauvagine que je retrouve plus abondante encore dans le sud du Loir-et-Cher, en Sologne ; les étangs abondent dans des propriétés de chasse bien gardées et seuls les
- Canards, Oies, Râles et Bécassines y sont tirés. Les chasseurs savent le prix des cartouches et des déplacements comme des locations et frais d’élevage et de garde. C’est là encore une protection par conséquent. Les Bécassines font dépenser plus de poudre; mais les colonies de Goélands rieurs, de Grèbes, de Sternes épouvantails et moustac sont prolifères et laissées intactes si le Busard harpaye est le seul ennemi sérieux qui sévisse également sur les Poules d’eau et les Foulques.
- Mais je reste encore optimiste à l’endroit de la Sologne où je ne déplore que la destruction par les gardes, plus instruits pourtant actuellement, de tous les Rapaces diurnes et nocturnes inconsidérément. Et je le regrette infiniment pour les Buses, les Bondrées, le Faucon crécerelle dont les services sont trop méconnus par leur alimentation en petits rongeurs, si nombreux et si nuisibles aux récoltes.
- L’extinction du Lapin sera un rétablissement d’équilibre appréciable pour les sylviculteurs bien que le Renard, le Blaireau, les Bêtes puantes en général s’en repaissent plus que du Lièvre qui va devenir la victime de choix de l’Autour aussi qui niche dans tous nos bois et toutes nos forêts.
- *
- # *
- De la Sologne au Perche s’étendent la Beauce vendômoise, la Beauce blésoise et la Beauce orléanaise, excellentes tenues. Là cessent les haies percheronnes et les étangs solognots, où
- 1 N
- Nid de
- Fig. 10.
- Rousserolle turdoïde.
- (Dessins inédits de Roger Reboussin).
- nous laisserons gémir les Butors et nicher les Hérons. Ici, les seules voies d’eau seront le Loir en limite sud du Perche et la Loire transversale. Sur les plateaux et plaines immenses, les céréales et les « artificielles » régnent totalement.
- Les roselières du Loir et de la Braye inférieure abritent les Rousserolles turdoïdes (fig. 10), chanteurs de nuit comme de jour dès la fin du printemps où résonnent leurs vibrants coassements; les Bruants de roseaux, les Pliragmites s’y maintiennent en nombre et forment de petites colonies, que parasite le Coucou assez fréquemment, surtout s’il s’agit du nid suspendu entre trois roseaux de la Rousserolle effarvatte, diminutif de la Turdoïde. Ce milieu ne me semble pas troublé par l’homme quand la Loutre, le Ragondin ou le Campagnol aquatique font proie
- p.142 - vue 146/527
-
-
-
- 143
- Fig-, 11. — Outarde canepetière.
- (Dessin inédit de Roger Reboussin).
- du poisson ou, pour les seconds, faucardent les roseaux. En hiver, dans toutes ces vallées où sévissent des crues souvent importantes, apparaît la sauvagine : Canards et Fuligules, même d’espèces nordiques, Cygnes, Tadornes, Oies et Échassiers nombreux renouvellent sur un miroir de courants ou de glaces l’aspect septentrional d’un pôle rapproché. Dure chasse que celle-là, hécatombes à grands coups pour les hutteurs. Prélèvement cependant peu considérable en tenant compte de l’énorme vague d’oiseaux qui dérive vers le Sud ou remonte au premier dégel. Les phares sont plus meurtriers.
- La protection de cette réserve mouvante appartient aux législateurs et, pour l’application, aux préfets, comme le redressement des enfants dénicheurs de petits oiseaux à l’Éducation nationale par le truchement des instituteurs.
- Je ne puis, en ce sens, que joindre ma plainte à celle non satisfaite encore de nos sociétés protectrices de la Faune mondiale ou seulement française à titre d’éclaireur. Or les listes officielles d’espèces à protéger ou à limiter sont encore regrettables à la lecture. Alouettes, Becfigues, Ortolans ne sont pas protégés. Il y a des départements, du Poitou aux Pyrénées, qui gardent comme coutume inviolable le droit au massacre des
- petits oiseaux, qu’ils soient Rouges-gorges, Becs-fins, Hirondelles ou Roitelets. Cela est-il mentalité de civilisés cc conscients et organisés » ? Disons désorganisés, flagornés. Par qui ? Pour quoi ? Tout le monde le sait et le réprouve. Que l’autorité ne se fait-elle comprendre ! Pourquoi le Sud-Ouest chasse-t-il à l’Ortolan et les Ardennes aux Grives ? Massacres immoraux que tout cela. De même dans le Midi oriental.
- Qu’au contraire la chasse soit autorisée sur le gibier, dans des territoires où le repeuplement est notoire et le braconnier surveillé et puni, cela fait partie d’une économie mieux dirigée sur le cheptel en Perdrix, en Faisans, en Lièvres. Ajouterai-je l’Outarde canepetière (fig. n) qui arrive en bandes en avril, tourne longuement en troupe au-dessus des immenses plaines et se pose pour des tournois qui aboutissent à une essaimation rationnelle clairsemant les couples. Très sauvage, peu abordable, l’Outarde n’a de crainte à éprouver que dans la pratique bra-connière du paysan qui, en plein printemps, piège sur sa place de danse le bel échassier au plumage ocre vermillé de caractères arabes.
- La Perdrix rouge (fig. 8) se tient dans les cultures du Perche et niche sur les haies ou dans les bois. Le couvert lui convient où elle peut ruser, à pattes, devant le chien. Une des nombreuses trognes de chêne, en pleine haie, peut l’abriter dans sa fuite. Autochtone, c’est un gibier percheron qui se défend bien et reste à densité égale avec la Perdrix grise. En Beauce, la grise est nombreuse et seule maîtresse des plaines. Dans les vallées, il lui arrive fréquemment de nicher dans les artificielles comme dans les prairies communales.
- Tel est donc le bilan des espèces de ce Centre de la France qui constitue la réserve la plus naturelle d’un monde surchargé de circulation automobile et ferroviaire. Nos’départements agricoles, maritimes et montagnards, en conclusion, peuvent, par leurs édiles dûment avertis, protéger une faune décimée par l’envahissement industriel. Cette forme de conservation, mieux appliquée encore par des pouvoirs intransigeants, ne peut que réussir à accroître le nombre et la densité de nos oiseaux, à condition que les insecticides ne viennent pas, à leur tour, décimer l’oiseau innocent, victime de l’homme aux inventions radicales peut-être, mais barbares dans le cas présent.
- Ma voix plaide ici pour celle de l’Oiseau, pour sa beauté, pour son charme auprès de notre existence surmenée, turbulente et bruyante. Y aura-t-il parmi mes lecteurs des gens de bon sens et de grand pouvoir qui sauront arrêter ce « moderne » fléau qui marche vite et, peut-être, irrémédiablement? Alors le ministre compétent pourra se déclarer « satisfait ».
- Roger Reboussin.
- Un lubrifiant thixotropique
- La Gulf Oit Corporation de Pittsburgh (Pennsylvanie) vient de mettre au point un nouveau type de lubrifiant pour machines de bureau qui a l’avantage d’assurer une lubrification durable. En effet, ce nouveau produit, auquel on a donné le nom de « Gulf Plastic Petroleum B » présente le phénomène de thixotropie.
- Rappelons qu’un système thixotropique est un système capable de passer par agitation mécanique d’un état rigide à un état non rigide, et de revenir par simple repos à l’état rigide, ce processus étant susceptible de se reproduire indéfiniment. Les sables mouvants, qui forment le bord de la mer dans certaines régions, comme au Mont-Saint-Michel, sont des systèmes thixotropiques. Si on ne les agite pas, ils sont solides et constituent des bancs stables ; mais, si on les charge au-delà, d’une certaine limite, ils deviennent liquides et l'objet s’enfonce comme dans un liquide sans rigidité. Il en est de même des collodions de viscose utilisés pour la fabrication de la rayonne. Lorsque la filière est mise en marche, le liquide étant immobile, il est très difficile de tirer le fil ; dès que l’appareil est en mouvement, au contraire, la viscosité diminue et il faut abaisser la surpression d’azote qui
- assure le passage de la viscose dans la filière. Le phénomène est le même pour le nouveau lubrifiant : il est fluide et huileux quand les machines fonctionnent et il reprend à l’arrêt la consistance d’une graisse peu épaisse. Par suite, il est susceptible de durer beaucoup plus longtemps. Il peut accroître considérablement le temps de service des machines.
- Les expériences ont été effectuées pendant plusieurs années à la National Cash Register Company qui a essayé le produit sur ses machines ; elles ont montré la supériorité de ce lubrifiant par rapport aux produits classiques. Outre ses propriétés en tant que lubrifiant, le nouveau produit exercerait une action antirouille remarquable. Il résiste très bien à l’oxydation et, de ce fait, ne donne pas de gommes et ne se dégrade pas.
- Les pièces mécaniques sont enduites par brossage ou par immersion dans le produit dilué avec un solvant convenable. Ce lubrifiant est utilisable entre 0° et 65° C ; il convient donc aussi bien pour les machines à calculer ultra-rapides qui « chauffent » au cours de leur fonctionnement que pour les machines enregistreuses des marchés en plein air pendant la mauvaise saison.
- p.143 - vue 147/527
-
-
-
- La séparation électrostatique des minéraux
- Les techniques de préparation des minerais ont une importance primordiale pour rendre économique l’extraction de minerais de plus en plus pauvres. Les résultats déjà obtenus à cet égard sont des plus encourageants. Il y a une cinquantaine d’années, un minerai de cuivre n’était exploitable qu'au-dessus de 3 pour ioo de métal. Actuellement on traite avec profit des gisements à moins de o,5 pour xoo.
- Ces résultats sont dus aux progrès considérables des techniques de concentration des éléments utiles. On peut les observer dans toutes les méthodes : par gravité, par séparation par milieu dense, par flottation des minerais sulfurés et même oxydés; également dans le développement de la séparation électromagnétique à laquelle nous avons déjà consacré un article (La Nature, octobre 1957, p. 4o8).
- Actuellement, on assiste à la mise au point pratique des méthodes de séparation électrostatique.
- Les premiers phénomènes électriques avaient été observés par les Anciens, en particulier par Thaïes de Milet; ils se limitaient à l’attraction de menus objets par l’ambre frotté.
- C’est au xvn6 siècle que débute l’étude de l’électricité statique : Otto de Guericke découvre la répulsion électrostatique, puis on distingue les corps conducteurs et non conducteurs ; on découvre le premier condensateur : la bouteille de Leyde. Ensuite apparaissent les machines basées sur le principe de la production d’électricité par frottement, suivies ensuite par les machines à influence.
- A la fin du xix® siècle, on démontre la possibilité de séparer des mélanges de produits secs en leurs éléments par l’action de l'électricité statique. Ces phénomènes restent dans le domaine théorique, car à l’époque les générateurs étaient de très faible puissance et de peu de sécurité de marche.
- Au début du xx9 siècle, l’apparition des méthodes de flotta= tion a mis en sommeil l’étude des autres techniques de séparation des minerais. Elles sont maintenant bien au point et les spécialistes recherchent actuellement des procédés de séparation de mélanges que ni la gravimétrie, ni la flottation, ni l’électromagnétisme ne peuvent réaliser.
- La séparation électrostatique entre actuellement dans le domaine de ces recherches, avec cet avantage sur le passé récent, de disposer maintenant de générateurs puissants pour l’alimentation des séparateurs électrostatiques.
- Le terme « séparateur électrostatique » a été généralement adopté pour désigner les appareils où des grains de minerai sont soumis à l’action d’un champ électrique. Deux types d’appareils ont été construits jusqu’à ces derniers temps :
- — Appareils purement électrostatiques utilisant la plus ou moins grande rapidité que mettent les grains à prendre des charges superficielles statiques; dans ces appareils, la séparation a lieu grâce k-V effet de déviation obtenu;
- — Appareils dans lesquels les grains de minerai sont soumis à une décharge d’ions; dans ces appareils, la séparation a lieu grâce à Veffet de fixation obtenu.
- Appareils à déviation. — Le minerai à enrichir, broyé et convenablement classé, est amené par un distributeur sur un cylindre tournant métallique A mis à la terre. Ce cylindre constitue l’un des pôles du champ électrique utilisé (fig. 1). L’autre pôle B, relié à la source de courant continu haute tension, est constitué également par un cylindre métallique convenablement isolé et correctement placé par rapport au premier.
- Les grains de minerai peuvent être considérés comme des diélectriques imparfaits. Lorsqu’ils pénètrent dans le champ,
- Fig. 1. — Schéma de séparateur électrostatique à déviation.
- Explications dans le texte.
- les grains bons conducteurs (BC) prennent instantanément leur charge électrique superficielle, pendant que les mauvais conducteurs (MC) prennent d’abord une charge plus ou moins réduite, qui croît avec le temps. Les grains bons conducteurs venant au contact du cylindre A sont repoussés par lui, et d’autant plus rapidement que leur retard à l’électrisation est moindre. Ils sont ensuite attirés par l’électrode B. Ils sont ainsi déviés de leur trajectoire naturelle. Les grains mauvais conducteurs sont repoussés d’autant moins que leur retard à l’électrisation est plus grand. Ils pourront même subir, de la part du cylindre A, une légère attraction qui les déviera dans le sens de la rotation. Une séparation est donc possible qui utilise ce que nous appellerons l’effet de déviation.
- Les appareils construits suivant ce principe présentent des inconvénients, dont le principal consiste dans l’influence considérable des variations d’humidité et de température de l’air environnant. On doit presque toujours assurer un conditionnement de cet air. De plus, les forces de répulsion mises en jeu sont faibles par rapport à la masse des grains. Il s’ensuit que le pouvoir séparateur est assez restreint (10 à 20 pour 100) et qu’il faut prévoir un certain nombre de champs traversés en série par le minerai. Les appareils sont donc encombrants et chers. Ils utilisent normalement des voltages allant jusqu’à 20 000 V. Le courant dépensé est très faible, dû surtout aux pertes par effluvation et par choc des grains contre le pôle élec-trisateur.
- Appareils à fixation. — Dans ce deuxième type d’appareils, d’origine plus récente, on utilise un principe différent (fig. 2). Les grains de minerai, dès qu’ils viennent d’être déposés sur le cylindre tournant A mis à la terre, sont soumis à une décharge constituée par un flot d’ions formés par une électrode B. Cette électrode peut être constituée par un fil métallique fin réuni à la source haute tension et créant autour de lui un champ circulaire à haut gradient. L’effet Corona se manifeste avec émission d’ions. Soumis au bombardement de ces ions, les grains prennent une charge de même polarité que celle de l’électrode.
- Au contact du cylindre A, les grains bons conducteurs (BC) perdent rapidement la charge reçue et ne sont pas déviés de
- p.144 - vue 148/527
-
-
-
- 145
- Fig. 2. — Schéma de séparateur électrostatique à décharge (fixation).
- Explications dans le texte.
- leur trajectoire naturelle. Au contraire, les grains mauvais conducteurs (MG) prennent une certaine charge. Ils sont alors fortement attirés par le cylindre A, fixés sur lui et entraînés dans sa rotation. L’attraction qu’ils reçoivent peut être grande et atteindre, dans le cas des grains fins, 3o fois le poids du grain. La séparation obtenue utilise ce que nous appellerons l’effet de fixation. Il peut être intensifié si on utilise une décharge dirigée.
- Les appareils construits sur ce principe sont, en raison de l’importance relative des efforts mis en jeu, caractérisés par : i° un fort pouvoir séparateur, supérieur à 8o pour ioo dans de nombreux cas, un seul passage du minerai dans le champ est alors suffisant; 2° une grande insensibilité aux variations de température et d’humidité de l’air environnant; les appareils peuvent fonctionner sous hangar; 3° une certaine dépense de courant correspondant à la formation continue des ions gazeux qui bombardent le minerai.
- Séparateurs combinés. — Un constructeur français a établi un séparateur qui utilise les effets combinés des appareils purement électrostatiques (effets de déviation) et des appareils à décharge (effets de fixation). Il a été ainsi possible : i° d’obtenir une direction privilégiée du bombardement ionique; 2° de dévier les grains bons conducteurs de leur trajectoire naturelle et d’augmenter le pouvoir séparateur.
- Mixtes
- Fig. 3. — Schéma de séparateur S.l.M.E. à déviation et fixation combinées.
- Explications dans le texte.
- Ces séparateurs comprennent schématiquement (fig. 3) : un cylindre métallique tournant A mis à la terre et recevant le minerai provenant directement d’une trémie à ouverture réglable, s’il coule facilement ou d’un distributeur; une électrode de décharge B constituée par un fil métallique fin ; une électrode cylindrique métallique C, d’assez fort diamètre que nous appellerons électrode statique.
- Les électrodes B et G sont parallèles et assez voisines l’une de l’autre. L’électrode B est réglable angulairement par rapport à C. A cet effet, les deux électrodes sont solidaires l’une de l’autre. Elles sont réunies à la source haute tension. Les volets de séparation permettent d’obtenir trois produits dont un mixte.
- Le fonctionnement est le suivant. Grâce à la présence de l’électrode C qui donne un champ important mais à gradient faible, les ions gazeux formés grâce à l’électrode B sont dirigés
- Fig. 4. — Séparateur combiné S.l.M.E. pour le traitement du quartz aurifère.
- Cet appareil, vu ici en cours de montage aux mines de Masbate (Philippines), est le plus important qui ait jamais été construit.
- dans le plan qui passe par les axes des deux électrodes. On obtient ainsi un pinceau d’ions qui vient frapper le cylindre A à sa partie supérieure, immédiatement après l’arrivée des grains de minerai. Ces grains sont alors en turbulence et bien dégagés les uns des autres. Les mauvais conducteurs (MG) sont facilement fixés sur le cylindre A avant qu’ils aient pu prendre leur pleine vitesse. Les bons conducteurs (BC) suivent leur trajectoire, puis sont déviés par l’électrode C.
- L’effet de fixation obtenu est considérablement renforcé grâce à la concentration des ions dans la direction choisie. Il est d’ailleurs variable suivant la position occupée par l’électrode B. Si le pinceau d’ions ne frappe pas le cylindre A, cet effet est nul et l’appareil fonctionne comme un séparateur purement électrostatique. L’électrode C produit alors un effet de déviation sur les grains bons conducteurs. Par un réglage convenable de la position des électrodes B et G, on obtient un très fort effet de fixation sur les grains non conducteurs et un effet de déviation sur les conducteurs. Le pouvoir séparateur ainsi obtenu peut atteindre dans certains cas 98 pour 100.
- Ces séparateurs combinés sont caractérisés par : leur très grand pouvoir séparateur; leur remarquable insensibilité aux variations de température et d’humidité de l’air environnant; leur simplicité; leur faible consommation (o,5 à 2 mA pour une longueur utile de 1 m, la tension d’alimentation pouvant atteindre 35 000 V).
- p.145 - vue 149/527
-
-
-
- 146
- Ces séparateurs sont construits sous forme d'unités de traitement comportant : •
- — un châssis mis à terre supportant l’ensemble de l’unité;
- — un dispositif de distribution mis à la terre ;
- — un cylindre séparateur recevant le minerai; ce cylindre tournant, d’un diamètre de i5o mm se présente en deux longueurs : 0,600 m et 1,200 m; sa vitesse de rotation varie avec la granulométrie du minerai; il est mis à la terre;
- — un ensemble convenablement isolé comportant l’électrode de décharge et l’électrode statique; l’électrode de décharge est prévue d’habitude à Co° de l’axe de l’électrode statique, avec possibilité de réglage autour de ce point;
- — les volets de séparation des produits triés;
- — le dispositif de commande du cylindre séparateur; ce dispositif est mis à la terre.
- Une telle unité donne, en un seul passage, deux produits propres correspondant aux bons et aux mauvais conducteurs et un produit mixte de faible importance, devant être recyclé. On
- Fig. 5. — Séparateur électrostatique de laboratoire.
- Tableau I. — Comportement de divers minerais
- DANS LES SÉPARATEURS ELECTROSTATIQUES
- Ces listes ne sont pas limitatives et ne sont données qu’à titre indicatif ; elles résultent d’essais pratiques.
- Minerais mauvais conducteurs se fixant sur le cylindre séparateur Minerais bons conducteurs ne se fixant pas sur le cylindre séparateur
- Anorthite Hornblende Bismulhine Spath-Fluor
- Apatite Hypersthène Brookite Sphatérite (Blende)
- Baryte Magnésite Columbite Stibine
- Bastnæsite Monazite Galène Tantaline
- Béryl Quartz Graphite Wolfram
- Galcite Scheelite Hématite etc.
- Garnolite Sillimanite Hubnérite
- Cassitérite Spinelle Ilménite
- Célestine Staurotide Limonite
- Gorindon Sylvinite Magnétite
- Epidote Tourmaline Manganite
- Feldspath Wollastonite Or
- Grenat Zircon Pyrite
- Gypse etc. Rutile
- Au point de vue pratique, les séparateurs électrostatiques peuvent être appliqués aux séparations suivantes : scheelite/pyrites; ruliie ou ilménite/zircon ; ilménite/monazite; wolfram/cas-sitérite ; columbo-tanlalite/cassitérite; columbo-tantaline/quartz; tluorine/quartz, etc.
- Une publication de l’O.E.C.E. (x) a signalé une application importante : la séparation électrostatique des diamants en Afrique du Sud. ce Le procédé fut pour la première fois utilisé avec succès dans le cas des minerais diamantifères du Namqua-maland dans le Sud-Ouest africain, mais il échoua lorsqu’on voulut l’appliquer à d’autres minerais. La raison en était que les diamants du Sud-Ouest africain étaient naturellement activés par NaCl. Les autres diamants qui n’ont pas été exposés à l’eau salée ont des surfaces inactives. Les recherches ont permis de mettre au point un procédé dans lequel on active les diamants avec une solution salée. Il faut éliminer toute trace de NaCl avant la séparation électrostatique, mais après dix lavages l’activité de la surface des diamants persistait, bien que le minerai fût alors chimiquement débarrassé de sel. »
- peut, soit recycler séparément les mixtes obtenus sur chaque unité, soit réunir tous les mixtes et les retraiter sur une unité auxiliaire, les mixtes redonnés par cette unité étant recyclés à l’alimentation générale.
- Le débit possible d’une telle unité varie avec les minerais traités et avec leur granulométrie. Seul un essai permet de la fixer.
- Ces séparateurs sont alimentés par des dispositifs redresseurs donnant du courant de haut voltage en partant du courant alternatif distribué par le réseau. Ces redresseurs sont caractérisés par le fait qu’ils fournissent un courant pulsé à crêtes marquées. Ce courant a été reconnu préférable au courant faiblement ondulé fourni normalement par les redresseurs.
- Les séparateurs comportent les appareils de réglage et de contrôle nécessaires.
- *
- * *
- Pour les essais, des séparateurs électrostatiques de laboratoire ont été mis au point. Ils permettent le réglage de tous les facteurs qui interviennent dans la séparation : débit, vitesse du cylindre séparateur, position des électrodes, valeur de la tension. Ils conviennent à l’étude des divers minerais et à la détermination des appareils industriels les plus aptes à les traiter.
- 1. Extraction et préparation des minerais pauvres en Europe. O.E.C.E., Paris, 1955 (p. 104 et p. 328).
- Minerai
- ( Ilménite, Rutile, lircon, Monazite)
- Séparateurs
- électromagnétiques
- lircon j
- Monaz/te
- | Hmènite Rutile
- Fig. 6. — Schéma de la séparation d’un mélange de minerais (ilménite, rutile, zircon et monazite) par traitements électrostatique et électromagnétique.
- p.146 - vue 150/527
-
-
-
- 147
- Du fait que la séparation électrostatique travaille sur des minerais secs, elle peut êti'e, dans beaucoup de cas, combinée avec la séparation électromagnétique.
- On peut citer comme exemple le traitement des sables noirs d’alluvions qui contiennent quatre minéraux utiles : ilménite, rutile, zircon et monazite. La figure 6 donne la séquence des operations qui permettent de séparer ces quatre éléments minéralogiques.
- La séparation électrostatique des minerais a encore un
- aspect assez empirique, il est certain qu’elle n’est encore qu’à ses débuts, surtout au point de vue théorique. Les recherches fondamentales poursuivies partout dans le monde sont assez prometteuses pour que l’on puisse être assuré du développement de cette technique dans un proche avenir.
- Lucien Perruche.
- Les illustrations de cet article nous ont été obligeamment communiquées par la Société industrielle de Matériel électronique, à Paris.
- Intéressante méthode pour déterminer les insectes qui servent de proie à d'autres
- Depuis quelques années des recherches sont faites sur l’emploi possible des réactions sérologiques pour résoudre certains problèmes entomologiques. Ce procédé a été appliqué à la systématique, à l’identification du sang qui a été absorbé par des insectes piqueurs, à l’étude des relations entre les insectes prédateurs et leurs proies. On a ainsi montré, à Churchill (Manitoba), que très peu de moustiques gorgés de sang pouvaient être récoltés qui n’avaient eu la possibilité de se nourrir sur l’homme ou le chien. Récemment, les entomologistes canadiens ont appliqué spécialement cette technique à la détermination expérimentale de l’identité des insectes dont certains insectes prédateurs font leur nourriture habituelle. La méthode a été exposée par A. E. R. Downe et A. S. West dans des articles parus de 1904 à 1956 dans Canadian Entomologist. Il s’agit en gros de la préparation d’un antigène avec les proies supposées, puis d’un sérum contenant des anticorps qui permettra les essais sur les prédateurs. La préparation de l’antigène a été faite avec des chenilles du Lasiocampide Malacosoma disstria et le prédateur servant aux expériences est un Réduviidé, Zelus exsanguis, qui attaque habituellement ces chenilles. Un millier de chenilles emûron, ayant atteint leur dernier âge, est nécessaire pour la préparation. On les fait d’abord jeûner pour vider le tube digestif, puis elles sont broyées, lavées et macérées dans un volume égal de solution physiologique. Le mélange est refroidi à 8° C pendant 48 h, filtré et stérilisé et peut être conservé à cette température jusqu’à l’emploi. Quatre quantités progressives d’antigène sont alors injectées à un lapin; quand les essais montrent que le sérum est devenu actif, l’animal est saigné et l’antisérum est filtré et conservé à — 25° C. Les préparations du prédateur supposé sont faites de façon analogue; les insectes entiers, ou le contenu de leur tube digestif, sont réduits en bouillie, puis séchés sur papier-filtre et la substance ainsi obtenue peut être conservée. Pour l’expérience, elle est diluée dans une petite quantité de solution physiologique; puis,
- dans un tube à essai, on la mélange à un volume égal de l’anti-sérum; le mélange est incubé à 37° pendant une ou deux heures. Si un anneau de précipitine se forme entre l’extrait et l’antisérum, la réaction est positive : le prédateur s’est nourri de l’hôte incriminé. La réaction s’est montrée positive avec des extraits de chenilles de M. disstria et M. americana, mais elle est négative avec Eranis tiliaria. Des réactions positives ont également été obtenues avec des Zelus exsanguis adultes, qui avaient été nourris, au laboratoire, de M. disstria; dans ce cas, la réaction se manifeste non seulement immédiatement après le repas, mais jusqu’à 108 h après, à la température de 25° C, et même i32 h à la température du laboratoire, environ i8-25° G. Par contre, l’essai est négatif avec des Zelus ayant jeûné ou nourris sur larves de E. tiliaria ou de Lamellicornes. Sur 118 extraits préparés avec des Zelus capturés dans des endroits où les M. disstria sont très abondants, 60 donnent la réaction de précipitine. On en conclut que le Réduviidé se nourrit fréquemment de cette chenille et on peut déterminer la proportion de prédateurs qui s’attaquent à l’espèce dans la nature. D’autre part, les observations faites en 1903, alors que le papillon était moins commun, ont montré que 26 pour xoo seulement des Zelus donnaient une réaction positive. Le prédateur n’attaque donc cette chenille que suivant son abondance et les chances de rencontre; par suite, il ne joue pas un rôle important dans la limitation de son pullulement. La méthode a été employée également pour déterminer les prédateurs habituels des larves de la Tordeuse des fruits (Carpocapsa) et, plus récemment, pour l’étude des Carabiques et Staphylinides qui attaquent les larves d’Elatérides, ou vers fil de fer, très nuisibles dans les prairies. Les entomologistes canadiens pensent que cette méthode pourra être étendue et rendra des services très appréciables dans la lutte biologique contre les insectes nuisibles aux cultures.
- L. C.
- Le pétrole sicilien
- Aussi rapide que celui de Parentis apparaît l’essor de la production sicilienne de pétrole : cette production a débuté en 1954 avec 2 500 t, et a successivement atteint 145 000 t en 1955 et 500 000 t en 1956. Pour 1957, elle dépasse 1 300 000 t, provenant de 21 puits en service (16 autres puits sont en cours de forage).
- La société concessionnaire, Gulf Italia (filiale de la Gulf Oil Co. de Pittsburgh), a décidé précisément de renoncer aux recherches entreprises dans les Abruzzes et de céder toutes ses participations en Italie continentale à la Montecatini. La Gulf a l’intention de concentrer tous ses efforts en vue de la prospection et de la production du pétrole en Sicile.
- En 1957 a été mis en service le pipe-line (oleodotto) Raguse-Augusta reliant les champs pétrolifères de Raguse au port d’Au-
- gusta, près de Syracuse. Ce pipe-line, de diamètre 14 pouces (0,35 m), est long de 75 km ; il aboutit à des installations tout à fait modernes, capables d’assurer le chargement de pétroliers de 45 000 t. La capacité du pipe-line dépasse 2 000 000 t de brut par an, chiffre qui pourra ultérieurement être porté à 3 millions ; deux stations de pompage ont été construites sur le parcours. L’ensemble des installations a été béni par l’évêque de Raguse.
- Le montant total des investissements opérés en Sicile par la Gulf Italia s’élève à plus de 15 milliards de lires, soit quelque 10 milliards de francs. La société fournit dès à présent plus de 10 pour 100 des besoins italiens en pétrole, proportion qui doit grandir rapidement.
- p.147 - vue 151/527
-
-
-
- LES ANCIENS SURJOUGS DES PAYS PRÉPYRÉNÉENS
- Une nouvelle salle vient d’être inaugurée au Musée pyrénéen du château fort de Lourdes. Elle est entièrement consacrée à la présentation des surjougs qui représentent les vestiges d’une tradition agricole, disparue depuis une cinquantaine d’années, et qui paraît avoir été strictement localisée dans les départements de la Haute-Garonne (Gascogne toulousaine jusqu’au Nebouzan, à la limite des Hautes-Pyrénées), du Gers (Armagnac), et dans la zone septentrionale de l’Ariège qui correspondait à la partie Nord de l’ancien comté de Foix.
- Le surjoug est essentiellement une sorte de clocheton en bois d’orme ou de sycomore, décoratif, ajouré, garni ou non de sonnailles, et qui se plaçait au siècle dernier au centre du joug des boeufs attelés par paires. Ces curieux ornements demeuraient à la ferme pendant toute la durée des travaux courants d’agriculture ou de transport; ils n’étaient sortis et fixés sur les jougs
- Fig. 1. — Sur joug en place sur le joug.
- qu’au moment des fêtes, des récoltes, des foires, ou encore quand, dans la pratique du métayage, on allait porter au propriétaire du sol sa part des produits de la terre. Déjà ils se raréfiaient au début du siècle; la guerre de 1914 les a fait définitivement disparaître.
- Le Musée pyrénéen en a réuni une collection absolument unique, qui ne comprend pas moins de 82 spécimens (x).
- Le surjoug, dont le nom n’est que la traduction des mots locaux subrejouat ou subrejue, porte aussi le nom populaire de clouquié ou clocher (dans le Gers), ou encore de chapelle. J. Rozes de Brousse, qui les a étudiés autrefois (Mélanges basques, t. II, ig44)) en a distingué deux types principaux, fusiforme et ovoïde, le premier étant de beaucoup le plus fréquent. En réalité, on trouve des intermédiaires entre les deux, et la forme ovoïde n’est que l’exagération du renflement central du type fusiforme. Mais celui qu’on peut considérer comme le plus ancien et le plus primitif est simplement subcylindrique ou tur-riforme; il est d’ailleurs beaucoup plus rare et le Musée pyrénéen n’en possède qu’un très petit nombre.
- 1. Nous devons les photographies qui illustrent cet article à l’obligeance de Mme Le Bondidier, conservateur du Musée. C’est elle qui, avec son mari, M. Le Bondidier, précédent conservateur, a acquis ces surjougs pour le Musée.
- Tous se fixaient sur le milieu du joug au moyen d’une grosse cheville de bois, longue d’une dizaine de centimètres, et qui pénétrait dans leur base (fig. x).
- Le spécimen turriforme ici reproduit (fig. 2) provient de Lau-nac en Haute-Garonne. Haut de 49 cm, il possède trois divisions intérieures garnies chacune de quatre ouvertures rectangulaires. Au plafond de chaque division est fixée une clochette de forme longuement conique. Le corps du surjoug, que consolident deux cercles de fer, ne possède aucune sculpture.
- Les sur jougs fusiformes sont en général plus grands, avec une hauteur qui varie de 60 à 75 cm (fig. 4 à 6). Ils ont reçu au tour leur forme initiale. La régularité de leur aspect, l’existence au sommet de certains spécimens d’un trou qui servait à les fixer pendant le tournage, en sont la preuve. Chez certains, la partie médiane s’enfle ou se boursoufle, comme nous l’avons dit, jusqu’à prendre l’aspect ovoïde, tranchant ainsi nettement avec les deux extrémités, surtout avec la partie supérieure, dont l’allure reste généralement gracile (fig. 7 à 9).
- L’intérieur était travaillé assez grossièrement à la gouge ou au ciseau. Il comporte presque toujours trois compartiments, plus rarement deux ou même un seul. Les ouvertures ont le plus souvent la forme rectangulaire qui était la plus facile à obtenir; on en voit aussi cependant qui sont ogivales, cordi-formes ou en losange. Alors que la base dans laquelle s’enfonce la cheville du joug est sans décoration, la partie supérieure ou campanile est au contraire couverte de créneaux, de stries et de cannelures, ces dernières disposées le plus souvent dans le sens horizontal. Le sommet est tantôt longuement pointu, tantôt terminé par une boule. Sur un des exemplaires examinés, il est
- Fig. 2 et 3. — Surjoug turriforme (à gauche) et sur joug à armature en fil de fer (à droite).
- p.148 - vue 152/527
-
-
-
- 149
- Fig. 4 à 6. — Surjougs fusiformes. — Fig. 7 à 9. — Surjougs à centre ovoïde.
- formé d’une sphère surmontée d’une touffe de crin de queue de bœuf.
- Les clochettes, dont sont garnis presque tous les sur jougs, sont intérieures, latérales, parfois même complètement extérieures. Pour introduire les premières, des panneaux ont été découpés dans les parois correspondantes, puis remis soigneusement en place et consolidés soit à la colle, soit avec un clou fin. La fixation des clochettes au plafond du compartiment se fait à l’aide d’un fil de fer traversant un trou central de ce plafond, et maintenu par deux petits clous (fig. io). En cas d’évidement total, le fil de fer s’attache directement à la paroi (fig. nj. Les clochettes des fenêtres latérales et les clochettes externes sont simplement suspendues à des sortes de clous cavaliers.
- Dans un spécimen ovoïde de Portet (Haute-Garonne), haut de 75 cm, la partie centrale totalement évidée est sans divisions intérieures. Entre les larges ouvertures ogivales s’en intercalent d’autres, plus petites et cordiformes. La partie supérieure est divisée en trois étages largement crénelés. Au total, le surjoug était garni, lorsqu’il était intact, de quinze clochettes, celle de l’intérieur étant de dimension double des autres; celles-ci sont extérieures et certaines d’entre elles sont suspendues, ce qui est exceptionnel, aux trois petites plates-formes crénelées du campanile (fig. 9).
- Tous les surjougs, à l’exception peut-être des turriformes, furent autrefois bariolés de vives couleurs; celles-ci, on le comprend, sont aujourd’hui bien ternies. La peinture monochrome était rare. Le plus souvent, le coloriage était très contrasté, suivant la fantaisie de l’artisan. Sur un surjoug de Pensaguel, par exemple, le pied est bleu clair, la partie ovoïde a sa base et son sommet verts avec le centre rouge brun; le campanile montre des alternances noires, rouges, jaunes, bleues et vertes.
- A cette polychromie, que nos photographies ne permettent malheureusement pas d’apprécier, viennent, dans quelques rares cas, s’ajouter quelques dessins en couleurs, d’aspect primitif. Trois surjougs, sur tous ceux du Musée, portent des dessins de tête humaine, délimités par un trait au couteau et coloriés. Deux d’entre eux, qui donnent l’impression d’être du même auteur, montrent une tête avec barbe et moustache, et surmontée d’un tarbouche avec gland suspendu au bout
- d’une cordelette. On ne saurait cependant voir là, pour l’origine de ces objets, une réminiscence de l’ancienne influence arabe, car il est à noter qu’en Espagne et surtout au Portugal, où les jougs des boeufs sont richement décorés, les surjougs sont inconnus. Plus simplement, l’artisan qui les a confectionnés a pu se trouver en relation d’une façon quelconque avec un Africain du Nord.
- Enfin un modèle très spécial (fig. 3), représenté par un exemplaire unique en provenance de l’Armagnac (n° 43 249 2i5 du catalogue du Musée), doit être signalé à part. L’armature est entièrement en fils de fer épais, disposés en cinq groupes de cinq fils, dont la hase s’encastre dans le manchon inférieur en bois, et dont le sommet supporte le campanile, également en bois, conique et acuminé. Deux disques de bois, traversés sur leur périphérie par les fils, forment planchers intérieurs, chacun supportant une assez grosse cloche, une autre un peu moins grosse étant suspendue à la base du campanile. D’autres petites clochettes garnissent le pourtour des disques, dans les inter-
- p.149 - vue 153/527
-
-
-
- 150
- valles ménagés dans ce but entre les fils de fer. Les fils eux-mêmes sont bariolés de diverses couleurs, le campanile est couvert d’alternances de bleu et de rouge.
- Quand, au long des chemins de terre qui serpentaient dans la campagne, les boeufs attelés par paires traînaient lentement leur char, le joug surmonté de la « chapelle » élancée dont les couleurs rutilaient sous le soleil méridional, le carillon des sonnailles dont la tonalité variait avec la grosseur, les signalait de loin à l’attention. Le subrejouat était alors l’orgueil de son propriétaire; il appartient aujourd’hui au folklore du passé.
- Les surjougs sont inconnus dans la campagne espagnole. Au Portugal, où les jougs souvent sont artistement décorés et sculptés, ils sont surmontés parfois en leur milieu d’une sorte de proéminence en forme de trapèze ou de pyramide, pouvant atteindre 60 cm de haut; ils portent alors le nom de cangua. Mais cette saillie, qui forme bloc avec le joug lui-même n’est jamais garnie de sonnettes. Le rapprochement avec les surjougs paraît dans ces conditions impossible. Par contre, des chars à surjougs ont été signalés par Lamontellerie en Birmanie, en
- Serbie et dans les Balkans ([Bulletin de la Société mythologique française, n° 21, ig56, n° 10).
- Bapprochement imprévu, qui ne s’explique nullement par d’anciennes relations, mais plutôt par une convergence de but. Ici comme là, le sur joug avec ses sonnailles est d’inspiration rituelle très ancienne et répond initialement à un sentiment religieux. Pour les vallées garonnaises, les clochettes étaient fournies par le couvent toulousain de Saint-Antoïne-du-Vien-nois, et une cloche était l’attribut du saint lui-même. Si le joug et l’attelage de bœufs avaient permis le labourage et la récolte, le sur joug la protégeait par le symbole de ses clochettes. L’élément essentiel était donc la sonnaille, à laquelle le campanile de bois servait de cadre; la décoration de ce dernier s’est progressivement enrichie, si bi'en qu’aux dernières époques d’utilisation, l’intention ornementale a fini par primer le sens initial de protection.
- Raymond Decary,
- Membre de la
- Société d'Ethnographie française.
- Sur la fluorescence des Scorpions à la lumière de Wood
- A la suite de la publication de l'article de M. Max Vachon, professeur au Muséum, « Les Scorpions, animaux fluorescents » (La Nature, septembre 1957, p. 346‘), M. Mario Pavan, professeur à l'Université de Pavie, nous a demandé de publier la mise au point que l’on lira ci-après.
- Dans le numéro de septembre 1957 de La Nature, un article de M. Yachon a paru, « Les Scorpions animaux fluorescents », où sont exposées des nouvelles relatives à la découverte de la fluorescence du tégument des Scorpions. Ces explications sont incomplètes et manquent de précision : en effet, M. Yachon signale qu’il a examiné en 1954 avec M. Pavan de nombreux exemplaires de Scorpions à la lumière de Wood et qu’il a constaté leur fluorescence; et il affirme ensuite que, M. Pavan et M. Vachon, tout en restant les premiers qui ont fait connaître la fluorescence des Scorpions par leur publication de la Note IV, d’autres, à ce qu’on sait, connaissaient déjà ce phénomène sans qu’ils en aient toutefois fait l’objet d’une publication particulière.
- Choqué par ces affirmations, je suis obligé de préciser les points suivants :
- i° Ce n’est qu’api’ès la publication de trois notes signées Pavan tout court et que j’énumère ci-dessous par ordre de dates (I, II, III) qu’a paru le travail de collaboration Pavan-Vachon (IV).
- 20 Quant à la question d’une priorité possible d’observateurs casuels, elle est dépourvue de tout intérêt, la pratique de la publication ou de la présentation officielle, complétée de documentation, à un public qualifié de savants étant, en effet, la seule valable pour l’attribution de la priorité.
- Les premières publications sur le sujet en question se suivent d’après cet ordre :
- I. — Pavan (M.), 1954 : Presenza e distribuzione di una sostanza
- fluorescente nel tegumento degli Scorpioni. Boit. Soc. It.
- Biol. Sper., 30 (7), 801-803.
- II. — Pavan (M.), 1954 : Primi dati per la caratterizzazione délia
- sostanza fluorescente nel tegumento degli Scorpioni. Boll.
- Soc. lt. Biol. Sper., 30 (7), 803-805.
- III. — Pavan (M.), 1954 : Studi sugli Scorpioni. I. Una nuova
- caratteristica tipica del tegumento degli Scorpioni. Boll.
- Zool, 21 (2), 283-291.
- IV. — Pavan (M.), et Vachon (M.), 1954 : Sur l’existence d’une
- substance fluorescente dans les téguments des Scorpions
- (Arachnides). C. R. Acad. Sciences Paris, 239, 1700-1702.
- Je crois avoir montré, dons leur exacte situation, les faits, relativement à la découverte de la fluorescence du tégument des Scorpions à la lumière de Wood. Car, dans la matière en question, que j’ai abordée le premier et qui est aujourd’hui encore l’objet de mes recherches et dont la portée intéresse un grand cercle de gens d’étude, tels que les lecteurs certainement nombreux de La Nature, il se rend nécessaire, à mon avis, que les connaissances qu’on va répandant répondent en tout et pour tout à la vérité.
- Mario Pavan,
- Professeur à l’Université de Pavie (Italie).
- #
- # *
- Nous avons communiqué la mise au point de M. Pavan à M. Max Vachon qui nous a adressé la réponse suivante :
- Je suis entièrement d’accord avec M. Pavan lorsqu’il écrit : « il se rend nécessaire que les connaissances qu’on va répandant répondent en tout et pour tout à la vérité ». C’est pourquoi je me dois, en réponse à sa mise au point, de préciser les faits suivants :
- J’ai affirmé que nous étions les premiers, M. Pavan et moi-même, à avoir publié sur la fluorescence tégumentaire chez les Scorpions (je n’ai pas dit à avoir découvert la fluorescence) en m’appuyant sur la bibliographie de notre Note commune à l’Académie des Sciences du 8 décembre 1954 (travail n° IV) ; cette bibliographie mentionne que les travaux I, II et III de M. Pavan étaient en impression, donc non encore publiés.
- Or, ces termes correspondaient à une erreur puisque effectivement les travaux en question étaient parus le 6 novembre ig54. M. Pavan, seul, était à même de connaître la date exacte de la publication de ses travaux personnels; il n’a pas, une fois la Note à l’Académie publiée, fait rectifier cette erreur. M. Pavan a signé cette note avec moi et, avec moi, porte la responsabilité de tous les termes qu’elle contient. C’est pourquoi je trouve regrettable qu’il ne m’ait jamais signalé cette inexactitude et suis surpris de le voir choqué par une affirmation loyalement tirée d’un texte bibliographique dont il est, autant que moi, responsable.
- Max Vachon,
- Professeur au Muséum national d’Histoire naturelle de Paris.
- p.150 - vue 154/527
-
-
-
- Situation de la pêche à la baleine
- 151
- L’auréole d’aventure que l’on décerne volontiers à la pêche à la baleine masque trop souvent sa réelle importance économique. La production mondiale d’huile de baleine s’élevait à 375 000 t en 1955, 38o 000 t en 1956; au prix de 90 000 F la tonne, cela représente un chiffre d’affaires annuel de 34 milliards. de francs, sans compter les sous-produits. On peut y ajouter la production d’huile de cachalot : 85 000 t en 1955, 95 000 t en ig56.
- La France ne produit elle-même aucune de ces huiles; mais elle en utilise à peu près 20 000 t par an, presque entièrement importées de l’Antarctique par la Norvège. En 1956, sur une consommation métropolitaine de x 200 000 t de corps gras (y compi’is le beurre et le saindoux), les huiles de baleine et de cachalot ont représenté ensemble 20 000 à 21 000 t, dont 17 000 t consacxues, après hydrogénation, à la fabrication de la margarine.
- Dans le monde, l’Océan Antarctique est de beaucoup la plus importante région productiûce : il fournit 90 pour 100 de l’huile de baleine et 60 pour 100 de l’huile de cachalot. Mais on sait que les campagnes de pêche à la baleine dans l’Antarctique sont strictement réglementées par une convention internationale. Un précédent numéro de La Nature (janvier 1956, p. 10) fournissait quelques indications statistiques à leur sujet. Les publications spécialisées (notamment les International Whaling Sta-tistics, publiées à Oslo par le Committee for Whaling Statistics et la revue Oléagineux publiée à Paris par l’Institut de Recherches pour les Huiles et les Oléagineux) groupent régulièrement des informations précises.
- La flotte baleinièx’e type se compose d’un navire-usine de i5 000-25 000 t et de douze à quinze navires-chasseurs de quelque 5oo t chacun. La puissance et le tonnage moyens de ces navires tendent à augmenter ; ainsi, le navire-usine hollandais Willem Barendsz, entré en service en 1955, est un gros bâtiment de 206 m de long, 27,50 m de large, 26 000 t de port en lourd.
- Certaines compagnies baleinières ne possèdent que des navires-chasseurs, opérant à partir d’une station côtière. L’île britannique de Géorgie du Sud, à la limite des régions antarctiques, abritait ainsi, jusqu’à l’hiver dernier, trois stations exploitées respectivement par des compagnies britannique, norvégienne et argentine. En dehors des régions antarctiques, une station côtière a été l’écemment créée au Pérou, près de Paita, où affluent des baleines qui suivent le courant de Humboldt;. cette nouvelle station utilisera le concours de l’aviation pour le repérage; trois navires-chasseurs seront capables de remorquer chacun 10 cétacés de 35 t après leur avoir insufflé de l’air.
- Un progrès récent affecte, dans plusieurs compagnies, la technique de la pêche elle-même. Les harponneurs des navires-chasseurs ne se contentent plus de lancer un projectile sur la baleine; ils lui injectent de plus un antibiotique afin d’éviter que son corps n’entre en décomposition trop rapide après la mort. L’injection peut se faire par l’intermédiaire du projectile lui-même; on peut aussi la pratiquer dans l’estomac de la baleine aussitôt après sa capture.
- Les principales difficultés auxquelles se heurtent les compagnies baleinièi’es sont aujourd’hui d’ordre financier. Les conventions internationales conduisent à limiter singulièrement la durée des campagnes, qui sont ai’rêtées dès que le total des prises a atteint le plafond prévu. Dans ces conditions, il est peu intéressant d’entretenir une flotte pendant toute l’année.
- La campagne 1955-1956, pour laquelle le plafond avait été fixé à i5 000 « unités de baleines bleues », n’a duré que 58 jours. Pour 1956-1957, le plafond était abaissé à i4 5oo unités; la campagne ouverte le 7 janvier 1957 a pris fin le 16 mars.
- La répartition des flottes baleinières antarctiques était la sui-
- vante pour 1955-1956 : Navires- Stations Navires-
- usines côtières chasseurs
- . — —
- Norvège 9 1 117
- Grande-Bretagne . 3 1 5i
- Japon 3 — 4o
- Pays-Bas 1 — 18
- Afrique du Sud .. 1 — i5
- Panama 1 — i5
- U.R.S.S 1 — i5
- Argentine — 1 7
- Total 19 3 278
- La flotte panaméenne, composée du navire-usine de i3 000 t Olympic Challenger et de i5 navires-chasseurs de 750 t, appartenait au célèbre armateur A. S. Onassis; celui-ci l’a vendue en 1956 pour plus de 3 milliards de francs à une compagnie japonaise. Cependant, une autre compagnie japonaise constituait de toutes pièces une flotte nouvelle. Ainsi, le nombre des navires-usines est passé, pour la dernière campagne, à 20, dont 5 japonais. En 1957-1958, il doit atteindre 21, dont 8 japonais (la flotte sud-africaine et une des flottes britanniques ayant été achetées par des compagnies japonaises);' d’autre part, la station côtière argentine aura été supprimée.
- Le succès du Japon dans la compétition internationale a plusieurs causes :
- — les équipages japonais manifestent une grande habileté pour la pêche à la baleine; leurs prises, par navire, sont devenues supérieures à celles des concurrents;
- — les salaires versés à ces mêmes équipages sont très faibles ;
- — les Japonais consomment non seulement l’huile, mais encore la viande de baleine, ce qui valorise de manière très appréciable le pi’oduit des pêches; en 1955, 4o 000 t de viande de baleine ont été vendues au Japon.
- La Norvège ne considère pas sans déplaisir la fin prochaine et probable d’une suprématie qui renforçait sa position commerciale. Elle demande que la convention internationale sur les pêches antarctiques soit complétée par une nouvelle clause qui limiterait le nombre des navires-chasseurs, consolidant ainsi l’avance noi’végienne ; si elle n’obtient pas satisfaction, peut-être dénoncera-t-elle la convention actuelle, ce qui ne manquera pas de susciter des problèmes délicats. Jean Rivoire.
- Détections archéologiques au phosphore
- Analysant des échantillons méthodiquement prélevés dans un site où ont séjourné des Indiens de l’époque préhistorique, le docteur Dietz, de Madison, a reconnu que le sol était par endroits très chargé en phosphore. Il est vraisemblable que le phosphore soluble, provenant des ossements d’animaux et des débris de nourriture, a pénétré dans le sol et s’est combiné avec des éléments minéraux tels que le fer, l’aluminium et le calcium. Par la suite, le lessivage par les pluies n’a que très lentement agi sur les sels ainsi
- obtenus. D’autre part, l’aire enrichie en phosphore n’a pu s’étendre latéralement.
- Il y aurait là un moyen de repérer les lieux anciennement habités, même lorsque aucun vestige n’est relevé. On pourrait également détecter par l’analyse du sol les points précis où des tumulus doivent être explorés. Le phosphore enfin signalerait utilement les dépouilles cachées de mammouths et d’autres grands animaux préhistoriques.
- p.151 - vue 155/527
-
-
-
- Les audacieuses innovations suédoises en matière d’énergie
- Chacune des nations industrielles s’équipe et évolue en fonction de facteurs géologiques, géographiques et climatiques qui, de l’une à l’autre, se présentent rarement de même façon. Très schématiquement, on peut dire que celles qui (comme l’Angleterre, l’Allemagne et les États-Unis) disposent d’abondantes ressources en charbon étaient par avance destinées à un essor rapide. Celles dont le potentiel hydraulique est considérable sont venues en deuxième vague. L’optimum a été réalisé par les États-Unis qui cumulent les ressources houillères, hydrauliques et pétrolières.
- Le cas de la Suède, pays, lui aussi, industriel, se présente de manière assez particulière. Sa vocation a été tout d’abord fixée par ses mines de fer, jointes à ses richesses forestières : la sidérurgie du début du xixe siècle était en effet fondée sur la réduction du minerai par le charbon de bois. Mais dès que cette industrie dut se reconvertir et utiliser le coke de houille pour se mettre au niveau technique de l’étranger, une grave lacune apparut. Le territoire suédois est presque entièrement privé de combustibles fossiles. Le charbon notamment fait défaut et l’avenir industriel du pays imposait de recourir au plus tôt à la seule ressource nationale d’énergie dont on pût disposer, à savoir l’énergie hydraulique.
- Cette ressource dans la péninsule Scandinave est incontestablement très importante, mais il se trouve qu’en Suède, par suite de conditions très particulières, les problèmes posés et les solutions adoptées en vue de son exploitation ont revêtu un caractère que l’on retrouve rarement ailleurs.
- Fig. 1. — Un mât de haute tension éclairé par le soleil de minuit à Abisho (Laponie).
- (Photo obligeamment communiquée par l’Office de tourisme suédois).
- Coupure Nord=Sud. — Le territoire suédois — il est facile de le constater en regardant la carte du pays — est tout en longueur : i 600 km séparent la pointe sud de la Scanie du point triple de la frontière suédo-finlando-norvégienne en pays lapon. Ce territoire est évidemment assez hétérogène : c’est dans le tiers méridional que la population s’est concentrée, soit dans les plaines de Scanie, seule importante région de culture, soit dans les centres urbains et industriels, groupés autour de Stockholm et de Gothenbourg. Le Sud abrite donc 80 à 85 pour 100 de la population totale du pays.
- Or c’est malheureusement dans le Nord que se trouvent les plus importantes sources d’énergie hydraulique. La jonction entre les centrales présentes ou futures de cette région, distante de 1 000 km en moyenne des secteurs de consommation, est au premier plan de l’équipement énergétique : cas typique d’une distribution géographique et démographique où les problèmes du transport sont plus difficiles encore à résoudre que ceux de la production.
- Si étrange que cela puisse paraître, cette situation de l’énergie et de la population, pesant chacune à l’une des extrémités d’un balancier, n’est apparue dans toute son ampleur qu’à une date assez récente. Vers 1940-1940, les ingénieurs évaluaient les disponibilités totales de la Suède à environ 4o milliards de kWh par an, dont 9 à 10 milliards étaient produits ou pouvaient être produits dans le tiers méridional. Un rapport publié en 1948 fait déjà état de 60 milliards de kWh susceptibles d’être équipés. Depuis lors, tenant compte des progrès accomplis dans
- Fig. 2. — Un des plus puissants transformateurs du monde réalisé à Vâsteras par la Compagnie A.S.E.A.
- (Photo obligeamment communiquée par l’Office de tourisme suédois).
- p.152 - vue 156/527
-
-
-
- 153
- la technique des barrages et des galeries souterraines, l’évaluation a été poussée jusqu’à 80 milliards de kWh par an. Dans ce chiffre, les ressources méridionales, inventoriées de longue date, demeurent inchangées. C’est seulement le Nord qui a justifié ce spectaculaire accroissement : désormais 85 à 90 pour 100 des chutes qui restent à équiper se trouvent dans ce secteur éloigné.
- Il est d’ailleurs normal que les premières centrales aient été édifiées là où l’énergie hydraulique se trouvait à portée de la main. C’est ainsi qu’une de? plus anciennes, celle de Trollhat-tan, est située sur la rivière Cota par où le lac Yâner (le plus grand de Suède) se déverse dans la mer. Elle date des années 1910. À la même époque s’édifiait, dans l’extrême Nord, la centrale de Porjus, destinée à approvisionner en énergie les mines de fer de Kiruna et à permettre l’électrification du chemin de fer de Narvik. Cet équipement local, réalisé dans un but bien déterminé, excluait totalement les échanges d’énergie d’un secteur à l’autre, qui d’ailleurs dépassaient les possibilités techniques de l’époque.
- Hormis donc le cas isolé de Porjus, les différentes sociétés exploitantes ont poursuivi l’équipement des rivières du Sud, épuisant progressivement les ressources régionales qui, nous l’avons vu, sont appréciables bien que cependant limitées. C’est en 1933, au moment où se terminait la grande crise mondiale, durement ressentie en Suède, que de nouveaux besoins d’énergie se sont révélés et que la coupure du pays en deux secteurs inégalement partagés en ressources hydrauliques a cessé d’être admissible. Le problème du transport à longue distance devait trouver sa solution.
- Les pertes en ligne. — L’élément essentiel dont les ingénieurs électriciens doivent tenir compte pour un tel transport est bien connu : c’est ce qu’ils appellent la perte en ligne, c’est-à-dire la puissance dissipée par le conducteur depuis son point d’origine jusqu’à son point d’aboutissement. Cette perte se calcule au kilomètre de câble. Elle peut donc être tolérable sur de faibles distances, elle risque d’être prohibitive lorsqu’il faut franchir des centaines de kilomètres.
- Deux causes interviennent dans la perte en ligne. Celle qui fut constatée dès les débuts des réseaux électriques est Veffet Joule, c’est-à-dire la transfoimation partielle de l’énergie transportée en énergie calorifique. On sait que celte transformation croît comme le carré de l’intensité du courant : pour un même câble fait d’un métal bon conducteur (cuivre ou aluminium) et de section déteiminée, il est donc en principe nécessaire de réduire l’intensité et de compenser cette réduction par une augmentation du voltage.
- La réalité est à vrai dire plus complexe et l’évolution des lignes vers les très hautes tensions (60 kV avant 1914, i5o puis 220 kV entre 1920 et 1925) a été conditionnée par le souci de
- faire varier dans le sens de l’économie maximale les sections des conducteurs d’une part, les tensions d’autre part, en fonction de puissances à transporter de plus en plus élevées.
- L’élévation de la tension, on le sait, a pu être réalisée grâce à l’invention (dans les dernières années du xixe siècle) du transformateur et à l’utilisation systématique du courant alternatif. L’effet Joule n’a pas été ainsi supprimé, mais ramené à des chiffres normaux dont il est tenu compte dans l’établissement des prix de transport.
- Une deuxième cause de pertes est due à l’e//ef de couronne (ou effet corona) : à la surface des conducteurs, se crée un champ électrique qui détermine, au-dessus d’une certaine valeur, des étincelles (ou « effluves ») à travers les couches d’air voisines. Ce phénomène s’accompagne d’un dégagement de chaleur et, par conséquent, d’une perte d’énergie (Cet effet de couronne est une des principales sources de parasites dont sont victimes les auditeurs de la radio). Or il se trouve que l’effet de couronne est proportionnel à la tension du courant qui circule dans le conducteur et inversement proportionnel au rayon de ce dernier. On conçoit la difficulté devant laquelle l’effet de couronne place les ingénieurs qui, pour les raisons indiquées plus haut, recherchent les voltages élevés, tout en réduisant, dans toute la mesure du possible, la section des conducteurs.
- L’effet de couronne en outre est largement influencé par l’état de surface du conducteur en relation avec les conditions du milieu : pureté ou pollution de l’atmosphère, densité et température de l’air et surtout intempéries (pluies, brouillard, neige, verglas). On conçoit dès lors que, le long d’une ligne qui couvre un parcours accidenté de près de 1 000 km, les pertes varient continuellement dans le temps et dans l’espace, subissant des influences différentes selon les zones traversées et selon les conditions météorologiques transitoires. Il serait vain de vouloir établir de manière rigoureuse et constante la puissance dissipée et les seuls renseignements que l’on puisse utilement recueillir résultent de constatations empiriques, condensées dans des statistiques et des courbes annuelles.
- De la centrale au réseau. — Avant d’exposer les moyens qui ont été envisagés en Suède pour réduire au maximum les pertes en ligne par effet Joule et effet de couronne, il n’est pas inutile d’insister sur les conditions particulières à ce pays, où se trouvent exclus la plupart des procédés habituellement employés ailleurs pour « tourner la difficulté ».
- La tactique élémentaire est de placer les industries grosses consommatrices d’énergie à proximité des sources de cette énergie : c’est ainsi que les bassins houillers ont attiré vers eux au xixe siècle un large contingent de manufactures et que l’électrométallurgie, l’électrochimie se sont concentrées plus récemment au voisinage des chutes d’eau. En Suède, on ne peut songer à un
- Fig. 3. — Disposition du champ électrique d’où résulte l’effet de couronne.
- A gauche : conducteur simple. A. droite : conducteurs jumelés. (D’après G. Jancke,
- D. Zetterholm et E. Daniels son).
- p.153 - vue 157/527
-
-
-
- 154
- pareil essaimage : le climat du Norrland et surtout les journées brèves, à clarté crépusculaire, de l’hiver rebuteraient les techniciens et ouvriers auxquels on offrirait de vivre avec leurs familles dans des conditions aussi ingrates.
- Dans les pays tels que la France où existe un réseau d’interconnexion assez dense, sur l’ensemble du territoire, le problème des pertes ne s’est pas posé sous une forme aussi impérieuse : dans un assez grand nombre de cas, les centrales hydrauliques et thermiques sont logées de telle sorte que leur courant est consommé après un faible parcours. Le souci de les répartir équitablement à travers le territoire guide toujours les nouvelles implantations : celle de la future centrale nucléaire de l’Électricité de France en Touraine s’inspire de cet impératif. On sait cependant qu’une nouvelle ligne au voltage de 4oo kV va être mise en service entre les Alpes et la région parisienne. D’autres lignes suivront, reliant le Sud, de plus grande densité hydroélectrique, au Nord, à plus grande densité industrielle.
- En raison de sa situation spéciale, la Suède nous a précédés : si en effet, dans le tiers méridional de ce pays, le réseau peut, comme ailleurs, être fortement « maillé », il existe toujours fatalement un espace plus ou moins désertique que la ligne à haute tension doit franchir sans qu’aucun branchement de quelque importance vienne se greffer sur elle. Or, il est apparu qu’une ligne transportant annuellement 5oo ooo ooo de kWh, à la tension désormais classique de 22b kV, subit, au bout d’un parcours de 1 ooo km, une perte globale de 16,5 pour 100 qui a été jugée excessive.
- Lignes à 380=400 kV. — L 'amélioration qui s’impose tout d’abord à l’esprit (et qui a d’ailleurs inspiré les décisions des ingénieurs suédois) est d’accroître dans de fortes proportions la tension du courant. Alors que le pays disposait déjà d’un réseau à i32 et 220 kV, où cinq lignes principales orientées .Nord-Sud franchissaient une distance moyenne de 45o km, on s’est trouvé vers 1946 en présence d’un programme qui quadruplait en quelques années la puissance transportée (3 ooo MW contre 750) et allongeait la distance moyenne à 700 km. Si l’on avait persévéré dans l’utilisation des 220 kV, il aurait fallu prévoir 24 lignes supplémentaires. En poussant la tension jusqu’à 38o kV, on réduisait le nombre de ces lignes à huit.
- C’est donc la formule des 38o-4oo kV qui a été adoptée. Des expériences suédoises en liaison avec celles poursuivies en France ont permis, en 1952, de réaliser l’équipement d’une première ligne soumise à cette tension, entre la grande centrale d’Har-sprànget, nouvellement mise en service dans le Nord, et Hallsberg à environ 1 ooo km au Sud. Plusieurs points ont dû être spécialement étudiés, parmi lesquels l'espacement des conducteurs : il a été reconnu que, pour différentes raisons et notamment pour réduire l’effet de couronne, deux conducteurs jumelés par phase représentaient une solution meilleure que celle d’un conducteur unique de plus forte section. L’espacement optimum se situe vers 4o cm et pour que les câbles ne risquent pas d’entrer en contact, il a paru préférable de les placer dans un même plan horizontal. S’ils étaient, au contraire, disposés dans un plan vertical, le givre, en se détachant brusquement, risquerait davantage de provoquer l’enroulement d’un conducteur sur l’autre.
- Des condensateurs-série ont été interposés sur la ligne afin d’accroître sa limite de stabilité qui a été portée de 45o à 75o MW. Celte dernière amélioration a été réalisée en 1954 : elle a permis une économie d’environ i5 pour 100 dans le transport du courant. A cette date déjà, la ligne Harsprànget-Halls-berg était parfaitement au point et représentait la première réalisation européenne d’un transport d’énergie à très haute tension. Le programme s’est poursuivi par la mise en service de deux lignes établies selon la même formule, l’une en 1953 entre Kilforsen et Enkôping (près de Stockholm), l’autre en ig56 se prolongeant vers le Sud jusqu’à Helsinborg (fig. 4).
- Vers les « supervoltages ». — C’est au cours de cette même année que le programme suédois a été x’econsidéré sur de nouvelles bases, les ingénieurs ayant à faire face à des besoins qui furent estimés à 8 ooo MW, au lieu des 3 ooo de 194b. Les lignes à 38o-4oo kV étaient-elles déjà dépassées et devait-on pousser les voltages des futures lignes jusqu’à 5oo ou C5o kV ? Était-il opportun de miser sur les nouveaux modes de transport en courant continu qui, selon certaines expériences, était destiné à supplanter le courant alternatif ?
- Les Suédois, dans le cadre de la Conférence internationale des grands réseaux électriques à haute tension (C.I.G.R.E.), ont repris l’étude à sa base. Il était séduisant, en effet, de prévoir l’établissement d’un réseau à 65o kV (le plus haut voltage à présent concevable pour les transports à longue distance). Différents problèmes se posaient cependant sur le plan technique, avec, au premier plan, celui de l’isolation : les experts ne les ont pas considérés comme insolubles et ont même fait ressortir l’économie très appréciable de 9 pour 100 qui résulterait de la substitution du 65o kV au 38o kV. Si ce projet, finalement, n’a pas été retenu, c’est que la Suède se serait trouvée dangereusement « en flèche » par rapport aux autres pays et aurait dû innover, à son seul usage, dans la construction de tout un matériel électrique dont les débouchés internationaux eussent été pour le moins incertains. Une nation de 8 millions d’habitants ne peut se permettre, pour réaliser une économie, si importante soit-elle, de se charger d’investissements difficilement compensés.
- Il est probable par contre qu’un aménagement prévu initialement pour les lignes de 38o-4oo kV permettra de porter leur tension de service aux environs de 5oo kV. Chacune d’elles pourrait alors tolérer une charge de x ooo MW et l’efficacité du
- Midskog
- > H il JXSt<
- Fig. 4. — A gauche : Le réseau suédois de transport d’énergie à 400 kV en service depuis 1956. A droite : Le futur réseau à très haute tension du Nord au Sud.
- Les traits pleins représentent les lignes à 500 kV, les traits interrompus les lignes à 400 kV.
- (D’après G. Jancke et S. Lalander).
- p.154 - vue 158/527
-
-
-
- 155
- réseau se trouverait augmentée, sans poser de problèmes techniques particulièrement difficiles. La figure 4 montre la disposition du réseau combinant les lignes de 5oo kV au Nord et celles de 4oo kV au Sud.
- La liaison Gotland-continent en courant continu.
- —- Cette décision (provisoire peut-être) de s’aligner sur la tension de 5oo kV démontre que les ingénieurs suédois ont renoncé, tout au moins sur la terre ferme, à l’utilisation du courant continu. On sait qu’en passant du courant alternatif au courant continu, on évite la résistance apparente qui se manifeste dans le conducteur par suite des effets d’induction. On peut aussi, à isolement égal, majorer la tension dans des proportions très importantes, ce qui réduit notablement le coût du transport. Tout serait parfait si le courant continu pouvait être directement produit par la centrale hydraulique; jusqu’à présent, pour les puissances élevées tout au moins, il ne peut être question de ressusciter l’ancienne dynamo au détriment de l’alternateur. Établir une ligne en continu suppose donc la mise dans le circuit d’un convertisseur (ou redresseur) faisant suite au transformateur, Schéma inverse à l’arrivée, où un nouveau convertisseur permet de rétablir le courant alternatif.
- La solution technique de ces deux conversions a été obtenue par le moyen des valves ioniques à vapeur de mercure, appareils fort ingénieux, et qui ont donné d’excellents résultats lorsqu’il ne s’est, agi que de faibles voltages. Au moment où les électriciens suédois ont envisagé l’emploi d’un tel matériel sur leurs lignes à très hautes tensions, ils se sont aperçus que les sommes investies et les pertes qui résultent de la conversion seraient difficilement compensées par l’économie réalisée sur le transport. C’est au bout de 55o à 65o km de ligne (selon la puissance transportée) que la courbe des frais annuels en continu recoupe celle de l’alternatif. Jusque-là, la dépense reste plus élevée. Bien que les distances que nous venons d’indiquer soient à l’échelle de la Suède, le bénéfice était minime et rien n’imposait de s’engager dans une technique nouvelle qui comporte un certain nombre de difficultés et de risques accessoires.
- Ceci est vrai pour les transports par lignes aériennes. Dès qu’il s’agit, au contraire, de communications sous-marines, le courant continu se présente sous un jour beaucoup plus attrayant, car les gaines isolantes peuvent être sensiblement plus faibles qu’en alternatif, ce qui diminue d’autant le prix du câble. C’est vers 3o ou 5o km que, comparant deux lignes rationnellement conçues, l’une en alternatif, l’autre en continu, cette dernière apparaît plus rentable.
- Se conformant à cette donnée de base, les Suédois ont réalisé la jonction entre leur réseau continental et celui de l’île de Gotland, située en Mer Baltique à ioo km de la côte. Gotland abrite 5g ooo habitants. Ses industries les plus importantes consistent en des fabriques de ciment et des carrières de calcaire et de marbre. Les besoins sont au total assez modestes : ils ont été calculés à 20 MW et c’est une ligne sous-marine à courant continu sous tension de 100 kV qui assure désormais le transport du courant.
- Là encore, la Suède est à l’avant-garde et l’expérience de la liaison Gotland-continent est sans doute destinée à apporter d’utiles enseignements pour les utilisations futures du courant continu, celle notamment de la liaison des réseaux français et anglais par câble sous-marin.
- Les ressources du Norrland. — Les innovations réalisées par-les ingénieurs suédois sont donc audacieuses et rien ne dit qu’ils ne s’engageront pas prochainement dans les solutions encore plus hardies devant lesquelles ils ont provisoirement reculé, pour les raisons que nous avons exposées. Leur hésitation actuelle devant les « supervoltages » s’inspire d’ailleurs de considérations autres que la simple rentabilité des lignes. Entrent également en compte deux facteurs, à savoir la valeur
- réelle des kilowatts qui restent à équiper dans le Norrland et les perspectives ouvertes par l’avènement de l’énergie nucléaire.
- Le Norrland, en y englobant la province la plus septentrionale, connue sous le nom de Laponie, est une région en majeure partie boisée, adossée vers l’Ouest à une puissante chaîne de montagnes. Les rivières, uniformément orientées Nord-Ouest-Sud-Est, sont à forte pente et prennent leur source dans des lacs glaciaires d’assez grande étendue qui forment autant de réservoirs naturels. En ig5i, la Suède pouvait déjà stocker (Sud compris) un total de 4 700 000 000 kWh et cette capacité a été sensiblement augmentée depuis lors.
- Chaque rivière en tout cas (à des degrés divers) peut être assez facilement régularisée en faisant varier le niveau de son lac d’origine. La plus grande amplitude de variation est celle de la chaîne des lacs Suorva, sur la rivière Lule, et c’est sans doute une des raisons pour lesquelles cette rivière, bien que très au nord, a été une des premières à être largement équipée. C’est sur son cours qu’a été édifiée la centrale de Ilarsprânget (fig. .5), la plus importante de toute la Suède et une des plus puissantes de l’Europe occidentale. Ses quatre turbines logées dans une salle souterraine creusée dans le roc peuvent ensemble débiter 1 4oo 000 000 kWh annuellement.
- Il faut noter que la situation de Harsprânget est privilégiée pour un certain nombre de raisons : les rivières moins septentrionales coulent à travers une zone où les forêts, plus denses, sont régulièrement exploitées. Elles sont donc utilisées pour le flottage du bois qui profite en général des forts débits qui résultent de la fonte des neiges. C’est le moment où, au contraire, les producteurs d’électricité devraient commencer à accumuler l’eau dans leurs réservoirs, vidés totalement ou partiellement pendant l’hiver.
- L’industrie forestière et l’industrie hydraulique doivent être harmonisées, ce qui ne peut manquer de poser assez souvent
- Fig. S. — L’imposante salle des alternateurs de Harsprangety creusée dans le roc à plusieurs mètres de profondeur.
- (Photo obligeamment communiquée par l’Office de tourisme suédois)
- p.155 - vue 159/527
-
-
-
- ----------- 156 —--------------------------------------------
- des problèmes délicats. Par ailleurs, les centrales possibles seront plus ou moins rentables, du fait que les hauteurs de chute sont rarement très importantes, la puissance dépendant surtout du débit. Il ne faut pas oublier en outre une tendance assez naturelle qui est de ralentir l’effort à mesure que les sites les plus favorables sont déjà équipés.
- Il est par conséquent douteux que l’exécution du programme soit destinée à s’accélérer et la politique des lignes à très haute tension est nécessairement influencée par celle de la production. Ceci explique en partie l’expectative adoptée à l’égard des 65o kV et du courant continu.
- Réacteurs nucléaires et chauffage urbain. — On
- conçoit d’autre part l’élément d’incertitude que peut représenter l’irruption de l’énergie nucléaire dans le programme énergétique suédois. Les réacteurs de puissance, bien entendu, seront logés dans le tiers méridional du pays et, s’ils interviennent à temps, cela pourrait espacer la construction des coûteuses et difficiles lignes à haute tension. Jetons donc un coup d’œil rapide sur le programme nucléaire, tel qu’il se présente à ce jour.
- Deux' gisements de schistes bitumineux uranifères ont été reconnus à Kvarntorp et Billingen. La teneur en uranium est faible (200 à 3oo g à la tonne) et le traitement du minerai n’est pas encore parfaitement au point. On estime cependant que la Suède possède là une réserve de métal qui couvrirait ses besoins pendant un siècle.
- Un premier réacteur expérimental, R. x, a divergé en 1954 à Stockholm et sa puissance a pu être poussée à 600 kW. Le combustible est l’uranium naturel, le modérateur l’eau lourde. Un deuxième réacteur, R. 2, destiné à l’essai des matériaux, fait partie des installations du Centre de Recherches de Studsvik, situé au bord de la Baltique, à 60 km de Stockholm.
- Fig. 6. — Le réacteur expérimental R. 1 à Stockholm.
- (Photo Atomenergi).
- Fig. 7. — Au Centre de recherches nudéaires de Studsvik : partie supérieure de la pile R. 2, ou « Zébra » (Zéro Energy Bore Reactor
- Assembly).
- On voit, suspendue à la poulie centrale, une barre d’uranium que l’on descend dans le réacteur. De part et d’autre, on voit des paquets de barres prêtes à être utilisées.
- (Photo Gunnar Wâiilén, aimablement communiquée par l’Aktiebolaget Atomenergi, Stockholm).
- On prévoit, pour i960, la mise en service, dans la banlieue de la capitale, d’un troisième réacteur, R. 3, conçu selon une formule particulièrement originale : logé dans une salle souterraine aménagée dans l’épaisseur d’une colline, il est destiné avant tout à alimenter en calories le chauffage urbain de Farsta, un des faubourgs de Stockholm. Fonctionnant comme R. x, à l’uranium naturel et à l’eau lourde, il développera une puissance de 70 MW thermiques.
- Cette utilisation spéciale de l’énergie nucléaire est en relation avec la pauvreté de la Suède en combustibles classiques. Elle n’exclut pas entièrement la production d’électricité et l’on envisage une version de R. 3 où une partie de la puissance serait consacrée à alimenter en vapeur une batterie de turbines.
- R. 3, en tout cas, doit servir de prototype aux futurs réacteurs inscrits au programme :
- — R. 4 (100 MW électriques) fournissant l’énergie des usines de pâte à papier;
- — Adam (j5 MW thermiques) pour le chauffage de la ville de Vasteras;
- — Ëve, producteur d’énergie électrique;
- — Quatre nouveaux réacteurs, consacrés en principe au chauffage urbain et mis en route successivement dans les dix années à venir.
- C’est, reconnaît-on en Suède, un programme ambitieux, au bout duquel le pays économiserait l’importation de quelques centaines de milliers de tonnes de combustibles. Tel en est évidemment le but principal. Il est incontestable néanmoins que l’avènement de l’énergie nucléaire marque le terme d’une période où l’énergie hydraulique a été la seule ressource nationale de la Suède.
- Yves Méuiel.
- p.156 - vue 160/527
-
-
-
- LE CIEL EN MAI 1958
- SOLEIL : du 1er mai au 1er juin (à 0h) sa déclinaison croit de + 14°51' à + 21°57' ; la durée du jour passe de 14h31m le 1er à Igu.i’ÿm i6 3i ; diamètre apparent le 1er = 3I'4S",0, le 31 = 31/33'',8. — LUNE : Phases : P. L. le 3 à 12L23ro, D. Q. le 10 à 14*37»“,' N. L. le 18 à HW1, P. Q. le 26 à 4h38m ; périgée le 2 à 6h, diamètre app. 33'14" ; apogée le 14 à llh, diamètre app. 29'28" ; périgée le 30 à 7h, diamètre app. 32'48". Principales conjonctions : avec Jupiter le 2 à 9h, à 2°11' S. ; avec Neptune le 2 à 22h, à 1°41' S. ; avec Saturne le 6 à 10*, à 2°49' N. ; avec Mars le 12 à lo*, à 6°7' N. ; avec Vénus le 15 à O11 à 3°46' N. ; avec Mercure le 10 à 14*, à 3°33' N. ; avec Uranus le 24 à 10h, à 6°0' S. ; avec Jupiter le 29 à 14h, à 2°17' S. ; avec Neptune le 30 à 7*, à 1°42' S. Principales occultations : le 24, de x Cancer (mag. 5,1) immersion à 20h7m,9 ; le 29, de 86 Vierge (mag. 5,8) immersion à 22*44,n,7 ; le 31, de 8 Balance (mag. 5,3) immersion à lhllm,8 et de a Balance (mag. 2,9) immersion à l*17m,6. — PLANÈTES : Mercure, totalement perdue dans les lueurs solaires, est invisible ; Vénus se voit toujours le matin, mais dans l’aurore, le 13, lever à 2*olm, soit lll23m avant le Soleil ; Mars, dans le Verseau est visible aussi le matin, se levant le 13, 49m avant Vénus ; Jupiter, dans la Vierge, étincelle la plus grande partie de la nuit ; le 13, se couche à 3h27m, diamètre pol. app. 40",6 ; Saturne, dans Ophiuchus se montre dès la soirée au S.-E. ; le 13, diamètre pol. app. 16",2 et axes de l’anneau : 40",8 et + 18",2 ; Uranus, dans le Cancer, peut se voir encore au-delà de minuit ; le 13, diamètre app. 3",6 et position :a = Slj42ra,
- 6 = +1S055' ; Neptune, dans la Vierge, suit toujours Jupiter à l’est ; le 13, diamètre app. 2",4 et position : a — 14h5m,
- 6 = — 10°57'. — ETOILES VARIABLES : minima de (3 Lyre (3m,4-4m,3) le 4 à 23h,6, le 17 à 22h,l, le 30 à 20*,5 ; maxima de t, Aigle (3m,7-4m,4) le 4 à 2*,2, le 11 à 6h,4, le 18 à 10h,6, le 25 à 14*,9 ; maximum de R Cassiopée (4m,S-13m,6) le 10, de R Chiens de chasse (6“»,l-i2“»,8) le 29. — TEMPS SIDERAL : à 0* au méridien de Paris : le 1er : 14*43mls, le 11 : 15*22m27r, le 21 : •16mlm52s, le 31 : 16*41m18s.
- Phénomènes intéressants. — Surveiller l’apparition de taches et de facules à la surface du Soleil. — Du 20 au 24, lumière cendrée de la Lune, le soir. — Ne pas manquer d’observer la double occultation de 8 et a Balance le 31, aux heures indiquées. — Le 3, éclipse partielle de Lune, invisible en France, milieu à l.2*13m, grandeur 0,009'. — Toutes les grosses planètes sont facilement observables : Jupiter encore très brillant, Saturne dont les anneaux sont très ouverts, Uranus se trouve facilement, à la jumelle 'dans le Cancer et Neptune dans la Vierge avec une petite lunette. — Étoiles filantes : Du 1er au 13 : Aquarides (radiant y Verseau), maximum le 4, météores rapides à traînées.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Taiitois.
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- fondée en 1887 par G. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE \ous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc. Demandez les programmes au Siège Social : Hôtel des Sociétés Savantes 28, rue Serpente, PARlS-ô”
- Permanence, tous les jours non fériés de 14 à 17 h.
- Cotisations : Région Parisienne, 1 800 F ; France, 1 500 F ; Étranger, 2 300 F ; Étudiants, 250 F.
- Droits d’inscription, 200 F ; Étudiants, 140 F.
- Spécimen gratuit de la revue sur demande.
- PIÈCES D'OPTIQUE DE PRÉCISION POUR LUNETTES ET TÉLESCOPES D'ASTRONOMIE
- Oculaires achromatiques à grand champ de F = 3 mm à F — 75 mm Objectifs astronomiques 0 60, 80 et 100 mm Miroirs plans et courbes — prismes — chercheurs coudés et droits
- Prix et Notice sur demande
- Its S. R. CLAVl
- 9, rue Olivier-Métra, PARIS 20°
- OPTIQUE ET MECANIQUE DE PRÉCISION
- Les principes de la synthèse organique
- Après avoir collaboré à la collection « Substances Naturelles de Synthèse », MM. Mathieu et Allais commencent la publication, sous la direction de M. Léon Velluz, des Cahiers de synthèse organique qui ont pour but de mettre à la disposition des chimistes de laboratoire ou de bureau d’études un instrument de travail qui traite de façon systématique les réactions et les méthodes de la chimie organique. Mais les auteurs ont fait précéder cette série d’ouvrages d’un volume intitulé Principes de synthèse organique, dans lequel est passé en revue l’essentiel des théories modernes de la chimie organique (l). En effet, ainsi que le fait remarquer le professeur Ch. Dufraisse dans la préface, bien que la chimie organique se pratique « sur la paillasse », ce n’est toutefois pas une raison pour négliger les enseignements de la théorie, aussi imparfait qu’eu soit le développement. Aussi devons-nous féliciter MM. Mathieu et Allais d’avoir réussi à rassembler en un ouvrage de 600 pages les principes théoriques et les modes fondamentaux cle raisonnements utilisés pour l’étude des mécanismes de réactions.
- L’ouvrage se compose de cinq parties d’inégale importance :
- I. Facteurs électroniques. Dans cette partie, les auteurs traitent le problème de la liaison chimique et des orbitales, la résonance et la mésomérie ainsi que le rôle que jouent ces notions sur la réactivité des composés organiques. Puis sont examinés les effets inducteurs, mésomères et électromères, et l’acidité et la basicité au sens de Lewis puisque c’est essentiellement cette théorie qui est utilisée par les organiciens.
- II. Mécanismes des réactions. C’est la partie de très loin la plus importante de l’ouvrage (270 pages) ; elle commence par un rappel des principes et des définitions : réactions ioniques, radica-
- 1. Principes de synthèse organique. Introduction au mécanisme des réactions, par Jean Mathieu et André Allais. 1 vol. 15,7 x 22,5, 600 p., nombr. %., tableaux. Masson, Paris, 1957. Prix, broché : 8 000 F, cartonné toile : 8 500 F.
- liques, etc. Les réactions ioniques sont étudiées ensuite en détail sous leurs différents aspects : substitution, addition, élimination et transposition. Trois chapitres sont ensuite consacrés aux transferts électroniques concertés (réactions Push-Pull), à la tauto-mérie et aux réactions radicaliques.
- III. Fadeurs stériques. Les questions d’encombrement, de configuration et de conformation, de tensions sont examinées.
- IV. Aspect stérique des réactions. Les réactions, qu’elles soient d’addition, de substitution, d’élimination ou de transposition, sont étudiées du point de vue de la stéréochimie à la lumière des notions développées dans la partie précédente.
- V. Annexe. Cette partie contient l’exposé de notions variées : degrés d’oxydation, influence du solvant, équation de Hammet, qui sont utilisées pour compléter et illustrer les parties précédentes.
- La présentation est excellente et l’ouvrage comporte de très nombreux tableaux et schémas qui permettent une lecture aisée et une bonne compréhension du texte. Enfin, après chaque chapitre, sont relevées les principales publications et monographies relatives aux mécanismes des réactions organiques. Une table alphabétique rend les consultations faciles.
- En définitive, cet ouvrage, qui forme l’introduction aux Cahiers de synthèse organique, est excellent à de nombreux points de vue. 11 faut cependant remarquer que les théories développées dans cet ouvrage et qui ont souvent eu comme origine l’école anglaise d’Ingold ne sont pas acceptées par tous les organiciens et on peut reprocher aux auteurs d’avoir parfois omis de signaler que les mécanismes proposés n’étaient pas d’une sûreté absolue. Les lecteurs pourront se reporter au numéro' de novembre-décembre 1957 du Bulletin de la Société chimique de France où ils trouveront une communication du professeur Charles Prévost sur les processus intermédiaires ou mésomécanismes (p. 1489-1494) où l’auteur expose des idées différentes de celles que l’on trouve dans le livre de MM. Mathieu et Allais. R. R.
- p.157 - vue 161/527
-
-
-
- 158
- LES LIVRES NOUVEAUX
- Introduction mathématique aux théories » quantiques, par Gaston Julia (Fasc. XIX des Cahiers scientifiques). 2° partie. 2e édition remaniée et augmentée. 1 vol. 16,5 x 25,5, 322 p. Gauthier-Villars, Paris, 1955. Prix :
- 4 000 F.
- Dans cette nouvelle édition, M. Julia a incorpore les résultats récemment acquis dans l’étude des espaces hilbertiens. Son ouvrage, destiné à la fois aux mathématiciens et aux physiciens, abordant pour la première fois les théories quantiques, nécessite cependant une connaissance bien assimilée de Falgèbre linéaire. L’exposition comprend une étude de l’espace hilbertien et une étude des opérateurs de ces espaces. Cette deuxième partie est fondamentale pour l’étude ultérieure de la mécanique ondulatoire. L’ouvrage paraîtra peut-être quelque peu ardu au physicien qui se sert habituellement du formalisme mathématique de la mécanique ondulatoire sans connaître exactement sa signification et encore moins sa justification. Mais ce pin sicien se trouvera certainement récompensé de son effort par la possibilité qu’il aura acquise de comprendre à fond et d’utiliser en connaissance de cause les méthodes de la mécanique ondulatoire.
- Compléments de Mathématiques à l’usage des Ingénieurs de FÉlectrotechnique et des Télécommunications, par André Angot. 3° édition revue et augmentée. 1 vol. 16x24,5, 836 p., fig. Éditions de la Revue d’Optïque, Paris, 1957. Prix, broché : 4 800 F, relié :
- 5 600 F.
- Ce manuel expressément destïué aux électrotechniciens et radioélectriciens comble une très grave lacune. Il réunit toutes les branches des mathématiques qui peuvent leur être utiles. On trouvera en particulier un chapitre consacré aux quantités complexes : applications aux circuits électriques excités sinusoïdalement, fonctions analytiques, etc. ; un autre consacré au calcul vectoriel ; une étude poussée des calculs matriciel et tensoriel et de leurs applications aux quadripôles. On traite également des équations différentielles usuelles, des fonctions spéciales (fonctions hyperboliques, fonctions de Ressel, de Legendre et de Mathieu, etc.) ; du calcul symbolique introduit par les considérations
- physiques de Heaviside et du calcul des probabilités. L’ouvrage se termine sur un précieux chapitre consacré aux calculs numériques et graphiques. Ensemble extrêmement clair et bien présenté ; le niveau de départ est celui de Mathématiques Générales ou Spéciales.
- Introduction to the Mechanics of Stellar Systems, par R. Kurth. 1 vol. 14,5 x 22, 174 p. Pergamon Press, Londres, 1957. Prix, relié : 55 sh.
- La dynamique des systèmes d’étoiles est devenue une branche importante de l'astronomie. Les galaxies évoluent au cours du temps, et les étoiles qui les constituent sont animées de mouvements d’ensemble qui se traduisent par une rotation autour du centre galactique. Le premier chapitre de l’ouvrage de R. Kurth rappelle les données de l’observation à ce propos, et l’on démontre ensuite les théorèmes généraux qui régissent le mouvement de points matériels soumis à des forces d’attraction, en particulier au cas de la gravitation newtonienne. Cependant on a souvent intérêt à considérer les systèmes stellaires comme des milieux continus : les équations qui résultent de cette approximation présentent des points communs avec celles de l’hydrodynamique, mais certains problèmes relatifs aux états non stationnaires restent encore sans réponse. Malgré la difficulté du sujet, l’exposé reste toujours clair et proche de la réalité physique, et les développements mathématiques sont accessibles à un étudiant du niveau de la licence.
- Die Sonne, par K. O. Kiepenheuer. 1 vol. 12,5 x 19, vin-150 p., 76 fig. Springer Ver-lag, Berlin, 1957. Prix, relié : 7,80 DM.
- Dû à la plume d’un des plus célèbres spécialistes du Soleil, ces 150 pages contiennent l’essentiel de nos connaissances sur l’astre du jour sous une forme accessible à tout esprit cultivé. Même les observations les plus récentes sont mentionnées, en particulier celles qui concernent les manifestations de l’activité solaire qui se traduisent aussi bien dans le domaine optique que dans le domaine radioélectrique. Un excellent chapitre consacré aux relations solaires-terrestres clôt ce livre illustré de magnifiques photographies.
- Kleine Meteoritenkunde, par F. Hride. 1 vol.
- 12,5 x 18,5, vu-142 p., 107 fig., 2e édit.
- Springer Yerlag, Berlin, 1957. Prix, relié :
- 7,80 DM.
- Ces « pierres du ciel », dont l’origine mal déterminée est peut-être cométaire ou planétaire, atteignent parfois des dimensions considérables et peuvent creuser à leur arrivée sur terre des cratères énormes. D’autres fois, de véritables pluies de pierres couvrent une petite région du globe. En dehors de ces météorites spectaculaires tombent journellement une assez grande quantité de micrométéorites. L’auteur, professeur de minéralogie, s’intéresse spécialement à la structure et à la composition chimique des météorites, dont on devine ^l’importance cosmogonique. Petit livre abondamment et joliment illustré.
- Laboratory and Workshop notes 1953-1955,
- par Rutli Lang. 1 vol. 14 x 22, 248 p.,
- 158 fig. Edward Arnold, Londres, 1957. Prix,
- relié : 30 sh.
- Get ouvrage décrit 122 dispositifs ou appareils de laboratoire publiés de 1953 à 1955 dans le Journal of Scientific Instruments. Techniques très diverses : mécaniques, optiques, spectroscopiques, contrôles de température, fluides liquides et gazeux, vide, hautes pressions, dispositifs électriques et électroniques, etc.
- Physical Optics, par R. A. Houston. 1 vol.
- 15 x 22,5, 300 p., 192 fig., 16 pl. h. t.
- Blackic and Son, Londres, 1957. Prix, relié :
- 40 sh.
- Conçu pour des étudiants du niveau de la licence, cet ouvrage couvre tout le domaine de ce que l’on est convenu d’appeler l’optique physique. C’est cependant après un premier chapitre consacré aux systèmes centrés et aux aberrations que nous abordons les interférences, la diffraction, la polarisation et l’optique cristalline. D’autres chapitres traitent de la théorie électromagnétique de la lumière, de la dispersion et de la diffusion, de la spectro-scopie, de la photochimie et des difficiles problèmes de la photométrie et de la couleur. Les derniers chapitres (relativité et théorie quantique) sont à nos yeux un peu restreints. En
- VIENT DE PARAITRE
- ASPECTS
- PHYSICO-CHIMIQUES
- DE
- L’ÉLABORATION DES MÉTAUX
- par D. W. HOPKINS
- Chef du Département de la Métallurgie,
- Collège technique de Swansea.
- TRADUIT DE L'ANGLAIS
- par C. COUSIN
- 292 pages 14 x 22, avec 54 figures. Relié toile sous jaquette. 2 900 F
- 1
- En vente dans toutes les bonnes librairies et chez
- 92, rue Bonaparte C.C.P. Paris 75-45 A*1
- Editeur, Paris-6\ Tél. : DAIS' 99-15
- VIENT DE PARAITRE
- INTRODUCTION
- A
- L’ANALYSE
- ORGANIQUE QUALITATIVE
- par H. STAUDINGER
- Directeur de l’Institut de Recherches d’État pour la chimie macromoléculaire de Fribourg-en-Brisgau, Prix Nobel.
- AVEC LA COLLABORATION DU Dr W. KERN
- Professeur de chimie organique,
- Directeur de l’Institut de chimie organique de l’Université de Mayence.
- TRADUIT DE L'ALLEMAND PAR C. COUSIN
- 206 pages 14 x 22, 20 édition. Broché . 1 850 F
- RAPPEL DU MÊME AUTEUR :
- CHIMIE DES COLLOÏDES ORGANIQUES
- TRADUIT PAR H. GIBELLO
- Ingénieur E.G.L.,
- ancien directeur clu Laboratoire de Recherches de la Nobel française, attaché à la direction des matières plastiques de la G10 Saint-Gobain.
- 354 pages 14 x 22, avec 36 fig. 1953. Relié toile . 2 950 F
- En vente dans toutes les bonnes librairies et chez
- 92, rue Bonaparte —Éditeur, Pâris-6*’. C.C.P. Paris 75-45 *>**JS**KJMJ Tél. : DAN 99-15
- p.158 - vue 162/527
-
-
-
- 159
- définitive, le livre se présente comme une réduction du monumental Traité d’Optique de Bru-hal-Kastler (Masson, éditeur), moins touffu et d’aspect plus pratique (on y trouve de nombreux exercices) et il rendra beaucoup de services aux étudiants et aux ingénieurs, parfois rebutés par la longueur des calculs qui no sont ici qu’esquissés.
- Solid State Physics. Vol. IV. Collection dirigée par F. Seitz et D. Turnbull. 1 vol. 16 x 23,5, xiv-540 p., fig. Academie Press inc., New York, 1957. Prix, relié : 12 dollars.
- Trois articles importants ont été rassemblés dans ce volume. Le premier est consacré aux solides ferroélectriques et anti-ferroélectriques : études expérimentales — comportement et théorie thermodynamiques — propriétés optiques — domaines. Le second traite la difficile question de la mobilité des électrons dans les solides. Sans développer très loin le calcul d’un modèle particulier l’auteur s’attache à présenter tous les effets liés à la mobilité, les résultats expérimentaux et les différentes interprétations qui ont été proposées (résistivité, effets magnéto-électriques, effets thermoélectriques). Un court article expose une des méthodes d’approximation qui convient à la théorie des solides : la méthode des ondes planes orthogonales. Un ingénieur des Bell Laboratories est l’auteur du dernier article sur la technique de la fusion de zone (raffinage des métaux) et de la croissance dos monocristaux. Bibliographie extrêmement consciencieuse.
- N. D. L. R. — Une édition française de cet ouvrage, actuellement en fabrication, paraîtra chez Dunod dans le courant de l’année 1958.
- Symposium on Vacuum Technology 1956,
- publié sous la direction de Edmond S. Perry et John H. Durant. 1 vol. 22 x 28,5, 257 p., fig. Pergamon Press, Londres, 1957. Prix, relié : 90 sh.
- Compte rendu du symposium sur les techniques du vide, tenu en 1956 à Chicago : méthodes d’obtention de vides poussés, appareils de mesure, distillation sous vide, applications chimiques et métallurgiques, fusion et affinage
- du molybdène et du colombium par l’arc à électrode consommable, fours à arc sous vide, etc.
- L’énergie nucléaire, par Marcel Lefort. 1 vol. 16,5 x 23,5, 136 p., illustr. Fernand Nathan, Paris, 1957. Prix, cartonné : 980 F.
- Un exposé très clair de la science atomique destiné aux personnes qui n’ont aucune connaissance spéciale des sciences physiques. Constitution de l’atome et du noyau, transmutations, réacteurs nucléaires, accélérateurs, utilisation de l’énergie nucléaire et des isotopes, effets des rayonnements. Schémas simples et suggestifs. Un lion livre d’initiation élémentaire.
- An Introduction to Crystallography, par
- F. G. Piru.ups. 2“ éd. 1 vol. 14 x 22, x-324 p.,
- A NOS LECTEURS
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-66
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- 515 fig. Longmans, Green et Co. Ltd., Londres, 1956. Prix, relié : 30 sh.
- Après certaines considérations générales sur la nature de l’état cristallin, les méthodes de projection (stérographique et gnomonique) et la description des cristaux, l’auteur examine en détail les sept systèmes cristallins et les trente-deux groupes de symétrie. Dans la deuxième partie on trouve un exposé de la diffraction des rayons X et son application à la détermination des groupes spatiaux.
- Automatisme, par John Diebolil Traduit de l’américain par E. Bernard. 1 vol. 14 x 22, 168 p. Dunod, Paris, 1957. Prix : 700 F.
- L’auteur fut le premier des théoriciens et praticiens de l’automatisme. IL expose les possibilités, les limites et les conséquences économiques et sociales des nouvelles machines de l’âge électronique ; leur signification en matière d’emploi (coût des matières premières et de la main-d’œuvre, coût de la vie, etc.), la manière de les utiliser efficacement. Il évoque une image des temps futurs et expose les problèmes que poseront la réadaptation et la réorganisation nécessaires dans l’industrie, l’enseignement et les affaires.
- Cerveaux géants, machines qui pensent, par
- E. G. Berkeley. Trad. et adapté par A. Moles ; préface de L. Couffignal. 1 vol. 15 x 21,5, 263 p., illustr. Dunod, Paris, 1957. Prix : 1 450 F.
- Y a-t-il un certain abus à parler de « machines qui pensent » ou de « cerveaux électroniques » ? L’auteur ne le croit pas. Quoi qu’il en soit, ce livre, écrit par un spécialiste américain à l’intention d’un très large public, explique avec clarté les principes qui sont à la base du fonctionnement des machines modernes à calculer et à traduire, et plus généralement aux machines qui manipulent de l’information. Il discute ensuite de leur « fidélité », analyse leur mode de « raisonnement » et indique les perfectionnements à attendre. Pour finir, il envisage leur rôle social.
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE (Reconnue par l'État — A. M. 25 juillet 1955) 84, rue de Grenelle, Paris.7e Quel que soit votre problème d'étude, de recherche scientifique ou d'enseignement, il existe un produit __ —
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles. Kodak
- Préparation aux diplômes d'Etat. pour le résoudre. Pour tous renseignements
- Brevet de Technicien d'Analyses Biologiques, Biochimistes, Biologistes. adressez-vous à
- Cours du jour » Cours du soir Section d'enseignement " à domicile " (Joindre timbre pour notice) KODAK-PATHË * SERVICE SCIENTIFIQUE 37, Av. Montaigne, PARIS-VIII’ — Tél. BAL 26-30
- VIENT DE PARAITRE
- PHYSIQUE ET TECHNIQUE DES TUBES ÉLECTRONIQUES
- . PAR R. CHAMPEIX
- Ingénieur-Docteur,
- Ingénieur en Chef aux Laboratoires d'Electronique et de Physique appliquées.
- PREFACE DE G.-A. BOUTRY
- Professeur au Conservatoire national des Arts et Métiers.
- Tome
- ÉLÉMENTS DE TECHNIQUE DU VIDE
- a?.8 pages. iC x zb, avec 179 figures. Relié toile sous jaquette
- 2 900 F
- En vente dans toutes les bonnes librairies et chez
- 92, rue Bonaparte M m .. m, . Éditeur, Paris-6a
- C.C.P. Paris 75-45 DUNOD Tél. : DAN 99-15
- p.159 - vue 163/527
-
-
-
- 160
- W
- PEMORITIONS
- ûtdéc4àtaééed
- avec les
- ŒILLETS N^P
- en
- toile gommée transparente
- chez votre papetier
- Fabrication IÎOtêCtot
- O
- CH. LEM0RNIERS6A
- Introduction à la Chimie générale, par
- P. Colmant. 1 vol. 17 x 24, 520 p., 86 fig.
- A. D. Wcsmaol-Charlier, Namur, 1957. Prix,
- relié : 340 F belges.
- L’auteur présente la chimie générale à partir de ses premiers éléments, avec méthode et progressivement. Les questions importantes sont revues plusieurs fois à des degrés différents d’approfondissement. Bien que la théorie atomique classique soit utilisée, un chapitre de 40 pages expose les éléments des théories modernes de l’atome (quanta, mécanique ondulatoire, résonance). La thermodynamique chimique. est étudiée sans déliasser le niveau des mathématiques générales, de même la cinétique
- et la statique. Une attention particulière est donnée aux réactions d’oxydo-réduction et à l’électrochimie. Chaque chapitre se termine par une série de questions et de problèmes.
- Caractéristiques des corps chimiques purs
- et techniques. Dunod, Paris, 1957.
- Fascicule 1. Les Polyols. 17 fiches 21 x 27, assemblées sous jaquette. Prix : 680 F.
- Leur importance industrielle est considérable : fluides de transfert de chaleur ou de pression, matières premières de synthèse de produits organiques et de plastiques.
- Fascicule 2. Les Polyacides. 19 fiches 21x27, assemblées sous jaquette. Prix : 760 F.
- Se développent avec les matières plastiques : avec les alcools et les polyols, ils sont à la base de la fabrication des plastifiants et des plastiques. Ou ne peut ignorer aujourd’hui les caractères et les sources de ces produits.
- Fascicule 3. Les dérivés fluorés. 30 fiches 21 x 27, assemblées sous jaquette. Prix : 1 280 F.
- Sont des nouveaux venus en chimie appliquée. Leurs propriétés sont très particulières et exceptionnelles. Us trouvent des applications dans des domaines très divers : fluides frigorigènies, supports d’aérosols, dérivés organiques fluorés, liquides extincteurs, traitement des minerais d’uranium, etc. Leur avenir est des plus prometteur.
- Les propriétés et les formes dans l’industrie, par J. Dinzin. 1 vol. 17 x 25, 106 p.
- Hermann, Paris. Prix : 420 F.
- Quiconque a cherché à classer les industries a rencontré de très grosses difficultés et a entrevu l’intérêt d’une classification méthodologique qui saisisse et reflète toutes les propriétés essentielles d’une industrie, éclaire sa nature technique, ainsi que sa nature économique, situe une industrie parmi toutes les auti'es et la différencie ainsi de toutes les autres. C’est à
- un tel essai que s’est livré l’auteur du présent travail et tout en estimant que certains points sont sujets à discussion, on doit reconnaître qu’il nous présente une base de départ pour l’élaboration d’une telle classification.
- L’analyse biochimique médicale, par André Galli et Robert Leluc. 1 vol. 11 x 17,5 de la collection Que sais-je ? P.U.F., Paris, 1957. Prix : 180 F.
- Parmi les techniques de laboratoire qui sont au service du diagnostic médical, l’analyse biochimique prend tous les jours plus d’importance. Ce petit livre expose les techniques d’étude, puis l’exploration fonctionnelle des principaux organes.
- PETITES ANNONCES '
- (190 F la ligne, taxes comprises. Supplément de 100 F pour domiciliation aux bureaux de la revue).
- CENTRE D'ÉNERGIE ATOMIQUE DE MARCOULE (PRES D’AVIGNON) RECHERCHE POUR INDUSTRIE CHIMIQUE EN PLEIN DÉVELOPPEMENT : AGENTS TECHNIQUES MÉCANICIENS, ÉLECTRICIENS - OPÉRATEURS DE TABLEAUX — TECHNICIENS CHIMISTES, CONFIRMÉS ET DÉBUTANTS — DÉGAGÉS OBLIGATIONS MILITAIRES — FORMATION ASSURÉE DANS TECHNIQUES NOUVELLES — LOGEMENT FOURNI A TITRE ONÉREUX. ÉCRIRE C.E.A. — CENTRE MARCOULE C1IUSCLAN (GARD).
- LEXIQUE DES PAYSAGES VÉGÉTAUX, en
- souscription (Encycl. et Guide bibl. 400 p). Rens. chez l’auteur G. PLAISANCE, Ing. Eaux et Forêts, 14, rue Collège, Dôle (Jura).
- LISEZ
- CNOF Revue mensuelle de l'Organisation
- La Revue traite de toutes les questions relatives à la direction et à la gestion des entreprises, à l'orga-nisation des services, aux problèmes commerciaux, à la sélection et à la formation du personnel, applications pratiques d'organisation, problèmes industriels, etc.
- Elle expose des cas concrets pris dans les entreprises et résume les travaux des Commissions d'Études du
- COMITÉ NATIONAL DE L'ORGANISATION FRANÇAISE.
- Elle donne à ses lecteurs les comptes rendus des Journées d'Études et des réunions internationales organisées par le CNOF.
- Chaque numéro contient une revue de la Presse étrangère sur les problèmes d'organisation ; les rubriques : Idées et Techniques, Informations, Cours et Stages, Bibliographie d'ouvrages concernant l'Organisation, etc.
- Conditions d'abonnement : (Il nos par an) — France : 4 500 F — Étranger : 5 000 F
- . Envoi d'un numéro spécimen sur demande à
- CNOF, 57, rue de Babylone, PARIS-VIIe. Tél. : SOL 80-18.
- Le gérant : F. Dunod. :— dunod, éditeur, paris. — dépôt légal : ?.e trimestre ig58, n° 3i56. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 3v3l. — 4-ig58.
- p.160 - vue 164/527
-
-
-
- N° 3277
- Mai 1958
- LA NATURE
- L'ÉLECTROENCÉPHALOGRAPHIE
- La détection et l’étude de l’activité électrique cérébrale ont connu un prodigieux développement et des perfectionnements techniques nombreux depuis quelques années. Passée aujourd’hui du stade expérimental à la clinique humaine, Vélectroencéphalographie fournit des renseignements extrêmement précieux au neurologue, au psychiatre, au neuro-chirurgien. Docteur en médecine, docteur, ès sciences, chargé de cours de Psychophysiologie à la Faculté des Sciences de Paris, le docteur Paul Laget partage son activité entre la recherche neurophysiologique expérimentale à la Sorbonne et l’électroencéphalographie clinique, dont il a la charge à l’hôpital Ti'ousseau. Auteur cle nombreuses recherches et publications sur Vélectroencéphalogramme de l’enfànt, le docteur Laget a bien voulu rédiger pour nos lecteurs l’article que nous publions ci-après.
- Dans les dernières années du xix6 siècle, naturalistes et biologistes commencèrent à s’intéresser aux phénomènes électriques dont la matière vivante est le siège. Il leur semblait que les propriétés si spéciales des éléments nerveux et du cerveau lui-même pourraient peut-être se rattacher à cette forme encore mystérieuse de l’énergie. •
- La méthode la plus simple pour détecter ces manifestations consistait à placer deux plaques métalliques ou électrodes sur la matière nerveuse cérébrale et à les relier à un appareil suffisamment sensible tel que le galvanomètre. Cette expérience princeps fut faite il y a maintenant plus de 70 ans et les savants qui la tentèrent constatèrent qu’effectivement l’aiguille de leur appareil déviait faiblement, indiquant ainsi que la surface du cerveau donnait naissance à des courants électriques. A cette époque cependant, les moyens techniques étaient trop grossiers pour que l’on pût pousser plus avant cette étude et ces expériences tombèrent dans l’oubli.
- Ce fut le grand mérite du psychiatre autrichien Berger, esprit original et peu conformiste, de reprendre ces recherches vers 1928 avec un appareillage encore fort élémentaire, mais possédant déjà une précision très supérieure. Tel quel il lui permit une quantité surprenante de découvertes. Berger put montrer en effet que la surface du cerveau des mammifères présente des variations de voltage faibles (de l’ordre du dixième de milli-volt) relativement régulières, de fréquence basse (autour de 10 par seconde). Ces oscillations peuvent être retrouvées chez l’Homme si l’on dispose les électrodes enregistreuses simplement sur la peau du crâne. Dans ces conditions, les variations de voltage de la surface du cortex se transmettent par les milieux conducteurs qui la surmontent : méninges, liquide céphalorachidien, os, muscles, peau. Cependant comme ces milieux sont fortement résistants, il en résulte une chute de voltage importante et les oscillations détectées à la surface du crâne tombent à quelques dizaines de microvolts. Elles n’apparaissent que si le patient est au repos, les yeux fermés. Si on lui
- demande d’ouvrir les yeux ou de faire un effort intellectuel tel qu’une opération compliquée de calcul mental, ces oscillations s’arrêtent brusquement.
- On savait déjà depuis longtemps, à l’époque où Berger exposa ses premiers résultats, que l’activité des éléments nerveux s’accompagne de manifestations électriques, mais celles-ci diffèrent tellement par leur durée très courte (de l’ordre du millième de seconde), leur forme simple, leur non-répétition en l’absence d’une nouvelle excitation, leur voltage beaucoup plus grand (plusieurs millivolts) des rythmes de Berger, que la découverte de ce dernier fut d’abord considérée avec un grand scepticisme et les tracés qu’il appelait des elektrenkephalogram regardés comme des accidents fortuits sans aucun rapport avec l’activité cérébrale. Peu à peu cependant, les neurophysiologistes révisèrent leur opinion. Vérifiant et complétant les travaux de Berger avec des appareils de plus en plus sensibles et fidèles, ils se persuadèrent de la réalité des phénomènes qu’il avait décrits. L’enregistrement de l’activité électrique cérébrale passa du stade de curiosité scientifique pour électrophysiologiste au stade de l’examen clinique de routine. L’électroencéphalographie était née et commençait quelques années avant la dernière guerre à acquérir droit de cité dans les services de neurologie, de neuropsychiatrie et de neurochirurgie.
- Données techniques générales. — De nos jours, l’élec-troencéphalogramme fait partie des examens de laboratoire courants au même titre qu’une radiographie pulmonaire ou un électrocardiogramme.
- Quelle est actuellement la technique utilisée pour un examen
- Fig. 1, — Types d’électrodes employées en électroencéphalographie humaine.
- A. gauche, électrodes « pastilles » destinées à être collées sur la peau du crâne. A droite, électrode genre « tripode ». La pièce métallique vissée dans une pièce de plastique isolant est surmontée d’un petit tampon d’éponge imbibée de chlorure de sodium. L’ensemble est accroché à un casque souple et réglable constitué de quelques lanières élastiques (voir la figure de la oouverture).
- p.161 - vue 165/527
-
-
-
- 162
- Fig. 2. — Vue générale d’un appareil d’électroencéphalographie moderne à dix plumes inscriptrices.
- (Les photos de l’appareillage et la photo de la couverture de cette revue ont été aimablement communiquées par le docteur Pierre Soudet).
- électroencéphalographique ? Le sujet est placé en position de relâchement musculaire aussi complet que possible, allongé ou confortablement assis dans une pièce demi-obscure et silencieuse. On installe sur le crâne des « électrodes ». Celles-ci consistent en pastilles d’argent légèrement concaves de 4 à 5 mm de diamètre (fig. i) enduites d’une pâte à base de chlorure de sodium, destinée à rendre le contact électrique meilleur, et collées sur le cuir chevelu, soit encore plus simplement en petits tubes d’argent, à la base desquels se trouve un fragment d’éponge imbibée d’une solution de chlorure de sodium. Les éléments métalliques sont vissés dans des pièces isolantes elles-mêmes accrochées à un casque léger fait de quelques lanières élastiques. Les électrodes appuient ainsi sur le cuir chevelu soigneusement nettoyé et dégraissé. On place en général entre io et 20 électrodes de ce type sur le crâne du patient, distantes de 2 à 4 cm (voir la figure de la couverture). Leur disposition est constante d’un sujet à l’autre et elle permet d’enregistrer convenablement l’activité électrique des différentes régions du cerveau sous-jacent. Les électrodes sont reliées par des fils sou-
- ples à une boîte de jonction qui assure la connexion aves les entrées de l’électroencéphalographe proprement dit (fig. 2 et 7). Cet appareil se compose pour ses parties essentielles : de chaînes d’amplificateur,' électroniques qui augmentent considérablement (jusqu’à un million de fois) les variations de voltage détectées à la surface du cuir chevelu. Ces différences de potentiel ainsi amplifiées sont alors envoyées dans des oscillographes électromagnétiques à plume inscriptrice, munie d’un dispositif encreur. Les incursions des plumes sont proportionnelles aux différences de potentiel détectées entre deux électrodes, donc entre deux points de la surface du crâne (*), et elles s’inscrivent directement sur une bande de papier qui se déroule d’un mouvement uniforme (i5 mm ou 3o mm/s le plus souvent). Les appareils d’électroencéphalographie modernes possèdent généralement un nombre de plumes assez élevé, de 4 à 3o. On peut ainsi étudier simultanément l’activité électrique des différentes régions du crâne et par là même des régions du cortex cérébral sous-jacent.
- Les électroencéphalographes sont en outre munis de dispositifs accessoires qui permettent soit de faire varier le gain des chaînes amplificatrices, soit d’introduire des filtres à résistance-capacité qui éliminent certaines oscillations électriques parasites susceptibles de provoquer des erreurs dans l’interprétation des enregistrements.
- Aspects normaux de l’électroencéphalogramme. —
- Lorsqu’on enregistre l’activité électrique cérébrale d’un adulte normal au repos, détendu, en relâchement musculaire complet et les yeux fermés, on constate qu’elle se manifeste essentiellement par des oscillations assez régulières d’aspect pseudo-sinusoïdal dont la fréquence va de 9 à 12 c/s (fig. 3 a). Cette activité que l’on dénomme, depuis Berger, rythme « alpha » présente un voltage qui, dans les conditions habituelles d’enregistrement. oscille entre 10 et 4o microvolts. L’amplitude du rythme alpha n’est d’ailleurs pas constante et subit dans le temps des fluctuations d’amplitude ; leur durée est de l’ordre
- 1. Ce procédé est dit la méthode d’enregistrement bipolaire. Une autre méthode également très utilisée consiste à enregistrer les variations de potentiel sous une seule électrode par rapport à une électrode de référence inactive, que l’on place sur le lobe de l’oreille ou qui est constituée par la mise en série par l’intermédiaire de résistances élevées, de toutes les électrodes présentes sur la tête du patient. Ces différences de techniques n’amènent pas de différences sensibles dans les résultats ni dans leur interprétation.
- ..W/Yvw, -"A-/''Z "v—
- a
- C SOpVHsec
- Fig. 3. — Exemples d’électroencé-phalogrammes.
- En a ; Aspect habituel du rythme alpha chez un adulte normal. Déri-v a t i o n s occipitales droite et gauche.
- En b : Blocage du rythme alpha (réaction d’arrêt) par ouverture des yeux (le patient ouvre les yeux pendant les 8 s séparant les traits verticaux. Mêmes dérivations qu’en, a.
- En c : Aspect de l’activité bêta enregistrée dans la région antérieure du crâne. Le sujet a les yeux ouverts. On remarquera la fré-q u e n c e relativement élevée (20 à 22 c/s) et le faible voltage de cette activité.
- p.162 - vue 166/527
-
-
-
- 163
- de la demi-seconde on de la seconde; elles confèrent au rythme alpha un aspect en bouffées fusiformes. Les oscillations du type alpha présentent un très net maximum de voltage dans la région occipitale. Elles sont en effet étroitement liées aux phénomènes de perception, d’attention et d’imagination visuelles dont les centres de projections corticales se trouvent précisément situés dans cette partie du cerveau.
- Lorsqu’on ordonne au patient d’ouvrir les yeux, les oscillations électriques qui constituent le rythme alpha disparaissent (fig. 3 b). Elles peuvent être également bloquées si le sujet fait un effort intellectuel suffisant; si on lui fait entendre un bruit assez intense, si on le soumet à une stimulation douloureuse, etc. D’un façon générale, le rythme alpha diminue considérablement de voltage ou s’interrompt complètement lorsque le niveau d’attention ou mieux de « vigilance » du sujet se relève, mais les stimulations visuelles sont cependant les plus efficaces.
- Lorsque le rythme alpha est bloqué, les plumes de l’électro-encéphalographe ne restent pas complètement immobiles; on décèle encore sur le tracé de très petites oscillations généralement inférieures à xo microvolts, de fréquence plus rapide (entre i4 et 3o c/s) enregistrées principalement par les électrodes' les plus antérieures (fig. 3 c). Chez certains sujets, plus instables, plus imaginatifs, avec une imagerie mentale à prédominance visuelle, ou présentant un équilibre vagosympathique déficient, cette activité x'apide dite « rythme bêta » est la seule décelable même si le patient a les yeux fermés, ou tout au moins elle est la seule représentée pendant des durées assez longues (plusieurs secondes ou dizaines de secondes) alors que l’activité alpha est de très faible voltage et apparaît seulement en courtes bouffées.
- Une troisième sorte d’activité rythmique se manifeste bien plus rarement. Elle présente une fréquence plus basse que les précédentes, puisqu’elle va de 4 à 7 c/s. Son voltage est généralement de l’ordre de celui du rythme alpha ou légèrement supérieur si elle possède une localisation moyenne dite aussi pariéto-temporale; sa présence est inconstante et elle paraît liée surtout à des événements émotionnels ou affectifs (principalement désagréables) survenant dans le cours de l’enregistrement. On rappelle rythme « thêta ».
- Ces principaux rythmes ne sont pas les seuls que l’on puisse détecter dans l’électroencéphalogramme de l’Homme. D’autres peuvent apparaître dans des conditions physiologiques particulières ou sous certaines influences pathologiques. Les deux grands facteurs physiologiques qui modifient le schéma général de l’activité électrique cérébrale sont, d’une part, l’âge du sujet et, d’autre part, le sommeil à ses différents stades.
- Influence de l'âge. — Il existe depuis la naissance jusqu’à l’adolescence une évolution continue dans l’aspect de l’activité électrique cérébrale dont le schéma général est sensiblement identique d’un enfant à l’autre.
- A la naissance et dans les deux ou trois premières semaines qui suivent, le nourrisson, dans les brefs instants de veille qu’il connaît alors, ne présente qu’une activité électrique cérébrale très pauvre, de faible voltage, discontinue, dans laquelle on ne retrouve pas de rythmes alpha, mais seulement des oscillations peu amples d’une fréquence très inférieure, qui sont comprises entre 1 et 3,5 c/s et que l’on appelle rythmes « delta ». Il s’y entremêle quelques oscillations de fréquences correspondant à celles que nous avons attribuées aux éléments de type thêta (4 à 7 c/s). Au fur et à mesure que l’enfant avance en âge le tracé électroencéphalographique (fig. 4) se modifie. La principale caractéristique de cette évolution est une accélération générale. D’un mouvement parallèle, des rythmes de plus en plus rapides apparaissent tandis que la proportion des éléments lents diminue, les rythmes delta les plus lents les premiers, puis les éléments thêta qui deviennent inconstants et à localisation restreinte, alors qu’ils étaient constants et diffus entre 3 et 7 ans.
- En outre, assez rapidement, entre 18 mois et 2 ans, l’aspect de l’électroencéphalogramme se modifie lorsque l’enfant ouvre ou ferme les yeux. Les planches de la figure 4 montrent clairement les modifications des rythmes électriques cérébraux en fonction de l’âge, chez des sujets normaux.
- L'électroencéphalogramme dans le sommeil. — Le sommeil constitue un autre phénomène physiologique susceptible de perturber profondément l’aspect des tracés électroencéphalc-
- (T-Ro.a .D.
- ISO.pV
- J* «R
- 238523
- teW» SOpVl 222081
- Ro.a-Ro.p.D. .
- A-v.vVwV'1
- |'^^Wv^'AAvvvrtiV--v.AAw^ V^vVvVVVvVVvVvvv-^/W^"
- T.a.-T.p.D
- Lp-O.D.
- id.G.
- A/vy^vy\
- . —-vvvn/y
- 2an*1/2
- ,10on*.
- Fig. 4. — Modifications de l’E.E.G. au cours de la croissance chez l’enfant normal de 20 jours à 10 ans.
- Les abréviations au-dessus de chaque ligne des tracés indiquent l'emplacement des électrodes. F ou Fr : frontale ; Ro.a : rolandique antérieure ; lio.p : rolandique postérieure ; O ou Oc : occipitale ; T.a : temporale antérieure ; T.p : temporale postérieure ; G : gauche ; D : droit ; y.o : yeux
- ouverts ; y.f : yeux fermés.
- p.163 - vue 167/527
-
-
-
- 164
- graphiques. Dès les premiers « balbutiements » de la technique ces modifications avaient été constatées. Elles sont maintenant bien précisées et on peut en tracer un schéma général en fonction de la durée et de la profondeur du sommeil. Le premier signe électroencéphalographique de la somnolence légère est une diminution de la durée et de l’importance des bouffées du rythme alpha, entre lesquelles s’intercalent des éléments plus lents que l’on peut considérer comme appartenant au groupe des rythmes thêta. A ce premier stade, la moindre stimulation sensorielle est susceptible de faire céder la somnolence, mais si l’assoupissement devient sommeil (léger d’abord), les changements de l’activité électrique cérébrale se font plus importants. Les éléments alpha disparaissent complètement, les éléments thêta les remplacent en même temps que commencent à apparaître les rythmes encore plus lents, inférieurs à 4 c/s, de la bande dite « Delta ».
- Cet ensemble d’activités rythmiques lentes et diffuses est de temps à autre interrompu par de courtes bouffées d’éléments nouveaux jamais rencontrés à l’état de veille, dont la fréquence oscille autour de i4 c/s. Ils sont souvent suivis ou précédés d’éléments lents de voltage supérieur à la moyenne du moment.
- 110371
- ^-V-ÀA
- Fig. 5. — Électroencéphalogramme de sommeil.
- On notera le changement d’aspect du tracé provoqué par le bruit.
- Certains neurophysiologistes ont suggéré que cette activité rapide très discontinue pouvait coïncider avec les rêves, mais on devine qu’il est bien difficile de vérifier cette hypothèse. Quoi qu’il en soit, à ce stade du sommeil un stimulus tactile ou auditif modérément intense ne réveille plus le sujet, mais il provoque une modification nette de l’aspect de l’enregistrement sous forme d’une courte décharge d’éléments lents et amples qui se généralisent à toutes les dérivations (fig. 5). Ils sont suivis fréquemment par une bouffée de rythmes à i4 c/s. On a appelé « complexes K » cette courte bouffée d’aspect typique consécutive à une stimulation sensorielle pendant le sommeil.
- Mais ce stade est transitoire et si le sommeil devient plus profond encore, rythmes rapides, complexes K et rythmes thêta disparaissent. Le cortex n’est plus générateur que d’une activité
- lente irrégulière et ample partout répandue appartenant au groupe delta. Les fluctuations dans la profondeur du sommeil se reflètent avec exactitude dans les modifications d’aspect de l’électroencéphalogramme, et le réveil lui-même fait parcourir à un rythme accéléré et dans un ordre inverse ces différentes étapes de l’activité électrique cérébrale. Il est curieux de remarquer qu’à la différence des aspects de veille l’électroencéphalo-gramme de sommeil du jeune enfant est fort proche de celui de l’adulte. On note seulement un raccourcissement considérable des phases transitoires de la somnolence et du sommeil léger, reflet de la rapidité avec laquelle le petit enfant passe de l’un à l’autre stade.
- D’autres facteurs physiologiques sont susceptibles de modifier l’électroencéphalogramme et ils sont nombreux. Citons, parmi les plus importants, la température du corps, le taux sanguin de certaines hormones (thyroïdiennes en particulier), du gaz carbonique, la glycémie. Mais dans la plupart des cas chez le sujet normal ces variations sont trop faibles pour être clairement et sûrement discernables et ce sont les états pathologiques, amplification ou caricature de ces modifications, qui fournissent les aspects électroencéphalographiques les plus extrêmes et les plus typiques.
- Quelques altérations significatives de Vélectro= encéphalogramme. — Très rapidement, les premiers expérimentateurs remarquèrent que les tracés électroencéphalographiques étaient susceptibles de se modifier chez des malades atteints d’affections neurologiques diverses. Une des premières applications cliniques de cette nouvelle méthode fut l’épilepsie. On sait que cette maladie, qui historiquement a toujours paru particulièrement impressionnante, se caractérise le plus souvent par des crises au cours desquelles le malade perd conscience, tombe, se raidit violemment puis se livre à une agitation désordonnée, à laquelle succède le retour à la conscience ou le plus souvent un profond sommeil. Ces manifestations cliniques s’accompagnent de phénomènes électriques cérébraux très importants. Un véritable « orage électrique » bouleverse l’activité habituelle de l’écorce cérébrale, se traduisant tout d’abord par l’apparition d’une succession de rythmes pointus et rapides très amples (jusqu’à io fois le voltage moyen du rythme alpha) qui généralement envahissent tout le cortex. Dans une deuxième phase à la fin de la crise clinique, ils sont remplacés peu à peu par des éléments lents et amples de la bande delta, indice vraisemblable des profondes perturbations circulatoires et métaboliques qui ont accompagné la crise.
- Si les modifications de l’E.E.G. ne se produisaient chez les sujets épileptiques que durant les crises, leur intérêt clinique resterait assez faible, mais le cerveau du sujet atteint de « haut mal » ne présente généralement pas une activité électrique parfaitement normale entre les accès. On rencontre alors fréquemment en effet des accidents particuliers ou, comme le disent les spécialistes, des cc grapho-éléments » pathologiques. Ceux-ci sont de types très divers : rythmes amples et pointus appelés généralement « pointes », apparaissant en bouffées ou isolément dans le cours du tracé; rythmes lents et amples de la bande delta; succession rapide d’une « pointe » et d’une onde lente (fig. 6) que l’on a appelée pour cela la pointe-onde; éléments à la fois lents et à sommet pointu, ou même simplement augmentation importante et constante du voltage du rythme alpha. Tous ces signes indiquent, alors que le sujet est apparemment normal, des troubles persistants de l’électrogenèse cérébrale, reflets des altérations de la matière nerveuse à l’origine des manifestations cliniques. La répétition des examens électroencéphalographiques permet par ailleurs de constater une aggravation des anomalies dans les jours qui précèdent les crises comitiales, et une amélioration sous l’effet de traitements calmants. Il devient ainsi possible de suivre l’évolution de la maladie, de prévoir les rechutes, le renouvellement des crises, de contrôler
- p.164 - vue 168/527
-
-
-
- 165
- Fig. 6. — Différentes altérations typiques de l’élec-troencéphalo gramme.
- En haut, à gauche : pointes ondes à 3 par seconde et généralisées, observées au cours d’une « absence ». En haut, à droite : ondes lentes vues dans certaines encéphalites graves. En bas, à gauche : pointes provenant d’un foyer actif situé sous l’électrode temporale antérieure droite; on remarquera « l’opposition de phase « des différents graphoéléments réalisant un aspect en « miroir » caractéristique des deux dérivations ayant une électrode commune. En bas, à droite : tracé pris au cours d’une crise ; on remarquera la succession rapide des éléments pointus et leur haut voltage.
- l’effet d’une médication et même dans certains cas favorables de localiser la cause anatomique des troubles.
- Les premiers électroencéphalographistes avaient eu en effet fortuitement l’occasion de constater que, dans certains cas, on pouvait rencontrer sur deux dérivations ayant entre elles une électrode commune, des éléments pathologiques bien typiques tels qu’une pointe-onde dont, le signe électrique était inverse. Les deux dérivations juxtaposées montraient un aspect en « miroir » du grapho-élément pathologique. Mais, constatation plus intéressante, ce phénomène s’observait lorsque l’électrode commune se trouvait placée au-dessus du siège même de la lésion vraisemblablement génératrice des altérations électro-encéphalographiques. Il apparaissait ainsi une possibilité fort intéressante de localisation des « foyers » épileptogènes dont on
- pouvait espérer par une intervention neurochirurgicale réaliser une guérison radicale.
- La recherche de cette « opposition de phase » des altérations suivant le langage technique, a suscité de très nombreuses recherches et quantité de dispositions ingénieuses visant à localiser avec précision par une méthode purement électrique une lésion anatomique cérébrale. Malheureusement on s’est également aperçu, en particulier dans les cas où la région atteinte était située profondément au sein de la matière nerveuse, que l’emplacement du foyer électrique ne coïncidait pas avec celui de la lésion et possédait en outre l’irritante propriété de changer de place si l’on répétait les examens. Actuellement une plus grande prudence s’est imposée aux électroencéphalographistes et l’on demande des indications complémentaires à d’autres
- p.165 - vue 169/527
-
-
-
- 166
- examens tels que l’encéphalographie, gazeuse ou l’artériographie cérébrale lorsque l’on a constaté la présence d’un foyer bien localisé par l’électroencéphalogramme. Les indications ainsi fournies par cette seule méthode restent cependant très précieuses et ce principe de localisation donne les meilleurs résultats lorsqu’il s’agit de crises comitiales provoquées par une lésion anatomique importante de Ja convexité de l’écorce cérébrale (traumatisme crânien, abcès, etc.). La localisation électrique pure devient beaucoup plus imprécise, voire inutilisable pour les nombreuses épilepsies essentielles qui trouvent leur origine dans l’atteinte de régions basales du cortex ou de certains noyaux gris centraux dont le rôle régulateur sur l’électrogenèse est d’une très grande importance.
- U électroencéphalographie dans différentes affec= tions du système nerveux central. — Les renseignements fournis par l’E.E.G. ne se limitent pas à l’épilepsie. De nombreuses autres affections du système nerveux central sont justiciables de cette technique. Citons tout d’abord le vaste domaine des encéphalites et méningo-encéphaliles. Dans celles-ci à leur période d’état, lorsque le sujet présente en particulier de gros troubles de la conscience, l’activité électrique cérébrale accuse une désorganisation extrêmement importante qui s’étend le plus souvent à toutes les dérivations. On peut noter soit une disparition quasi totale des rythmes physiologiques, ce que l’on appelle un « silence électrique », soit le plus souvent leur remplacement par des ondes lentes et très lentes (moins de 2 c/s ou même de 1 c/s) qui peuvent atteindre des voltages très supérieurs à ceux des rythmes alpha (jusqu’à 4oo à 600 microvolls) (fïg. 6).
- Mais plus intéressante encore que la constatation de ces troubles est l’étude de l’évolution de l’E.E.G. dans le cours de la maladie. Habituellement l’E.E.G. revient à la normale après un temps plus ou moins long, mais dans certains cas, alors que la guérison clinique paraît complète, des altérations du tracé persistent, altérations dont la morphologie se modifie peu à peu et s’oriente vers les aspects observés dans l’épilepsie. Dans ce cas, le pronostic devient plus réservé et l’on peut craindre que le patient accuse dans l’avenir des troubles neurologiques plus ou moins importants signalant l’atteinte irréversible de certains éléments nerveux. La constatation des altérations des rythmes cérébraux alerte alors à temps le médecin praticien et peut dans de nombreux cas, grâce à une thérapeutique appropriée, en assurer la prévention.
- Ce sont des renseignements de même ordre et une prévention semblable que donnera l’E.E.G. dans les traumatismes crâniens et leurs séquelles. Elle indiquera en effet si les troubles de l’électrogenèse fréquemment constatés à la suite de traumatismes du crâne, même assez légers, rétrocèdent sans laisser de trace ou, au contraire, persistent et doivent mettre en garde contre l’apparition ultérieure d’une comitialité post-traumatique.
- Dans le domaine de la psychiatrie, l’électroencéphalogramme est également susceptible d’apporter d’intéressants renseignements. Les grandes psychoses, la schizophrénie en particulier, s’accompagnent souvent de troubles de l’électrogenèse cérébrale, troubles dont on ne connaît d’ailleurs encore qu'imparfaitement la signification. A un rang plus modeste, chez l’enfant caractériel, l’électroencéphalogramme révèle parfois des altérations. Celles-ci traduisent généralement une augmentation de l’excitabilité du cortex cérébral et sont un guide précieux pour le médecin dans le choix et li conduite du traitement.
- Dans le domaine neurochirurgical enfin et en particulier lorsque l’on soupçonne une tumeur cérébrale, l’examen électro-encéphalographique est susceptible de fournir des données importantes. La constatation de troubles tels que l’apparition d’éléments de basse fréquence, diffus ou localisés, l’absence de réaction d’arrêt, tout un ensemble de signes que les électro-encéphalographistes groupent sous le vocable de souffrance céré-
- brale diffuse, constituent des signes dont le neurologiste tiendra le plus grand compte. Dans quelques cas même, les indications de l’E.E.G. seront suffisamment précises pour que l’on puisse indiquer la localisation de la tumeur éventuelle, mais ces cas sont rares et demandent à être confirmés par d’autres examens.
- Ainsi l’électroencéphalographie est à même de fournir dans de très nombreuses affections du système nerveux central des indications de grande valeur que le neurologiste, le psychiatre, le pédiatre, le neurochirurgien font journellement entrer dans l’établissement de leur diagnostic, dans le pronostic qu’ils auront à porter, dans le traitement qu’ils vont faire entreprendre au patient.
- Procédés d’activation et méthodes nouvelles en électroencéphalographie. — Nous venons de voir les résultats les plus intéiessanls obtenus par l’électroencéphalographie, mais les spécialistes de cette technique ne s’en sont pas contentés et ont essayé de compléter et d’enrichir ces données, de résoudre les problèmes qui leur étaient posés par les cliniciens. Des les débuts de l’électroencéphalographie, on avait constaté dans des affections nerveuses cliniquement évidentes, et chez certains épileptiques en particulier, des enregistrements E.E.G. qui ne présentaient aucune altération dans les périodes intercritiques. Il y avait là dans les possibilités de la méthode une sérieuse limitation qu’il convenait de supprimer.
- C’est dans ce but que furent imaginés et appliqués certains procédés physiques ou pharmacodynamiques que l’on appelle méthodes d’activation. Le principe en est le suivant : on sait qu’il est possible de provoquer chez l’Homme normal des crises convulsives expérimentales par l’administration de drogues excitantes, ou dans certaines conditions particulières, telles que celles réalisées par une hyperpnée (accélération de la respiration) volontaire prolongée. Chez les sujets épileptiques, ces mêmes procédés produisent les mêmes résultats mais beaucoup plus rapidement, ou avec des doses beaucoup plus faibles. L’hy-perpnée en particulier fait fp.cilement apparaître chez ces malades des altérations électroencéphalographiques typiques, parfois très rapidement (avant la fin de la 3° minute d'hyperpnée), tandis que le tracé E.E.G. de repos ne montre rien de très particulier. Aussi cette méthode d’activation est-elle très communément utilisée et même préférée à l’administration de substances convulsivantes, car elle est d’emploi beaucoup plus facile et sans aucun danger.
- D’un autre type et reposant sur d’autres principes, mais visant au même but, la stimulation lumineuse intermittente est actuellement très employée. Le patient, les yeux fermés (pour que le rythme alpha soit présent) est placé devant une lampe puissante qui fournit de brefs éclairs blanc bleuté très lumineux à cadence variable (de 2 à 25 éclairs par seconde). Un sujet normal n’accuse pratiquement aucune modification de son électroencéphalogramme; par contre, chez certains malades apparaissent des altérations qui permettent de diagnostiquer soit une forme particulière de comitialité, soit une labilité anormale des mécanismes régulateurs de l’électrogenèse.
- Cette dernière méthode d’activation a été particulièrement développée et appliquée en France par l’école de H. Gastaut. Elle est d’un intérêt très grand chez le nourrisson ou le jeune enfant qui sont, bien entendu, incapables d’effectuer une hyperpnée volontaire et chez qui l’injection de substances convulsivantes n’est pas sans danger.
- D’autre part, certains neurophysiologistes ont été amenés à penser que la simple observation visuelle des tracés ne permettait pas d’en tirer tous les renseignements qu’ils contenaient. Etant donné, en particulier, l’importance de la fréquence des rythmes cérébraux, certaines de ces fréquences ne se trouvaient-elles pas masquées partiellement ou totalement par d’autres plus amples mais moins significatives ? C’est dans ce but.
- p.166 - vue 170/527
-
-
-
- 167
- Fig. 7. — Vue partielle d’un électro-encéphalographe montrant les oscillographes magnétiques à plume.
- Dans la partie supérieure gauche de la figure, on voit les boutons des « sélecteurs » qui permettent d’enregistrer sur chaque « dérivation » l’activilé électrique recueillie entre deux électrodes quelconques parmi celles qui sont disposées sur le crâne du patient.
- qu’ont été réalisés et développés les dispositifs analyseurs qui font apparaître, sous une forme graphique déterminée, la « quantité » de grapho-éléments des différentes fréquences (de 3 à 25 c/s généralement) contenus dans une portion de tracé. Cette méthode d’analyse discontinue a été préconisée surtout par l’école électroencéphalographique de Bristol avec W. Grey-Walter. Des procédés assez différents, permettant d’évaluer sans interruption la proportion de tel ou tel rythme contenue dans tout un enregistrement, ou le niveau global de la production d’électricité par le cerveau dans diverses circonstances, ont été imaginés et développés en France par Drohocki.
- Ainsi, de toute part, électroencéphalographistes, neurophysiologistes, biophysiciens s’efforcent de développer, de préciser nos connaissances sur la signification de l’électroencéphalogramme, d’accroître la « quantité d’information » que peut fournir un tracé et de délimiter avec de plus en plus de précision le normal du pathologique.
- Mécanismes neurophysiologiques à l’origine de l’activité électrique corticale. — Au terme de cet article une question se pose au lecteur, question à laquelle il n’a pas été répondu dans les pages précédentes. Quelle est en fin de compte l’origine de cette activité électrique rythmique développée par notre cerveau et que les électroencéphalographes nous permettent d’enregistrer ? On doit convenir qu’aujourd’hui encore le spécialiste ne peut répondre d’une façon pleinement satisfaisante et que seules peuvent être indiquées des constatations fragmentaires encore mal reliées les unes aux autres. Un premier point maintenant bien établi permet d’affirmer que ces rythmes électriques ne proviennent que des éléments cellulaires nerveux de la substance grise à l’exception des prolongements myélinisés. Dans ces éléments, certaines variations lentes de potentiel électrique peuvent être enregistrées soit au niveau du corps cellulaire lui-même, soit au niveau des prolongements qui montent vers la surface de l’écorce cérébrale (les dendrites). Il est vraisemblable que l’un et l’autre participent à la genèse de l’électroencéphalogramme. Par ailleurs, on a depuis plusieurs décennies constaté que les éléments nerveux, lorsqu’ils sont réunis en petits amas comme ceux que constituent les ganglions des Invertébrés par exemple, manifestent très facilement des
- variations rythmiques de potentiel en synchronisant leurs activités électriques élémentaires. On peut élargir ces données sans trop de risques d’erreur aux nappes cellulaires du revêtement cortical.
- Enfin des recherches plus récentes d’un intérêt considérable (Moruzzi, Magoun, Jasper) ont amené à démontrer que l’élec-trogenèse cérébrale était contrôlée au même titre que toute autre activité vitale par le système nerveux lui-même; c’est ainsi que l’excitation électrique ou chimique de certaines parties du mésencéphale (substance réticulée activatrice) provoque un brusque arrêt du rythme alpha comparable à celui que l’on observe lorsqu’on demande à un patient d’ouvrir les yeux. Enfin l’excitation de certains noyaux gris centraux tels que les couches optiques provoquent de profondes modifications dans l’aspect de l’électroencéphalogramme et sont susceptibles en particulier de faire apparaître des ondes lentes et des pointes-ondes, indiquant par là même l’existence de systèmes de projections thalamo-corticales régulateurs de l’électrogenèse cérébrale.
- Ainsi sous les efforts conjugués des neurophysiologistes, des médecins, des électroencéphalographistes, la signification de l’électroencéphalogramme se dégage peu à peu, et l’on peut avec certitude affirmer que les progrès accomplis dans l’avenir permettront de tirer de cette méthode de plus en plus de renseignements sur l’origine et l’évolution des différentes affections du système nerveux central.
- D1' Paul Laget,
- Chargé de cours à la Sorbonne, Attaché d’Électroencéphalographie.
- L'île de Marken a vécu
- Dans le cadre des travaux du polder Markerwaard, situé dans la partie occidentale de l’ancien Zuyderzée, la digue rattachant à la terre ferme i’île de Marken a été récemment terminée. Longue de 2 km, large de 36 m, cette digue atteint le continent près de Monnikendam. Bientôt une route la surmontera, doublée naturellement d’une piste cyclable ; ainsi les touristes pourront se rendre directement, à pied sec, dans la pittoresque « île des coutumes ». Espérons que son charmant folklore n’en souffrira pas.
- p.167 - vue 171/527
-
-
-
- 168
- Nouveau cas de dimorphisme lié à la densité de population chez les Insectes
- Il y a une trentaine d’années, vers 1920, le naturaliste B. P. Uvarov, étudiant dans le nord du Caucase une sauterelle très nuisible, le Locusta migraloria, observa que deux formes considérées jusqu’alors comme deux espèces distinctes étaient en réalité la forme solitaire et la forme grégaire, qu’il appela phases, d’un même insecte. Outre le caractère biologique très frappant du grégarisme, ces insectes diffèrent par des caractères morphologiques, dont le plus évident concerne la coloration des larves. Celles de la forme solitaire présentent une coloration uniforme, souvent Arerdâtre, du type appelé cryptique, car elle permet à l’insecte de se dissimuler gi’âce à sa ressemblance avec le milieu; la forme grégaire montre, au contraire, une coloration très voyante, variée de noir et jaune ou rouge, du type dit aposématique, lequel signale habituellement les insectes protégés contre les prédateurs par un moyen de défense, qui peut être un aiguillon, une odeur ou un goût désagréables, etc. La théorie des phases d’Uvarov fut étendue à un certain nombre d’autres sauterelles, ainsi qu’à des Orthoptères d’un autre groupe, les Orphania, puis à certaines chenilles. Or, un phéno-' mène très comparable vient d’être décrit par K. H. L. Key dans Australien Journal of Zoology, 1967, p. 247-284. Il s’agit également d’un Ortboptéroïde, mais appartenant à un groupe tout à fait différent, dans lequel une telle variation n’était même pas soupçonnée. Les insectes étudiés appartiennent à la famille des Phasmides, famille représentée en France par quelques espèces d’autant moins connues que leur couleur terne et leur forme très allongée leur permettent de se dissimuler très facilement au milieu des branchages. Les Phasmes étudiés par Key sont très communs en Australie et même nuisibles; l’un d’eux, en particulier, le Podacanthus wilkinsoni, peut même se montrer assez abondant sur les Eucalyptus pour qu’on puisse parler certaines années de véritables invasions. Ils se trouvent alors surtout sur les jeunes arbres et sur les basses branches des Eucalyptus plus âgés, attaquant de préférence les feuilles de l’extrémité des rameaux. La distribution des phasmes est variable, certaines branches n’en portant que quelques-uns, tandis que des branclielles de 4o cm environ les montrent groupés au nombre d’une dizaine au moins. Il n’a pu être déterminé si le groupement était dû à une certaine préférence ou à un faible degré de grégarisme. Mais le fait remarquable est que les insectes qui se trouvent serrés sur certaines branches montrent des couleurs vives, rappelant de curieuse façon celles des larves de certains acridiens grégaires, surtout celles du Schistocerca gre-garia, d’Afrique du Nord.
- Cette constatation donna à Key l’idée de tenter des élevages expérimentaux de ce Phasmide. Des larves du deuxième âge, capturées dans la nature, furent mises en élevage dans des conditions variées de densité de population. Les unes étaient isolées dans des cages de toile métallique, entourées d’un étui de carton pour éviter les impressions visuelles entre les insectes mis en expérience; les autres placées sur des branches d’Eu-calyptus, en nombre variable, de façon à provoquer des conditions de densité différentes. Au début des élevages, toutes les larves étaient d’un vert clair à peu près uniforme et cette coloration fut conservée jusqu’à la fin de l’évolution larvaire chez les isolées. Le sort des larves groupées fut tout différent.; environ deux semaines après le début de l’expérience, des aires sombres commencent à se montrer sur différentes parties du corps et elles développent rapidement une quantité importante de pigment. Au dernier âge, toute trace de vert a entièrement disparu et un dessin, ou pattern, jaune et noir très caractéristique le remplace.
- Des observations analogues ont pu être faites sur deux espèces voisines et vivant dans les mêmes conditions, le Didymuria vio-
- Fig-, 1. — Deux individus de Podacanthus wilkinsoni au dernier stade larvaire.
- a, larve élevée isolément (la coloration est très uniforme, vert clair) ;
- b, larve provenant d’un élevage groupé (coloration très contrastée, de
- jaune et de noir).
- (Imité de K. H. L. Key).
- lescens et le Ctenomorphodes tessulata. En outre, des différences morphométriques ont été relevées entre les insectes isolés et les groupés. Ces différences, tout à fait comparables à celles qu’on observe chez les criquets, concernent particulièrement l’indice F/C (longueur du fémur postérieur/largeur de la tête), plus faible chez les individus élevés dans des conditions de forte densité, rapport semblable à celui qu’on observe entre les acridiens solitaires et grégaires.
- Le grand intérêt des observations et expériences de K. II. L. Key est de montrer que la coloration caractéristique des acridiens grégaires peut apparaître chez des insectes aussi différents de ceux-ci que les phasmes. En effet, la plupart des auteurs ont attribué le développement du pigment noir, si abondant dans le dessin des acridiens grégaires, à l’activité plus grande qu’ils manifestent, comparés aux individus solitaires. La première théorie physiologique du changement de coloration de la phase grégaire des sauterelles a été exposée ainsi par Uvarov : le groupement des individus mène à une activité accrue et à un excès subséquent des produits de déchet du métabolisme; ceux-ci sont déposés dans la cuticule sous forme de pigment noir, caractéristique de la forme grégaire; comme résultat, la température interne des insectes exposés aux radiations solaires s’élève et leur activité est encore augmentée ; la surpopulation éveille l’instinct grégaire, qui perpétue et augmente la condition de peuplement, établissant ainsi un cercle vicieux de cause à effet. Cette théorie de l’hypermétabolisme, bien que discutée sur certains points, est encore acceptée avec quelques modifications.
- p.168 - vue 172/527
-
-
-
- 169
- En particulier, les travaux récents de Joly et de Nickerson font intervenir une influence hormonale dans les changements de couleur des phases; un mécanisme endocrinien, dépendant de stimuli externes, serait le déterminant immédiat des changements de coloration chez le Schistocerca.
- Il est certain que la théorie d’Uvarov, dans sa conception première, semble inapplicable aux Phasmes, insectes lents et qui, même groupés à un état de densité élevée, passent 95 pour xoo de leur temps sans faire aucun mouvement ; ces insectes ne montrent, en outre, aucun indice net de grégarisation. Le mécanisme du changement de coloration chez les Phasmes semble présenter un lien direct, par le système nerveux central, entre un stimulus sensoriel et les glandes endocrines; ce stimulus peut être en partie visuel, mais surtout tactile par les pattes antérieures des larves qui se trouvent rapprochées sur les rameaux surpeuplés. Key attache également une grande importance au fait
- que la coloration des individus isolés est cryptique et celle des individus groupés sématique. Si les individus solitaires se trouvaient rapprochés, ils perdraient de ce fait une grande partie de la valeur de leur coloration cryptique. Les insectes aposémati-ques semblent, au contraire, avoir avantage à se grouper puisqu’ils deviennent ainsi plus visibles, ce qui est une des conditions de la protection que doit leur procurer la coloration avertissante vis-à-vis des prédateurs. Il ne s’agit certainement pas, chez les Phasmes, de protection directe (aposématisme), ni même d’une ressemblance plus ou moins étroite avec un insecte protégé (pseudaposématisme) ; il faut faire intervenir une sorte de protection très indirecte, procurée par des couleurs et un dessin généralement portés par des insectes protégés. Il y aurait ainsi une adaptation à la densité de population tout à fait indépendante du grégarisme et des migrations.
- L. Chopard.
- La foudre est-elle le siège de réactions thermonuctéaires ?
- Dans une note présentée tout récemment à l’Académie des Sciences, M. Alexandre Dauvillier, professeur au Collège de France, suggère que la foudre globulaire ou « reste d’éclair » comporte du radiocarbone i4. Le terme de foudre globulaire désigne deux formes de décharge électrique : les éclairs en chapelet et la foudre en boule.
- « Les éclairs en chapelet, écrit M. Jean Bricard dans son livre La Physique des nuages, sont constituées par une série de grains lumineux, séparés par des espaces sombres. On peut les attribuer à la luminosité persistante de certaines régions du canal de décharge. Beadle a compté 20 à 3o parties lumineuses de 9 cm de diamètre, distantes de 60 cm, visibles pendant une demi-seconde. » On a pu vérifier la durée de ces persistances lumineuses localisées dans l’éclair en prenant des photographies en chambre tournante. Sur la plaque photographique, les grains sont alors représentés par des traînées dont la longueur permet de calculer leur durée. Quant aux éclairs en boule, on en possède de nombreuses descriptions contradictoires. Ils seraient constitués par un globe lumineux de 10 à 20 cm de diamètre qui se propagerait avec une faible vitesse et aurait une durée généralement supérieure à celle de l’éclair normal. Ils peuvent disparaître silencieusement, ou par éclatement, en laissant une forte odeur de soufre. Bien que l’existence de ces phénomènes ait été contestée, des observations très sérieuses, comme celle de Dalloz faite en 1921 au sommet de la Meije, paraissent bien confirmer la réalité, et de l’éclair en chapelet, et de la foudre en boule.
- Depuis longtemps d’ailleurs des explications de la foudre en boule ont été proposées. D’après Neugebauer, on pourrait l’attribuer à l’apparition d’une agglomération d’électrons dans le canal de l’éclair, qui peut se maintenir un certain temps si la densité en est assez grande. L’agglomération disparaîtrait, suivant les cas, soit progressivement, par recombinaison, soit brusquement, avec explosion. Thornton, en 19x1, a imaginé que la chaleur de l’éclair polymériserait les gaz de l’air qui se redécomposeraient en explosant par refroidissement. Thornton pensait que l’oxvgène et l’azote étaient transformés en leurs ozones respectifs 03 et N3. Mathias en 1924 a émis l’hypothèse que les polvmères devaient être plus condensés : 012 et Nia.
- Selon M. Dauvillier les conditions d’un début de réaction thermonucléaire sont réunies au sein des puissantes décharges électriques que sont les éclairs, et ce serait même selon lui la seule réaction thei'monueléaire natui'elle qui se produirait à la surface du globe. La décharge de l’éclair est en effet le phé-
- nomène terrestre qui met en jeu la plus grande concentration d’énergie. On a montré que dans la foudre la différence de potentiel peut atteindre 4 milliards de volts, l’intensité instantanée a5o 000 A. Un nuage orageux, fournissant un éclair toutes les 20 s, se comporte comme un générateur électrostatique de 3oo 000 kW. « L’éclair, ajoute M. Dauvillier, est. condensé par autocompression magnétique. La pression y est très forte, toute l’énergie de la décharge étant dépensée dans un très petit volume, et la température atteinte peut être très élevée. »
- M. Dauvillier pense donc que les conditions réalisées dans un éclair de grande puissance rendent possibles des réactions thermonucléaires; d’ailleurs des essais effectués par Kourchatov dans le deutérium, avec des décharges de condensateurs chargés à 5o 000 Y et des intensités instantanées atteignant 1 000 000 A ont montré qu’il y avait production de neutrons excités sous un million de degrés Kelvin. Or, on sait que dans l’atmosphère il se forme constamment du cai’bone i4, radioactif, qui résulte de l’action des neutrons lents du rayonnement cosmique sur l’azote atmosphérique (réaction Nli(n, p)C,4 c’est-à-dire capture d’un neutron par le noyau d’azote et expulsion d’un proton). On peut alors penser que celte même réaction nucléaire a lieu dans les éclairs de grande puissance. Elle aurait lieu plus particulièrement dans la foudre globulaire du fait de la présence possible de polymères d’azote qui offriraient aux neutrons une seelion efficace plue grande.
- M. Dauvillier rappelle encore que François Ai’ago et après lui Camille Flammarion ont décrit certains « restes » d’éclairs dénommés « pierres de tonnerre » comme étant des produits stables, noirâtres, légers, friables et combustibles. Si l’hypothèse faite est exacte on devrait pouvoir déceler dans ces pierres une radioactivité (celle du radiocarbone 14) et, cela montrerait que le carbone i4 qui se trouve sur terre peut avoir une double origine : dans les l'ayons cosmiques et dans les éclairs. M. Dauvillier demande que lui soient envoyées en communication ces pierres de tonnerre s’il en existe encore dans les collections, afin qu’il puisse en étudier le rayonnement j3~ éventuel (les échantillons peuvent être adressés à M. A. Dauvillier, Observatoire du Pic du Midi, Laboratoire de Physique cosmique, Bagnères-de-Bigorre, Hautes-Pyrénées).
- Une autre conséquence de l’hypothèse de M. Dauvillier serait que le carbone i4 (dont on sait qu’il « marque » tous les êtres vivants) serait plus abondant dans les régions tropicales, où la foudre est fréquente, que dans les régions polaires.
- R. R. et F. R.
- p.169 - vue 173/527
-
-
-
- LA TÉLÉVISION EN COULEURS
- I. La couleur et l'analyse des images colorées
- Comme la Radiodiffusion et le Cinéma, la Télévision occupe dans la vie de l’homme moderne une place de plus en plus importante. Quel spectateur ne rêve de pouvoir assister un jour de son fauteuil à un spectacle non seulement animé et sonore, mais présentant par surcroît tous les attraits de la couleur et peut-être du relief? Ce rêve est devenu en partie réalité Outre-Atlantique où la télévision en couleurs est résolument sortie du cadre du laboratoire. De nombreux impératifs restreignent malheureusement les possibilités d’extension immédiate de cette réalisation surprenante : impératifs techniques, bien sûr, mais également économiques, car on craint que la généralisation de la « couleur » ne fasse délaisser le « noir et blanc ». La Nature a demandé au professeur Yves Angel qui a étudié de très près les problèmes que pose la télévision en couleurs de faire, en collaboration avec M. James Lequeux, une mise au point sur l’ensemble de la queslion que nous répartirons en deux articles (1).
- St les difficultés de toutes sortes n’ont pas été épargnées aux pionniers de la télévision en noir et blanc, les problèmes que pose la télévision en couleurs sont encore plus complexes. Bien que les principes essentiels qui régissent la transformation de l’image en signaux électriques, puis sa restitution sur un écran fluorescent ne soient en aucune manière différents, l’introduction de la couleur apporte un élément nouveau d’une grande complication : à chaque point de l’image correspond non seulement une luminance mais une couleur. Les caméras de prise de vue comme les récepteurs à tube cathodique doivent être capables de discriminer ou de reproduire les couleurs, et des signaux électriques supplémentaires deviennent nécessaires. La transmission de ces signaux à des distances comparables à celles que l’on réalise pour la télévision habituelle requiert des conditions très dures qui feront l’objet d’une partie de cette étude. Mais une question plus immédiate s’impose à notre esprit : quelle est la signification de la couleur, et comment parvient-on à l’analyser et à la reproduire de façon satisfaisante ? Pour préciser les données de base qui permettent d’y apporter une réponse, il nous paraît nécessaire de rappeler quelques notions concernant les propriétés physiologiques de l’œil rattachées à la couleur, et de montrer comment on est parvenu à faire de l’étude des perceptions colorées, essentiellement subjectives, une science exacte : la colorimétrie.
- Colorimétrie et trichromie. — La lumière est comme chacun sait caractérisée par deux grandeurs physiologiques : son intensité et sa couleur. Il est permis de se demander jusqu’à quel point on peut les relier aux quantités physiques qui définissent la lumière. Dans le cas d’une radiation isolée par un spectroscope, la réponse est évidente : la longueur d’onde de cette lumière détermine sa couleur, le rouge correspondant aux longueurs d’onde de l’ordre de 0,7 p. et le bleu à la gamme des o,4 p.. Mais de telles couleurs pures sont infiniment rares dans la nature, et l’émission lumineuse d’un objet quelconque n’est pas constituée d’une seule longueur d’onde, mais d’une gamme continue de longueurs d’onde qui s’étendent avec une répartition d’intensité très variable dans un domaine
- 1. On pourra relire aussi : La télévision en couleurs, par Y. Delbord, La Nature, avril 1951, p. 101.
- spectral souvent fort étendu. La sensation qui résulte de ce stimulus lumineux peut être très variée : tantôt l’émission de la plage lumineuse s’étend de façon assez uniforme sur l’ensemble du spectre visible, et l’on a une sensation de blanc, gris ou noir selon l’intensité de la lumière (il existe bien entendu toute une gamme de blancs qui dépendent de la répartition spectrale des radiations). D’autres fois la bande spectrale est étroite et l’on se rapproche d’une couleur pure, mais si cette bande se superpose à un spectre continu très étendu, cette couleur est plus ou moins lavée de blanc. Enfin l’émission peut comporter plusieurs maximums à des longueurs d’ondes différentes.
- Une telle complexité paraît rendre inextricable le problème de la classification et de la mesure des couleurs. Par chance les propriétés physiologiques de l’œil, assez surprenantes pour qui y réfléchit, vont le simplifier considérablement : nous supposerons bien entendu que nous nous adressons à des observateurs normaux dont les yeux seront accoutumés à une ambiance lumineuse moyenne et ne seront soumis à aucune cause d’éblouissement. Les plages lumineuses auront un diamètre apparent assez grand pour que les effets de bord et d’achromatisme de l’œil soient évités.
- Une expérience très simple nous convaincra que l’œil n’est pas très difficile en fait de perceptions colorées. Supposons qu’à l’aide d’un appareil nommé colorimètre, comportant deux plages d’observation uniformes et contiguës, nous observions simultanément la lumière à étudier S et une lumière de composition spectrale réglable M. L’expérience montre que nous pouvons réaliser l’identité totale des deux plages, tant en intensité qu’en couleur, en utilisant l’une ou l’autre des compositions suivantes de la lumière d’étalonnage :
- i° Une radiation spectrale monochromatique de longueur d’onde X et d’intensité réglables et le rouge extrême d’intensité réglable;
- 20 Une radiation monochromatique de longueur d’onde et d’intensité réglables et le violet extrême d’intensité réglable;
- 3° Une radiation monochromatique de longueur d’onde et d’intensité réglables et un blanc d’intensité réglable;
- 4° Trois lumières de couleurs données, toutes trois d’intensité réglable.
- Formulons dès maintenant quelques réserves sur le choix des couleurs dans les deux derniers modes d’égalisation colorimé-trique, et contentons-nous pour l’instant de remarquer que la perception de n’importe quelle couleur ne dépend que de trois paramètres.
- L’expérience, révèle également qu’il existe dans un domaine limité une loi d’additivité des couleurs : si l’on réalise une couleur M équivalente à une couleur S donnée, et une autre couleur M' équivalente à la couleur S', la superposition de M et M' est équivalente à la superposition des couleurs S et S', ce que l’on exprime dans une « équation colo rimé trique » : S + S' = M + M'.
- On en déduit également une loi de proportionnalité fcS = /cM, où k est un nombre positif quelconque : cette équation exprime d’ailleurs le fait bien connu que l’on peut faire varier l’intensité d’une lumière sans en modifier la couleur. Elle conduit à dissocier les trois paramètres précédents en un paramètre d’intensité (flux lumineux, brillance, etc.) et deux paramètres de couleur. Maxwell a utilisé cette propriété pour représenter sur un plan le domaine de nos perceptions colorées : ce premier essai date de 1860.
- Cependant les trois premiers modes d’égalisation indiqués
- p.170 - vue 174/527
-
-
-
- 171
- plus haut relèvent de la « colorimétrie monochromatique » et ne présentent pas un bien grand intérêt pour la télévision en couleurs. Par contre, le quatrième mode d’égalisation rattaché à la « colorimétrie trichromatique » présente la plus haute importance pratique, et nous l’examinerons en détail. Les couleurs fondamentales ou primaires employées dans le colorimètre pour équilibrer la lumière donnée sont notées pi; p2, p3. On choisit arbitrairement une unité pour chacune d’elles, et l’équilibre colorimétrique peut s’exprimer par l’équation :
- S = m1p1 + m2p2 + m3p3.
- Ceci suggère une représentation graphique très simple de la couleur S (fig. i). Ayant disposé arbitrairement dans le plan les points plt p2 et p3 qui représentent les primaires, la couleur sera représentée par le point S, centre de gravité de ces
- PA
- i '
- /
- /
- /
- /
- /
- fs
- / •
- l
- /
- i
- i
- /
- P 3
- 'pi '
- fPz Vertspectrat
- Bleu-violet spectral ¥57 mp.
- Rouqe spectral
- Fig. 2. — Système de représentation graphique des couleurs dû à Maxwell.
- Les trois couleurs primaires sont représentées par les sommets pv p%, ps d’un triangle équilatéral. Les couleurs pures correspondent aux points d’une courbe en fer à cheval nommée spectrum locus, tandis que le « blanc idéal » est situé au centre du triangle. La couleur S est d’autant plus pure qu’elle est proche du spectrum locus. En pointillé, la « droite des pourpres » correspondant aux mélanges de violet et de rouge à l’extrême limite de la visibilité.
- Fig. 1. — Synthèse d’une couleur par addition de trois composantes
- primaires.
- Explications dans le texte.
- trois points affectés des masses mx, m2, m3. Ce point est bien caractéristique de la couleur de l’objet visé mais rien n’indique sa luminosité; on peut rendre compte de celle-ci en affectant ce point d’un nombre m, somme des masses des primaires, nombre qui est proportionnel à la luminosité de la plage étudiée,
- C’est là le principe des représentations utilisées de nos jours pour la mesure des couleurs; à chaque point intérieur au triangle PiP^p^ correspond une couleur distincte, mais pour que le plus grand nombre de couleurs possible soient représentées par de tels points, les primaires doivent être convenablement choisies.
- En fait, on ne parvient jamais à représenter l’intégralité des couleurs par des points intérieurs au triangle : en particulier les couleurs spectrales pures s’en trouvent toutes exclues. Aussi applique-t-on la loi d’additivité en choisissant une des <( masses colorimétriques » m négatives : le point S représentatif de la couleur mesurée se trouvera donc en dehors du triangle (en S' par exemple). On peut réaliser expérimentalement l’équivalent de cette représentation graphique en projetant l’une des couleurs primaires non plus sur là plage de mesure, mais sur la plage de test déjà éclairée par la couleur à étudier et en réalisant l’égalité des plages. Il est même possible de projeter deux couleurs primaires sur la plage de test, en n’en laissant qu’une sur la plage de mesure, ce qui se traduit graphiquement en prenant deux des masses colorimétriques négatives (point S").
- Ainsi tous les points du plan deviennent accessibles, et l’expérience montre bien que l’on parvient ainsi à représenter toutes les couleurs, y compris les couleurs du spectre. La figure 2 donne à titre d’exemple un résultat publié par Maxwell qui utilisait comme primaires un rouge, un vert et un indigo spec-
- traux représentés par les sommets plf p2, p3 d’un triangle équilatéral : les couleurs du spectre sont toutes situées sur une courbe appelée spectrum locus.
- Selon le choix des primaires et de la forme du triangle, les diagrammes tracés expérimentalement sont différents, mais on démontre qu’aux erreurs de mesure près ils se déduisent les uns des autres par des transformations géométriques simples. Les commissions de normalisation se sont donné pour but de choisir des primaires convenables et de fixer la forme et les caractéristiques du triangle. Citons par exemple la représentation colorimétrique du système international R.G.B. défini par la Commission internationale de l’Éclairage (C.I.E.) en ig3i; ses primaires situées aux sommets d’un triangle rectangle isocèle (fig. 3), sont des couleurs pures du spectre :
- R rouge 700 mp. ;
- G vert 546,2 mp.;
- B violet-bleu 435,8 mp..
- On a convenu par surcroît, pour fixer les unités lumineuses des primaires, que le centre de gravité géométrique du triangle RGB serait occupé par le « blanc W », blanc idéal pour lequel l’énergie de toutes les radiations du spectre visible serait constante à l’intérieur d’intervalles égaux de longueur d’onde. Le lieu des couleurs du spectre (spectrum locus) est visible sur la figure 3 comme une courbe en forme de fer à cheval. Cette courbe renferme à son intérieur toutes les couleurs possibles, de plus en plus lavées de blanc au fur et à mesure qu’on se rapproche du point W qui représente le hlanc idéal.
- Les utilisateurs de ce diagramme ont cependant jugé sa forme trop irrégulière; de plus les couleurs primaires sont arbitrairement choisies, ce qui rend les calculs peu commodes. Ainsi la C.I.E. a été amenée à préconiser un nouveau système plus pratique qui présente cependant la particularité que les trois primaires X, Y, Z sont irréelles, étant situées au-delà du spectrum locus. A cet effet les normalisateurs ont tenté d’inscrire
- p.171 - vue 175/527
-
-
-
- 172
- 4*00" ~---
- Fig. 3. — Système calorimétrique international R.G.B. de la C.l.E.
- Ce système diffère de celui de Maxwell par le choix des couleurs primaires R, G et B, situées cette fois aux sommets d’un triangle rectangle isocèle. Le centre de gravité géométrique de ce triangle est occupé par le « blanc idéal » W.
- la totalité du diagramme de la lîgui’e 3 dans un triangle X^Y^ et d’amener les sommets de ce triangle aux points X, Y, Z de la figure 4, déformant ainsi le diagramme chromatique primitif par transformation homographique. Le choix des côtés du triangle XjYjZj est réalisé de manière que les trois sommets soient le plus rapprochés possible du domaine des couleurs existantes. La droite XY se confond avec le spectrum locus du côté du rouge, tandis que la droite YZ a été choisie arbitrairement tangente à celte courbe au point 5o4 mp. (en fait le contact n’est pas exactement réalisé par suite du choix des valeurs numériques arrondies des coordonnées de X, Y, Z). Le choix de l’axe ZX peut paraître plus arbitraire encore, mais il occasionne une grande simplification des calculs, nous allons le voir.
- Supposons que nous réalisions une couleur de masse i à l’aide des primaires choisies et que nous comparions son intensité lumineuse (brillance subjective) à celle d’autres couleurs de masse i, grâce à un photomètre hétérochrome : le lieu géométrique des points représentatifs de ces couleurs ayant la même intensité subjective est formé de droites parallèles entre elles (ce résultat est valable quel que soit le système de représentation trichi’omatique). Les couleurs les plus « lumineuses » du diagramme, à masse colorimétrique égale f1), sont situées du côté vert du spectre, où la sensibilité de l’œil est d’ailleurs maximale. Par contre, les radiations situées aux extrémités du spectre visible ont, selon qu’elles sont violettes ou rouges, des propriétés physiologiques très différentes. Le violet est beaucoup plus colorant que le rouge, ce qui revient à dire que la masse unité d’une radiation violette a une luminosité très faible. Par extrapolation on détermine une droite pour laquelle la luminosité serait nulle (ce qui, empressons-nous de le dire, ne correspond à rien physiquement). Cette droite est nommée alychne; elle est bien entendu parallèle aux droites de même intensité et passe très près de l’extrémité violette du domaine des couleurs. C’est elle que l’on choisit comme axe ZX.
- Dans le système XYZ de la figure 4, tous les points de
- 1. Rappelons que l’intensité est une grandeur physiologique et la masse colorimétrique une grandeur physique.
- même masse colorimétrique pour lesquels l’intensité de la plage colorée parait la même pour l’œil sont situés sur une même droite horizontale : ainsi la totalité de la luminosité d’une teinte provient de la seule primaire Y.
- Toute couleur peut être réalisée (par le calcul !) à partir des masses mx, my, m2 des primaires X, Y, Z; son point représentatif S a pour coordonnées :
- mx -f ni y -f- m ~ ’
- ni y
- If — ---------i------- .
- mx -f- my -f- mz
- La masse colorimétrique est mx + my + mz et sa valeur photo-métrique n’est autre que my.
- Supposons que l’on veuille réaliser à l’aide des sources X, Y et Z la couleur pure de longueur d’onde X et d’énergie unité : il est nécessaire d’attribuer aux sources les masses æ(à), y(A) et z(X) qui dépendent bien entendu de X. La donnée de ces
- \jaunes
- Alychne
- Fig. 4. — Système international XYZ de la C.l.E.
- Ce système est issu du système RGB, mais les primaires XYZ sont irréelles et la forme du diagramme est indépendante de tout système de primaires effectivement utilisées. Le spectrum locus, gradué en millièmes de micron de longueur d’onde, ferme le domaine des couleurs réelles. Trois triangles de primaires ont été dessinés sur cette figure : le triangle du système RGB en traits tiretês, le triangle des primaires idéales en pointillés simples, enfin en traits pleins le triangle des primaires adoptées aux U.S.A., pour la télévision en couleurs.
- fonctions de distribution permet de résoudre très facilement par le calcul tous les problèmes relatifs à la couleur; nous en verrons plus loin quelques exemples. La figure 5 donne les courbes représentatives de ces fonctions de distribution. On peut remarquer que la fonction y(X) qui exprime la valeur photométrique des couleurs pures du spectre en fonction de la longueur d’onde, n’est autre chose que la courbe de sensibilité spectrale de l’œil. La connaissance de cette courbe est donc indispensable à la fixation de l’échelle des grandeurs lumineuses physiologiques par rapport aux grandeurs énergétiques, et les mesures absolues d’intensité lumineuse nécessitent en outre la connaissance de l’efficacité lumineuse d’une radiation du spectre, par exemple X = 555 mjj, pour laquelle on prend y = i : cette efficacité est de 663 lumens par watt.
- p.172 - vue 176/527
-
-
-
- 173
- MO 500 600 700 mu.
- A r
- Fig. 5. — Courbes représentatives des fonctions de distribution du système XYZ.
- Nous disposons maintenant de l’ensemble des éléments nécessaires pour résoudre par le calcul tous les problèmes relatifs à la colorimétrie des vastes plages, pour un œil standard adapté à la vision d'objets suffisamment éclairés (plusieurs dizaines de nits).
- Les valeurs numériques adoptées par la C.I.E. pour définir cet œil standard reposent sur les mesures de Wi'ight et de Guild portant sur 17 sujets sélectionnés en ce qui concerne la détermination du spectrum locus, et sur celles de spécialistes de la photométrie hétérochrome, en particulier Gibson et Tyndall, pour la détermination de la sensibilité spectrale de l’œil et de son efficacité lumineuse, qui permettent d’achever le calcul des fonctions x(X), y(X) et z(X) et de faire des étalonnages en valeur absolue.
- On peut reprocher à ce système colorimétrique de se rapporter à un observateur moyen et de négliger les variations individuelles qui existent dans les limites d’une vision normale. Mais il n’en reste pas moins que le système XYZ est un outil de toute première valeur pour étudier et mesurer les conditions de fidélité dans la reproduction des teintes : n’est-il pas remarquable que l’on ait su ramener a des grandeurs mesurables les couleurs, qui semblent essentiellement physiologiques ? Les notions que nous venons d’exposer nous permettent d’aborder l’étude colorimétrique de la représentation trichrome utilisée aussi bien en imprimerie et en photographie que dans les techniques récentes de la télévision en couleurs.
- La trichromie additive. — Il existe deux, moyens essentiels de faire la synthèse d’une teinte donnée au moyen de trois primaires; la trichromie additive consiste à superposer les trois primaires d’intensité réglable : c’est le procédé que nous avons examiné plus haut. On peut également retrancher au moyen de filtres colorés certaines parties du spectre d’une source de lumière blanche (photos diapositives en couleurs) : trichromie soustractive. La télévision en couleurs emploie obligatoirement la trichromie additive à laquelle nous nous limiterons. Précisons bien qu’il n’est pas question., contrairement à la restitution photographique de Lippman, de reproduire les caractéristiques spectrales des lumières, mais de produire sur l’œil une sensation colorée équivalente à celle que donnerait la vision directe de l’objet.
- Nous avons remarqué que l’on ne pouvait former par addition que les couleurs situées à l’intérieur du triangle des pri-
- maires. Ceci conduit à rechercher pour les primaires des teintes telles que ce triangle recouvre la plus grande surface possible du domaine des couleurs réelles. En principe il faudrait choisir les couleurs pures suivantes :
- — le rouge spectral extrême : 680 à 780 mp.;
- — un vert spectral d’environ 5a5 mp.;
- — le violet spectral extrême : 38o à 4ao mp.; sommets du triangle en trait plein de la figure 4- Mais il est difficile de réaliser pratiquement de telles sources primaires à moins d’utiliser des raies d’émission, ce qui est rarement possible. D’autre part on ne peut placer les primaires extrêmes trop près des limites du spectre visible, pour qu’elles ne tombent pas à des longueurs d’onde où la sensibilité de l’œil est très faible et d’ailleurs très variable selon les individus.
- En ce qui concerne plus particulièrement la télévision en couleurs, les teintes primaires seront produites par luminescence de corps soumis à l’action des électrons. Outre qu’il n’existe pas une gamme illimitée de substances luminescentes (phosphores), les couleurs qu’elles émettent ne sont pas des couleurs pures. Actuellement, les substances utilisées pour les tubes de télévision en couleurs sont en général les suivantes : phosphore rouge : (P04)2Zn3, activé au Mn ; phosphore vert : Si04Zn2, activé au Mn; phosphore bleu : mélange de (Si03)2MgCa, activé au Tl, et SZn, activé à l’Ag.
- Compte tenu de filtres correcteurs appropriés, les meilleures primaires que l’on sache réaliser dans la pratique industrielle ont les coordonnées colorimétriques suivantes :
- X y
- Primaire rouge .... 0,67 0,33
- Primaire verte .... 0,21 0,71
- Primaire bleue .... o,i4 0,08
- définissent le triangle chromatique en pointillé
- figure 4.
- Le lecteur ne manquera pas de remarquer le déséquilibre important qui existe entre les aires sacrifiées du côté des verts et du côté des jaunes : ce déséquilibre est voulu car la sensibilité différentielle de l’œil dans la région des verts presque purs est faible : ces couleurs sont d’ailleurs rares dans la nature. D’autre part, toutes les couleurs employées dans l’industrie textile sont reproductibles à l’aide des trois primaires de la télévision en couleurs.
- Malgré ses limitations, la reproduction trichrome en télévision offre des possibilités supérieures à celles de la photographie et même de l’imprimerie. Le problème de la télévision en couleurs n’est pas pour autant résolu : examinons tout d’abord comment les appareils de prise de vue analysent les couleurs de l’objet télévisé pour les transformer en masses colorimétriques des couleurs primaires.
- Les caméras de prise de vue pour la télévision en couleurs. — Les procédés de la trichromie amènent à additionner en chaque point de l’écran de réception les lumières de trois sources primaires. Le rôle de l’appareil de prise de vue est de décomposer la lumière provenant de l’objet visé en trois couleurs fondamentales et de les transformer en signaux électriques; ceux-ci sont transmis au récepteur qui a un rôle inverse. Un appareillage de télévision en couleurs comporte donc l’équivalent de trois appareillages pour noir et blanc
- (fig- 6).
- Les éléments purement électriques de la télévision en couleurs sont en principe identiques à ceux de trois chaînes de télévision ordinaire, mais les caméi’as et les récepteurs doivent assurer la superposition exacte des trois images colorées et la coïncidence permanente des spots électroniques relatifs à cha-
- p.173 - vue 177/527
-
-
-
- 174
- Fig. 6. — Principe général de la télévision en couleurs.
- Le sujet est décomposé en trois images en couleurs primaires analysées simultanément par trois tubes. Trois récepteurs et trois tubes cathodiques reconstituent les trois images primaires dont la superposition restitue l’image fidèle de la scène.
- que primaire. Il est deux manières essentielles de réaliser cette superposition : on peut utiliser des tubes d’analyse et de restitution séparés pour chacune des couleurs primaires, soit disposer d’un tube unique permettant d’analyser d’un seul coup la couleur de l’objet visé et d’un seul tube récepteur. Nous verrons que ce dernier système est avantageux à de nombreux points de vue.
- Avant d’étudier les tubes analyseurs utilisés en télévision tri-chrome, il nous paraît indispensable de rappeler quelques notions concernant les caméras employées en noir et blanc.
- La figure 7 rappelle le fonctionnement d’un tube du type vidicon, un des plus employés aujourd’hui. L’image de la scène à téléviser est projetée sur un écran semiconducteur dont la face antérieure est recouverte d’une couche métallique transparente, très mince mais conductrice. La face postérieure du dépôt est balayée par un pinceau d’électrons focalisé par une optique électronique et que des bobines permettent de déplacer selon des horizontales pour balayer l’écran. Ainsi chaque point de l’écran semiconducteur est successivement atteint par les électrons qui le traversent et parviennent à la face métallisée : le courant qui passe dans la résistance R est donc fonc-
- tion de la conductibilité de la couche à l’endroit où pénètrent les électrons. Or, les semiconducteurs présentent une notable augmentation de conductibilité lorsqu’on les éclaire par une lumière visible : le courant dans le circuit extérieur est donc modulé proportionnellement à l’éclairement des points de l’image explorés tour à tour par le spot électronique. La partie variable de la différence de potentiel aux bornes de R est appelée signal video. C’est ce signal préalablement amplifié qui sert à moduler le courant porteur de haute fréquence envoyé à l’antenne émettrice. La reconstitution de l’image se fait sur l’écran luminescent d’un tube cathodique parcouru par un spot électronique asservi à celui du tube analyseur et modulé par le signal video.
- Il existe bien entendu d’autres sortes de tubes analyseurs (image-orthicon, etc.) sur lesquels nous ne pouvons nous étendre, mais la connaissance du principe de l’analyse point par point de l’image est seule nécessaire à la compréhension du fonctionnement des caméras pour la télévision en couleurs, dont nous allons examiner quelques types.
- Caméras tritubes. — Le montage est en principe celui de la figure 6, mais l’erreur de parallaxe entre les trois objectifs rend impossible la superposition des images primaires si la caméra est proche de la scène télévisée. Il est indispensable que ce soit le même rayon lumineux qid éclaire simultanément les trois écrans des tubes analyseurs, après avoir été divisé à l’aide de miroirs semi-réfléchissants. Dans le montage de la figure 8, le système de miroirs précède le système focalisateur constitué de trois objectifs qui doivent être rigoureusement identiques. Outre qu’il est difficile de réaliser ainsi un dispositif qui permette de changer rapidement l'angle de prise de vues comme on le fait dans les caméras noir et blanc, par exemple par la rotation d’une tourelle à objectifs multiples, l’identité des trois objectifs est de réalisation ardue et le montage ne convient guère qu’à certaines caméras expérimentales.
- Un autre montage optique plus perfectionné mais beaucoup plus complexe est représenté par la figure 9. L’objectif O est interchangeable et sert, conjointement à la lentille L et au système optique de transport 0T, à projeter l’image de la scène télévisée sur les écrans photosensibles de trois tubes analyseurs, en l’occurrence trois images-ortliicons. La mise au point sur
- Balayages
- Ecran ., semi conducteur
- Bobines de focalisation et de / dé flexion
- VIDICON
- Mélangeur signaux image et syncfiro
- Circuits d'amplification et de correction des signaux
- Fig. 7. — Principe du tube analyseur vidicon pour noir et blanc.
- K, cathode ; W, cylindre de Wehnelt ; F, faisceau électronique. Explications dans le texte.
- p.174 - vue 178/527
-
-
-
- 175
- Figr. 8. — Caméra à trois tubes analyseurs (système R.C.A.).
- La lumière est divisée en trois composantes colorées au moyen des lames semi-réiléchissantes D et D', des miroirs M et M', et des filtres F,, F, et F3. Trois objectifs 0,, 0„, 03 donnent trois images semblables dans les trois
- pectivement compensées par la lame de verre P et le système CA formé de deux lames à 45° de l’axe optique. De réalisation plus facile que le précédent, ce dispositif optique présente cependant un gros encombrement et sa luminosité est assez faible, ce qui nécessite l’emploi de tubes image-orthicon, les plus sensibles qui existent actuellement.
- Dans chacun de ces montages, la sélection des couleurs de la scène télévisée est réalisée au moyen de filtres FL, F2, F3, dont il faut bien entendu connaître les caractéristiques qui dépendent de la sensibilité spectrale de la couche active des trois tubes analyseurs. Ceux-ci doivent fournir des signaux video proportionnels aux masses colorimétriques des trois couleurs primaires présentes dans l’objet visé. On calcule la
- des sujets à distance finie se fait en modifiant le tirage entre O et L, et un diaphragme circulaire permet de régler l’intensité de la lumière qui pénètre dans l’appareil. Les miroirs D et D' ont une épaisseur non négligeable qui occasionne des variations globales de chemin optique et des aberrations res-
- Figr. 10. — Courbes de sensibilités spectrales des trois filtres colorés pour la télévision trichrome.
- Les échelles verticales sont telles que le mélange de 1 unité de chaque primaire donne le « blanc C » (blanc « lumière du jour »).
- courbe de sensibilité spectrale que chaque filtre doit posséder au moyen du système colorimétrique XYZ. Indiquons à titre d’exemple comment doit être effectué ce calcul. Les trois primaires R, Y, B, relatives aux trois « phosphores » colorés qui seront utilisés à la réception, ont pour coordonnées, dans le diagramme XYZ, respectivement xB et yE, xY et yv, enfin xB et yB. Cherchons quelles seront les masses mE, mY et ms de ces primaires qui constituent une couleur pure de longueur d’onde X et d’énergie unité. Le point représentatif de cette couleur a sur le diagramme les coordonnées æ(X) et y(X) : sa masse n’est autre que sa valeur photométrique y(X) divisée par son ordonnée y(X), ce qui résulte de considérations développées plus haut. On a donc les trois équations permettant de déterminer mE, mv et mB :
- mRXR 4- mvXv + mKxb = æO) = æ['/\
- //(')
- mRyB + mvijv + mRyB = ||^| y (À) = //(')
- t?îr -f- fflv + mB = = æ(X) + y(X) -f- .£-(>) par définition.
- La résolution de ce système ne présente aucune difficulté et permet d’obtenir pour chaque longueur d’onde spectrale les quantités mv et mB, puisque les fonctions de distribution æ(X), y(X) et z(X) sont connues. Ces masses colorimétriques représentent donc la quantité de lumière qui doit être communiquée à chacun des trois tubes analyseurs qui visent une source monochromatique pour que sa couleur soit reconstituée à la réception : elles indiquent quelle doit être la sensibilité spectrale de chaque ensemble filtre-tube analyseur. Ces réponses spectrales, calculées pour chaque longueur d’onde, sont portées sur les courbes de la figure xo.
- Ces courbes comportent des arcs dont les ordonnées sont
- p.175 - vue 179/527
-
-
-
- 176
- Fibres colorés alternés
- Bandes métallisées
- Faisceau électronique incident
- .Couche photoconductrice
- Connexions de sortie reliées aux bandes collectrices
- Signaux
- video
- + 30 V
- Fig. 11. Écran du tube vidicon trichrome (système R.C.A.).
- Explications dans le texte.
- négatives et même un petit arc positif supplémentaire pour la primaire rouge, dont l’effet est' de mêler éventuellement un peu de rouge à la primaire bleue pour donner la sensation pourprée du violet. Bien entendu il n’est pas question d’obtenir avec des tubes analyseurs des sensibilités négatives qui n’ont aucun sens physique (ce qui revient à constater l’impossibilité de reproduire par trichromie additive les couleurs extérieures au triangle des primaires). On s’efforce seulement, par le choix judicieux de la sélectivité du filtre et de la sensibilité spectrale du tube analyseur, de donner à chaque voie d’analyse une réponse conforme aux parties positives des courbes. Il résulte de cette approximation une « distorsion colorimétrique » inévitable des teintes, même de celles qui sont représentées par des points intérieurs au triangle des primaires.
- L’usage de simples filtres absorbants conduirait à des pertes de lumière fort gênantes. On utilise donc les propriétés des lames transparentes très minces, d’épaisseur inférieure à la longueur d’onde de la lumière, qui transmettent certaines radiations et en réfléchissent d’autres de façon assez sélective : c’est ainsi qu’un film de cryolithe ou de sulfure de zinc déposé sur une plaque de verre peut paraître rouge par réflexion et bleu-vert par transmission pour certaines épaisseurs, et présenter des couleurs différentes pour les autres épaisseurs.
- On met à profit cette propriété très intéressante en recouvrant les glaces D et D' d’une fine couche transparente déposée par évaporation sous vide : ces. miroirs dichroïques assurent donc la séparation des couleurs sans aucune absorption, et le rôle des filtres Fj, F2, F3 se réduit à la finition du travail.
- La technique des miroirs dichroïques est assez délicate car leurs propriétés sont fonction de l’angle d’incidence de la lumière, qui est voisin de 45° comme le montrent les figures 8 et 9.
- La réalisation de l’identité des balayages des trois tubes au moyen d’un pinceau d’électx'ons est également très difficile. Tous les éléments optiques et électriques doivent être rigoureusement identiques et il faut prévoir des éléments de compensation qui réalisent l’ajustage précis des balayages obtenus par des bobines déviatrices. Malgré toutes ces précautions, on est obligé de reconnaître que la superposition est de qualité inégale d’un point à l’autre de l’image et peut varier au cours du temps : il n’est pas possible de demander aux analyseurs tri tubes, par ailleurs très onéreux, un fonctionnement entièrement sûr et une haute définition de l’image : la mise au point de tubes intrinsèquement trichromes apparaît fort souhaitable.
- Tubes analyseurs trichromes. — Un tube analyseur comportant dans une seule enceinte vide d’air tous les organes nécessaires à l’analyse d’une lumière colorée est actuellement en cours d’études aux laboratoires de la Radio Corporation of America (R.C.A.). Il ressemble beaucoup au tube vidicon pour noir et blanc que nous avons décrit plus haut (voir là figure 7) mais la structure de la face avant est très différente. En effet, la couche métallique transparente qui supporte la matière luminescente est découpée en un très grand nombre de fines bandes obliques recouvertes chacune d’un filtre coloré du côté où arrive la lumière (fig. 11). Ces filtres correspondent successivement aux primaires rouge, verte, bleue, rouge, verte, bleue, etc. Toutes les bandes métalliques situées derrière les filtres de même couleur sont connectées électriquement ensemble et reliées à la source positive de tension par une résis-
- tance. Le fonctionnement de l’appareil se comprend aisément, étant analogue à celui du vidicon, mais il y a trois signaux video provenant des trois résistances R1S R2, R3, et correspondant chacun à l’image optique vue au travers d’un filtre primaire différent : on les amplifie dans trois chaînes distinctes. Il est à peine besoin d’insister sur les difficultés de réalisation et d’emploi d’un tel tube. Dans l’état actuel des choses sa définition est limitée à moins de 200 lignes comportant chacune 200 points : c’est une analyse très grossière.
- Systèmes analyseurs séquentiels. — Le premier principe auquel on ait songé pour réaliser la télévision en couleurs n’est pas un de ceux dont nous venons de parler. En effet, il existe un procédé qui semble bien plus simple à première vue : il suffit pour obtenir une image colorée de faire se succéder rapidement les trois images en couleurs primaires dont la superposition est assurée par la persistance des impressions lumineuses sur la rétine : à cet effet un tube analyseur ordinaire est muni d’un disque tournant qui porte trois filtres colorés et enregistre successivement les trois images en couleurs primaires. Le récepteur utilise un tube du type habituel avec des filtres portés par un disque qui tourne en synchronisme avec celui de la caméra (fig. 12). La parfaite superposition des images primaires ne pose aucun problème.
- Ce système, qualifié de séquentiel car il utilise la succession d’images en couleurs primaires, est séduisant par sa simplicité mais il présente de graves défauts qui le font progressivement abandonner : citons par exemple la présence de filtres qui absorbent une partie de la lumière et doivent avoir de grandes dimensions, et la nécessité d’un signal de synchronisation supplémentaire pour assurer la rotation simultanée des disques qui portent les filtres à la prise de vue et à la réception. Mais son défaut rédhibitoire est le papillotement des images; en télévision en noir et blanc les images doivent se succéder à une cadence d’au moins 5o par seconde pour éviter à l’œil cette impression désagréable. Ici cette fréquence doit être amenée au triple, soit i5o c/s, ce qui nécessite,
- p.176 - vue 180/527
-
-
-
- 177
- comme nous le verrons clans notre second article, que la largeur de la bande passante de la transmission soit triplée : un tel élargissement est inacceptable, d’autant plus que d’autres systèmes permettent de l’éviter.
- Au lieu de faire se succéder trois images de couleurs primaires, on peut commuter les couleurs à. la fréquence de défilement des lignes (systèmes séquentiels de lignes). Ce principe, sur lequel il serait trop long d’insister, se pi’ête à la construction de caméras et de récepteurs utiles dans certains cas.
- Enfin des dispositifs séquentiels de points emploient toujours un tube unique analysant l’image colorée à la fréquence des points. Comme les précédents, ils n’ont pas eu beaucoup de succès pratique car ils n’éliminent pas complètement les problèmes de superposition des images, tout en présentant de notables difficultés de réalisation.
- Analyse de films cinématographiques. — L’analyse des films cinématographiques diffère en quelques points de l’analyse d’une scène réelle, car il faut tenir compte du caractère discontinu de la projection cinématographique. Les techniques du télécinéma en couleurs sont assez peu différentes de celles du noir et blanc : la figure i3 en expose le principe dans les deux cas (analyseur à spot lumineux). On projette, grâce à un objectif O, sur le film à téléviser F, l’image de l’écran E d un tube cathodique balayé ligne par ligne par un pinceau d’électrons de densité constante : le film est donc exploré par une très petite tache lumineuse et une cellule photoélectrique à multiplicateurs d’électrons PM recueille une lumière proportionnelle à la transparence du film à l’endroit éclairé, et four-
- nit le signal video. On s’arrange bien entendu pour que chaque image du film soit entièrement explorée pendant le temps où elle est immobilisée. Pour obtenir une analyse tri-chrome, il suffit de remplacer l’unique photomultiplicateur du noir et blanc par un ensemble de miroirs dichroïques et M3 et de filtres Fx, F2 et F3 analogue à celui que nous avons rencontré en étudiant les caméras tritubes; derrière les filtres se trouvent trois photomultiplicateurs qui recueillent les couleurs primaires.
- La matière luminescente doit présenter une rémanence de luminescence très brève afin que le film soit exploré par une tache lumineuse exempte de traînée. Actuellement on emploie de l’oxyde de zinc activé par un excès de zinc dont l’affaiblissement lumineux est de l'ordre de ioo fois, une microseconde après l’arrêt de l’excitation, mais dont la luminescence est pauvre en radiations rouges : cette primaire est un peu sacrifiée car on est obligé de pousser l’amplification du photomulliplicateur correspondant, qui finit par donner un bruit de fond non négligeable. Néanmoins l’analyseur à spot lumineux présente l’énorme avantage de fournir de par son principe même des images sans défauts de superposition de couleurs. Par malheur son emploi est limité à l’analyse des films cinématographiques et des vues diapositives, et il ne peut en aucune manière servir à téléviser des scènes réelles en exploitation courante.
- * *
- Fig. 13. — Analyseur à spot lumineux pour films cinématographiques.
- A gauche, l’appareil pour le noir et blanc ; à droite, le système permettant l’analyse de 111ms en couleurs. Explications dans le texte.
- p.177 - vue 181/527
-
-
-
- 178
- L’étude que nous venons de faire des analyseurs d’images pour la télévision en couleurs n’est certes pas exhaustive et n’a pas d’autre prétention que de donner une idée de la complexité des problèmes rencontrés dans cette nouvelle branche de l’électronique. Il est actuellement impossible de prédire les chances d’extension de chacun des système utilisés car les difficultés rencontrées à l’étage de l’analyseur ne sont pas les pires qui existent; la réalisation des récepteurs est au moins aussi délicate, et les problèmes de transmission radioélectrique des signaux ne sont pas seulement techniques : il faut prévoir l’avenir et limiter au maximum l’encombrement de la bande de fréquences radio utilisables, tout en réservant la possibilité de capter les images de la télévision
- en couleurs avec les récepteurs noir et blanc. Il faut éviter que l’avènement de la télévision en couleurs ait pour conséquence la mort du noir et blanc, car il pourrait en résulter des catastrophes économiques. Ce sont surtout de telles considérations qui limitent le choix des systèmes de télévision en couleurs : avant d’en venir là, il nous faudra exposer dans le prochain article la réception des images et leur transmission par ondes radioélectriques.
- (à suivre).
- Yves Angel, James Lequeux,
- Professeur au Conservatoire Ancien élève de l’E.N.S.,
- national des Arts et Métiers. Agrégé de l’tlniversité.
- Un nouveau long-courrier
- Alors qu’il y a deux ans à peine, les constructeurs d’avions américains continuaient à affirmer leur foi dans les avions à turbopropulseurs, l’apparition sur les marchés mondiaux du Cornet IV et d’autres appareils à réaction tels que le moyen-courrier français « Caravelle », les a incités à étudier dans un temps record des appareils équivalents propulsés par turboréacteurs, et dont la sortie en série doit intervenir au cours des toutes prochaines années.
- Après le Boeing 707, déjà en service dans l’armée américaine dans sa version d’avion-citerne pour le ravitaillement en vol, et dont Air-France a commandé une dizaine d’exèmplai-res, Douglas, qui tient la tête des fournisseurs d’avions de transport depuis près de trente ans, annonce un nouveau descendant de sa célèbre série de D.C., le D.C.8 propulsé par quatre turboréacteurs Pratt et Whitney J.T.4 de 6 800 kg de poussée chacun. Le poids total est de 120 t et correspond à une charge payante de 18 t. L’aile est une aile en flèche de 3o° (fig. 1), donc relativement modérée. Les moteurs sont suspendus dans des nacelles situées au-dessous des ailes et légèrement en avant du bord d’attaque. Cette disposition qui est très chère aux constructeurs américains, puisqu’elle se retrouve, outre le Boeing 707, sur de nombreux bombardiers supersoniques, comme le B.58 « Hustler », est à comparer à la disposition
- à réaction : le D.C.8
- anglaise, dans laquelle les réacteurs sont noyés dans l’aile, ou à celle adoptée sur la « Caravelle », où les deux réacteurs sont accolés à l’arrière du fuselage (voir La Nature, septembre ig55). Elle permet de conserver à l’aile une forme aérodynamique très sûre, tout en améliorant la sécurité en cas d’accident, les moteurs étant davantage éloignés de l’aile. Du point de vue structural, la construction de l’aile est très simple et évite les inconvénients dus au passage des manches à air et des tuyères d’éjection; l’accessibilité des organes du réacteur est la meilleure possible, et le changement de pièces défectueuses et les réparations peuvent se faire dans le temps minimum.
- Pour les dimensions, le D.C.8 est un des plus grands avions de transport civils qui aient jamais été construits. Son envergure atteint 42,60 m et sa longueur 45,90 m.
- Chaque moteur doit être équipé d’un inverseur de poussée, ce qui accroît la sûreté, surtout lors d’atterrissages sur pistes mouillées ou glacées. Ils seront également équipés d’un réducteur de bruit. Un frein aérodynamique placé sous le fuselage réduira la vitesse au cours de l’approche, et permettra également de réduire les longueurs d’atterrissage.
- Le D.C.8 pourra voler dans des conditions de givrage sévères; en l’espèce, toute l’aile, l’empennage et les supports-moteurs sont protégés par un dispositif à circulation intermit-
- Fig. 1. — Maquette du long-courrier américain à réaction Douglas D.C.8.
- (Photos aimablement communiquées par le Bureau européen de la Douglas Aircraft Company).
- p.178 - vue 182/527
-
-
-
- 179
- Fig. 2. — Ensemble du fuselage d’un D.C.8 en construction, à Long Beach (Photo Douglas Aircraft Cy). -
- tente d’air chaud, les pare-brise étant chauffés électriquement. Le premier prototype est en train de s’achever (filg. 2) et il devrait effectuer son premier vol au début de 1958.
- Bien que l’appareil n’ait pas encore volé et que son entrée en service ne soit pas prévue avant 1959, le D.C.8 a été commandé par de nombreuses compagnies de transport (le nombre de commandes en carnet dépasse déjà la centaine). Un tel engouement est dû d’une part à la réputation de la Société Douglas dans le transport aérien, établie solidement par les D.C.3, D.C.4j D.C.6 et D.C.7, mais aussi par les performances
- L’avion de recherche
- Un certain nombre d’informations viennent d’être données sur le plus l'écent avion de recherches à grandes vitesses américain, le Norlh-American X.i5, qui doit atteindre des altitudes de 160 km. La forme en plan est tout à fait différente de celle des avions supersoniques réalisés jusqu’à présent; le fuselage est un long cylindre terminé par une pointe avant conique. L’aile, de forme trapézoïdale, est épaisse et constituée par une simple plaqxie non profilée, terminée à l’avant par un bord d’attaque en biseau, et à l’arrière par un bord de fuite droit.
- La propulsion est assurée par un moteur-fusée de la Reaction Motors Inc. dont la poussée au niveau de la mer atteint 27 t; son poids atteindrait 45o kg, et les propergols seraient de l’acide nitrique et du kérosène. Le poids de propergols emportés permettrait des temps de combustion de 200 s. L’avion sera probablement largué à haute altitude à partir d’un bombardier à réaction B-08. Le comburant et le carburant sont tous deux entièrement emmagasinés dans le fuselage qui constitue en quelque sorte un immense réservoir.
- En dehors des gouvernes traditionnelles, le X.i5 disposera
- remarquables que doit présenter ce nouveau long-courrier. Tant pour la version transcontinentale que pour la version intercontinentale, la vitesse de croisière avoisine g4o km/h. Le rayon d’action sera de 6 5oo km pour la première de ces deux versions et de 7 200 km pour la seconde; il pourra même être porté à 7 800 km par adoption de turboréacteurs à double flux Rolls-Royce « Comvay ». Ces moteurs ont en effet une consommation spécifique nettement plus faible que celle des turboréacteurs ordinaires, et pour un même poids de combustible emporté, qui doit être de l’ordre de 60 t, la distance parcourue est plus grande.
- Grâce à sa vitesse remarquable, le D.C.8 pourra traverser les États-Unis en moins de cinq heures, ce qu’aucun avion de transport commercial n’avait encore pu faire; de même, la distance New York-Paris sera couverte en moins de 6 heures et demie. L’altitude de croisière sera très élevée, entre xi 000 et 12 000 m, et pour assurer le confoi't des passagers un système de pressurisation et de conditionnement d’air entretiendra un état de l’atmosphère assez voisin de celui auquel on est habitué au sol. D’ailleurs, bien que le nombre de sièges atteigne 122 en première classe et 144 en classe touriste, les aménagements intérieurs ont été spécialement étudiés, avec en particulier de grands hublots rectangulaires qui permettront une vue étendue.
- En contrepartie de son poids au décollage élevé, les longueurs de décollage sont assez importantes, de l’qrdre de 2 700 m pour le poids maximum. On mesure là tout l’intérêt que présentera le contrôle de la couche-limite comme procédé d’hypei’sustentalion lorsqu’on aura résolu les différents problèmes qui s’opposent encore à son adoption sur les avions de transport.
- Outre la cabine pour les passagers, le D.C.8 comporte une soute de 4o m3 de volume qui permet d’emporter 6 4oo kg de fret.
- La chaîne de fabiieation est déjà lancée dans les ateliers de Douglas, comme on peut le voir sur la figure 2 qui montre les ti’avaux effectués sur un ensemble de fuselage.
- Avec des avions tels que le Boeing 707 et le D.G.8, le transport aérien va entrer dans une phase nouvelle qui va poser de nombreux problèmes d’exploitation, de circulation aérienne et d’infrastructure. Ils serviront en quelque soi’te de préparation à l’ère du transport aérien supersonique qui s’annonce déjà, vu les progi’ès très rapides de l’aérodynamique et de la propulsion.
- Jacques Spincourt.
- North-American X.15
- de gouvernes par jet; en effet, lorsqu’il n’y a pas d'atmosphère, un aileron ou une gouverne de profondeur n’ont aucun effet. Les éjecteurs sont placés sous les ailes au voisinage du fuselage.
- L’un des principaux pi’oblèmes auxquels se heurtera cet avion révolutionnaire est celui de Réchauffement aérodynamique que nous avons déjà abordé dans le numéro de janvier 1967 de La Nature (p. 36). Il semble qu’ils soient résolus par l’adoption pour la réalisation de la structure d’acier au nickel et par une construction en doxible paroi; dans l’espàce ainsi ménagé, on pourrait faire circuler l’un des deux liquides qui assurent la propulsion; il servirait ainsi en même temps de refroidisseur.
- La navigation doit être assurée par un dispositif à inertie. Cet avion doit permettre d’obtenir de nombreux renseignements sur le vol à grande vitesse, et en particulier sur la rentrée dans les couches denses de l’atmosphère après un vol dans l’espace, pi’oblème crucial pour les engins guidés balistiques et pour des satellites ou des astronefs intei'planétaires habités.
- J. S.
- p.179 - vue 183/527
-
-
-
- 180
- L’exploration scientifique de la peinture au Laboratoire du Musée du Louvre
- D ans le Bulletin du Laboratoire du Musée du Louvre, les lecteurs non prévenus ont la surprise de trouver un texte inédit de Louis Pasteur sur le sujet de l’obscurcissement de la peinture à l’huile. Rien que de normal au demeurant si l’illustre savant s’est penché sur ce problème : ne fut-il pas, de i863 à 1867, professeur de géologie, physique et chimie à l’École des Beaux-Arts ? Mais là preuve est ainsi fournie que, sous le Second Empire déjà, on considérait que des notions scientifiques pouvaient être utiles aux artistes. Il a fallu cependant qu’un long chemin fût encore accompli avant que les diverses ressources de la physique, et accessoirement de la chimie, soient appliquées à l’étude des œuvres d’art.
- Ce n’est certes plus à présent une nouveauté, mais les techniques d’investigation s’enrichissent constamment grâce aux apports les plus récents de la science, jusques et y compris les isotopes radioactifs. Ce qu’il convient également de souligner, c'est que ces techniques visent un but de plus en plus élevé qui dépasse souvent les simples problèmes matériels : une contribution importante en effet est désormais fournie aux études de caractère historique et esthétique qui, sans le secours de ces techniques, auraient risqué de rester plus ou moins arbitraires et superficielles.
- La critique artistique, dirons-nous, se fonde (ou peut «e fonder) sur des bases expérimentales. On ne saurait prétendre qu’il en soit toujours ainsi, car l’investigation orientée dans ce sens est jusqu’à présent une exclusivité qui appartient en propre au Laboratoire du Musée du Louvre : les organismes similaires qui existent à l’étranger se consacrent presque exclusivement aux
- Fig. X. — Le Christ en croix du retable de Besançon photographié en lumière naturelle.
- Peinture médiocre, mais qui aux yeux des experts présente un curieux mélange de deux époques et de deux styles.
- Fig. 2. — Radiographie du Christ en croix du retable de Besançon.
- Comparer avec la figure 1. Ici, deux images superposées apparaissent : celle du tableau visible, celle d’un Christ aux bras étendus, œuvre appartenant nettement au xive siècle et qui par son dessin vigoureux et son inspiration est de beaucoup supérieure à la première qui l’a presque
- entièrement recouverte.
- p.180 - vue 184/527
-
-
-
- 181
- Fig. 3, 4, 5. — Partie centrale de « Marquis », portrait d’homme, école française du XVIIP siècle (Musée du Louvre).
- A gauche, photo en lumière naturelle directe : le mauvais état de la peinture et les maladresses d’es écution sont visibles ; on ne discerne pas toutefois en quoi consistent exactement les défauts. — Au milieu, l’œuvre vue en fluorescence d’ultraviolet : les repeints apparaissent, notamment sur le côté gauche de la chevelure ; des arrachements de vernis, autour de la bouche, ont été encadrés à titre de démonstration. — A droite, l’œuvre photographiée en lumière naturelle rasante : on distingue nettement les défectuosités de la toile et de la couche de peinture.
- classiques examens imposés par les problèmes de conservation et éventuellement de restauration.
- C’est en iq3i que le Laboratoire a été fondé, grâce à l’initiative de deux amis de la France, le Pr Carlos Mainini et S. Exc. Fernando Perez, ambassadeur de la République Argentine. Notons qu’en honneur de son principal donateur, le Laboratoire est également connu sous le nom d’institut Mainini. La gamme de ses activités est très large et le sujet nous a paru devoir être divisé en deux : dans un prochain article, Mme Hours-Miédan, chef du Laboratoire, traitera elle-même tout ce qui concerne les œuvres d’art diverses (sculptures, poteries, etc.) avec les nombreuses incidences archéologiques que comporte leur étude. Le présent article, rédigé d’après les documents aimablement communiqués par Mme Hours (et en particulier son livre : A la découverte de la peinture) est uniquement consacré à la peinture. Les photographies que nous publions ont été également mises à notre disposition par le Laboratoire du Musée du Louvre.
- Diagnostic avant traitement. — Une comparaison se présente tout naturellement à l’esprit : le tableau qui est envoyé pour examen au Laboratoire du Musée du Louvre est pour ainsi dire dans la même situation qu’un malade que son médecin traitant dirige vers une clinique où se trouvent réunis les moyens nécessaires à l’établissement d’un diagnostic. En l’espèce, ce sont les conservateurs des différents musées nationaux qui jouent le rôle du médecin traitant. En envoyant le tableau, ils le font accompagner d’une note précisant les raisons de cet envoi : le tableau supporlera-t-il tel ou tel mode de restauration ? Comporte-t-il des repeints ? La signature est-elle d’origine ou surajoutée ? etc.
- Un exemple significatif fera encore mieux ressortir le sens des études demandées au Laboratoire et ce qui peut, par la suite, en résulter. Il s’agit du Retable de la Passion (fig. i et 2), quatre panneaux peints sur bois, que le conservateur du Musée de Besançon décida de soumettre au Laboratoire. Les planches qui supportaient la peinture étaient en mauvais état. La peinture elle-même était soulevée par endroits, manquait ailleurs et avait subi d’apparentes retouches. Cette œuvre qui avait largement souffert des « injures du temps » semblait en outre avoir
- élé transformée à une époque relativement récente. Le problème était de savoir si elle méritait d'être restaurée, en fonction d’un intérêt artistique qui, à l’examen superficiel, était difficile à apprécier. Chacun des panneaux, en effet, présentait un caractère hybride, avec des fonds, un décor, une composition apparentés aux œuvres religieuses du xive siècle, cependant que le style et les couleurs portaient la marque du xvne siècle.
- L’examen méthodique et surtout la radiographie ont permis de retrouver, sous la surface visible, assez médiocre et fade, une œuvre toute différente et d’une incontestable qualité. L’épisode le plus impressionnant de cette inspection en profondeur fut la découverte, sous le Christ en croix de basse époque, d’un autre Christ au dessin vigoureux : ni les bras, ni la tête, ni la croix ne se trouvaient à la place que le « restaurateur » du xvne siècle avait cru devoir leur assigner. La question que s’était posée le conservateur du musée comportait donc une réponse nette : le Retable de la Passion devait être ramené à son état primitif. L’examen ayant révélé par surcroît que la couche ancienne de peinture était en bon état, l’enlèvement du repeint intempestif ne devait pas comporter de difficultés majeures.
- Les différents examens. — Cet exemple pouvant fixer les idées sur le sens et la portée du diagnostic demandé au Laboratoire, voici dans quel ordre est conduit l’examen :
- i° Examen préalable à l’œil, sous la lumière solaire;
- 20 Contrôle des indications portées sur la fiche du conservateur ;
- 3° Examen au microscope de l’état de surface;
- 4° Examen sous la lampe à vapeur de sodium (lumière monochromatique) ;
- 5° Examen sous la lumière de Wood (rayons ultraviolets);
- 6° Examen en lumière rasante;
- 7° Examen sous les rayons infrarouges;
- 8° Macrophotographies et microphotographies ;
- 90 Radioscopie et radiographie ;
- io° (Éventuellement) Analyses chimiques ou spectroscopiques de la peinture, grâce à des prélèvements opérés sur le tableau.
- Les trois premières opérations n’ont pas lieu d’être particu-
- p.181 - vue 185/527
-
-
-
- 182
- Fig-. 6 et 7. — Le Caravage : Sainte Madeleine en extase (Musée de Poitiers).
- A gauche, en lumière naturelle. — A droite, en fluorescence d’ultraviolet ; tout le travail ancien de restauration apparaît :
- larges repeints, repiquages, détails sertis et soulignés, etc.
- lièrement commentées : ce début de l’expertise, où les moyens scientifiques d’investigation n’interviennent pas encore, a pour but de prendre contact avec l’œuvre et d’estimer par avance l’importance respective des examens ultérieurs. On doit seulement. noter la valeur attribuée par le chef du Laboratoire à la lumière solaire, sous laquelle certains détails peuvent apparaître qui risqueraient de ne pas être perçus lors des examens sous les différentes sources de lumière artificielle. Cette « auscultation « préalable n’est évidemment fructueuse qu’en fonction de l’expérience accumulée sur de longues années et des facultés d’appréciation qui se sont développées à la faveur de quelques milliers d’expertises.
- En ce qui concerne la suite, on remarquera que les différents examens s’accompagnent en général de prises de clichés photographiques afin de conserver trace des informations recueillies. Ainsi ont pu être constituées des archive.s d’une exceptionnelle richesse (environ io ooo documents) qui sont journellement exploitées, en vue d’interpréter les examens ultérieurs en utilisant la méthode comparative.
- Lumière, monochromatique (vapeur de sodium). — Cette lumière, ori le sait, est jaune. Elle fait apparaître le tableau sous l’aspect d’une photographie, où les couleurs auraient totalement disparu. Ceci met en relief l’élément pictural très important que représentent le dessin et les valeurs : ainsi peuvent être détectées certaines faiblesses qui dénonceront la copie ou la falsification d’une œuvre originale. Souvent, en effet, les couleurs peuvent masquer une construction imparfaite.
- D’une manière générale, la vision du tableau est rendue plus précise et des détails apparaissent que l’on ne pourrait percevoir à l’œil nu. Ils pourront par la suite être enregistrés grâce aux rayons infrarouges, mais l’information ne sera alors fournie que par un document photographique : l’examen en lumière monochromatique aura préparé et guidé la prise de ce document.
- L’éclairage à la vapeur de sodium a également la propriété d’éliminer la déformation optique due au vernis : sous cette lumière, en effet, le tableau apparaît comme s’il avait été déverni.
- Lumière de Wood. — Le mauvais état d'un tableau résulte bien plus souvent d’une restauration ancienne mal exécutée que de l’usure ou des accidents subis par la peinture. Le Laboratoire doit en particulier détecter les repeints abusifs qui ont recouvert d’assez larges parties du tableau alors que des repiquages légers auraient été suffisants.
- Les rayons ultraviolets jouent à cet égard un rôle particulièrement important : ils ont en effet la propriété d’exciter la fluorescence des corps et presque toujours les retouches qui ont été apportées à la surface d’un tableau apparaîtront sous ces rayons comme autant de taches sombres. Il arrive cependant que des grattages ou des arrachements de vernis (fig. 4 et 6) puissent être confondus avec les repeints, car ils apparaissent également sous forme de taches. C’est pourquoi l’examen en lumière de Wood doit être complété et contrôlé par celui de l'état de surface à la loupe ou au microscope.
- 11 se trouve par ailleurs que la fluorescence diffère selon les pigments que le peintre a utilisés : c’est ainsi qu’on peut assez nettement distinguer les blancs de plomb et d’argent (sombres sous les ultraviolets), du blanc de zinc (jaune-vert et très lumineux). Ceci permet, en certains cas, de se prononcer sur la date du tableau ou des repeints : le blanc de zinc, en effet, n’est en usage que depuis 1780.
- Lumière rasante. — Il suffit d’éclairer le tableau très obliquement au plan dans lequel il se trouve pour révéler de manière frappante les aspérités ou les irrégularités de sa surface. Cet examen vise deux buts très différents : vérifier l’état de conservation du tableau, découvrir la technique du peintre.
- En ce qui concerne la conservation, on distingue en lumière rasante les plis qui résultent d’une toile détendue, les cloques formées par la peinture qui a cessé d’adhérer à la toile (fig. 5), les écrasements ou les arrachements occasionnés par des ren-toilages ou des tratispositions (reports de la couche picturale sur un nouveau support). On peut également contrôler l’état du support, en particulier lorsqu’il s’agit de panneaux de bois, sensibles aux conditions hygrométriques de l’air. Il arrive parfois que ce support a laissé'sur la peinture elle-même des traces invisibles à l’œil nu : un poTtrait de François Ier, actuellement
- p.182 - vue 186/527
-
-
-
- 183
- Fig. 8. — J. Bosch : La tentation de saint Antoine (Musée de Lisbonne).
- Un détail (l’homme au chapeau), en « macrophotographie », montre 1’ « écriture » spéciale du peintre.
- sur toile, révèle sous la lumière rasante la transposition dont il fut l’objet, car les planches de bois qui, primitivement, le supportaient apparaissent nettement sous la lumière rasante.
- Du côté de la technique picturale, ce mode d’examen est révélateur (surtout après la Renaissance) de la forme du pinceau qui a été employé, de la direction et du volume des touches, des empâtements, en un mot de 1’ « écriture » par laquelle le peintre a marqué l’œuvre de son empreinte personnelle.
- Rayons infrarouges. — Les vernis, généralement obscurcis par le temps, les glacis qui sont la mince couche de peinture fluide par laquelle le peintre parachève son œuvre sont perméables aux infrarouges. Ce mode d’éclairage représente donc une exploration en profondeur qui met à jour le cc corps » du tableau, débarrassé d’une finition qui s’est altérée ou qui a été arbitrairement surajoutée. Le cas le plus typique est celui des vernis brun doré dont, à l’époque romantique, on recouvrait les tableaux pour plaire au goût spécial des contemporains. La règle actuelle est de restituer l’œuvre dans son état original : encore faut-il un sondage préalable aux infrarouges qui, par la même occasion, fera apparaître les repeints exécutés avant le vernis et que les ultraviolets ne peuvent déceler.
- Certaines falsifications peuvent également être découvertes grâce aux infrarouges : ce fut le cas, par exemple, d’une nature morte, Les apprêts du pot-au-feu, qui entra au Louvre avec la collection La Caze, sous la mention a attribué à Chardin ». Cette attribution parut contestable au conservateur du musée qui confia l’œuvre au Laboratoire : sous un repeint, recouvert
- lui-mème de vernis, les infrarouges permirent de lire une signature, celle de Michel-Honoré Bounieu, un contemporain du maître, peintre également de genre, mais d’une classe très inférieure. Cette signature, pour des raisons commerciales, avait été ingénieusement masquée.
- Parfois l’histoire d'un tableau ressort de la « lecture » aux infrarouges : si l’artiste a eu par exemple ce qu’en termes de métier on appelle un « repentir » et qu’il a voulu corriger un volume excessif ou déficient, le tracé primitif est restitué par cet impitoyable examen. On retrouve également, en particulier, dans le cas de Rembrandt, un dessin précis que le maître a volontairement noyé sous les bruns et les jaunes qui concourent à ses effets de clair-obscur.
- Les infrarouges permettent enfin d’identifier certains pigments utilisés dans les couleurs, sans avoir besoin de recourir à l’analyse chimique : comparant en particulier la gamme des bleus, photographiés d’une part en lumière ordinaire et d’autre part en infrarouge, il est possible de distinguer le bleu de cobalt de celui d’outremer et des autres pigments bleus en usage.
- La macrophotographie (agrandissement de certains détails, selon un coefficient d’environ 2,5 à 4). — Ce procédé, on le conçoit, est souvent révélateur de la technique du peintre (fig. 8). 11 est employé aussi bien en lumière ordinaire que sous les éclairages spéciaux auxquels nous avons fait allusion. Mais il peut également dénoncer des faux, par le simple examen des craquelures : celles qui se sont produites naturellement sont à bords vifs, celles au contraire que le faussaire a artifi-
- ciellement provoquées en... mettant le tableau au four (procédé, paraît-il, classique) ont des lèvres émoussées (fig. 9). Quant aux craquelures patiemment dessinées au pinceau, elles ne résistent pas à l’examen macroscopique.
- La microphotographie. — Avec un grossissement accru, les explorations que nous venons d’indiquer deviennent plus précises, mais sont étroitement localisées. L’intervention du microscope, permettant de prendre des clichés microphotographiques, s’impose en de nombreux cas où l’on doit enregistrer certains accidents de la couche picturale, son usure, l'état du vernis, de la toile, etc. Le microscope peut également témoigner de l’authenticité d’une signature : la peinture avec laquelle elle a été tracée doit participer à la pâte du tableau et les craquelures doivent s’y prolonger. Ceci suppose qu’elle fut apposée aussitôt l’œuvre terminée, ce qui n’est pas toujours le cas : ce test apporte donc plutôt une présomption qu’une preuve irrécusable.
- Le microscope enfin, avec des grossissements de l’ordre de
- p.183 - vue 187/527
-
-
-
- 184
- Fig. 10 et 11. — Rembrandt : Bethsabée (Musée du Louvre).
- A gauche, en lumière naturelle. — A droite, radiographie où apparaissent simultanément la tête primitivement peinte par l’artiste et celle qui
- figure au tableau définitif.
- xoo diamètres, révèle la nature des pigments et des liants, le mode de broyage. Ces différents éléments sont caractéristiques des époques de la peinture et même des écoles nationales ou régionales. Ajoutons que, selon une remarque de Mme Hours, les oeuvres de grande valeur artistique sont faites de couleurs bien broyées. Les peintres médiocres sont moins difficiles pour la qualité de leurs matériaux.
- Rayons X. — La première radiographie picturale a été exécutée à Munich, peu après la découverte de Rœntgen, et dès le début du xxe siècle, ce mode d’exploration des œuvres d’art s’est répandu à travers plusieurs pays.
- La formule actuellement employée au Laboratoire du Louvre, de même qu’à l’étranger, est celle des rayons mous (20 à 5o kY; 4 à G mA). Étant donné les résultats spectaculaires qui sont souvent obtenus, les laboratoires spécialisés usent largement de cette technique des rayons X. Sur les tableaux de grandes dimensions, l’examen débute par une scopie générale, exécutée partie par partie. La prise de clichés radiographiques n’est faite ensuite que pour les détails qui méritent qu’un document en soit conservé. C’est dire que les opérateurs sont longuement exposés aux radiations et qu’une protection s’impose autant, sinon davantage que dans les salles de radiologie médicale.
- Radioscopies et radiographies ne sont en aucune façon une panacée et peuvent même assez souvent ne fournir que des indications de faible valeur sinon nulles. Il arrive en effet que des tableaux soient presque entièrement faits de couleurs où les pigments sont de poids atomique élevé : en ce cas, ils seront en majeure partie opaques aux rayons X et la radiographie ne sera pas lisible. Même difficulté dans le cas inverse où les couleurs sont uniformément transparentes aux rayons X. L’éventualité la plus favorable est celle d’une palette de couleurs d’opacités différentes. Cette observation ne s’applique pas seulement à la couche picturale, mais à l’ensemble matériel que représente le tableau, en y comprenant le support et la préparation dont celui-ci a fait l’objet avant l’exécution de l’œu-
- vre. Les découvertes dues à la radiographie sont donc généralement imprévisibles et leur interprétation est parfois difficile.
- Il n’en est pas moins vrai que cet examen, même s’il est entrepris à tout hasard, est essentiel, car sa plus ou moins grande utilité n’est révélée qu’a posteriori. Si par exemple la scopie ou le cliché permettent de contrôler l’état d’un support en bois (en définissant exactement les essences employées, la disposition des planches, les attaques subies du fait des parasites), ce document guidera très utilement les mesures de conservation qui doivent être prises. On peut également percer à jour certaines techniques anciennes (collages de toiles ou de mousselines utilisées pour égaliser la surface du bois).
- L’état du support en toile est en général plus facile à constater de l’extérieur : il y a intérêt cependant à connaître la structure des fibres, le mode de tissage et à faire apparaître les découpages ou les pièces rapportées.
- Nous signalions plus haut le fait que les repeints anciens étaient, la plupart du temps, exécutés sur une étendue excessive : c’est la radiographie qui peut le mieux révéler cette déformation abusive subie par l’œuvre. Mais les documents les plus impressionnants apportés par les rayons X sont certainement ceux qui intéressent la technique du peintre, l’histoire de l’œuvre et même l’histoire de la peinture en général.
- On a pu, par exemple, se rendre compte qu’antérieurement au xvie siècle les tableaux, sauf de rares exceptions, étaient exécutés de bout en bout, sans subir de ces transformations qui témoignent, chez l’artiste, d’hésitations, de « repentirs » ou d’une impulsion particulière dans son effort de création. Cela s’explique sans doute par le fait que les peintres, souvent anonymes, du moyen âge étaient plus près que leurs successeurs de la condition artisanale : ayant établi un projet précis, avec devis, présentation du dessin, mention des couleurs qui devaient être employées, ils étaient astreints à respecter à la lettre les termes de la commande. La création était en quelque sorte « concentrée » dans la période où s’élaborait le projet : par la suite, le travail était de pure exécution.
- p.184 - vue 188/527
-
-
-
- Les peintres de périodes plus récentes ont pu épanouir en pleine liberté leur talent ou leur génie. Rembrandt, en peignant sa Belhsabée (lig. io et n) a décidé que la tète du personnage n’occupait pas, dans le tableau, la position optimale. Il l’a résolument déplacée. Radiographiant une Vierge du Titien, le Laboratoire a découvert, aux pieds de la Vierge, dans la verdure et les fleurs, deux lapins qui, dans le tableau, avaient complètement disparu. Sans doute le maître avait-il jugé, en cours de tiavail, ce détail comme trop anecdotique! Il arrive fréquemment que des artistes ne se bornent pas à une simple transformation : c’est toute l’œuvre qu’ils récusent. Ils récupèrent alors la toile déjà peinte pour un nouveau tableau. C’est ainsi que les rayons X ont retrouvé sous une peinture de Rembrandt une œuvre dédaignée par lui. Plusieurs cas analogues sont connus, chez divers, artistes.
- Plus souvent, la transformation n’est pas due au peintre lui-même : sur les indications de la radiographie, les ateliers de restauration doivent faire réapparaître des nudités qu’à une certaine époque on croyait devoir systématiquement voiler. Dans le cas décrit plus haut du retable de Besançon, il est presque évident que le tableau a été modifié pour des raisons théologiques, la position des bras du Christ n’étant plus conforme aux dogmes qui, entre temps, avaient évolué.
- Notons encore que la radiographie peut servir à éclairer des problèmes de fausses attributions ou simplement de faux. Certains indices recueillis enrichissent un dossier d’après lequel on conclura à l’authenticité ou à la non-authenticité de l'œuvre.
- Chimie et spectrochimie. — Des renseignements d’une certaine importance peuvent être fournis par la nature des pigments employés, celle des vernis, etc. L’analyse chimique, en cette matière, serait d’un assez grand secours, mais elle obligerait à des prélèvements, c’est-à-dire à une destruction partielle du tableau. Au cas où un examen de cet ordre paraît indispensable, on préfère avoir recours à la spectrochimie : c’est l’Institut d’Optique qui, à Paris, se charge de cet examen pour le compte du Laboratoire du Louvre. Des écailles tombées du tableau ou prêtes à se détacher sont envoyées à l’atelier de spectrophotométrie. Exceptionnellement, un prélèvement est fait à une échelle millimétrique.
- *
- * *
- Il est difficile de faire un bilan total de ce que l’investigation scientifique a apporté et peut encore apporter à la connaissance artistique. Les tendances actuelles sont surtout de rétablir les œuvres dans leur vérité : il ne s’agit pas seulement des faux ou des erreurs d’attribution qui sont nées, dans le passé, des copies, des similitudes, des écoles où le maître confiait à ses élèves des tâches plus ou moins importantes. On peut voir, d’après tout ce qui précède, que la véi’ité est également décelée et au besoin rétablie dans le détail.
- Cela représente déjà un acquit considérable, mais les historiens de l’art et les critiques peuvent encore trouver, dans les io ooo documents scientifiques accumulés au Louvre, une
- Fia. 12. — Mo net : Les bateaux de plaisance (Musée du Louvre).
- Macrophotographie en lumière rasante d’un détail du tableau : les vigoureux empâtements sont caractéristiques de la « manière » du Maître.
- mine précieuse qui leur permet de définir, sous le coup de pinceau, les empâtent en I s et toute l’exécution matérielle du tableau (fig. 12), la démarche profonde qui inspire la « manière » d’un peintre et la construction de ses œuvres.
- Ajoutons que ce travail complexe d’exploration et d’interprétation est au service de tous les musées de France et de l’étranger, avec lesquels des études sont constamment échangées, car cette « science de l’art » s’enrichit d’autant plus que les comparaisons sont plus nombreuses et plus diverses. Le domaine exploré se restreint cependant au patrimoine collectif des nations : les collections privées se trouvent exclues des recherches entreprises, car les laboratoires, institutions nationales, se refusent à intervenir pour des « expertises » qui peuvent avoir directement ou indirectement des incidences commerciales.
- Gaston Cohen.
- Toutes les photographies que nous reproduisons ont été exécutées au Laboratoire du Musée du Louvre (Institut Mainini) et nous ont été aimablement communiquées par le chef du Laboratoire, Mn" Hours-Miédan.
- Nouvelles techniques pour la construction des digues en Hollande
- Les travaux (commencés) de réalisation du plan de fermeture des estuaires du Rhin et de la Meuse amènent les techniciens néerlandais à mettre au point des procédés nouveaux. C’est ainsi que les usines Aku d’Arnhem ont récemment expérimenté un tissu synthétique à base de nylon qui a été appelé ahulon ; ce nouveau produit permet la confection de sacs destinés à recevoir du sable, sacs dont la capacité est de 50 à 100 fois supérieure à celle
- de sacs ordinaires en jute. On escompte ainsi hâter le rythme d’édification des digues. D’autre part, on fait actuellement l’expérience de larges pièces en matière plastique qui doivent remplacer les traditionnels « matelas de fascinages » ; on sait que ces derniers, chargés de pierres, sont immergés à l’emplacement des futures digues dont ils assurent les fondations. Là aussi, la rapidité du travail se trouverait considérablement accrue.
- p.185 - vue 189/527
-
-
-
- 186
- LE MARCHE MONDIAL DU THE
- La consommation du thé est en régulière augmentation à travers le monde : des pays comme la Hollande et la Russie ont adopté le thé comme boisson presque nationale, tandis que la Grande-Bretagne se place en tête des consommateurs, avec un chiffre de g lb par habitant (4,o5 kg). On note un accroissement sensible de la consommation dans les pays sous-développés d’Asie, en particulier en Inde, où une augmentation de i5 p. ioo est survenue de 1954 à 1956; malgré cela, la consommation annuelle reste encore de l’ordre de 0,6 lb par habitant. (0,27 kg).
- L’usage du thé en tant que boisson était cependant inconnu il y a seulement un siècle et demi- en dehors de l’Extrême-Orient. C’est dans le courant du xixe siècle que la culture de l’arbuste à thé se développa dans l’Inde d’abord (Assam, Dar-jeeling, Deccan méridional), puis à Ceylan (où le théier remplaça le caféier, disparu par suite des maladies). Dans ces deux contrées, ce fut le capital britannique qui, dans le but de faciliter l’approvisionnement de la métropole, procéda aux investissements nécessaires.
- La production mondiale de thé s’est accrue depuis la période d’avant-guerre, passant de 768 000 t à environ 1 100 000. Depuis 1948-1950, l’accroissement est de 29 p. 100. Les méthodes de culture sont en effet plus rationnelles, en partie grâce aux efforts de la F.A.O., la lutte contre les maladies a été développée scientifiquement, et des variétés d’arbres à thé à haut rendement ont été répandues.
- Le tableau ci-dessous présente les principaux résultats relatifs aux années récentes (en millions de livres anglaises de o,453 kg) :
- 1938 1956 1938 1956
- Chine 650 286 Japon 121 156
- Inde et Pakistan. 452 724 U.R.S.S 50 45
- Ceylan 247 376 Afrique anglaise . 24 56
- Indonésie 178 94
- Il est à signaler que, bien qu’encore imparfaitement connus, les résultats de 1957 montrent un léger accroissement par rapport à 1956, particulièrement à Ceylan, en Inde méridionale, en Indonésie et en Afrique ibritannique (Nyassaland, Tanganyka, Kenya, Ouganda). Il est difficile de se faire une opinion précise concernant la production de la Chine communiste, une bonne partie de cette production restant au stade familial. C’est ainsi qu’on admettait vers 1980-1939 un niveau de production chinois d’environ 3oo 000 t (chiffre sujet à variation suivant les sources). Dans ces conditions, le chiffre du tableau apparaît insuffisant pour 1956.
- L’Inde, le Pakistan et Ceylan sont les principaux exportateurs de thé du monde : leurs envois totalisaient en 1988 quelque 58 p. 100 des exportations mondiales; cette proportion est aujourd’hui de 81 p. 100 (dont 46 pour l’Union indienne, 3a pour Ceylan, et 3 pour le Pakistan). Ces pays, auxquels on peut joindre l’Afrique britannique, dont la production et les exportations ont doublé depuis l’avant-guerre, ont édifié leur quasi-monopole sur l’effondrement des ventes de la part de la Chine et de l’Indonésie (le Japon, pour sa part, n’ayant jamais été un très gros exportateur de thé). L’Inde seule a vendu en 1956 les 4/5 de sa production.
- La Grande-Bretagne reste de loin le principal acheteur de thé dans le monde, et Londres est toujours le grand marché de ce produit. Près de la moitié des achats de thé du monde sont effectués par la Grande-Bretagne ; viennent ensuite, très loin, les États-Unis, l’Australie, le Canada, l’Égypte, l’Irlande, le Maroc, l’Afrique australe, l’U.R.S.S.; celle-ci a récemment acheté à l’Inde 8 000 t de thé.
- Les prix pratiqués sur le marché de Londres apparaissent en baisse sensible depuis xg56, où avait été enregistré le cours de
- 74 d/lb (780 F/kg). Le cours moyen s’établissait fin 1957 à 60 d/lb, c’est-à-dire 65o F/kg. Les qualités supérieures restent très demandées, et ce sont les qualités moyennes et inférieures qui ont surtout baissé. Or, ces qualités sont précisément celles qui connaissent la principale extension dans les pays producteurs : la moitié de la production indienne, faite de variétés inférieures, risque ainsi d’être touchée par la crise dans un avenir rapproché. Cela d’autant plus que l’accord international du Thé, expiré en 1955, n’a pas été renouvelé.
- Ajoutons maintenant quelques points de détail :
- Congo Belge. — Dans la région du lac Kivu, à l’Est du Congo Belge, se développe une véritable vocation pour la culture du théier. Trois installations fonctionnent, dirigées par l’État, et conseillent les planteurs européens et indigènes. Les rendements actuels atteignent, en thé sec, 1 5oo kg/ha. De nouveaux investissements sont prévus, en vue d’atteindre une production annuelle de l’ordre de 10 000 t. Certaines variétés sont aussi appréciées sur le marché mondial que le thé de Ceylan; on s’efforce de développer la culture de ces variétés intéressantes et d’éliminer les variétés inférieures.
- Kenya. — II existe au Kenya quelque 200 millions d’arbustes à thé, sur une superficie de 10 000 ha environ. La production excède 20 000 000 lb, soit 9 000 000 kg ; ce chiffre correspond à plus du tiers de la production totale de l’Afrique britannique. La plus grande partie des exportations sont dirigées sur la Grande-Bretagne. En valeur, le_s exportations de thé se placent au second rang après les exportations de café (dirigées plutôt sur les États-Unis). Le développement de la culture du théier est incessant, et le plan en cours prévoit une superficie cultivée de 25 000 ha, ainsi qu’une production de 60 000 000 lb au minimum (27 000 000 kg). Un gros effort social est prévu pour la main-d’œuvre locale, à laquelle tout serait fourni, depuis le logement et l’habillement jusqu’aux terrains de football et aux cinémas ambulants.
- Indonésie. — La chute très nette de la production est en partie due à l’arrêt des exportations vers les Pays-Bas, gros acheteurs traditionnels avant 1989. D’autre part, le cours artificiel du change lèse les petits producteurs (ceux-ci reçoivent 11 roupies pour 1 dollar, tandis que les engrais et équipements achetés au dehors sont facturés 20 roupies pour 1 dollar). De nombreuses exploitations sont passées aux mains des Chinois...
- Turquie. — A la fin de 1958, la Turquie se suffira en ce qui concerne le thé : la production actuelle dépasse 1 2Ù0 000 kg.
- Paul Wagret.
- Pour éprouver la solidité d'une tour de télévision
- Érigée sur le site du Crystal Palace, la nouvelle tour de télévision de la British Broadcasting Corporation, d’une hauteur de 216 m, a subi une épreuve peu courante par roquettes afin d’étudier son comportement aérodynamique et de vérifier les calculs théoriques de cette structure. Une batterie de dix roquettes ont été placées sur la tour à 190 m du sol et mises à feu successivement à des intervalles prédéterminés par commande à distance. Une fois mises à feu, les roquettes ne quittaient pas la tour à laquelle elles étaient attachées, chacune d’elles exerçant ainsi une poussée d’environ une demi-tonne. Les mouvements de la tour provoqués par ces forces de réaction étaient enregistrés par un équipement électronique situé dans un laboratoire mobile au sol. C’est la première fois que ce genre d’épreuve est appliqué en Grande-Bretagne sur une tour de cette hauteur ; les résultats obtenus apporteront sans nul doute d’utiles informations supplémentaires sur le comportement des structures de ce type soumises à des vents réguliers d’intensité modérée.
- p.186 - vue 190/527
-
-
-
- La Réserve du Zwin
- 187
- Au point où la frontière belgo-hollandaise rejoint la mer du Nord, le site du Zwin forme un ensemble, unique en Belgique, de dunes sauvages, de prés salés, de marais et de bois, du plus grand intérêt zoologique et botanique. Ce teri'itoire de 125 ha a été acquis il y a une trentaine d’années par une Société du Zoute, dont le président, le comte Léon Lippens, bourgmestre de Knokke, est non seulement un excellent administrateur, mais aussi un protecteur enthousiaste de la nature et un ornithologue de renommée mondiale, l’un des fondateurs des « Réserves ornithologiques de Belgique », association pour la sauvegarde de l’avifaune belge. Tout a donc été mis en œuvre pour que soit préservé le site du Zwin, sa faune et sa flore. A cette réserve du Zwin sont joints une station scientifique principalement axée sur le baguage des oiseaux et un parc ornithologique ouvert au public, où sont tenus en captivité ou en semi-captivité la plupart des représentants de l’avifaune. belge.
- #
- * *
- Malgré une évolution physique assez mouvementée, ce pré salé, recouvert périodiquement par la mer, présente actuellement un aspect très proche de celui qu’il revêtait lorsque Pline l’Ancien, visitant ces rivages, écrivait : « La mer recouvre deux fois par jour une immense étendue de terre. Les malheureux habitants se réfugient sur les dunes et élèvent des digues pour se protéger des marées d’équinoxe. Quand la marée est haute, on dirait qu’ils flottent sur les eaux et, à marée basse, ils ressemblent à des naufragés échoués sur des excroissances sablonneuses. » Malgré leur courage, ces habitants devaient être vaincus dans la lutte contre les eaux. Au v® siècle, au cours d’une inondation catastrophique entraînée par un lent affaissement du terrain, la mer envahit les terres sur une profondeur de 25 à 3o km, jusqu’à Bruges, balayant tout sur son passage. Elle provoqua en se retirant la formation de goulets, de chenaux et d’un bras de mer navigable, qui fit la richesse de Bruges, port de mer particulièrement florissant vers l’an iioo. Mais peu à peu, le bras de mer devait s’ensabler, devenir inutilisable
- comme voie navigable et les bateaux, contraints d’abandonner le Zwin, durent céder la placeg-aux fleurs et aux oiseaux sauvages. <"
- +
- # *
- Grâce à un chenal d’accès, la mer recouvre chaque hiver le Zwin à plusieurs reprises et le terrain fortement imbibé de sel, donne naissance à une végétation très particulière.
- La fleur la plus typique est le Statice limonium qui, l’été, forme un magnifique tapis mauve sur plusieurs dizaines d’hectares. Aux statices se mêlent : Armeria maritima, Aster tripo-liutn, Salicorna herbacea, Suadea maritima et Juncus mariti-mus. Là où le sable remplace la vase, on découvre Cakile maritima, Honkenya peploides et le chardon bleu Eryngium maritimum. Les dunes ont été fixées par des Oyats. Près du Zwin, dans les dunes et l’ancienne résidence royale, on trouve à côté de divers conifères acclimatés, une végétation arbustive composée de saules rampants, de sureaux, d’aubépines et d’ar-gousiers, arbrisseaux épineux très efficaces pour la fixation des dunes. L’intérêt de cette flore, unique en Belgique, est déjà considérable et justifiait une protection efficace; mais le Zwin constitue en outre un biotope des plus favorables pour de nombreuses variétés d’oiseaux.
- Cent une espèces nichent régulièrement sur le territoire, des centaines la fréquentent en migration ou en hivernage. Signalons tout particulièrement les belles colonies de limicoles (on sait combien ces oiseaux d’eau sont devenus rares à l’état nicheur en Europe occidentale par suite de la disparition progressive des biotopes qui leur sont indispensables) : Avocettes blanches et noires au bec curieusement recourbé (fig. 2), Chevaliers gambettes haut perchés sur leurs longues pattes rouges et dont le cri est un cc tù-lû » mélodieux, Huîiriers-pie au solide bec orangé qui partent en poussant de vigoureux « kluip », (fig. 3 et 4), Vanneaux huppés au vol saccadé et au cri étrange « pî-î-uit » offrant chaque année l’extraordinaire spectacle de leurs vols nuptiaux (fig. 6), Barges à queue noire; et les trois espèces de Gràvelots ou Pluviers à collier qui trottent allègre-
- Fig. 1. — Le Zwin, au bord de la mer du Nord, à la frontière belgo-hollandaise.
- On voit, sous l’horizon de la mer, le barrage construit par les Hollandais.
- (Photo Presse Univers, Bruxelles).
- p.187 - vue 191/527
-
-
-
- 188
- Fig. 2 et 3. — A gauche : Une avocette. Quarante couples de cette espace nichent actuellement dans le Zwin. A droite : Un huîtrier au nid, parmi les statices (Photos L. Lippens).
- marqués eux aussi avec les bagues de l’Institut royal des Sciences naturelles de Belgique, lors des passages de printemps, d’automne et d’hiver. Depuis une vingtaine d’années, M. Lippens a bagué plus de 65 ooo oiseaux sur le territoire du Zwin. De très nombreuses reprises ont permis d’obtenir des renseignements précis sur les migrations, la longévité, la fidélité au lieu de naissance, etc., pour des espèces dont les mœurs étaient peu connues jusqu’alors. Depuis 1956, une annexe de la Station a été établie pour l’étude et la protection des Anatidés à Meetkerke,. à une vingtaine de kilomètres du Zwin, à proximité de Bruges : a 100 Canards et Sarcelles y ont été marqués en ig56 et les reprises s’échelonnent déjà du Bénélux jusqu’en Sibérie.
- ment sur le sable (fig. 5). A signaler aussi un intéressant palmipède, le Tadorne, grand oiseau blanc roux et noir à bec rouge, qui niche dans les terriers de lapins.
- *
- * *
- Chaque année, la plupart des jeunes oiseaux qui naissent au Zwin sont bagués (fig. 7), tandis qu’adultes et immatures sont
- Si les réserves naturelles et les stations scientifiques voisinent souvent pour le plus grand bien de la recherche, ici au Zwin un parc ornithologique a, de plus, été institué à l’intention du public (plus de 120 000 visiteurs en 1956).
- Contrairement à ce qu’on pourrait penser, ces visites ne causent pratiquement pas de perturbation aux oiseaux nicheurs, certaines parties de la réserve étant interdites au moment de la nidification (fig. 8) ; les visiteurs peuvent néanmoins observer d’assez près plusieurs espèces de limicoles sur leurs nids, car
- Fig. 5 et 6. — A gauche : Pluvier à collier. Soixante couples de cette espèce ont niché dans la réserve du Zwin en 1957.
- A droite : Vanneau huppé au nid (Photos L. Lippens).
- p.188 - vue 192/527
-
-
-
- 139
- Fig. 7. — Baguage d’un poussin de Vanneau dans le Ztuin.
- CPhoto Presse Univers).
- ces oiseaux s’habituent très vile à la présence de l’homme lorsque celui-ci leur apparaît inoffensif.
- Pour aider le public à mieux connaître ces oiseaux et pour lui faire admirer les espèces migratrices, M. Lippens a fait construire quelques enclos, étangs artificiels et volières où on peut voir presque tous les oiseaux de l’avifaune belge. A l’encontre de la plupart des zoos qui, bien souvent, offrent une multitude d’oiseaux exotiques, mais pratiquement pas d’oiseaux du paléarctique, le parc ornithologique du Zwin présente des oiseaux que les visiteurs intéressés chercheront par la suite à identifier en les retrouvant le long des plages ou dans un marais sauvage. Ces présentations ont donc un intérêt éducatif certain.
- Lorsque je suis passé au Zwin il y a quatre ans, j’ai pu admirer 5oo oiseaux appartenant à plus de ioo espèces différentes. La plupart de ces oiseaux sont capturés au printemps et relâchés en automne. Quand un oiseau ne semble pas s’habituer à la captivité, il est immédiatement remis en liberté. M. Lippens me disait que chez certaines espèces en particulier, comme le Chevalier cul-blanc, la Bécassine des marais ou le Petit grave-lot, un faible pourcentage seulement peuvent s’habituer à la vie en volière; il suffit de garder les individus adaptés et de rendre leur liberté à tous les autres. Grâce à cette méthode, il
- Fig 8. — Le Zwin n’est interdit aux visiteurs que durant l’époque de la nidification.
- n’y a pratiquement pas de mortalité au parc du Zwin et les oiseaux des volières sont aussi beaux que ceux que ^ornithologue observe à la jumelle en pleine nature.
- Dans la grande volière aux limicoles contenant une centaine d’oiseaux (fig. 9), j’ai pu voir : des Pluviers dorés et argentés, des Petits gravelots, des Grands gravelots et des Gravelots à collier interrompu, des Tournepierres, des Bécasseaux variables, cocorlis, maubêche, minute et de Temminck, des Huîtriers-pie, des Courlis cendré et coriieu, des Avocettes, des Barges rousses, des Chevaliers aboyeur (fig. 10), arlequin, Sylvain (fig, n), cul-blanc, guignette et combattant, et des Bécassines des marais.
- Fig. 9. — La grande Volière aux oiseaux limicoles.
- (Photo L. Lippens).
- Tous ces limicoles sont des oiseaux très doux et les relations de voisinage entre espèces aussi différentes que le Grand courtis et le minuscule Bécasseau de Temminck (fig. 12) sont excellentes; chaque oiseau garde son petit fief et les combats sont, paraît-il, exceptionnels.
- Il est vrai que la grande volière est parfaitement conçue. Longue de 20 m, large de 6 et haute de 3,5o m, elle offre aux oiseaux un champ d’action suffisant; ils aiment en particulier voleter dans la partie centrale, en forme de voûte, de la toiture. Une île recouverte d’herbe et de mousse est entourée d’un bassin où affleurent çà et là quelques pierres plates; l’eau est séparée de l’entourage par une bande de terre de quelques mètres
- p.189 - vue 193/527
-
-
-
- 190
- Fig. 10 et 11. — A gauche : Chevaliers aboyeurs. — A droite : Chevalier Sylvain.
- Ces deux espèces se reposent dans le Zwin au cours de leur migration annuelle (Photos L. LippensI.
- de large et tout le long du grillage sont disposés des arbustes et des plantes d’eau prélevés dans les marais voisins, ce qui a le double avantage de recréer un biotope naturel et d’éviter aux nouveaux pensionnaires de tourner le long du grillage. Une ou deux fois par jour, on laisse l’eau affleurer et envahir toute l’île; l’évacuation du surplus d’eau permet d’entraîner les détritus et de conserver la volière dans un état de propreté parfaite.
- Une partie de la nourriture est fournie par les insectes et larves qui vivent naturellement dans ce petit marais artificiel, ou que l’on jette dans le bassin après prélèvement sur un étang voisin; la recherche de cette nourriture naturelle fournit d’ailleurs aux oiseaux un exercice des plus salutaires. On leur donne en outre un mélange de viande hachée, de carottes, de biscuits, de vers de farine. Les limicoles de la grande volière du Zwin se montrent vite d’une confiance extraordinaire, venant presque se nourrir dans la main du gardien. On ne se lasse pas de les contempler prenant leur bain, volant, cherchant leur nourri ture, s’ébrouant, ou encore appelant leurs frères sauvages qui passent haut dans le ciel.
- Dans l’étang proche du « salon de thé », on peut admirer, en liberté, toutes sortes d’Anatidés (nicheurs ou migrateurs de pas-
- Fig. 12. — Un Bécasseau de Temminck.
- (Photo Presse Univers).
- sage en Belgique). Au lieu d’éjointer ces oiseaux aussitôt après leur capture au printemps, on se contente de leur couper quelques plumes des ailes; et en juin-juillet, ces oies et ces canards sont si bien accoutumés aux visiteurs qu’ils ne cherchent plus à partir. Beaucoup restent jusqu’en hiver, certains jusqu’au printemps; tous quittent la région au moment de la période de reproduction. Cependant, en septembre, quelques fidèles regagnent l’étang du Zwin. Et il faut en convenir, c’est vraiment un spectacle étonnant que de voir ces grands oiseaux, gibier habituellement si sauvage, planer au-dessus de la tête des visiteurs avant d’aller se poser sur la surface du petit étang.
- *
- * #
- L’exceptionnelle réussite de l’ensemble du Zwin au triple point de vue de la recherche scientifique, de la protection de la nature, de l’éducation et de l’agrément du public a la valeur d’un exemple. Elle prouve en effet que, contrairement à une opinion parfois admise, protection de la nature et tourisme ne sont pas toujours incompatibles. Une interpénétration dirigée de ces deux éléments peut dans certains cas être salutaire pour l’un comme pour l’autre. Dans un site protégé suffisamment vaste, il est en effet possible d’accueillir de nombreux touristes, à condition de bien délimiter les secteurs mis en réserve et ceux où sont admis les visiteurs. A ces derniers, il est intéressant d’offrir, outre le spectacle du cadre naturel, des réalisations éducatives, parc zoologique comme dans le cas présent, ou encore musée. De telles présentations sont toujours très appréciées et les droits d’entrée permettent de faire vivre la réserve et éventuellement de l’agrandir.
- De plus, le Zwin a contribué à former en Belgique un public éclairé qui répond généreusement aux souscriptions que lancent tes associations « Les Réserves ornithologiques de Belgique » ou « Ardennes et Gaume », chaque fois qu’un sanctuaire biologique risque de disparaître. Ces deux sociétés possèdent maintenant des milliers d’hectares de nature sauvage, obtenus par achats, dons ou legs; une récente souscription pour l’acquisition du site de Genk a permis de réunir en quelques semaines près de deux millions de francs belges.
- Cette solution ne serait-elle pas applicable en Fiance où tant de lieux d’un grand intérêt biologique sont actuellement menacés ?
- Michel-Hervé Julien,
- Assistant au C.R.M.M.O.
- (Muséum National d’Histoire Naturelle).
- p.190 - vue 194/527
-
-
-
- LE SCANDIUM
- 191
- Le scandium est un des trois éléments prévus par Mende-leef : l’ékaluminium devenu le gallium, l’ékasilicium devenu le germanium et l’ékabore devenu le scandium.
- Il appartient au groupe III de la classification périodique des éléments avec l’yttrium, le lanthane, l’actinium et le curium.
- Il a été découvert par Nilson en 1879, c’est un élément typiquement dispersé dans la croûte terrestre. Il est facilement détecté par analyse spectrographique. Goldschmidt en a trouvé de 45 à ii5 g par tonne dans des pyroxènes, 20 g dans des gabbros, 6 g dans des basaltes, 5 g dans des météorites silica-tées. Le seul minerai de scandium connu est la thortveitite, silicate complexe d’yttrium et de scandium qui peut contenir jusqu’à 4o pour 100 d’oxyde de scandium Sc203. On le trouve dans des pegmatites de Madagascar et du sud de la Norvège.
- Certains minéraux tels que l’orthite, le bazzite peuvent contenir jusqu’à 1 pour 100 de scandium associé à des terres rares, mais les sources principales de scandium sont certains gisements de wolframite et de cassitérite qui peuvent en tenir de 0,2 à o,3 pour xoo. Après extraction du tungstène et de l’étain de ces minerais, le scandium peut constituer jusqu’à 5o pour 100 du total des terres rares présent dans les résidus. La wolframite de Zinnwald en particulier est assez riche en scandium.
- Une série de traitements complexes de séparation chimique permet d’obtenir le scandium à l’état de fluorure impur. Celui-ci est transformé en hydrocarbonates toujours souillé d’oxydes de terres rares, puis en acétylacétonates que l’on purifie par cristallisation dans le chloroforme.
- On distille enfin l’acétylacétonate de scandium obtenu dans le vide à 200° C. Il est seul volatil et livre finalement un sel de scandium spectroscopiquement pur.
- Le scandium est un élément de transition entre le groupe du fer et celui des terres rares. Il est généralement étudié avec celles-ci pour la raison qu’il est précipité par l’acide oxalique comme les métaux des terres rares. Cependant, il s’en écarte par le degré d’hydratation de ses sels, le comportement diffé-
- rent de son fluorure et le fait que l’on ne connaît aucun sel de scandium qui soit isomorphe avec les sels correspondants des terres rares. Par contre, il donne plusieurs sels isomorphes de ceux du fer trivalent. Tout ceci montre bien sa position d’élément de transition entre les deux groupes.
- On a préparé un grand nombre de dérivés du scandium : sels halogénés, sulfure, carbure, nitrure, oxyde, sulfate, nitrate, etc. et également de sels d’acides organiques.
- ' Pour la recherche analytique du scandium, on a indiqué la réaction de l’alizarine rouge S (sulfonate sodique d’alizarine) qui donne avec ses sels un précipité violet insoluble dans l’acide acétique à 10 pour 100, ce qui le distingue des autres terres rares; mais le thorium précipite dans les mêmes conditions. Aussi le spectre d’émission reste la méthode de choix pour la recherche de cet élément.
- Par suite de ses difficultés d’extraction, le scandium n’avait guère jusqu’à ces derniers jours aucun emploi industriel. Le développement de la chimie atomique vient de lui en trouver un et des plus inattendus :
- L’isotope radioactif 46 du scandium a une demi-vie de 85 jours. Il a été choisi comme « marqueur » pour l’étude des problèmes de sédimentation et d’envasement. De l’oxyde de scandium 46 est déposé par cuisson au four sur des sables ou des boues fines. Avec son aide, on a pu résoudre des problèmes d’envasements car il est facile de suivre sous l’eau le cheminement des particules marquées additionnées aux sédiments à étudier. La courte vie radioactive du scandium 46 élimine tous risques de contamination radioactive prolongée.
- Le même scandium 46 a été choisi par la ville de Los Angeles pour suivre à partir de bateaux équipés de compteurs Geiger, la dispersion et l’élimination des eaux d’égout déversées dans la baie de Santa Monica dans le Pacifique. Il a été préféré au baryum i4o et au césium 187 dont les demi-vies sont beaucoup plus longues.
- Lucien Perruche.
- Entraîneur mécanique au tennis
- Il ne s’agit pas d’un partenaire mécanique qui servirait et renverrait les balles, mais d’un « entraîneur » qui aide les joueurs à perfectionner leurs différents coups : drives, revers, smashes, etc. A cet effet la machine peut être réglée pour débiter les balles à une cadence déterminée (de 13 à 26 à la minute), à les diriger sur un point fixé à l’avance et à, une vitesse qui varie entre celle qui convient aux débutants et celle qui convient aux champions.
- Son inventeur, M. J, R. Black, d'Adélaïde (Australie), a eu pour but de doter les joueurs d’un moyen qui leur permette de compenser certaines faiblesses et d’acquérir la « forme » nécessaire pour figurer honorablement dans les championnats. Rappelons que l’Australie est la terre d’élection du tennis.
- (Photo aimablement communiquée par l’Ambassade d'Australie),
- p.191 - vue 195/527
-
-
-
- 192
- L'action des services entomologiques américains
- pendant la guerre
- Un petit fascicule qui vient d’ètre publié par la Smithsonian Institution (History of Entomology in World war II, par Emory C. Cushing) montre l’effort énorme accompli par les entomologistes américains engagés clans les services sanitaires de l’armée. On se fait difficilement une idée des difficultés que rencontrèrent ces services quand les armées américaines furent engagées dans la guerre mondiale, en 19/11. Les médecins militaires connaissaient le rôle joué par les insectes dans la transmission des maladies tropicales, mais la plupart d’entre eux n’avaient jamais vu un cas de malaria et les techniciens des laboratoires étaient incapables de reconnaître les différentes formes de Plasmodium. Dès le début de la campagne contre les Japonais, les services de santé se trouvèrent en lutte avec la malaria et les premiers résultats furent désastreux. En 19/12, aux îles Salomon et en Nouvelle-Guinée, les soldats hospitalisés pour les fièvres étaient trois fois plus nombreux que les blessés. Aussi le problème clut-il être envisagé très sérieusement par les services de santé de l’armée et de la marine. Un grand nombre d’entomologistes, de chimistes et de médecins furent engagés dans la lutte sur le théâtre sud-pacifique; en 1944, ce personnel comprenait 4 407 travailleurs, dont 771 spécialistes, 634 aides spécialisés et 3 002 aides.
- Certains détails montrent l’importance de la connaissance exacte de la biologie des insectes pour la lutte. Aux Caraïbes, les drainages destinés à détruire les gîtes possibles de larves de moustiques et les procédés habituels de destruction ne donnèrent aucun résultat; plusieurs millions de dollars furent dépensés sans apporter aucune amélioration à l’état sanitaire des troupes. Ce n’est que lorsqu’un entomologiste eut reconnu
- l’importance des collections d’eau à la base des Broméliacées épipliyles comme milieu favorable aux larves qu’un résultat rapide put. être obtenu. Parallèlement à ces recherches sur le terrain, les études étaient activement poussées dans les laboratoires, en particulier au Laboratoire de la Rockefeller Institution, à Orlando. Si, en effet, les médecins ne disposaient à cette époque que de la quinine comme médicament contre la malaria, les entomologistes n’étaient guère mieux armés contre les insectes. Le bromure de méthyle permettait une désinfection suffisante des équipements et des vêtements, mais il était nécessaire de trouver un insecticide pulvérulent, facile à utiliser individuellement par les soldats. Le pyrèthre était alors le meilleur insecticide connu, mais il devenait très difficile de s'en procurer car la source en était coupée par les Japonais. Les recherches conduisirent à l’emploi intensif du gésarol, dont le principe actif est le dichloro-diphényl-trichloroéthane, découvert en 1939 par le Suisse P. Millier et si répandu ensuite sous le nom de D.D.T.
- Ces études sur la toxicité clés différents produits ne pouvaient se faire qu’avec un abondant matériel d’insectes piqueurs, en particulier des moustiques, des poux et des puces. On apprend ainsi qu’il fut très difficile de trouver en Amérique les poux de corps nécessaires pour commencer les élevages; ce n’est que par l’action de la police, réunissant, quelques vagabonds, que ces insectes purent être trouvés. La technique des élevages ne fut pas non plus facile à établir. On sait que le pou humain n’accepte aucune autre nourriture que le sang de l’homme; on fit donc pondre les poux dans des morceaux de tissu de laine où les jeunes restaient volontiers à l’éclosion, et ces mor-
- Fig. 1. — Nourrissage des poux sur un volontaire.
- Les poux qui ont élu domicile dans de petits morceaux de laine en descendent pour prendre leur repas sur la peau et y remontent dès qu’ils sont rassasiés.
- (Photo aimablement communiquée par la Smithsonian Institution).
- p.192 - vue 196/527
-
-
-
- 193
- ceaux étaient ensuite appliqués sur la peau d’un homme, volontaire pour donner le sang nécessaire au repas des poux ; dès que ceux-ci sont gorgés, ils remontent s’abriter entre les libres de laine (fig. i). On a pu ainsi nourrir jusqu’à a5 ooo poux en quelques minutes. Les élevages de moustiques, en particulier de VAnopheles quadrimaculatus et de VAecles ægypti, ont été pratiqués également sur une très vaste échelle; jusqu’à 100 ooo œufs d'Anophèles ont pu être obtenus quotidiennement.
- Grâce à cette organisation, les résultats bienfaisants ne tardèrent pas à se faire sentir. La preuve la plus évidente en est fournie par l’évolulion de l’épidémie de typhus qui se déclara à Naples en 1943. Le typhus semble avoir été introduit par des soldats italiens qui revenaient du front russe; après les bombardements aériens, l’état de la population était extrêmement misérable et l’épidémie aurait pu avoir des conséquences désas-
- treuses. Son apparition semble pouvoir être datée de mai ig43 et le maximum de son intensité en janvier 1944 ; mais, grâce à la désinsectisation pratiquée par les services de l’armée américaine, avec le D.D.T., elle décrût ensuite très rapidement. Une autre lutte active a été menée en Italie et en Sicile contre les Phlébotomes, vecteurs de la dengue, maladie qui amena plus de 12 ooo soldats à l’hôpital, de ig4a à ig45. Si l’on considère que près de deux millions de soldats ont dû être hospitalisés sur l’ensemble des théâtres d’opérations pendant cette période, on pourra se rendre compte de l’importance des efforts accomplis. Il en est resté heureusement ces excellents insecticides de synthèse qui continuent à être employés en entomologie médicale, mais qui rendent, en outre, d’inappréciables services dans la lutte contre les insectes nuisibles aux cultures.
- L. C.
- Ce que la Terre reçoit comme poussières cosmiques
- De notables différences existent entre les chiffres qui ont été souvent publiés concernant le tonnage de poussières cosmiques reçu par la Terre. Watson, dans une large estimation, avait mentionné un chiffre de x ooo à 2 ooo t par jour. Van der Hulst, prenant comme base de calcul la lumière zodiacale due aux poussières interplanétaires, a fourni une évaluation plus précise : 1 700 t par jour.
- C’est à des chiffres nettement supérieurs qu’est parvenu M. Hans Pettersson, à la suite de ti'avaux exécutés à l’Observatoire du Mauna Loa (Hawai) et sur une cime voisine à plus de 3 ooo m d’altitude. Dans une note que publie Nature, l’auteur admet qu’à ce niveau de l’atmosphère la présence dans l’air de poussières d’origine terrestre est négligeable. Le fait a été confirmé par la haute teneur en nickel des poussières recueil-
- lies par filtrage sur de très grandes quantités d’air : en moyenne, j4,3 microgrammes ont été trouvés dans 1 ooo m3 d’air filtré, le rapport nickel/fer étant d’environ 0,9 pour 100.
- Sur cette base et considérant que la teneur de l’atmosphère en poussières cosmiques est vraisemblablement uniforme de o à 100 km d’altitude, on aboutit à un chiffre de 28 600 ooo t de poussières en suspension autour de la planète. Il reste à déterminer la vitesse moyenne de chute : c’est sur les observations faites à la suite de l’éruption du Krakatoa (i883) que II. Pettersson s’est fondé pour évaluer à environ deux ans la retombée des poussières. Le chiffre précédent est donc à diviser par deux : l’apport cosmique annuel s’établirait ainsi à i4 3oo ooo t par an et 39 200 t par jour.
- G. G.
- Le soudage de Valuminium
- La formation d’un film d’alumine à la surface de l’aluminium, qui protège celui-ci contre la corrosion, constitue un obstacle quand on veut souder entre elles des pièces de ce métal ; on sait qu’on était parvenu à tourner cette difficulté par l’emploi de flux, mélanges de sels fusibles qui dissolvent aisément l’alumine et permettent le contact entre les surfaces métalliques. Cette technique, même perfectionnée (opérée notamment en atmosphère d’hélium), présentait toutefois des inconvénients, notamment celui de fournir un joint facilement corrodable ; de grands progrès semblent avoir été opérés récemment en ce domaine dans divers laboratoires américains ; ils éviteraient l’emploi classique du flux ou du moins son utilisation sous sa forme actuelle. Tandis que les laboratoires de la Bell Téléphoné annoncent l’emploi de bâtons de soudure constitués essentiellement par du zinc, allié éventuellement à un peu de magnésium ou d’aluminium qui élimineraient la couche d’oxyde comme « se soulève la couche de peinture d’un bois humide » en donnant une soudure « plus résistante » que l’aluminium lui-même, les laboratoires Horizons présentent la soudure « InterAct », constituée par un mélange fondu de chlorures de zinc, de lithium, de potassium et de sodium, introduit en atmosphère d’argon dans un tube de zinc de 2,5 cm de diamètre, qui est amené par étirage à 3 mm de diamètre ; c’est ce dernier tube qui, appliqué le long de la ligne de soudure des pièces d’aluminium devant être accolées et préalablement portées à 427° par une flamme, permet le soudage de ces pièces par élimination de l’oxyde et formation d’un eutectique auquel participe le zinc. Le champ d’application de ce procédé dépasserait d’ailleurs le soudage de l’aluminium pour s’étendre à celui des autres métaux non ferreux soudés sur eux-mêmes ou entre eux. Ce joint résisterait bien à la corrosion et présenterait d’excellentes propriétés électriques.
- Sur de nouveaux engrais azotés
- Dans une précédente chronique {La Nature, novembre 1957, p. 458), nous avons signalé l’apparition sur le marché américain de nouveaux engrais à base de résines urée-formol, plus spécialement utilisées jusqu’ici, vu leur prix, dans la culture des plantes ornementales. Or, une communication au Congrès pomologique de France (octobre 1957) attire l’attention sur des produits comparables, préparés depuis peu en France par l’Office national de l’Azote, sous le nom d’Azorgan. Il s’agit là encore de produits qui résultent de la condensation de l’urée et du formaldéhyde, titrant 39 pour 100 d’azote et constitués par des mélanges en proportions définies de composés du type polyméthylène-urée plus ou moins polymérisés et donc plus ou moins insolubles dans l’eau : ces engrais renferment en effet de faibles proportions de monomères tels que les méthylols-urée NH2 — CO — NH — CILOII ou de produits peu polymérisés solubles dans l’eau à la température ordinaire, 10 à 40 pour 100 d’azote sous forme de polymères moyens, solubles dans l’eau bouillante et 20 à 80 pour 100 de l’azote total à l’état de produits insolubles dans l’eau à 100°, donc très polymérisés ; ces diverses proportions dépendent des conditions de fabrication. Elles correspondent à des produits libérant dans le sol leur azote à des vitesses différentes et elles répondent en conséquence à des conditions d’utilisation variées.
- D’un prix supérieur à celui des. engrais azotés minéraux, ces nouveaux produits ne peuvent prétendre les concurrencer, mais ils pourront pourtant se substituer à eux dans divers cas : culture intensive des fruits dans le cas d’irrigation, où l’on évitera l’entraînement des engrais par solubilisation ; cultures de plantes dont la croissance est lente et où ils libéreront progressivement leur azote d’une façon comparable aux engrais organiques naturels tels que tourteaux ou corne desséchée, et pour lesquelles ils conviennent spécialement, comme l’ont d’ailleurs montré des essais conduits sur des plantations de bananiers en Guinée. H. G.
- H. G.
- p.193 - vue 197/527
-
-
-
- 194
- Le Centre d'études et de recherches scientifiques de Biarritz
- Créé autour de la cellule-mère constituée par le Musée de la Mer, le Centre d’études et de recherches scientifiques de Biarritz a ouvert ses portes le ier janvier 1955. Depuis longtemps déjà la pensée de créer dans le Golfe de Gascogne un établissement de recherches était dans l’air et si le très modeste aquarium établi en 1871 au Port des Pêcheurs par Casimir Silhouette, ancien capitaine au long cours, peut être considéré comme l’embryon du Musée de la Mer, il semble que l’idée de la fondation à Biarritz d’un véritable établissement scientifique ait été exprimée pour la première fois en i883. Cette année-là, le 18 avril, à l’issue d’une remarquable causerie sur les campagnes océanographiques entreprises dans le Golfe de Gascogne par l’aviso Travailleur, le marquis Louis de Folin concluait ainsi : « il est absolument nécessaire que Biarritz accepte énergiquement cette situation exceptionnelle (au fond du Golfe de Gascogne, aux phénomènes si particuliers) dont elle doit du reste se féliciter, en créant chez elle un foyer d’études qui deviendra un centre sur lequel on convergera de toute part. «
- Fig. 2. — Le Musée de la Mer et, au deuxième plan, le Centre d'études et de recherches scientifiques de Biarritz.
- 0Photo L. Barriety).
- Et le marquis de Folin ajoutait : « Il faut sans perdre de temps travailler à la réalisation de cette idée et cela dans l’intérêt du progrès, ce grand but humanitaire, n
- Hélas, il fallut attendre près de trois quarts de siècle avant que l’organisme rêvé par le marquis de Folin devînt une réalité. Bien sûr, pendant ce trop long laps de temps, ce ne fut pas l’oubli et l’inaction complets. Plusieurs projets et même certaines réalisations venaient de temps à autre rappeler que Biarritz pouvait jouer un rôle, si modeste soit-il, dans l’avancement des sciences, mais toutes ces velléités n’étaient qu’éphémères et il fallut attendre l’entre-deux-guerres pour qu'enfin fut réalisée la première grande étape, je veux dire la création du Musée de la Mer.
- Édifié après bien des traverses qu’il est inutile de rappeler ici, cet établissement ouvrit ses portes en 1933. A côté des galeries d’exposition et du splendide aquarium marin ouverts au public, les bâtiments comprenaient des laboratoires qui, très vite, devinrent insuffisants et qui, de plus, furent soit rasés, soit dévastés pendant l’occupation.
- A la libération, le Musée de la Mer se retrouvait donc avec un équipement scientifique extrêmement réduit par les destructions ou par les avaries dues à un long non-fonctionnement.
- Fig. 1. — Le Centre d’études et de recherches scientifiques de Biarritz.
- En contrebas, à gauche, face à l’océan, le Musée de la Mer.
- {Photo P. Joyet).
- Devant cette situation et aussi devant les demandes de laboratoires présentées par divers services de recherches, le conseil scientifique du Musée de la Mer demanda à MM. Lafaye et Hiriart, architectes du Musée, d’étudier les plans d’un établissement susceptible de répondre aux désirs exprimés et de devenir le Centre d’études et de recherches scientifiques de Biarritz. C’est leur projet qui fut soumis au conseil municipal et adopté le i3 novembre 1945.
- Si, pour des-raisons financières, tous les locaux prévus n’ont pas pu être entièrement construits —: tout au moins provisoirement, nous l’espérons — il n’en reste pas moins que Biarritz et la Côte Basque se trouvent désormais dotés d’un centre de recherches fonctionnant dans des conditions à peu près uniques en France. Ce centre est en effet une fondation essentiellement municipale à l’étude et à la réalisation de laquelle travaillèrent successivement les municipalités Joseph Petit, Hirigoyen et Guy Petit.
- Par décret en date du 6 juillet 1966, le Centre d’études et de recherches scientifiques a été doté de la personnalité civile et de l’autonomie financière. Il est destiné à l’étude des sciences naturelles et de leurs applications sur le plan régional tout en mettant à la disposition des établissements d’enseignement publics ou privés de la région, l’instrument pédagogique de premier ordre que présente le Musée de la Mer. Débordant le cadre des sciences marines qui restent cependant parmi les buts essentiels de son activité, le nouveau centre, de par la multiplicité de ses sections et la variété de leurs activités, permettra l’élude de tous les phénomènes naturels du Golfe de Gascogne et du Pays Basque et, dans de vastes synthèses, des études écologiques rarement réalisées jusqu’à ce jour.
- Actuellement, le Centre d’études et de recherches scientifiques s’oriente de plus en plus vers l’étude des migrations (poissons et oiseaux) et dernièrement le Pr M. Fontaine a pu écrire (Bulletin du C.E.R.S., 1957, p. 343) : « Le Centre scientifique de Biarritz est par sa situation géographique aussi bien que par sa structure interne le centre idéal pour la poursuite de tels
- p.194 - vue 198/527
-
-
-
- 195
- travaux. Je ne connais nulle part au monde un organisme qui possède une structure aussi favorable à l’étude des migrations. »
- Celte structure allie à des laboratoires de biologie variés une station de météo-climatologie établissant un type de collaboration exceptionnel. Les diverses sections du Centre sont les suivantes :
- i° Un laboratoire de la Station d’Hydrobiologie appliquée dirigé par M. Vibert, ingénieur principal des Eaux et Forêts, chargé de l’étude de la biologie des truites et saumons et de la mise en valeur des eaux continentales. Elle est remarquablement équipée et dotée d’une camionnette laboratoire et d’un bateau léger à moteur pouvant, le cas échéant, tenir la mer. Jusqu’à ce jour, les travaux ont essentiellement porté sur les migrations des saumons dans l’Atlantique Nord-Est, sur l’étude et l’amélioration de la survie des alevins de repeuplement, plus particulièrement la résistance aux températures extrêmes, aux forts courants et aux prédateurs. La station a en outre commencé l’étude écologique de rivièi’es-pilotes avec deux rivières à truites des Basses-Pyrénées, le Lourdios en Béarn et la Nivelle en Pays Basque. Tous les ans, le Pr Fontaine et ses collaborateurs viennent à Biarritz et dans la région poursuivre des études sur la physiologie des saumons et plus spécialement sur les relations entre leurs sécrétions endocriniennes et leurs migrations. De très intéressantes recherches sur les possibilités d’utilisation en biologie des échanges erratiques dans les différents milieux sont actuellement en cours. Indiquons que chaque année un certain nombre d’ingénieurs des Eaux et Forêts viennent suivre des stages de quinze jours sur l’exploitation rationnelle des eaux douces.
- 2° Un laboratoire du Muséum national d'Histoire naturelle, dirigé par M. Paul Jovet, sous-directeur au Muséum. Ce laboratoire est mis à la disposition de tous les chercheurs du
- Fig. 3. — Le Donibane, bateau de recherches de l’Institut scientifique et technique des pêches maritimes.
- Muséum à quelque discipline qu’ils appartiennent. C’est ainsi que le Pr Fischer y a étudié à diverses reprises les modifications de la faune et de la flore maritimes. Les recherches et observations sur la végétation et l’écologie de la Côte Basque ont été particulièrement nombreuses. Des indications ont été enregistrées sur le terrain pour continuer à dresser la carte phytogéo-graphique qui a été confiée à M. Jovet. Relevés floristiques, récolte de nombreux échantillons de sols, prises de température, etc., s’accompagnent de la récolte de plantes critiques ou nouvelles dont plusieurs font l’objet de notes en cours de publication. Les muscinées de la région en particulier ont
- Fig. 4. — Les montagnes basques et le lac d’Urrugne, à proximité de Biarritz.
- Un des sites dont l’intéressante végétation mériterait d’être protégée.
- (Photo P. Jovbt).
- depuis plusieurs années été étudiées par Mmes Allorge et Jovet-Ast, qui ont publié de nombreuses notes. Quelques herbiers de phanérogames et d’algues, encore peu importants, ont été donnés au laboratoire du Muséum. Ils seront complétés, quand un local spacieux aura été choisi pour les entreposer, par les collections du regretté Pr Allorge (Muscinées et Phanérogames) et par celles des travailleurs actuels. Il faut espérer que les botanistes de Bayonne, de Biarritz et du Pays Basque contribueront à l’enrichissement de ces collections botaniques.
- 3° La Station de l'Institut scientifique et technique des Pêches maritimes est actuellement dirigée par M. Percier qui a succédé à M. de la Tourasse. Le laboratoire est chargé de l’étude de la faune marine locale et de toutes recherches intéressant la pêche : hydrologie du fond du Golfe de Gascogne, prévisions de pêche, biologie des Clupéidés et des Scombriformes, technologie des engins de pêche, etc. A cet effet, la station dispose d’un petit bateau de recherches, le Donibane, basé à Saint-Jean-de-Luz.
- Fig. 5. — Une salle du Musée de la Mer.
- p.195 - vue 199/527
-
-
-
- 196
- Fig. 6. — Tortues de mer (Thalassochelys caretta) au Musée de la Mer de Biarritz.
- Depuis 1955, ce baleau-pilole de pêche, don des pêcheurs basques, procède à des travaux de détection des bancs de poissons au moyen des sondeurs à ultra-sons. L’activité du Donibane s’est manifestée tant sur les côtes du Golfe de Gascogne que le long du littoral du Golfe du Lion où il s’est rendu cette année pour initier les pêcheurs méditerranéens aux techniques modernes de recherches des bancs de poissons : sardine, anchois, thon, maquereau.
- 4° Une Station de baguage. Créée en 1953, cette station relève du Centre de recherches sur les migrations des Mammifères et des Oiseaux. Installée à l’extrême ouest des Pyrénées où les veines de migrations des oiseaux se resserrent pour le passage de la chaîne, elle est remarquablement située pour permettre non seulement un baguage assez intensif, mais aussi un pourcentage de reprises intéressant, d’autant plus que la chasse aux filets, traditionnelle dans la région, permet de capturer vivants Un grand nombre de migrateurs. Cette station est d’ailleurs plus particulièrement orientée vers l’étude de la migration de Colombidés. D’ores et déjà et grâce à la liaison établie avec les stations de baguage étrangères, des résultats intéressants ont été obtenus dans l’étude du mécanisme des migrations et des études physiologiques viennent d’être entreprises sous la direction du Pr Fontaine.
- Fig. 7. — Dorades (Chrysophrys aurata)
- (Photo G. Mousset).
- 5° Une Station météorologique, dirigée par M. Violante. Administrativement, elle dépend directement du Centre régional de la Météorologie de Bordeaux. La station fonctionne comme station climatologique, chargée non seulement de l’observation des divers facteurs météorologiques, mais également de l'exploitation locale des documents au bénéfice des autres sections. Elle est en liaison avec certains services publics parmi lesquels il y a lieu de noter les services agricoles de Bayonne dont les résumés mensuels de la situation agi'icole et les remarques phéno-logiques permettent une fructueuse collaboration dans le domaine de l’écologie. Signalons que cette station dispose pour l’étude de climatologie d’un des rares ionomètres actuellement installés eu France. Cet appareil, appartenant à la chaire de climatologie médicale de la Faculté de Bordeaux (Pr Dubarry), permet d’enregistrer la charge spatiale et la conductibilité de l’air, facteurs essentiels des études de climatologie médicale.
- 6° Un laboratoire de l’Institut de recherches de la Sidérurgie. En liaison avec l’Office technique d’utilisation de l’acier (O.T.U.A.), cet institut a installé à Biarritz, en 1961, une station de corrosion des métaux, sous la direction de M. Hache. Les essais portent sur des échantillons exposés à l’air libre et des échantillons immergés en eau courante. Ils ont permis de mettre en évidence l’importance de la photosynthèse dans la corrosion des éprouvettes immergées, qui a déjà donné lieu à une communication au Ier Congrès européen de la corrosion et fait l’objet de recherches approfondies. L’O.T.U.A. a procédé également à des essais de résistance de peinture à l’air libre.
- 70 Le Centre technique du Bois vient d’installer une petite station d’étude de la résistance des contreplaqués aux intempéries et à l’air marin.
- 8° Le Musée de la Mer qui constitue la section de muséologie du Centre en même temps qu’il est sa principale ressource de revenus. En effet, son succès ne se dément pas; en ig56, il a reçu la visite de plus de 160 000 visiteurs. Ce musée comprend des salles d’exposition où ont été réunis par M. Paul Arne, premier directeur et réalisateur du musée, des échantillons naturalisés moulés ou conservés de la faune si spéciale du Golfe de Gascogne et du Pays Basque et des fossiles provenant des sédiments déposés par les mers qui recouvraient la région aux époques géologiques. Certaines collections (oiseaux pélagiques par exemple) sont exceptionnellement riches et on peut admirer quelques spécimens de Cétacés particulièrement rares (.Mesoplodon mirus, Ziphius cavirostris, etc.) ou des fossiles uniques au monde (Ilamites).
- Ce n’est pas le lieu d’entrer ici dans le détail de ces diverses collections, mais nous ne pouvons passer sous silence le très bel aquarium marin du sous-sol. Les deux salles qui le forment comportent 36 bacs dont la contenance unitaire atteint jusqu’à 18 m3. Les parois de ces bacs sont revêtues de roches naturelles prélevées sur les divers points de la côte; on a ainsi devant les yeux l’exacte représentation des sites sous-marins où les animaux paraissent d’autant plus chez eux que l’eau de mer, renouvelée constamment et aérée par un dispositif spécial, leur assure les meilleures conditions biologiques. Il est important de noter que tous les animaux exposés proviennent de la faune locale et ont été capturés dans le Golfe de Gascogne par le personnel du Musée de la Mer ou des pêcheurs locaux. De même, tous les animaux qui peuplent le vivarium-terrarium qui vient d’être créé dans une salle du rez-de-chaussée appartiennent uniquement à la faune du Pays Basque.
- Signalons en terminant que, par arrêté du ministre de l’Éducation Nationale, en date du 23 novembre ig54, l’aquarium du Musée de la Mer de Biarritz est classé en première catégorie des jardins zoologiques, jardins botaniques, vivariums et aquariums.
- L. Barriety,
- Directeur du Centre d’études et de recherches scientifiques de Biarritz.
- p.196 - vue 200/527
-
-
-
- LE CIEL EN JUIN 1958
- 197
- SOLEIL : du 1er au 21 (à Oh) sa déclinaison croît de + 21°57' à + 23°27' (maximum), puis revient à + 23°10' le 1er juillet (à 0h) ; la durée du jour passe de 'iëhîgni le 1er à 16b7m le 21, puis revient à 16b4m le 30 ; diamètre app. le 1er = 31'35",8, le 30 = 31'30"9. — Lune : Phases : P. L. le 1er à 20h5oni, D. Q. le 9 à 6b59m, N. L. le 17 à 7h59m, P. Q. le 24 à 9h44m ; apogée le 11 à 5b, diamètre app. 29'33" ; périgée le 26 à. 9’h, diamètre app. 3-2'24". Principales conjonctions : avec Saturne le 2 à 18h, à 2°40' N. ; avec Mars le 10 à 16h, à 4°47' N. ; avec Vénus le 14 à 3b, à 0°47' N. ; avec Mercure le 17 à 4h, à 4°54' S. ; avec Uranus le 20 à 17h, à 5°49' S. ; avec Jupiter le 25 à 20h, à 2°2' S. ; avec Neptune le 26 à 13h, à 1°34' S. ; avec Saturne le 29- à 23h, à 2°36' N. — PLANÈTES : Mercure, totalement perdu dans le rayonnement solaire est invisible, en conjonction supér. avec le Soleil le 18 ; Vénus, belle étoile du matin visible 2 heures environ avant le lever du jour ; Mars, dans les Poissons se montre la seconde partie de la nuit ; Jupiter, dans la Vierge est observable au-delà de minuit, le 16 : diamètre app. 40",0 ; Saturne, dans Ophiuchus est visible toute la nuit, en opposition avec le Soleil le 13, diamètre app. 18",2 ; axes de l’anneau : 41",5 et + 18",6 ; Uranus, dans le Cancer est peu visible le soir ; le 1er, position : a = 8h44m, 6 = + 18°46' ; Neptune, dans la Vierge suit Jupiter
- à l’est ; le 16, diamètre app. 2",4 ; position : a -= 14b3m, 6 = — 10°35'. — ÉTOILES VARIABLES : rninima de (3 Lyre (3m,4-4m,3) le 12 à 5h,0, le 25 à 3h,4 ; maxima de r Aigle (3m,7-4m,4) le -1er à 19b,0, le 8 à 23b,2, le 16 à 3b,4, le 23 à 7b,7, le 30 à llb,9 ; maxima de ô Céphée (3-ul,7-4m,6) le 5 à 9h,4, le 10 à lSb,2, le 16 à 3h,0, le 21 à 1 th,S, le 26 à 20b,6. — TEMPS SIDÉRAL : au méridien de Paris à 0h (T.U.), le 1er : le 11 : 17h24m40s,
- le 21 : lSHm5P, le 1er juil. : 18M3m31s.
- Phénomènes intéressants. — Observer l’apparition de taches et de facules à la surlace du Soleil, voisin d’un maximum d’ac-trvité ; le 21, solstice à 22h, commencement de l’été. — La planète Jupiter est iacilement observable dans la soirée, ainsi que Saturne toute la nuit, suivre l’apparence de ses anneaux ; on remarquera que le petit axe de ces derniers (côté Nord) déborde le globe de la planète. — La planète Neptune peut encore être recherchée dans un petit instrument aux positions- indiquées-. — Le long crépuscule gêne l’observation de la Voie lactée.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. T ARTOIS.
- L'ÉCOLOGIE ENTOMOLOGIQUE
- L’écologie est une science relativement récente, dont on parle beaucoup, mais dont les limites sont assez mal tracées. Aussi, certains naturalistes font- de l’écologie sans le savoir, un peu à la façon de M. Jourdain ; tandis que d’autres, bien plus nombreux, baptisent de ce nom des recherches de faunistique ou de biologie, souvent fort intéressantes, mais qui ne sont pas de l’écologie. Aussi, voit-on paraître avec satisfaction un petit fascicule consacré par Rémy Chauvin à cette question ('). Le point de départ de ce travail est très judicieux, l’auteur commençant par préciser la valeur qu’on doit donner à l’écologie animale, « étude de l’équilibre et des variations des populations dans les conditions naturelles ». Tout en conservant leur importance aux expériences de laboratoire, dont il a fait lui-même un grand nombre, il insiste sur la différence qu’il peut y avoir entre le comportement d’un animal dans son milieu et au laboratoire. Il montre aussi qu’il s’agit de populations et non d’individus, ce qui entraîne l’emploi de méthodes et d’une instrumentation particulières. La première
- 1. Réflexions sur l’écologie entomologique, par Rémy Chauvin. Un fascicule broché, 16 x 24, 80 p. Société de Zoologie agricole, Talence, 1957. Prix : 300 F ; franco : 350 F.
- partie traite précisément de ces problèmes : mesure des températures, de l’hygrométrie, des radiations et autres facteurs qui constituent la bioclimatologie. Ces mesures doivent être effectuées, non avec des instruments de météorologie courante, mais avec un matériel étudié spécialement pour apprécier les caractères des « micromilieux ». La deuxième partie expose les méthodes de prise des échantillons dans les différents biotopes : dans le sol, la strate herbacée, les arbres, en milieu aquatique, dans l’air ; elle apporte aussi quelques données sur l’évaluation statistique des variations d’une population. M. Chauvin revient ensuite au laboratoire, insistant sur les expériences à caractère éthologique plus que physiologique, telles que les effets de groupe, les phases, l’interaction des parasites et de leur hôte. Enfin, la dernière partie est consacrée à l’étude des populations sur le terrain. Après une courte, mais assez vive critique de l’application des mathématiques à l’écologie, l’auteur passe en revue les populations dans les milieux naturels et montre la grande importance des champs cultivés comme terrain d’expérience. Chaque chapitre est complété par une courte bibliographie, terminant ce petit fascicule qui rendra les plus grands services à ceux qui désirent s’initier aux méthodes d’étude de l’écologie. L. C.
- LES LIVRES NOUVEAUX
- Vapour phase Chromatography, publié sous la direction de D. H. Desty. 1 vol. 15,5x25,5, xvi-436 p., iig. Butterworths Scientific Publications, Londres, 1957 ; distribué par I. R. Maxwell et Co. Ltd., Londres. Prix, relié : 70 sh.
- On sait quel développement spectaculaire a (iris la chromatographie en tant que méthode d’analyse des gaz et des vapeurs et comment elle se substitue de plus en plus dans l’industrie du pétrole aux méthodes antérieurement employées : distillation fractionnée et spectrométrie de masse. Un groupe de l’Institut du Pétrole anglais a réuni un colloque sur cette question ; on trouve ici les trente-six mémoires présentés à ce symposium ainsi que les discussions auxquelles ils ont donné lieu.
- Pilot Plants, Models and Scale-up Methods in Chemical Engineering, par R. E. John-stone et M. W. Thhing. 1 vol. 15 x 24, 307 p. ill. McGraw-Hill, New York et Londres, 1957. Prix relié : 71 sh. 6 d.
- Cet ouvrage original expose les principes et les calculs qui permettent d’édifier une usine-pilote, installation de dimensions intermédiaires entre le laboratoire et la production à grande échelle. Après les principes scientifiques et mathématiques (niveau des mathématiques générales) de similitude et d’extrapolation, les auteurs traitent du matériel et des opérations unitaires en usage dans les industries chimiques : cana-
- lisations, filtres ; transport de chaleur ; colonnes et tours d’absorption, de refroidissement, de distillation, d’évaporation, etc. ; mélangeurs, réacteurs ; fours, etc.
- Les résines époxy, par Jean Schhadé. 1 vol. 14 x 22, 190 p., 13 fig. Dunod, Paris, 1957. Prix, relié : 2 350 F.
- Cet ouvrage est le premier qui réunit les connaissances actuelles théoriques et pratiques relatives à ces résines. L’auteur définit d’abord leurs caractères et, après un aperçu théorique de la chimie de la condensation et du durcissement des résines, une large place est faite aux méthodes de préparation et d’utilisation avec de très nombreux exemples. Il indique également les façons de plastifier, de modifier les résines époxy, et la manière de les utiliser comme plastifiants et modificateurs dans d’autres matières plastiques. Le dernier chapitre est consacré à l’analyse et au contrôle.
- Structure des métaux, par Charles S. Bar-rett. Traduit de l’américain par C. Leymonie. 1 vol. 16 x 25, 700 p., fig. Dunod, Paris, 1957. Prix, relié : 7 900 F.
- Après un exposé des principes de la cristallographie et de la radiocristallographie, l’auteur passe en revue les diverses techniques de ces sciences, puis les applique aux métaux dont il examine les structures. Après avoir présenté la théorie électronique des métaux, il traite de
- la plasticité et des deformations, de l’écrouissage et de la diffraction des électrons, des atomes et des neutrons. De nombreux annexes et appendices fournissent des renseignements complémentaires sur la diffusion des rayons X, sur la détermination des structures à l’aide des séries de Fourier, etc. Ouvrage de base, comportant une importante bibliographie.
- La fonderie d’aluminium en sable et en coquille, par R. Irmann. Traduit de l’allemand par J. Moiroud. 1 vol. 16 x 25, 340 p., 318 fig. Dunod, Paris, 1957. Prix, relié : 3 900 F.
- Contribution intéressante aux problèmes de la fonderie en général et à la fonderie de l’aluminium et de ses alliages en particulier. Après l’examen des matières premières utilisées, l’auteur étudie successivement l’aptitude des alliages à la fonderie, les types de four et l’opération de fusion, les flux utilisés, les principaux alliages de fonderie, la coulée en sable et la coulée en coquille, l’ébarbage des pièces et la finition des surfaces, le soudage, le traitement thermique des pièces de fonderie et leur contrôle.
- La turbine à vapeur moderne, par E. A. Kraft. Traduit de l’allemand par G. Lehb. Deuxième édition française. 1 vol. 19 X 28, 450 p., 406 fig. Dunod, Paris, 1957. Prix, relié : 6 900 F.
- p.197 - vue 201/527
-
-
-
- 198
- Réédition très attendue de l'ouvrage ' classique de M. Kraft. L’auteur y a inclus les derniers perfectionnements qui ont été apportés à la technique des turbines à vapeur pour permettre une augmentation continue des pressions utilisées. Bien que l’ouvrage soit purement technique, l’auteur s’efforce de donner des précisions sur le rendement économique des machines. En particulier, il insiste sur l’importance de la sécurité d’emploi dont l’absence rend inutile, par les frais et les arrêts des machines, l’augmentation des rendements thermique et thermodynamique.
- Advances in pest control research, publié sous la direction de R. L. Metcalf. "Vol. I. 1 vol. 15,5 x 23,5, vm-514 p., fig. Interscience Publishers, Inc., New York, 1957. Prix, relié : 11 dollars.
- Premier volume d’une collection de mises au point sur la lutte contre les parasites des végétaux. Chimie et mode d’action des herbicides, utilisation des radioisotopes dans les recherches sur les pesticides, risques entraînés par l’emploi des toxiques, insecticides endothérapiques, etc.
- Anatomie et physiologie animales. Tome I, fasc. 1. Fonctions de relation, par R. Chanton et J. Paniel. 1 vol. 15,5 x 21, 451 p., 313 fig., 3 planches hors texte. G. Doin, Paris, 1957. Prix : 3 750 F.
- Ce livre prend place dans l’excellente collection Biologie, publiée sous la direction de M. Albert Obré, à l’intention des candidats aux grandes écoles biologiques, aux écoles normales supérieures et aux concours de recrutement de renseignement du second degré. Conformément à la tendance qui s’accuse heureusement dans l’enseignement actuel, la description des tissus et des organes s’accompagne de données de chimie et de physiologie, les fonctions étant envisagées en même temps que les structures ; les auteurs y ont ajouté des notions d’anatomie et embryologie comparées, préparant ainsi une étude de l’organogenèse et de l’évolution des organes dans les séries animales. Signalons les données importantes d’ostéologie descriptive, d’arthrologie et de myologie, qui serviront les candidats aux professorats d’éducation physique. L’illustration, assez importante, est quelque peu schématique.
- Le sang et la transfusion sanguine, par le
- docteur Marcel Bessis, directeur des laboratoires de recherches du Centre national de Transfusion sanguine. 1 vol. 15 x 21,5, 140 p., 60 fig. Dunod, Paris, 1957. Prix ; 740 F.
- L’auteur, spécialiste réputé de la cytologie sanguine, rappelle d’abord comment furent découvertes les cellules du sang et il décrit les techniques modernes pour leur étude : frottis, microscopes à ultraviolets et télévision, contraste de phase, microscope électronique, culture des tissus. Il étudie ensuite les cellules du sang et leur formation, puis leurs principales maladies ; la coagulation et l’hémophilie. Puis la transfusion sanguine est abordée par l’étude des groupes sanguins, qui en conditionnent •entièrement la technique. On connaît aujourd’hui plus de 30 systèmes de groupes, mais deux seulement ont une grande importance pratique : les groupes A, B, O, découverts tout à la fin du siècle dernier par Landsteiner, et le système Rhésus, découvert 40 ans plus tard par le même physiologiste et son élève Wiener. Le système Rhésus explique la terrible maladie hémolytique du nouveau-né, justiciable aujourd’hui de l’exsanguino-transfusion. La transfusion sanguine s’organise mieux de jour en jour et des volontaires toujours plus nombreux sont appelés à participer à cette œuvre dont ce livre nous apporte à la fois la justification et une description autorisée.
- Rythmes et cycles biologiques, par Alain Reinberg et Jean Ghata. 1 vol. 11 x 17,5 de la collection Que sais-je ? P.U.F., Paris, 1957. Prix : 180 F.
- Excellent résumé, précis et clair, des pi’in-cipaux aspects d’une question bien souvent traitée, mais de façon superficielle et confuse. Après une étude sommaire des activités rythmiques élémentaires, les rythmes de périodes diverses dans nombre d’organismes et dans l’Homme sont décrits et analysés, expliqués aussi quand c’est possible.
- Le sang peut-il vaincre la mort ? par Hubert Larcher. 1 vol. 13 x 19,5, 386 p. Gallimard, Paris, 1957. Prix : 950 F.
- Ce livre tente de faire entrer dans le domaine de la science la question des « myroblites »,
- ces saints (car jusqu’ici le phénomène n’a été décrit que pour des saints) dont le corps ne s’est point corrompu, dit-on, après la mort. Ce serait parce que ce corps aurait distillé de lui-même des huiles et des parfums analogues aux substances qui servent à l’embaumement. Que ce phénomène, s’il est confirmé, mérite une étude attentive, on y souscrit volontiers. Mais on voudrait qu’un biochimiste soit réellement en possession d’un tel « document ».
- Jardins ; Tracés, exécutions, plantations ; par Henri Pasquier. 1 vol. 21,5 x 26,5, 144 p., 150 plans, dessins et photos. Éditions des Arts et Manufactures à Paris, 1957. Prix, cartonné : 2 650 F ; franco, 2 725 F.
- Après une introduction à l’art des jardins, qui en analyse les constituants, en étudie sommairement le confort, le cadre, la décoration florale, l’entretien, énonce quelques aphorismes de composition, présente le créateur de jardins, définit ses techniques, prescrit au possesseur son rôle et ses devoirs, propose enfin un programme, viennent les douze commandements du jardinier. Puis un grand nombre de jardins types, avec plans, croquis et photos, sont présentés (jardins privés urbains, terrasses-jardins, jardins ruraux, jardins de vacances) de même que les particularités et accessoires, décors de toutes sortes, parterres, etc. Restaurants d’été, usines fleuries, espaces verts terminent ce volume qui fera rêver plus d’un citadin condamné aux courts horizons de pierre et de ciment.
- Conscience et connaissance, par Jacques Brach. 1 vol. 14 x 22,5, 244 p. Marcel Rivière et C10, Paris, 1957. Prix : 750 F.
- L’auteur s’est proposé d’étudier le rôle de la conscience dans la connaissance. . Il examine comment les animaux et les hommes acquièrent une connaissance, admettant que toute réaction spécifique au milieu extérieur révèle une certaine connaissance de ce milieu, du moment qu’elle est adaptée. Cette connaissance ne s’identifie donc pas à quelque degré de conscience. Au contraire, il est soutenu que, sans aucun phénomène de conscience, la connaissance pourrait être la même et, partant, le comportement ne serait pas changé. Cependant il existe entre conscience et connaissance un parallélisme, la seconde étant d’autant plus rapide, complète
- MASSON ET C™ ÉDITEURS, PARIS
- COLLECTION EVOLUTION DES SCIENCES, N° Il
- L’origine photochimique
- de la vie
- par
- A. DAUVILLIER
- Professeur au Collège de France.
- Le problème de l’origine de la vie doit être aujourd’hui considéré sous son aspect cosmique, géochimique et énergétique, c’est-à-dire situé dans le cadre très général de l’évolution même de notre planète. L’auteur (qui est professeur au Collège de France et directeur du Laboratoire de physique cosmique de l’Observatoire du Pic du Midi) expose certains problèmes géochimiques et biochimiques que pose la théorie de l’origine photochimique de la vie.
- Caractères de la matière vivante. — Les théories sur l’origine de la vie. — Cosmogonie et géogénie, l’origine de la terre. — L’origine des continents, des océans et des atmosphères. — La synthèse photochimique de la matière organique. — L’évolution des êtres vivants. — L’énergétique de la biosphère. — Le rôle géochimique de la biosphère. — La vie dans
- l’univers. — Bibliographie.
- Un volume de 214 pages, avec 27 figures, dont 8 en planches
- I 300 F
- p.198 - vue 202/527
-
-
-
- 199
- et efficace qu’elle coïncide avec un plus haut degré de conscience. L’auteur, strictement déterministe, avance une hypothèse hardie, c’est que la conscience provient de la résistance de passage des influx aux synapses et qu'elle est l’accompagnement psychologique de la modification dans la cadence des influx par les voies cérébrales...
- Hommes, cavernes et abîmes, par G. M. Ghi-dim. Traduit de l’italien par G. Luccioni.
- 1 vol. 15 x 21, 252 p., 12 pl. hors texte. Marne, Paris, 1957. Prix, cartonné : 845 F.
- lia voie choisie pour présenter au public les divers aspects de la spéléologie est celle d’une vulgarisation souple, large et animée. Le côté sportif et dramatique des explorations souterraines est souvent mis en relief : comme tant d’autres, le spéléologue aime à faire partager ses angoisses et ses joies. Mais Ghidini a su également faire ressortir sur cette trame tout l’apport scientifique apporté par ses prédécesseurs et lui-même à la géologie, la zoologie et la préhistoire. Ce livre se lit facilement, agréablement' et avec fruit.
- Diercke Weltatlas, par G. Diercke et R. Deh-mel. 1 vol. 22 x 33, 168 p. de cartes en couleurs et 60 p. d’index. G. Westermann, Brunswick, 1957. Prix, relie : 19,80 DM.
- La 89e édition du Diercke Weltatlas apparaît entièrement refondue : à maints égards, c’est d’un ouvrage entièrement nouveau qu’il s’agit. On peut affirmer que la nouvelle édition se classe en tête de toutes les réalisations de sa catégorie, par la qualité de l’impression, par le choix des couleurs, par le soin général qui préside à sa ^présentation. L’Allemagne est naturellement privilégiée (38 pages de cartes, environ 1/4 de l’ouvrage). Les plans de villes et villages, les types de cultures, les cartes de paysages en relation avec la géologie, les croquis économiques retiennent particulièrement l’attention (mise à jour de 1955-1956). Les autres pays européens sont traités plus rapidement (Péninsule ibérique 2 pages, France 3, Iles britanniques 4), mais toujours avec grand soin et
- souci du détail, ainsi qu’en témoignent les cartons consacrés à la huerta de Murcie, aux Low-iands d’Ëcosse ou aux plaines du bas-Rhône. 17 pages exposent la géographie générale, physique et économique, de l’Europe ; l’Amérique du Nord obtient 13 pages. Les problèmes d’ensemble de la terre (les océans, les canaux interocéaniques, les courants marins, les projections cartographiques...) terminent l’ouvrage, étrangement dense de matière.
- Hongrie (Collection des Guides Nagel), 1 vol.
- 10 x 15, 176 p. et 2 cartes en couleurs. Nagel,
- Genève et Paris, 1957. Prix, relié : 1 800 F.
- Rédigé par Thomas Schreiber, dont on n’a pas oublié les reportages datés de Budapest lors de la tragédie de novembre 1956, le Guide Nagel « Hongrie » comble une lacune dans notre
- A NOS LECTEURS
- LA LIBRAIRIE DUIMOD
- 92, rue Bonaparte, PARIS-6*
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- littérature touristique. Une intéressante introduction de 44 pages fait le point, mis à jour jusqu’aux plus récents événements, de l’économie, de l’histoire, de la littérature, de l’art hongrois. Le texte des itinéraires est excellent et précis ; il laisse percer cette sympathie pour un peuple généreux et fier que justifie toute l’histoire magyare. Des renseignements pratiques achèvent le volume. Tel qu’il est, celui-ci fourmille de données utiles qui intéresseront toute personne désireuse de mieux connaître le pays de Kossuth.
- Le Proche-Orient, par R. Furon. 1 vol.
- 14 x 23, 268 p., 14 cartes. Payot, Paris, 1957.
- Prix : 1 200 F.
- Peu de régions du globe font aujourd’hui l’objet d’autant d’informations et de commentaires que le Proche-Orient. Cette actualité, inquiétante à bien des égards, résiste d’autant mieux à une rigoureuse analyse qu’elle est, la plupart du temps, j>artialement et partiellement présentée. On ne saurait dire que l’ouvrage de M. Furon soit entièrement neutre et ne reflète ]>as les opinions personnelles de son auteur, il a du moins le mérite de fixer solidement les faits dans leur contexte géographique, historique, économique. La compilation dont il résulte est •considérable et le plus souvent objective. Sa lecture, en ce sens, peut lever bien des incertitudes et rectifier bien des points de vue erronés.
- Sardaigne, par G. Nierstrasz et L. Claxts.
- Au fil du Rhône, des glaciers à la mer, par Marie Matjron. 2 vol. 18,5 x 23, 156 p. chacun avec 81 héliogravures et 1 carte. Horizons de France, Paris, 1957. Prix, broché, chaque : 1 375 F.
- Deux nouveaux et excellents volumes de la collection Visages du Monde. Le premier est surtout remarquable par son étude du folklore sarde : c’est une introduction vivante au tourisme dans cette île sauvage si peu connue. Le second nous fait descendre le Rhône, des Alpes suisses à la Camargue, sous la conduite poétique de Mme M. Mauron, dont le texte évo-
- Dans l’univers en expansion, les astres se déplacent, non selon des ellipses fermées, mais selon des spirales. La terre s’éloigne chaque année du soleil...
- LA TERRE S'EN VA
- VIENT DE PARAITRE!
- Après les cataclysmes du passé, d’autres nous attendent. La terre - qui se déforme de plus en plus - expulsera un jour une seconde Lune...
- LA TERRE S’EN VA
- de LOUIS JACOT
- en nous contant le passé de notre planète, et en nous en découvrant l'avenir, ouvre des voies nouvelles dans la connaissance du
- Le livre se lit d’un bout à l’autre comme un roman.
- Monde.
- Editions de la Table Ronde
- Quel que soit votre problème d?étude, de recherche scientifique ou d'enseignement, il existe un produit
- Kodak
- pour le résoudre. Pour tous renseignements adressez-vous à
- KODAK-PATHl * SERVICE SCIENTIFIQUE
- 37, Av. Montaigne, PARIS-VIII6 — Tél. BAL 26-30
- ICOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnu© par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7'
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d'Etat.
- Brevet de Technicien d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du |our — Cours du soir
- Section d'enseignement " à domicile "
- ( Joindre timbre pour notice)
- p.199 - vue 203/527
-
-
-
- w
- PERMUTIONS
- ûuféc4àiaéée4
- avec les
- ceiuets MV
- en
- toile gommée transparente
- chez votre papetier
- Fabrication <Cot££tot
- CH. LEMORNIER56A
- ERRATUM
- Nous avons annoncé la publication par la Librairie Dunod, dans le courant de l'année 1958, d'une traduction française de l’ouvrage de F. Seitz et D. Turnbull : Solid State Physics (Academie Press, Inc., New York), analysé dans notre numéro d'avril (p. 159). Cette indication est erronée et c’est en réalité l’ouvrage de Ch. Kittel : Introduction to Solid State physics (John Wiley and Sons, New York) qui fait l’objet de la traduction française actuellement en préparation. Nous nous excusons, tant auprès de nos lecteurs que des éditeurs, de la confusion que nous avons faite.
- cateur s’accompagne de belles photographies. Deux volumes dignes en tous points de leurs devanciers.
- Gabon, terre d’avenir, par François Charbonnier. Préface de R. Barthes. 1 vol. 16 x 23, 152 p,, nombreux croquis et illustrations. Encyclopédie d'Outre-Mer, Paris, 1957. Prix : 1 200 F.
- Ce livre, fort documenté, arrive à son heure, au moment où le pétrole gabonais arrive au Havre, où le manganèse et le fer justifient de gros espoirs, où la loi-cadre constitue à Libreville le premier gouvernement du Gabon. L’auteur passe en revue l’histoire du pays (Gabon vient du portugais gabâo, sorte de capuchon à manches longues utilisé par les marins), sa géographie, sa population ; puis il insiste sur les ressources d’avenir (agriculture, exploitation de l’okoumé, mines), sans omettre l’examen des problèmes posés par l’évolution du pays. En bref, ce Gabon où s’est fixé Albert Schweitzer apparaît comme l’une des bases de l’équilibre de l’Afrique Noire.
- Invitation au voyage, par Édouard Cauvin. 1 vol. 21,5 x 27,5, 96 p. Flammarion, Paris, 1957. Prix : 1 200 F.
- On ne peut mieux dire que Jean Rostand dans la préface de ce livre : « Un tel ouvrage est fait non seulement pour aviver le zèle des jeunes naturalistes, mais aussi pour susciter des vocations... Sous l’objectif grossissant et toujours habilement dirigé de l’auteur, tout devient beau : une aile de teigne, un œil de libellule, une toile d’araignée, une larme de bougie. » C’est un album de belles photographies prises à la loupe ou au microscope, principalement sur le monde des insectes. Un texte court commente chaque image et en donne le sens, parfois avec humour.
- Organisation du travail dans l’exploitation agricole. 1 vol. 16 x 24, 185 p. O.E.C.E., Paris, 1957. Prix : 600 F.
- L’ouvrage est composé de rapports de spécialistes européens. Les problèmes abordés vont de l’étude des matériels agricoles aux rapports entre patrons et ouvriers en passant par la réorganisation rationnelle des fermes et l’analyse des divers travaux agricoles.
- PETITES ANNONCES
- (190 F la ligne, taxes comprises. Supplément de 100 F pour domiciliation aux bureaux de la revue).
- CHIMISTE,- abonné au Bull. Sign. du C.N.R.S. (lrv Partie) (Revue d’extraits scient.), désire partager son abonnement en cédant, a prix réduits, les rubriques qui ne l’intéressent pas : Math., Énerg. atom., Phys., Sc. de l’ingénieur, Astron., Géol., etc.
- Ecrire à FORT, 27, villa Brazza, Romainville (Seine).
- JEUNE HOMME, 35 ans, sérieuses références, cherche emploi d’aide technique de laboratoire dans une section de Botanique ou Cytologie, soit en chimie agricole ou autre branche similaire. Pourrait apporter collaboration scientifique pour travaux tels qu’essais de germination aseptique de graines de Citrus, essais de bouturage avec des hormones végétales, ou encore contribuer à des recherches en matière de génétique ou du meme genre.
- Bonne instruction générale et bonnes connaissances dans le domaine de la physiologie et de la biologie végétales.
- Écrire sous n° 226 à la Revue qui transmettra.
- ---- VIENT DE PARAITRE -----------------
- ASPECTS ÉCONOMIQUES
- DES
- APPLICATIONS INDUSTRIELLES
- DE
- L’ÉNERGIE NUCLÉAIRE
- par Th. REIS
- Ancien Chargé de cours à l’École Nationale Supérieure du Pétrole, Directeur de la Société pour les Applications des Techniques nucléaires (SATNUC).
- 388 pages 16 x 25, avec 72 figures et 12 planches. Relié toile sous jaquette ............. 4 600 F
- RAPPEL DU MÊME AUTEUR :
- L'ÉNERGIE NUCLÉAIRE DANS LE MONDE
- PROGRAMMES ET DÉVELOPPEMENTS PRÉVUS
- 306 pages 16 x 25, avec 44 figures. 1957. Relié toile sous jaquette....................-..... 2 900 F
- En vente dans toutes les bonnes librairies et chez
- 92, rue Bonaparte rUTIVTDTI Éditeur, Paris-6e.
- C.C.P. Paris 75-45 Tél. : DAN 99-15
- VIENT DE PARAITRE
- PRÉCIS D'ÉNERGIE NUCLÉAIRE
- par
- G. CAHEN
- Ingénieur général du Génie maritime (2e Section), Directeur des études au Centre de préparation pratique aux applications industrielles de l’énergie nucléaire, Directeur des services nucléaires et Ingénieur-Conseil à la Compagnie pour la fabrication des Compteurs
- et P. TREILLE
- Ingénieur principal du Génie maritime,
- Docteur ès sciences,
- Professeur d’énergie atomique à l’École nationale supérieure du Génie maritime.
- PRÉFACE DE F. PERRIN
- Membre de l’Institut,
- Iïaut-commissaire à l’Énergie atomique.
- 380 pages 16 x 25, avec 93 figures. 2° édition revue et augmentée. Br. sous jaquette : 2 800 F. Rel. toile sous jaquette.... 3 IOO F
- En vente dans toutes les bonnes librairies et chez
- DUNOD
- 92,. rue Bonaparte G.G.P. Paris 75-45
- Éditeur, Paris-6P. Tél. : DAN 99-15
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 2e trimestre 1958, n° 3i56. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° S'j/iS, — 5-IQ58.
- p.200 - vue 204/527
-
-
-
- N° 3278
- Juin 1958
- LA NATURE
- Récents progrès en Physiologie de la vision
- La. Physiologie de la vision constitue un chapitre de la Physiologie sensorielle, qui étudie les mécanismes d’adaptation inscrits dans l’organisme vivant. La sensation est le résultat de l’action qu’exerce l’ambiance (externe ou interne) sur des récepteurs spécialisés. La réaction de ceux-ci est à l’origine des messages qui déclenchent au système nerveux central des réponses régulatrices pouvant atteindre le niveau de la conscience.
- La sensation crée des images dans notre conscience. Il importe de faire une distinction nette entre ces images et l’agent physique qui provoque la sensation (une fleur appelée rouge n’ « est » pas rouge, elle ne fait qu’absorber sélectivement les radiations électromagnétiques dans certaines bandes de fréquences, mais celles qu’elle reflète créent une sensation spécifique appelée <c rouge », etc.). Les rapports entre les niveaux d’intensité de la sensation et entre ses qualités sont toujours très différents de ceux qui caractérisent les intensités et les qualités des agents physiques excitateurs. Ceci est du à la non-linéarité essentielle des réponses nerveuses des cellules réceptrices et de tous les neurones intermédiaires entre les organes des sens et l’écorce grise. On ne peut faire aucune appréciation quantitative directe dans le domaine sensoriel, les cas d’apprentissage spécifique exclus. Une plage lumineuse peut être plus ou moins claire qu’une autre, ou plus ou moins saturée. Sa couleur perçue peut se. rapprocher plus ou moins d’une couleur de comparaison. Deux plages peuvent paraître identiques. Dire qu’une fleur sent trois fois plus qu’une autre ou qu’un son est cinq fois plus fort qu’un autre n’a pas de sens.
- Api’ès ces préliminaires, venons-en à la Physiologie de la vision proprement dite.
- La vision est le domaine le plus travaillé en Physiologie sensorielle; la raison en est évidemment l’importance primordiale que revêt pour l’homme l’organe visuel. Or cet organe est extraordinairement complexe et l’on ne doit pas se dissimuler que la connaissance précise de son fonctionnement est un but lointain. Des centaines de publications scientifiques, augmentant chaque année la somme de nos connaissances, relatent des observations expérimentales qu’on essaye d’interpréter en termes physiologiques. Ces essais d’interprétation sont pratiquement toujours hypothéqués par des hypothèses et on doit s’estimer heureux si celles-ci ne sont contredites par aucun des nombreux faits expérimentaux connus et contrôlés. L’hypothèse est alors admissible et pas plus. Cela peut être beaucoup si elle suggère d’autres expériences dont elle permet de prédire le résultat qualitatif et peut-être même quantitatif. Mais un tel succès ne constitue évidemment pas du tout la « preuve » de l’hypothèse en question.
- Les preuves sont rares en sciences naturelles et la Physiologie de la vision n’v fait point exception. Il est d’autant plus remarquable qu’on peut enregistrer quelques succès décisifs
- dans ce domaine, succès qui sont en train de modifier la direction que suit la recherche.
- L’exposé des progrès réalisés dans ce domaine sera précédé par un bref aperçu des méthodes utilisées en Physiologie sensorielle de la vision.
- Les photons dans la vision
- Stimulation et sensation visuelles. — La connaissance du mécanisme de la vision présuppose des expériences à caractère introspectif. Certes, de précieux éclaircissements nous viennent de l’Anatomie, de l’Histologie, de la Neurophysiologie, mais en fin de compte, il faut au chercheur le concours d’un observateur — qui peut être parfois lui-même — capable de percevoir, de distinguer, de comparer et de qualifier.
- L’expérience fondamentale consiste évidemment à envoyer de la lumière dans les yeux ou dans un œil de l’observateur (sujet). On appelle cette action « stimulation » et l’agent stimulant adéquat, la lumière, est appelé « stimulus ». Le stimulus est constitué par une lumière d’une qualité (couleur) donnée émanant d’une plage de dimensions données, projetée de manière permanente ou temporaire. Il est vu sous un angle visuel que déterminent les dimensions de la plage et sa distance de l’œil, il peut être visé par le sujet ou lui paraître en vision latérale en un point quelconque de son champ visuel. Il peut, lui créer une impression de clarté (luminance) plus grande ou moins grande qu’un autre stimulus de même énergie, mais de couleur différente.
- Le terme « couleur » appelle une précision. S’il sert à qualifier une radiation visible au point de vue physique, il faut spécifier si l’on a affaire à une lumière monochromatique (de longueur d’onde X unique) ou à une lumière composée de plusieurs lumières monochromatiques. La connaissance des énergies composantes permet de spécifier un tel stimulus. Au point de vue physiologique, le terme « couleur » signifie une sensation. Celle-ci est, par définition, incommunicable, mais tout sujet normal est capable de la qualifier. Les personnes à vision anormale, tels les daltoniens, qui possèdent une gamme de couleurs bien plus pauvre que les normaux, peuvent être réduites à trois qualificatifs : rouge ou jaune; gris; bleu. Les normaux distinguent facilement 7 à ro couleurs qu’ils savent nommer, mais en comparant des échantillons de couleurs assez voisines, ils arrivent à reconnaître entre 100 et 200 nuances sans apprentissage particulier. Il est bon de rappeler qu’une « couleur perçue », grandeur physiologique, peut correspondre à une infinité de mélanges de « couleurs monochromatiques », grandeurs physiques. Il est moins connu que les sensations qu’un sujet normal éprouve à la suite de deux stimulations en
- p.201 - vue 205/527
-
-
-
- lumière de qualité identique ne sont pas nécessairement identiques, même si dans chaque cas l’œil s’est trouvé dans le même état d’adaptation (à l’obscurité, à la lumière blanche ou autre, de telle intensité). En effet, une lumière orangée ou verdâtre paraît nettement jaune lorsqu’on augmente suffisamment son intensité, une lumière violette intense paraît plus bleuâtre qu’une lumière violette faible. Ces phénomènes peuvent s’observer en visant un filament d’ampoule électrique à travers des filtres colorés appropriés.
- Les seuils. — La connaissance des mécanismes de la vision implique des mesures quantitatives. Les sensibilités à l’intensité et à la qualité (couleur) du stimulus et leur variation en fonction de sa durée, de l’angle visuel, de la localisation rétinienne sont des grandeurs indispensables à l’exploration du labyrinthe que constitue la seule rétine. On y dénombre io couches remplies de récepteurs, de cellules bipolaires, horizontales, amacrines et ganglionnaires, et les quelque 800 000 fibres nerveuses, axones de ces dernières, qui forment le nerf optique (fïg. 1).
- L’une des tâches auxquelles s’attache en premier lieu le chercheur est évidemment l’étude de l’excitation. Comment la lumière agit-elle pour mettre en branle un appareil aussi complexe que la réLine ? On a pu prouver qu’une substance photosensible, le pourpre rétinien ou rliodopsine, est présente dans les bâtonnets et que sa sensibilité à la lumière des différentes longueurs d’onde suit la même loi que la sensibilité de l’œil humain en vision crépusculaire (fig. 2). De là on conclut
- y y
- Coupe schématique d’une rétine humaine.
- La lumière traverse les couches en sens inverse de leur numérotation. 1, épithélium pigmentaire ; 2, cônes et bâtonnets ; 3, surface limitante externe ; 4, couche des corps cellulaires des cônes et bâtonnets ; 5, couche plexiforme externe ; 6, couche des corps cellulaires des cellules bipolaires et des neurones d’association (cellules horizontales et amacrines) ; 7, couche plexiforme interne ; 8, couche des cellules ganglionnaires ; 9, couche des fibres du nerf optique; 10, surface limitante interne.
- 600 mjJL 650
- Figr. 2. — Absorption du pourpre rétinien comparée à la sensibilité de l’œil en vision crépusculaire pour les mêmes longueurs d’onde.
- Cercles, absorption du pourpre rétinien (rhodopsine).
- Trait plein, sensibilité relative de l’œil humain en vision crépusculaire.
- que les bâtonnets sont les cellules réceptrices fonctionnant en vision crépusculaire (ou vision de nuit).
- Pour établir cette fonction de la vision de nuit, il est nécessaire de comparer les quantités physiques de lumière de différentes longueurs d’onde qui provoquent les mêmes effets, c’est-à-dire créent les mêmes niveaux de sensation. On conçoit combien cette tâche est redoutable, car la comparaison en intensité de deux plages de couleurs différentes est très difficile et ne peut fournir de résultats précis. Le seul procédé direct connu consiste à mesurer les intensités physiques des différents rayonnements qui provoquent une sensation tout juste perceptible (liminaire). Mais une telle mesure se heurte à une difficulté fondamentale. Lorsqu’une stimulation approche de la valeur liminaire, sa perception devient incertaine. Dans des conditions rigoureusement identiques de stimulation, le stimulus est parfois perçu, parfois non. On a donc défini comme « seuil » (valeur liminaire) une intensité physique telle du stimulus que celui-ci est perçu 5o fois sur 100. On sait que les organismes animaux et végétaux présentent à plusieurs niveaux un fonctionnement de caractère fluctuant et l’on conçoit que la fluctuation de la perception près du seuil ait été attribuée jusque dans ces derniers temps à la seule instabilité biologique fondamentale.
- Or, des mesures assez précises ont permis de connaître l’énergie liminaire, c’est-à-dire la quantité de lumière nécessaire pour atteindre le seuil dans les meilleures conditions. Celles-ci sont ;
- i° Adaptation de l’œil à l’obscurité pendant 1 heure;
- 2° Utilisation de stimuli de couleur vert-bleue;
- 3° Vision périphérique;
- 4° Éclats de faible durée.
- Dans l’œil adapté à l’obscurité, les bâtonnets fonctionnent avec le maximum de sensibilité et leur pigment, le pourpre visuel, présente sa sensibilité la plus grande dans la région vert-bleue du spectre (autour de 5oo mpi). Il faut observer en vision périphérique (excentricité d’au moins io°) où la fréquence des bâtonnets devient maximum, au détriment des cônes dont la fréquence baisse en partant de la zone centrale, appelée fovéa. L’utilisation la plus rationnelle de l’énergie lumineuse contenue dans un éclat n’est assurée que pour une certaine durée maximale qui dépend des mécanismes nerveux sous-jacents. Tant que la durée de l’éclat reste inférieure à cette durée limite t, la quantité liminaire ne varie pas. Pour toute durée t > t, elle augmente. Pour cette raison, on doit opérer avec des éclats suffisamment brefs (t dépend de la localisation rétinienne et peut atteindre 0,1 s).
- p.202 - vue 206/527
-
-
-
- 203
- Pour les individus les plus sensibles, on a mesuré des énergies liminaires de l’ordre de 2 x xo-10 ergs. Cela correspond à moins de 60 photons (grains de lumière irréductibles) de longueur d’onde 5oo mjj.. Mais seulement une fraction évaluée à 5o pour 100 des photons qui frappent la cornée pénètre jusqu’au niveau de la rétine pour y former une image; le reste est réfléchi, absorbé ou diffusé. Tous les photons qui atteignent la rétine ne sont pas absorbés par les bâtonnets. On peut en évaluer la fraction grâce à la connaissance du spectre d’absorption du pourpre rétinien. En comparant la sensibilité spectrale de l’œil adapté à l’obscurité aux spectres d’absorption d’une série de solutions aqueuses de différentes concentrations de pourpre rétinien, on a pu constater que la concentration du pourpre dans les bâtonnets correspond à une probabilité d’absorption comprise entre 7 et 20 pour 100 pour une lumière vert-bleue de 5oo mp. de longueur d’onde. Il s’ensuit que pour les observateurs les plus sensibles, il faut entre 2 et 6 photons pour qu’il y ait vision, dans les conditions les plus favorables.
- Dès lors, il devient possible et même indispensable d’expliquer l’instabilité de la vision près du seuil par un phénomène physique dû à la nature quantique de la lumière.
- L’instabilité de la vision liminaire. — Puisqu’un flux lumineux est composé de pilotons, un très faible flux transporte un très petit nombre de ceux-ci. Or, une source lumineuse, tel un filament d’ampoule électrique, en émet un nombre extraordinairement élevé, même pendant un laps de temps très court. Pour diminuer un flux, on emploie des filtres. Ce sont des corps qui absorbent une partie de la lumière qu’ils reçoivent. Si un filtre absorbe disons 90 pour 100, cela veut dire qu’un photon sur dix le traverse, en moyenne. Mais le hasard peut faire qu’une fois 5, une autre fois i5 photons sont absorbés avant qu’un photon puisse traverser : l’absorption (comme d’ailleurs l’émission) des photons sont des phénomènes aléatoires. Ainsi, lorsqu’un flux d’une cinquantaine de photons atteint la rétine, les récepteurs vont en absorber un nombre variable, bien qu’en moyenne égal à un nombre de l’ordre de 5. Le calcul des probabilités permet de prévoir comment se répartissent les fréquences d’absorption de n photons quand la moyenne des photons absorbés est m. Plus m
- est grand et plus deviennent rares des valeurs de n très différentes de m en pourcentage. D’autre part, si l’on ajuste le flux de telle manière qu 'environ 6 fois sur xo le stimulus est aperçu, la moyenne m devient égale au nombre minimal d’absorptions nécessaires à la perception. On déduit cette relation de la loi de Poisson, aussi appelée « loi des petits nombres »; les tables numéi’iques construites d’après cette loi indiquent par exemple que pour m = 5, dans 56 pour 100 des cas n > m.
- L’expérience montre qu’en interprétant de cette manière des statistiques de « vu » et « pas vu » en fonction de la luminance d’un stimulus juxtaliminaire, on arrive à la conclusion qu’il faut généralement l’absorption de k à 5 photons pour déclencher une sensation visuelle liminaire, lorsqu’on opère dans les conditions les plus favorables.
- Le comptage des photons. — On voit que la mesure physique et l’interprétation statistique fournissent des résultats parfaitement concordants. On pourrait objecter que la nature aléatoire de l’émission et de l’absorption des photons est peu étudiée et qu’il serait utile de prouver de façon indiscutable que l’incertitude de la vision juxtaliminaire pi’ovient effectivement de la variabilité du nombre de photons contenus dans un flux lumineux très faible.
- Nous avons pu fournir cette preuve tout récemment, grâce à l’emploi d’une cellule photoélectrique multiplicatrice d’électrons à 20 étages dont le gain est de l’ordre de 5o millions, suivie d’un tube cathodique au gain de 3 000, soit ï5o milliards de gain au total. Chaque photon qui, absorbé dans la photocathode, y libère un électron, provoque ainsi une cascade de i5o milliards d’électrons en moyenne et ceci pendant un laps de temps suffisamment court (< io~6 s) pour que ce coui’ant produise sur l’éci'an de l’oscillographe cathodique une déviation nettement perceptible {top). Ainsi chaque top correspond exactement à l’absorption d’un seul photon. On constate (fig. 4) que les déviations varient beaucoup d’amplitude; ceci provient du fait que la cascade d’électrons qui est produite dans le tube multiplicateur est le produit de l’émission secondaire provoquée dans les vingt étages et que’ chaque électron n’engendre pas d’électrons secondaires, mais peut parfois passer à travers les mailles de l’étage suivant. Le gain de 5o millions
- Fig. 3. — Dispositif d’enregistrement et de comptage de photons.
- 1, lampe à ruban de tungstène ; 2, dispositif optique ; 3, disque à secteur tournant ; 4, coin photométrique suivi de filtres neutre et coloré ; 5, voltmètre de précision servant à contrôler la constance de l’émission lumineuse ; 6, ventilateur ; 7, boite d’alimentation A tension hautement stabilisée alimentant les 20 étages de la cellule multiplicatrice d’électrons (non visible sur ce cliché, puisque disposée dans la pièce voisine entièrement obscure) ; 8, galvanomètre servant au contrôle du fonctionnement de la cellule ; 9, oscillographe cathodique recevant les tops électriques émis par la cellule multiplicatrice d’électrons à la suite de l’absorption de photons ; 10, appareil photographique spécial pouvant enregistrer 250 clichés à la file. Un stabilisateur de tension alimentant la lampe à ruban de tungstène ainsi que le dispositif de redressement et de filtrage du courant qui alimente la lampe ne sont pas visibles sur ce cliché.
- p.203 - vue 207/527
-
-
-
- 204
- Fig 4 (à gauche). — Spécimen d’enregistrement de quanta lumineux.
- A. chaque signal correspond un pliolon absorbé.
- Émission lumineuse constante.
- N = 3 79
- u 60
- 01 23456739 10
- k
- N =263
- <_> 160
- uj ioo
- - 80
- 0/2345678 9 >°
- k
- Fig. S. — Vision au seuil : distribution théorique et distribution expérimentale.
- En rayures, distribution expérimentale ; en traits épais, distribution théorique, selon la loi de Poisson. N, nombre de clichés par série ; a, longueur d’onde de la lumière utilisée ; h — 0, 1, 2, 3, ..., classes de la statistique ; m, moyenne du nombre de signaux par cliché.
- n’est donc qu’une moyenne et des gains individuels très inférieurs et très supérieurs sont fréquents.
- On sait que chaque cellule multiplicatrice d’électrons présente un courant d’obscurité, c’est-à-dire que la cathode émet des électrons même sans avoir absorbé de la lumière. Ce phénomène rend impossible l’emploi au comptage de photons des cellules commercialisées même les plus perfectionnées. Nous avons pu nous servir d’une cellule multiplicatrice d’électrons aux qualités exceptionnelles de stabilité construite par M. Lallemand, astronome à l’Observatoire de Paris. Refroidie aux environs de — 7o° C au moyen de la neige carbonique, la cathode de cette cellule émet seulement 8 électrons en moyenne par seconde, lorsqu’elle se trouve à l’obscurité totale. Dès lors, il suffit d’utiliser des flux lumineux de courte durée (10 ms dans notre cas) pour pouvoir affirmer que les enregistrements de tops sur l’écran oscillographique sont pratiquement tous
- dus à des pilotons. Dans le cas présent, moins de 2 pour 100 des photons marqués sur l’écran sont dus à des électrons parasites émis par la cathode en tant que « bruit de fond ».
- La statistique de la figure 5 porte sur 3 700 clichés. Le tracé épais correspond à la loi de Poisson, les parties hachurées aux chiffres fournis par l’expérience. La concordance entre théorie et expérience est saisissante. Il est donc établi que l’incertitude de la vision au seuil provient essentiellement du caractère quantifié de l’excitant, c’est-à-dire de la lumière.
- L’importance attribuée à ce fait se justifie par les fluctuations toutes semblables qu’on observe lors de la recherche des seuils d’autres sens, tels que l’ouïe, l’odoi’at, le goût. etc. Il serait donc indiqué de vérifier s’il existe une similitude entre le mécanisme d’excitation de l’œil et d’autres organes sensoriels. On n’a pas beaucoup progressé dans celte voie jusqu’à présent. Tout au plus paraît-il possible que des molécules isolées en petit: nombre d’un corps odorant soient responsables de l’excitation du sens olfactif, mais aucun schéma, même très hypothétique, n’a encore été élaboré pour l’explication de ces phénomènes dans d’autres domaines sensoriels.
- L’étude « in situ » des pigments photosensibles
- On a vu que les pigments photosensibles de la rétine sont à la base de toute excitation lumineuse. Des recherches menées surtout en Angleterre et aux États-Unis ont permis de pénétrer le mystère de la décomposition par la lumière et. de la régénération permanente à l’intérieur de la rétine du mieux connu parmi eux, à savoir le pourpre rétinien ou rhodopsine. Ce pigment est un dérivé de la vitamine A; d’autres pigments trouvés dans les yeux d’animaux divers ont une constitution chimique très voisine.
- On connaît la constitution chimique de la rhodopsine; on sait qu’elle est un isomère bien déterminé parmi six isomères possibles; on sait même la synthétiser à partir de la vitamine. A. Il est important de suivre ses transformations in situ, ce qu’on peut faire à l’aide d’une méthode ingénieuse mise au point par des chercheurs anglais. Ceux-ci s’attaquent d’ailleurs à l’étude d’autres pigments photosensibles que l’on présume se trouver dans la rétine et qui seraient des intermédiaires indispensables à la vision des couleurs.
- La méthode ophtalmométrique. — Le procédé en question est basé sur une science déjà ancienne, l’ophlalmométrie. L’ophtalmologiste utilise un miroir inventé, au siècle dernier, par le grand Ilelmholtz pour renvoyer dans l’œil du médecin une fraction de la lumière qu’une lampe projette dans l’œil du patient. - Ainsi, le médecin voit le fond de l’œil ou rétine du malade.
- Les chercheurs anglais — le procédé a été développé indépendamment à Cambridge et à Londres — se sont donné comme tâche de suivre in situ les phénomènes de décomposition (blanchissement) et de régénération de la rhodopsine au cours de l'adaptation à la lumière et à l’obscurité. Il fallait prendre comme point de départ la quantité de rhodopsine présente dans les bâtonnets, en adaptation complète à l’obscurité. On commence naturellement par la région où le nombre de bâtonnets par millimètre carré de surface rétinienne est maximal, ce qui est le cas aux environs de i5° de la fovéa. Cette dernière est la région de la rétine sur laquelle se projette l’image des objets que nous « fixons » pour étudier un détail de structure.
- Un calcul rapide montre qu’on peut espérer une réflexion de l’ordre de quelques millionièmes seulement. En effet, 5o pour 100 de la lumière se perd entre cornée et rétine et 99 pour 100 de ce qui traverse la rétine est absorbé en son fond couvert d’un pigment très foncé que contient l’épithé-
- p.204 - vue 208/527
-
-
-
- c o
- Fig. 6. — Schéma optique et électrique du rhodopsinomètre.
- Description dans le texte (d’après Rcsiito.n).
- Jium pigmentaire. Mais celui-ci agit comme diffuseur et seulement 3 pour ioo de la lumière qu’il reflète peut trouver le chemin de retour par la pupille. On ne peut pourtant pas, dans ces expériences, utiliser la pupille entière pour la mesure de la lumière réfléchie. Ainsi, le chiffre avancé de quelques millionièmes s’explique facilement.
- La fraction de lumière réfléchie recueillie dans le dispositif des chercheurs a traversé deux fois la rétine, une fois en pénétrant dans l’œil et une fois en en sortant. Elle a traversé aussi deux fois les bâtonnets et la rhodopsine qu’ils contiennent, 'Une fraction de cette lumière est absorbée dans les bâtonnets et cette fraction est maximale lorsque l’œil est adapté à l’obscurité et la concentration de la rhodopsine à son maximum.
- Imaginons connue la quantité de lumière réfléchie en adaptation à l’obscurité. En adaptant ensuite l’œil pendant un temps déterminé à une lumière extrêmement intense et en répétant la mesure de la lumière réfléchie, on constate que quelques minutes d’adaptation à la lumière intense peuvent suffire pour créer un état d’épuisement maximal de la rhodopsine. En effet, la raréfaction de ce pigment (le circuit sanguin apporte toujours de nouvelles quantités de vitamine A à cette dernière et, par conséquent, la rhodopsine ne disparaît jamais entièrement) se traduit par un accroissement de la quantité de lumière réfléchie par le fond de l’œil et recueillie dans le dispositif de mesure. La proportion d’augmentation de la quantité de lumière réfléchie est une mesure de l’absorption que la lumière projetée dans l’œil subit du fait de la rhodopsine. Et puisque chaque molécule de rhodopsine est décomposée par l’absorption d’un seul quantum lumineux, la mesure de la lumière réfléchie par l’œil est un moyen de suivre pas à pas la première étape de l’excitation lumineuse, le mécanisme photochknique. Par la suite, nous allons exposer les résultats obtenus de cette manière.
- La rhodopsinométrie. — La figure 6 montre le schéma du principe d’un des dispositifs de mesure utilisés par Rushton (Cambridge). La source lumineuse S envoie un étroit faisceau lumineux (angle solide de 5°) à travers un trou pratiqué dans im miroir argenté en surface, orienté sous 45° par rapport à l’axe optique. Celte lumière entre dans l’œil de l’observateur et la lumière réfléchie traverse la pupille, dilatée artificiellement pour éviter le fonctionnement du réflexe pupillaire. Le miroir focalise cette lumière sur la cathode d’un tube photoélectrique multiplicateur d'électrons T. D est un diaphragme ajustable qu’on place de telle manière qu’il laisse passer seulement l’image du centre de la partie éclairée de la rétine. V est une lame de verre disposée dans le plan de focalisation
- de la réflexion cornéenne. L’image cornéenne est évidemment parasitaire et doit être éliminée. On dispose sur V une petite parcelle d’un corps opaque, ce qui permet d’éliminer l’image cornéenne.
- On utilise pour les mesures une lumière de longueur d’onde X que la rhodopsine absorbe davantage que toutes les autres. De cette manière, les différences mesurées, en même temps que la précision, seront les plus grandes possible. C’est À = 5oo mpi, lumière bleu-vert, qui se situe en effet au maximum de la courbe d’absorption de la rhodopsine. La roue transparente R est colorée moitié en bleu-vert, moitié en orangé. Elle fait 20 tours par seconde et envoie donc alternativement de la lumière orangée et bleu-vert dans l’œil. Un coin photométrique de couleur pourpre permet d’atténuer progressivement un flux lumineux de façon connue et reproductible', grâce à son épaisseur variable.
- Quand ce dispositif est mis en marche, le galvanomètre (figuré par une flèche) montre normalement une déviation. En effet, la cellule photoélectrique multiplicatrice d’électrons fournit un courant qui, vingt fois par seconde, au rythme des passages de lumière bleu-vert et orangée est envoyé dans les deux condensateurs intégrateurs du montage à cathode folloxvers reliés par le galvanomètre, grâce à un commutateur fixé sur l’axe de la roue R. Le courant est proportionnel à la différence des réponses photoélectriques aux stimuli orangé et bleu-vert, et on peut l’annuler au moyen du coin photométrique C. Celui-ci laisse passer sans atténuation sensible la lumière orangée, mais absorbe beaucoup la lumière bleu-vert.
- L’équilibre électrique étant établi au début de l’expérience, toute déviation ultérieure du galvanomètre est due à une quantité supplémentaire de lumière bleu-vert réfléchie par les bâtonnets. On peut calculer facilement le pourcentage de cette augmentation, en lisant le déplacement du coin nécessaire pour remettre le galvanomètre à zéro.
- C’est donc une « méthode de zéro » et c’est cela qui fait sa force. En effet, de faibles variations de l’intensité de la
- Fig. 7. — Blanchissement de la rhodopsine en fonction du temps d’adaptation à une lumière intense de l’œil humain.
- De haut en bas : sur la tache aveugle ; clans la fovéa ; à 5°, 10°, 20° de la fovéa ; dans le méridien horizontal. Croix et cercles correspondent à des mesures exécutées à 3 jours d’intervalle. En ordonnées : position du coin photométrique (d’après Rcsiiton).
- p.205 - vue 209/527
-
-
-
- 206
- 50 40 30 20 10
- Côté temporal
- Côté nasal
- Fig. 8. — Concentration de la rhodopsine et densité des bâtonnets le long d’une coupe de la rétine.
- Cercles pleins : concentration en rhodopsine mesurée en fonction de la localisation rétinienne dans l’oeil humain. Courbe : densité par millimètre carré des bâtonnets d’après Osterberg (d’après Rcsiiton).
- source lumineuse ou de très faibles mouvements de l’œil du sujet introduisent des variations notables des courants photoélectriques qui, dans tout autre arrangement, produiraient des erreurs inadmissibles, mais ici les sources d’erreur agissent de même sur les deux canaux.
- Les résultats. — La figure 7 montre un premier résultat obtenu avec ce rhodopsinomèlre. Les trois courbes marquées 5°, io°, 20° indiquent les positions successives du coin en fonction de la durée d’adaptation à une lumière très intense. Le blanchissement de la rhodopsine est pratiquement terminé après 5 mn. La quantité de rhodopsine blanchie est plus grande à 20° du centre fovéal qu’à io° et plus grande à xo° qu’à 5°. Par contre, dans la fovéa même (o°) et sur la tache aveugle (— i5°, champ temporal) où il n’y a pas de bâtonnets, aucune variation significative de la concentration en rhodopsine ne peut être observée.
- La figure 8 montre de matière saisissante la concordance entre ces mesures in situ, et des mesures du nombre par millimètre carré des bâtonnets mesuré sous le mici’oscope dans la rétine d’un œil humain. Elle illustre la précision d’une méthode de mesure particulièrement difficile et ingénieuse.
- 10 15 20 25 30
- Fig. 9. — Régénération de la rhodopsine dans la rétine humaine en fonction du temps de l’adaptation à l’obscurité.
- Cercles pleins : points de mesure. Courbe : exponentielle atteignant 50 pour 100 après 7 mn (d’après Rtjshton) .
- La figure 9 montre la régénération du pourpre visuel après son blanchissement. Il est intéressant de constater que 7 mn après le début de l’adaptation à l’obscurité, 5o pour 100 du pourpre est déjà régénéré, tandis qu’après ce laps de temps, la sensibilité visuelle n’est qu’une fraction de pour-cent de ce qu’elle sera à la fin de l’adaptation. Cela montre que cette sensibilité n’est pas, comme on l’a cru si longtemps, proportionnelle à la quantité de rhodopsine disponible dans les bâtonnets, mais que d’autres facteurs (nerveux) interviennent.
- La vision des couleurs. — On a appliqué le principe illustré ci-dessus à l’étude de la vision des couleurs. Celle-ci est liée au fonctionnement des cônes et puisque la fovéa est, par définition, l’aire rétinienne libre de bâtonnets, l’étude de la vision des couleurs doit porter sur la fovéa.
- L’un des pigments qu’on y a détectés présente son maximum d’absorption à 54o mjx et pourrait être responsable de la sensation du vert, l’autre a son maximum vers 5go mp. et serait le récepteur « rouge ». Il est intéressant de noter que ce dernier pigment fait défaut dans les protanopes, individus à vision anormale du type daltonien qui ont une très faible sensibilité dans le rouge. Par contre, dans les deutéranopes, autre variété de daltoniens, qui ont une vision défectueuse dans le vert, le pigment 54o est plus clairsemé et le pigment 590 plus concentré que dans le normal, le total de la quantité « 54o + 590 » étant supérieur à la normale.
- Ces résultats sont en excellent accord avec ceux que nous fournit la mesure des seuils. En effet, au centre fovéal, la vision du bleu est très précaire, et tout se passe comme si deux récepteurs fondamentaux seulement y étaient présents.
- Comment se fait-il, pourrait-on se demander, que personne n’ait jamais réussi à extraire un pigment photosensible d’une rétine qui ne comporte pas également des bâtonnets et donc de la rhodopsine ou une substance analogue? Cette question, un peu insidieuse, qui vise le pigment (de cône ?) appelé iodopsine par son inventeur, l’Américain Wald, reste à éclaircir. L’iodopsine, trouvée dans la rétine du poulet (qui contient cônes et bâtonnets) est le seul pigment chimiquement connu autre que les pigments de type rhodopsine. Mais il pourrait bien être un artefact, car jamais on n’a pu en trouver quand il n’y avait pas en même temps des pigments de bâtonnet du type rhodopsine.
- La chimie des pigments photosensibles responsables de la vision des couleurs demeure un domaine vierge.
- Ernest Baumgardt,
- Maître de recherches au C.N.R.3.
- Minéraux précieux en Afrique du Sud
- L’Afrique du Sud garde toujours la première place dans le monde pour la production de l’or : en 1956, celle-ci a atteint 450 000 kg, valant près de 200 milliards de francs ; les exportations d’or représentent 36 pour 100 des exportations totales, bien que le prix du métal jaune, exprimé en dollars, soit resté inchangé depuis 1935.
- L’argent et l’uranium sont des sous-produits de l’extraction de l’or. Le premier sert essentiellement à la frappe de la monnaie sud-africaine (valeur de la production annuelle : 475 000 000 F) ; l’uranium est extrait par dix-huit producteurs exploitant trente-deux mines, et la valeur annuelle des exportations se chiffre à 40 milliards F : la production courante est de 5 000 t d’oxyde d’uranium (réserves connues : près de 400 000 t), entièrement vendu aux États-Unis et à la Grande-Bretagne, aux termes d’un accord valable pour les dix années à venir ; ce sont, en effet, ces deux pays qui ont fourni les capitaux nécessaires à l'installation des systèmes de récupération de l’uranium dans les mines d’or.
- Quant aux diamants, leur production en 1955 a atteint 3 827 605 carats, soit environ 765 kg (valeur totale : 31 milliards F).
- p.206 - vue 210/527
-
-
-
- Combinaison pressurisée pour vols interplanétaires
- Fig. 1. — Astronaute vêtu de la combinaison pressurisée (Photo U.S.I.S.).
- Les expériences se multiplient aux États-Unis pour s’assurer que l’organisme humain pourra supporter les conditions exceptionnelles imposées par le vol interplanétaire. Le cliché ci-dessus représente un sujet revêtu du casque et de la combinaison pressurisée qui permettent de résister éventuellement aux effets d’une brusque décompression ainsi qu’à de fortes accélérations. Ainsi équipé, l’homme conservera-t-il la liberté de mouvements nécessaire pour manier les commandes du tableau de bord ? Tel est le sens de l’expérience, moins brutale évidemment que celles auxquelles on soumet les aviateurs de la stratosphère à notre Centre d’essais en vol de Brétigny et dans des stations similaires de l’étranger (séjour dans le caisson à air raréfié et dans la cabine de l’appareil à centrifuger : voir La Nature, février 1958, p. 41).
- Ces essais, désormais classiques, se corsent actuellement en Amérique par des expériences prolongées où sont étudiés différents facteurs physiologiques et psychologiques. Un aviateur a été notamment placé dans une cabine de 0,90 m x 1,80 m pour y accomplir un voyage théorique de 700 000 km (terre-lune aller et retour). Les conditions reproduites étaient : atmosphère raréfiée, température 40° C, immobilité, alimentation exclusivement liquide absorbée par chalumeau, oxygène fourni par une bouteille, C02 absorbé par une algue, eau potable obtenue par récupération de l’humidité du corps et des aliments. Les effets psychologiques du confinement et de l’isolement étaient combattus par la musique et la lecture. Un dispositif spécial avait été prévu pour que l’astronaute puisse dormir.
- p.207 - vue 211/527
-
-
-
- 208
- / /
- LA TELEVISION EN COULEURS
- 2. La reconstitution et la transmission des images colorées
- Figv J. — Principe du fonctionnement d’un récepteur de télévision en noir et blanc.
- K, cathode ; W, électrode de Welinelt ; F, faisceau d’électrons. Explications dans le texte.
- antenne
- haut-parleur
- amplificateur haute fréquence
- câble
- coaxial
- changement de fréquence
- amplificateur fréq. interméd.
- détection ampli. -V
- basse fréq. “S
- bobine de concentration
- bobines de balayage
- : écran fluorescent
- détection
- ampli.
- video
- Daxs noire précédent article (1) ont été exposés les principes de la mesure des couleurs et de leur reproduction au moyen de trois couleurs primaires convenablement choisies. Nous avons examiné aussi plusieurs réalisations de l’analyseur d’image, organe essentiel de la caméra de prise de vues, dont le rôle est de décomposer la scène télévisée en trois images primaires bleue, verte et rouge, et de transformer ces images en signaux électriques qui seront amplifiés par la suite et transportés par les ondes de haute fréquence émises par l’antenne. La réception s’effectue de façon absolument symétrique puisque l’onde captée par l’antenne réceptrice est décomposée en signaux relatifs à chacune des composantes primaires, qui reconstitueront sur des écrans fluorescents les trois images dont la superposition donnera au spectateur l’illusion de l’image primitive.
- Les tubes cathodiques des récepteurs, où s’effectue cette synthèse de l’image colorée, présentent certaines analogies avec les tubes analyseurs. Nous eussions aimé traiter conjointement les différents procédés d’analyse et de reconstitution des images, si* des nécessités de place ne nous avaient contraints à les séparer : c’est maintenant que nous allons enfin examiner les principaux systèmes de restitution trichrome utilisés par la télévision en couleurs.
- Les tubes cathodiques récepteurs. — Avant d’aborder la réception des images colorées, il nous semble utile de rappeler brièvement le principe du fonctionnement d’un tube cathodique pour noir et. blanc (fig. i) : le faisceau d’électrons F émis par la cathode K est focalisé sur un écran luminescent qui s’illumine au point d’impact. Un système de bobinages permet au faisceau d’électrons de balayer l’écran selon une série de lignes parallèles entre elles et très rapprochées. Le signal video provenant du récepteur proprement dit est introduit sur une électrode W qui entoure la cathode et dont la face avant est percée d’un trou permettant le passage des électrons. La variation du potentiel de cette électrode de Wehnelt module l’intensité du faisceau d’électrons, donc la brillance de la substance luminescente au point d’impact. On peut ainsi reconstituer l’image visée par la caméra, à condition que le balayage de l’écran du tube cathodique soit exactement semblable à celui de l’analyseur : on réalise cela au moyen de signaux de synchronisation provenant de la station émettrice et qui déclenchent le balayage à la réception.
- Les mêmes procédés sont mis en œuvre lorsqu’il s’agit de reconstituer des images en couleurs, mais il faut maintenant produire trois images primaires dont la superposition donnera
- 1. La télévision en couleurs, par Yves A..ngel et James Leqvexjx ; 1. La couleur et l’anaylse des images colorées, La Nature, mai 1958, p. 170.
- extraction
- synchronisation
- -F 15 000 V
- le résultat cherché. Les principes de cette opération sont sensiblement analogues à ceux de l’analyse des images colorées. Là encore, trois tubes cathodiques doivent participer à la res-tituticïi, à moins que leur équivalent soit contenu dans un tube unique.
- Récepteurs trïtubes. — Ce que nous avons dit dès analyseurs tritubes permet d’abréger l’exposé de la réalisation des récepteurs qui comportent trois tubes distincts. Le récepteur « à vision directe » (fig. 2) comporte des miroirs semi-transparents M et M' qui donnent des images virtuelles des tubes T2 et T3,
- Ouverture du tunnel
- Signaux primaires
- Fig. 2. — Principe d’un récepteur trichrome à trois tubes séparés.
- Les trois tubes cathodiques T,, T2, T3 donnent en blanc les images correspondant aux trois couleurs primaires. Les miroirs, dichroïques M et M' assurent leur superposition et leur coloration, qui peut être ajustée au moyen de filtres colorés auxiliaires non représentés sur la figure.
- p.208 - vue 212/527
-
-
-
- 209
- exactement superposées à l’écran du tube Chacun de ces tubes, par exemple à luminescence blanche, est modulé par le signal video qui correspond à l’une des trois couleurs primaires, et l’œil perçoit chacun d’eux avec la couleur appropriée, car la lumière doit traverser un filtre coloré; ce sont surtout les miroirs eux-mêmes qui assurent la sélection des couleurs grâce au film transparent très mince dont on les a recouverts, qui se laisse traverser par certaines radiations et en réfléchit d’autres (miroirs dichroïqües). La superposition des trois images primaires donne à l’œil l’impression des couleurs naturelles. Les images obtenues par ce procédé sont de qualité satisfaisante, mais le récepteur est très encombrant et il est difficile de construire des miroirs dichroïqües de grandes dimensions; enfin l’angle utilisable par les spectateurs est fort réduit.
- Une autre réalisation, schématisée dans la figure 3, utilise la projection sur un même écran des images données par trois tubes cathodiques qui fournissent directement les trois cou-
- signal “vert”
- signal
- objectifs
- écran
- signal 'rouge1
- Fig. 3. — Principe d’un récepteur à trois tabes utilisant une projection.
- Les images des trois écrans luminescents colorés des tubes luminescents T,, T2, T3 sont superposés sur l’écran, grâce aux trois objectifs de projection.
- L’écran est généralement translucide et observé par transmission.
- leurs primaires grâce à un choix judicieux de leur dépôt luminescent. Ici les difficultés les plus grandes proviennent de l’optique : les objectifs doivent être à grande luminosité (objectifs normaux à grande ouverture ou télescopes de Schmidt). De plus, l’existence de trois centres de projection provoque des distorsions différentes pour chaque image, qui doivent être compensées par une déformation inverse des trames balayées. Par contre, les inconvénients du système précédent ont disparu. Il nous faut cependant reconnaître que sauf dans quelques réalisations de grande classe, la luminosité de l’image projetée reste médiocre et les couleurs peu agréables, les teintes étant polluées par des effets de diffusion de lumière presque inévitables. En résumé, pour les récepteurs comme pour les caméras, les solutions qui mettent en oeuvre trois tubes différents demeurent imparfaites, et la mise au point de tubes intrinsèquement trichromes apparaît très souhaitable.
- Tubes cathodiques trichromes. — La construction de tubes restituteurs trichromes est assez avancée : de nombreux modèles ont été expérimentés et nous ne pouvons en retenir que quelques-uns.
- Le tube de la Radio Corporation of America (R.C.A.) comporte trois faisceaux électroniques provenant de trois « canons à électrons » distincts disposés en triangle. L’écran luminescent est constitué d’une mosaïque de petites taches des trois phosphores donnant sous l’impact des électrons les trois couleurs primaires (fig. 4). Entre les canons à électrons et l’écran est placé un cache percé de trous disposés de telle manière que le pinceau d’électrons issu d’un canon ne puisse frapper que les taches luminescentes qui émettent une seule couleur pri-
- Taches
- luminescentes
- Faisceau électronique "rouge ”
- Cache
- métallique
- perforé
- Ecran du tube cathodique
- ' Faisceau électronique "bleu”
- Faisceau électronique
- \/anb **
- Fig. 4. — Principe du fonctionnement du tube à cache perforé de la R.C.A.
- Explications dans le texte (D’après A. W. Fiîiend).
- maire. Il suffit de moduler indépendamment l’intensité des trois faisceaux électroniques par les trois signaux video qui correspondent aux couleurs primaires et d’assurer le balayage pour reconstituer l’image colorée.
- Ce système est extrêmement séduisant, mais de réalisation très délicate. Chaque ensemble de taches de phosphores correspondant à une couleur est déposé successivement par une méthode héliographique dans laquelle le faisceau électronique est remplacé par un faisceau lumineux, le cache perforé étant en place. Mais les déformations inévitables du tube après sa mise sous vide occasionnent un déréglage qu’il faut compenser en déviant les trajectoires des électrons à l’aide de plusieurs aimants permanents et bobinages auxiliaires destinés en outre à assurer la convergence des électrons sur toute la surface de l’image.
- Malgré la complexité du tube trichrome à cache perforé, c’est de loin le meilleur système qui ait été construit à l’heure actuelle par l’industrie et c’est le plus répandu. L’image, de dimensions 4o x 5o cm environ, contient approximativement 35o ooo points de chaque couleur, ce qui correspond à une finesse d’image de près de 5oo lignes. La luminosité est satisfaisante, mais on ne peut assurer la superposition absolument parfaite des couleurs, surtout dans les zones périphériques de l’écran.
- Pour éliminer cet ultime défaut, on peut n’employer qu’une seule source d’électrons au lieu de trois canons distincts, mais il faut prévoir un dispositif de commutation très rapide pour que le canon reçoive successivement les trois signaux video et excite à lui seul les trois couleurs primaires. La fréquence de commutation doit être sensiblement égale à celle des points de l’image. Parmi les nombreux dispositifs qui ont été construits sur ce principe, citons-en deux particulièrement intéressants.
- Le chromatron de la Chromatic T. V. Lab. Inc. présente un écran formé de fines bandes horizontales des trois produits luminescents alternés dans l’ordre rouge, vert, bleu, vert, rouge, vert, etc. A 2 cm environ en arrière de cet écran sont tendus des fils horizontaux formant une grille, situés respectivement en face des bandes de « phosphores 3) rouges et bleus. Le tube est par ailleurs tout à fait semblable à un tube cathodique normal pour noir et blanc dont l’écran est recouvert d’une couche transparente d’aluminium portée à un fort potentiel positif par rapport à la cathode (18 000 Y). Les fils impairs de la grille sont connectés ensemble, de même que tous les fils
- p.209 - vue 213/527
-
-
-
- 210
- A
- Fig. 5. — Principe du Chromatron des Chromatic T. V- ILctb. Inc.
- Explications dans le texte-
- pairs, si bien que l’on peut appliquer une différence de potentiel entre les fils voisins de chaque paire. Si cette différence de potentiel est nulle, la primaire verte est seule illuminée (fig. 5 A), mais le faisceau électronique s’incurve s’il existe une différence de potentiel, pour donner la primaire rouge ou bleue comme le montrent les figures 5 B et 5 C.
- Pour utiliser le tube, on applique une différence de potentiel sinusoïdale de haute fréquence entre les fils pairs et impairs de là' grille, tandis qu’un commutateur électronique envoie en synchronisme sur l’électrode de Wehnelt, qui permet de moduler l’intensité du faisceau électronique, des fragments des trois signaux video correspondant aux couleurs primaires. Bien entendu, le pinceau d’électrons balaye l’écran selon le processus habituel.
- La réalisation du tube proprement dit est assez facile, mais la difficulté est reportée dans les circuits électroniques. En particulier, la puissance réactive nécessaire à l’alimentation de la grille en haute fréquence est très élevée, pouvant atteindre plusieurs kVA.
- L’apple tube de la Philcô Gorp. présente également un écran composé de fines bandes des trois phosphores disposées cette fois verticalement dans l’ordre normal rouge-vert-bleu, et séparées par des bandes vides de même largeur (fig. 6).
- Chaque bande luminescente et chaque bande obscure occupent une largeur d’environ o,5 mm pour une image totale de
- 5o cm de large. Les substances sont déposées en quantités telles que le balayage de l’écran par un faisceau électronique d’intensité constante produise une couleur blanche uniforme pour un spectateur suffisamment éloigné, qui ne peut résoudre la structure des rayures. Les couleurs s’obtiennent en modulant sinusoïdalement l’intensité du faisceau électronique (qui doit être très fin), en synchronisme avec son défilement sur les bandes luminescentes ; la figure 6 permet aisément de comprendre sur quelques exemples comment sont restituées ces couleurs.
- La réalisation pratique de cette modulation du faisceau ne va pas sans difficultés : la principale réside dans la nécessité d’un parfait synchronisme entre la modulation et le défilement du spot électronique sur les rayures verticales de l’écran : les ingénieurs de la Philco l’ont tournée de manière très astucieuse, en commandant la fréquence de modulation par le balayage lui-même. A cet effet, on a déposé sur chaque bande de l’un des phosphores, le bleu par exemple, une mince couche de magnésium qui, sans perturber la luminescence, fournit au passage du spot électronique une importante émission d’électrons secondaires qui fait varier rapidement le potentiel de l’écran (rendu conducteur par une couche très mince d’aluminium). On utilise cette impulsion pour synchroniser la modulation de l’intensité du faisceau électronique. A vrai dire, ce n’est pas le faisceau principal, dont l’intensité est trop variable d’un point à un autre de l’image, qui fournit ces impulsions de synchronisme, mais un autre pinceau d’élec-
- bandes intervalles
- luminescentes vides
- Ecran
- verre
- R V B
- direction (lu faisceau d'électrons
- ^ Intensité du faisceau d'électrons
- Blanc
- ( temps ou déplacement)
- ' Jaune Rouge Vert
- Bleu
- clair
- Fig. G. — Restitution des couleurs dans V « apple tube » de la Philco.
- En haut, la structure de l’écran luminescent est représentée. En bas, les schémas A., B, C et D indiquent comment est modulée l’intensité du faisceau d’électrons pour reproduire diverses couleurs. Pour simplifier, on a figuré le cas où la couleur de la région de l’écran qui nous intéresse est uniforme de même que sa luminance.
- p.210 - vue 214/527
-
-
-
- 211
- trons, le faisceau pilote d’intensité faible. Il est bien entendu parallèle au premier; et un procédé sur lequel nous ne pouvons insister permet d’éliminer les effets des impulsions nuisibles dues au passage du spot principal sur les bandes de magnésium.
- La réalisation électronique du récepteur adapté à Vapple tube est fort complexe, car il s’agit de transformer l’onde reçue par l’antenne en signaux qui commandent d’une part l’intensité moyenne du faisceau électronique, d’où la luminance des différents points de l’image (signal de luminance), et d’autre part la couleur au moyen de la modulation sinusoïdale de cette intensité, d’amplitude et de phase variables, mais dont la fréquence est fixée par le système de synchronisation dont nous venons de parler (signal de chrominance) : nous verrons que c’est au contraire une remarquable simplification si l’on utilise certains systèmes de transmission.
- Le système apple est sans doute fort séduisant, car .très ingénieux : c’est actuellement le meilleur tube à un seul canon, supérieur au tube à cache perforé, car les couleurs sont bien superposées même sur les bords de l’image. Mais il ne peut se dégager de servitudes rigides concernant les circuits, sur lesquelles nous aurons l’occasion de revenir.
- Procédés séquentiels de restitution des images colorées.
- — Nous avions examiné dans le précédent article le plus ancien des procédés de la télévision en couleurs, qui consistait à reproduire successivement les trois images en couleurs primaires fournies par un tube cathodique à luminescence blanche, devant lequel tournait un disque porteur de filtres colorés correspondant aux trois primaires. Nous n’insisterons pas sur ce système. Pour éviter le papillotement des images, il nécessite une cadence de répétition très rapide, ce qui rend sa réalisation illusoire en pratique pour la télévision « sans fil », nous le verrons plus loin.
- Il existe également des systèmes de restitution qui reproduisent l’image colorée par lignes successives (procédé dit séquentiel de ligne) ou par points : d’ailleurs Vapple tube n’est qu’un système séquentiel de points particulièrement ingénieux.
- Nous ne pouvons nous étendre davantage sur les nombreux systèmes récepteurs proposés pour la télévision en couleurs : nous allons voir en effet que le nombre des procédés d’analyse et de restitution des images adaptés aux chaînes de télévision en couleurs qui nécessitent pour franchir de grandes distances la propagation d’une onde radio, est en fait limité par le choix des caractéristiques de cette onde porteuse, choix souvent fixé pour des raisons d’encombrement du domaine des fréquences radio utilisables, nous allons comprendre pourquoi.
- Largeur de bande de fréquences et définition des images. — Chacun connaît le principe de la transmission sans fil des signaux à grande distance par modulation d'amplitude d’une onde radioélectrique, dont la fréquence est invariable, mais dont l’amplitude est fonction de celle du signal. Supposons par exemple qu’il s’agisse de transmettre par radio un son de fréquence i ooo : on le transforme d’abord en une vibration électrique de forme identique à la vibration sonore, qui modulera l’amplitude d’une onde porteuse de fréquence bien plus élevée, par exemple io6 cycles par seconde (i Mc/s) (fig. 7 A). Si l’on fait l’analyse des fréquences contenues dans l’onde radio, on constate qu’en plus de la fréquence x ooo ooo sont apparues les fréquences i oor ooo et 9 999 ooo (fig. 7 B) (x). Une onde qui transporte des vibrations de fréquence musicale (entre 4o et i5 ooo c/s) couvrira donc un domaine de fréquences (dit bande de fréquences) qui s’étend sur 3o ooo c/s (fig. 7 C).
- 1. Une onde de fréquence w modulée par la fréquence a varie comme
- S s
- (1 + e sin ah sin tut, quantité égale à sin wt + - cos (w — a)t—-cos (w+ a)t, où l’on voit apparaître les fréquences ai, t>) + a et w —a.
- amplitude
- A
- B
- 1000
- , C/S
- tz
- 1000
- c/s
- f
- 15000 c/s
- 15000c/s
- La modulation d’amplitude.
- Fig. 7.
- En À, un signal sinusoïdal de basse fréquence (1 000 c/s par exemple) module l’amplitude d’une onde de haute fréquence. Le spectre des fréquences de l’onde modulée, en B, montre des fréquences déplacées de 1 000 c/s par rapport à la fréquence centrale. En C est schématisée la bande passante idéale d’un système de transmission capable de transporter toutes les fréquences musicales : remarquons qu’en fait la bande passante utilisée en radiophonie est bien plus étroite et ne permet guère la reproduction des fréquences supérieures à 6 000 c/s.
- Il en est de même dans une certaine mesure pour la télévision qui utilise aussi la modulation d’amplitude dont le principe de la réception est schématisé dans la figure 1 : supposons que l’on veuille transmettre une image en noir et blanc comportant 525 lignes avec une résolution analogue dans le sens horizontal, se répétant 3o fois par seconde. Ceci revient à transmettre environ 11 ooo ooo de points par seconde, et l’on démontre que la bande passante nécessaire est sensiblement la moitié de cette fréquence : la bande passante des systèmes américains de télévision en noir et blanc qui répondent aux normes ci-dessus est effectivement de 5 260 ooo cycles par seconde (5,25 Mc/s). Cette bande, schématisée dans la figure 8 A, comporte en plus des signaux video une petite bande de quelques dizaines de kc/s pour le son, généralement transmis en modulation de fréquence (les variations de l’amplitude du signal étant transformées en variations proportionnelles de la fréquence porteuse, qui n’est plus fixe cette fois) (1).
- Il est bien évident que de la largeur de la bande de fréquences dépend la qualité d’information qui peut être transmise par ondes hertziennes, c’est-à-dire dans notre cas particulier la définition de l’image. Or, il ne faut pas que les bandes de fréquences en provenance des différents émetteurs de télévision à portée de réception se chevauchent, car il en résulterait des interférences et des images parasites très gênantes. Il ne peut donc exister dans une même région qu’un nombre limité d’émetteurs, fonctionnant par exemple dans la bande 174-216 Mc/s qui est allouée à la télévision dans de nombreux pays. C’est pourquoi le principal problème à résoudre en ce qui concerne la télévision en couleurs est de comprimer le plus possible la bande passante qui paraît pourtant devoir être a priori égale au triple de la bande passante du noir et blanc. Nous verrons comment on est parvenu à la restreindre considérablement en conservant une qualité suffisante de l’image.
- En principe et toujours aux U.S.A., les systèmes de télévision en couleurs doivent présenter 525 lignes et 3o images par seconde, la largeur du « canal » à haute fréquence étant égale à 6 Mc/s comme pour le noir et blanc, ce qui semble paradoxal à première vue. Enfin ces systèmes doivent être compatibles, c’est-à-dire que tout récepteur en noir et blanc doit pouvoir recevoir (sans couleurs bien entendu) l’émission
- 1. On remarque que la bande des fréquences transmettant l’image n’est pas symétrique par rapport à la fréquence porteuse : c’est qu’en fait les procédés employés pour détecter le signal à la réception autorisent à supprimer une partie du spectre des fréquences et à réaliser une appréciable économie sur la largeur de bande
- p.211 - vue 215/527
-
-
-
- 212
- B
- couleur
- S
- noir et blanc
- 1
- Image + Synchr.
- Son
- f
- fréquences
- 4 Mc/s
- 6 Mc/s
- i
- Image
- rouge
- .Image
- '[verte
- Synchr.
- Son
- n
- Image * bleue
- fréquences
- 18 Mc/s
- Fig. 8. — Bandes passantes de la télévision en noir et blanc et en couleurs par les procédés à trois voies distinctes.
- En A, la bande passante du « noir et blanc » avec les normes américaines. Bien que les fréquences qui correspondent à l’image occupent en réalité une bande de 5,75 Mc/s, on dit habituellement que la bande passante est de 4 Mc/s, grandeur dont on saisit la signification. La bande passante du son est très étroite, et les signaux de synchronisation sont transmis sur la même fréquence que l’image. L’encombrement hertzien de la télévision en couleurs (schéma B) est théoriquement trois fois celui du noir et blanc. Il est possible (trait pointillé) de réduire la bande passante de la primaire bleue. Les procédés modernes de transmission permettent de réduire considérablement l’encombrement total.
- d’une chaîne de télévision en couleur : ceci pour des raisons économiques que nous examinerons plus loin.
- Le système actuellement en service aux U.S.A. répond assez bien à ces conditions, mais il nous faut pour en comprendre le fonctionnement avec une bande passante très « comprimée », étudier rapidement les premiers procédés envisagés pour la transmission des signaux.
- Les premiers procédés de transmission de la télé= vision en couleurs. — L’idée de transmettre indépendamment les trois signaux qui correspondent aux trois couleurs primaires devait évidemment s’imposer tout d’abord à l’esprit des ingénieurs.
- L’un de ces procédés simultanés à trois voies a été mis au point par la R.C.A. Il consiste à juxtaposer dans le spectre des ondes radioélectriques trois émissions distinctes avec trois fréquences porteuses modulées par les signaux video. La bande passante totale de ce système, représentée dans la figure 8 B, est sensiblement le triple de la bande du noir et blanc, soit 18 Mc/s, ce qui est prohibitif puisque la bande allouée aux U.S.A. à la télévision ne pourrait alors contenir que deux émissions en couleurs. De plus, les irrégularités de propagation des ondes radio de très haute fréquence peuvent être différentes pour chacune des ondes porteuses et conduire à des virages colorimétriques de l’image qui sont très désagréables.
- Ce système présentait cependant l’avantage d’être partiellement compatible puisqu’un récepteur en noir et blanc pour 525 lignes, réglé sur le canal à haute fréquence central, peut recevoir le son et l’image « verte », image de faible qualité d’ailleurs. Inversement le récepteur de couleur, s’il capte une émission achrome, peut fournir une image également fort médiocre.
- Les expériences effectuées par la R.C.A. pour la mise au point du procédé à trois voies ont montré qu’on pouvait réduire sans inconvénient la largeur de la bande de la primaire bleue, ce qui semble dû à la participation réduite de celle-ci à la luminosité totale; on peut gagner 2 ou 3 Mc/s, peu de chose à dire vrai : mais l’idée aura d’importants développements par la suite.
- Un système séquentiel de trame a également été mis au point par le Columbia Broadcasting System (C.B.S.); il consiste à explorer et à restituer les images selon les trois primaires alternées à la fréquence des trames, principe déjà examiné dans le précédent article en ce qui concerne l’analyse. Contrairement au précédent, il ne peut fonctionner qu’avec des caméras et des récepteurs spécialement appropriés à cette méthode particulière d’exploration. La bande passante de ce système
- n’est que de io Mc/s environ, mais on la jugea encore trop grande aux U.S.A. Elle fut donc ramenée à 6 Mc/s et la qualité de l’image s’en ressentit puisque le nombre de lignes fut réduit à 4oo avec une définition horizontale plus faible encore (environ 260 points par ligne). Malgré ce grave inconvénient, le système C.B.S. connut vers 1949 un engouement passager qui régressa bientôt lorsqu’on aperçut les conséquences de son incompatibilité totale avec la télévision en noir et blanc. Il y avait beaucoup mieux à tirer d’une bande passante aussi étroite que 6 Mc/s, car l’œil est bien moins exigeant que l’on n’aurait pu le croire en ce qui concerne les détails colorés.
- Perception chromatique des détails Uns et télé= vision en couleurs à bande étroite. — Les principes de colorimétrie que nous avons exposés dans l’article précédent ne s’appliquent en réalité que dans le cas où l’œil observe des plages colorées de dimensions notables (vues sous un angle d’au moins o,5 degrés). Mais l’expérience montre que l’œil est beaucoup moins exigeant pour la perception colorée de très petites plages, son pouvoir de résolution pour des détails de même luminance et ne différant que par la couleur est bien plus faible que lorsqu’il s’agit de contrastes d’intensité lumineuse; d’autre part, l’œil ne perçoit que de façon restreinte et imparfaite les couleurs des détails très petits.
- On conçoit que ces propriétés permettent de réaliser en télévision en couleurs de grandes économies d’information à transmettre, que l’on peut espérer contenir dans une bande passante assez réduite. En effet, si les détails de luminance des images doivent être intégralement reproduits, il est inutile de transmettre les variations de couleurs de façon aussi complète : ceci conduit à abandonner les systèmes de télévision à trois voies simultanées pour des procédés qui permettent de transmettre indépendamment les intensités lumineuses et les couleurs de la scène télévisée. Le problème essentiel est donc de transformer les trois signaux video relatifs aux couleurs primaires en signaux correspondant, d’une part, aux intensités et, d’autre part, aux couleurs. Voici le principe de cette transformation, dénommée habituellement codage : si R, V et B sont les tensions électriques données par les trois tubes analyseurs respectivement rouge, vert et bleu (c’est-à-dire les signaux video), on montre par le calcul, en utilisant le diagramme colorimétrique XYZ dont nous avons parlé dans le précédent article, que la connaissance des coordonnées des primaires permet de calculer la luminance du point exploré de l’image, luminance proportionnelle à chaque instant à la quantité Y = o,3o R + 0,59 V + 0,11 B. Il n’est pas difficile de réaliser électroniquement cette opération sur les signaux video à l’aide
- p.212 - vue 216/527
-
-
-
- 213
- Fig. 9. — Principe
- de la transmission à bande étroite des images colorées.
- En A : Le système de codage transformant les trois signaux video R, V, B en un signal de luminance Y et deux signaux de couleur D, et F,, / est la fréquence la plus élevée que contiennent les signaux video (fréquence des points). Sous chaque signal est indiquée la bande de fréquences qu’il occupe. On voit l’économie de fréquences réalisée.
- En B : Reconstitution de trois signaux correspondant aux trois couleurs primaires à partir des signaux Y , et F,. Explications complémentaires dans le texte.
- Bande totale requise: 3F
- -R^ Y
- (o-O (o-O
- V 3*. Matrice D Filtre D,
- (o-O (O-O* passe-bas (0,F3O
- B - F y Filtre Fi
- (o-O (o-O passe-bas (o,1/30
- Mélangeur
- Mélangeur
- Mélangeur
- Filtre
- d'aiguillage
- Matrice
- d’un organe nommé matrice, constitué de mélangeurs à résistance potentiométrique suivis d’étages amplificateurs (fig. 9 A). La matrice délivre donc à partir des trois signaux video le signal de luminance Y de bande passante égale à celle de l’un d’eux.
- Les signaux de couleur seront produits de manière tout à fait semblable par une autre partie de la matrice, en réalisant d’autres combinaisons linéaires entre les signaux video (fig. 9 A). A leur sortie de la matrice, ces signaux D et F transmettent l’intégralité des informations de couleur (et chacun d’eux a donc une bande passante égale à la bande d’un des signaux video). Ceci n’est pas nécessaire et il suffit, pour ne transmettre que des informations grossières concernant la couleur de l’image, de supprimer les hautes fréquences des signaux D et F au moyen de filtres passe-bas : il subsiste des signaux simplifiés Dj et Fx qui n’occupent chacun que le tiers de la bande passante initiale. Par contre, le signal de luminance Y est intégralement conservé; au total, la largeur de la bande passante de ce système vaut environ les 5/3 de celle de la télévision en noir et blanc de môme définition d’image (au lieu de trois fois pour les procédés simultanés à trois voies).
- A la réception, il faut réaliser l’opération inverse pour reconstituer les trois signaux video qui correspondent aux trois primaires. A cet effet, un filtre préliminaire sépare les fréquences basses des fréquences élevées du signal de luminance Y. Les fréquences basses Yx seront combinées avec les signaux de couleur Dx et Fj pour reconstituer les signaux qui correspondent aux trois couleurs primaires R1; Vx et Bx (fig. 9 B), plus exactement leurs fréquences basses. Quant aux fréquences supé-
- rieures qui ne peuvent pas être reconstituées, on les remplace par les fréquences élevées Y2 du signal de luminance qui sont ajoutées à chacun des signaux Rx, Vx et Bx : l’image obtenue présentera bien de fins détails traduits en noir et blanc, auxquels se superposeront des plages colorées plus larges.
- Le résultat est excellent et la qualité des images est égale à celle des procédés simultanés si les signaux de couleur Dx et Fx sont bien choisis.
- On peut se demander quels sont les critères qui ont présidé à ce choix, qui est loin d’être laissé au hasard mais repose au contraire sur une autre propriété de l’œil relative à la perception colorée des plages de très petites dimensions, de l’ordre de 10 minutes d’arc. C’est que la couleur de deux de ces petites plages peut être égalisée au moyen de deux couleurs primaires seulement, au lieu de trois habituellement : l’œil normal est alors affecté d’un daltonisme comparable à celui des dichromates tritanopes.
- Cette fois, deux minuscules plages de luminance égale sembleront présenter la même couleur quelle que soit la composition des deux lumières qui les éclairent, à condition que les points représentatifs de ces lumières soient tous deux situés sur une des droites de la figure 10 ; ainsi le pouvoir séparateur de couleurs est très mauvais pour deux plages qui présentent des couleurs situées l’une et l’autre sur une de ces droites de confusion. On tire parti de ce fait pour la télévision en couleurs en s’arrangeant pour qu’une variation relative du signal D corresponde à un déplacement de la couleur formée selon des courbes à peu près orthogonales à ces droites de confusion (donc
- p.213 - vue 217/527
-
-
-
- 214
- Blancs
- Fig. 10. — Daltonisme des dichromates tritanopes.
- Cette sorte peu courante de daltonisme existe aussi pour l’œil normal quand il regarde de très petites plages colorées. Toutes les couleurs situées sur la meme droite du diagramme colorimétrique sont confondues par
- l’observateur.
- Porteuse Porteuse
- /V°1 /V°2
- Fréquences
- Spectre de l'émission
- Spectre de l'émission
- « directe» « inverse»
- Fig. 12. — Principe des émissions inversées.
- Les fréquences émises par deux émetteurs de télévision peuvent se recouvrir en partie comme l’indique celte figure, pourvu que soit réalisée la condition de la ligure 11. On limite cependant le domaine de superposition aux fréquences élevées, ce qui nécessite que le spectre de l’émetteur 2 ait la forme indiquée. C’est le système employé pour la télévision en noir et blanc française sur 819 lignes, qui est à bande très large.
- comme le montre la figure ii (les fréquences des ondes porteuses doivent être décalées de (an. + i)/2 fois la fréquence des lignes, n étant un entier). Le brouillage d’un émetteur par l’autre sera encore diminué si ce sont les parties des bandes correspondant aux hautes fréquences de modulation qui se chevauchent (application aux émissions inversées, fig. 12).
- Enfin, la généralisation de ce principe amène à introduire les bandes des signaux de couleur D et F à l’intérieur même de la bande principale de fréquences réservée au signal de luminance (fig. i3 et i5).
- du blanc C de la figure 10 vers le rouge) ; au contraire, une variation du signal F correspond au déplacement le long des droites de confusion, la teinte des petites plages ne variant pratiquement pas : dans ces conditions le signal F ne contient que des informations relatives aux larges plages colorées de l’image de télévision, et il est encore possible de diminuer sa largeur de bande qui peut être réduite de 1 /3 à 1/8 de la bande du noir et blanc. Par contre, la bande passante relative au signal D ne pourra être diminuée en deçà du tiers de celle du signal de luminance Y. Le choix de ces composantes D et F permet donc de ramener la bande passante de la télévision en couleurs à i,46 fois celle du noir et blanc tout en conservant des images de qualité équivalente.
- S’il n’est plus guère possible de comprimer davantage la bande passante des systèmes de transmission pour la télévision en couleurs, on peut imaginer de faire fonctionner simultanément, dans la bande des fréquences radio attribuée à la télévision, plus d’émetteurs de télévision que le nombre théorique : en effet, les « canaux » de deux émetteurs peuvent se chevaucher à condition de prendre certaines précautions. Le spectre de fréquences d’une émission de télévision n’est pas en fait tout à fait continu, mais formé d’un certain nombre de petites bandes séparées par des intervalles vides (ces bandes correspondent aux harmoniques des fréquences de lignes). Il suffit donc que les fréquences de Fonde porteuse des deux émetteurs dont les bandes se chevauchent soient telles que les petites bandes d’un des spectres viennent dans les intervalles vides de l’autre,
- Fig. 11. — Transmission simultanée de deux signaux dont les bandes passantes se chevauchent.
- Les petites bandes de fréquence sont d’autant plus larges que l’image est plus mobile.
- Porieuse principale Porteuse
- Sous-porteuse
- couleur
- uences
- 3,58 Mc/s
- 4,5 Mc/s
- 6,0 Mc/s
- Figr. 13. — La transmission des images et du son dans le système fédéral américain.
- La bande passante du signal de luminance Y transmis par l’onde porteuse principale a une largeur nominale de 4 Mc/s à laquelle il faut ajouter en fait 1,25 Mc/s du côté des basses fréquences par rapport à la porteuse principale. Les deux signaux de couleur I et Q sont transportés par une seule onde sous-porteuse, et leur bande passante est comprise dans la région des hautes fréquences du signal Y. Eniin, le son est transmis sur une troisième fréquence plus élevée que les précédentes, ce qui porte à 6 Mc/s la largeur totale de la transmission.
- Tous les principes qui ont fait l’objet de ce paragraphe trouvent leur application dans les procédés récents de transmission des images colorées. Nous allons examiner rapidement quelques-uns de ces systèmes en commençant par celui qui est maintenant universellement employé outre-Atlantique.
- Le système fédéral américain. — Après l’échec du système séquentiel de trame dont nous avons déjà entretenu nos lecteurs, les experts américains ont senti la nécessité d’un nouveau système qui réponde aux normes fixées pour la télévision en couleurs, normes très strictes comme nous allons le voir.
- i° Les émissions de couleur devront pouvoir être reçues par un récepteur noir et blanc à 5a5 lignes et 3o images par seconde (condition dite de compatibilité) ;
- p.214 - vue 218/527
-
-
-
- 215
- 2° Les émissions colorées devront se contenter de la bande de fréquence de 6 Mc/s assignée aux émissions en noir et blanc (transmission sonore comprise) ;
- 3° Enfin les récepteurs pour télévision en couleurs devront donner des images noir et blanc convenables lorsqu’ils capteront des émissions achromes.
- L’obligation de respecter ces normes a conduit à réaliser un système de transmission qui repose sur les principes que nous venons d’examiner. Remarquons que la séparation des signaux en un signal de luminance et deux signaux de couleur autorise la compatibilité puisqu’il suffit qu’un récepteur noir et blanc ne capte que le signal de luminance pour donner une bonne image achrome de la scène analysée en couleurs par la caméra. De plus, tout analyseur qui décompose simultanément chaque point de l’image en ses trois couleurs primaires peut être adapté à ce système de transmission, de même d’ailleurs que les récepteurs qui utilisent trois signaux video simultanés.
- Dans le système fédéral américain, le signal de luminance occupe une bande d’environ 4 Mc/s et est transmis par modulation d’amplitude d’une onde appelée porteuse principale (fîg. i3). Pour des raisons que nous ne pouvons discuter ici, les signaux de couleur I et Q sont un peu différents des signaux D et F que nous avons définis plus haut. On les forme à partir des signaux video bleu et rouge et du signal de luminance Y en réalisant dans la matrice l’opération :
- I = 0,74 (R — Y) — 0,27 (R — Y)
- Q - o,48 (R —Y) + o,4i (B —Y).
- Les variations de I correspondent à des « déplacements colo-rimétriques » parallèles à la direction orangé, bleu-vert (teinte appelée cyan) sur le diagramme des couleurs. Les déplacements qui correspondent aux variations de Q sont dans la direction vert-pourpre. Les spectres de ces signaux sont limités à x/3 et 1/8 de la bande passante du signal Y, soit x,3 Mc/s pour I et o,5 Mc/s pour Q (x).
- Les deux signaux colorés sont transmis à l’intérieur même de la bande de fréquences du signal de luminance Y, grâce à une modulation d’amplitude d’une seule onde radioélectrique appelée sous-porteuse couleur (fîg. i3 et i4).
- Il peut paraître absurde de vouloir transporter deux signaux différents par modulation d’amplitude d’une seule onde : en fait, on module par ces deux signaux variables aux cours du temps i(l) et q(t) deux ondes sinusoïdales en quadrature de même fréquence : il en résulte le signal S(f) transmis par l’antenne dont la forme est donc : S(f) = i(t) cos oat + v(t) sin oaf ; il se comporte au point de vue de la transmission comme une onde de fréquence / = 00/27: modulée à la fois en amplitude et en phase. La restitution des deux signaux I et Q est réalisable à la réception, grâce à un système électronique sur lequel il serait trop long d’insister.
- Cette transmission qui utilise une seule sous-porteuse pour transporter deux signaux distincts par modulation d'amplitude et de phase donne d’excellents résultats en télévision en couleurs, où les tolérances sont d’ailleurs assez larges.
- Aux signaux qui viennent d’être élaborés, il faut ajouter deux éléments indispensables au fonctionnement des récepteurs. Un signa] de synchronisation se présente sous forme d’impulsions très brèves au nombre de 525 x 3o = i5 750 chaque seconde, qui assurent la simullanéité du départ du balayage de chaque ligne à l’émission et à la réception (fîg. i4).
- D’autre part, un train d’cndes de référence visible également dans la figure i5 sert à étalonner la phase de la sous-porteuse de couleur. Les deux éléments supplémentaires sont transmis
- 1. Ces chiffres sont relatifs à une largeur de bande égale à 4 Mc/s pour le signal Y : la nomenclature des spécialistes appelle en effet largeur de bande video l’intervalle entre la fréquence porteuse et l’extrémité du spectre de fréquences qui correspond aux fréquences de modulation les plus élevées.
- niveau des blancs
- niveau
- des
- train d’ondes de référence signal de synchronisation
- Fig. 14. — Aspect du signal de couleur du système fédéral américain.
- La figure correspond au balayage d’une ligne. Celui-ci est déclenché par le signal de synchronisation, et un train d’ondes de référence permet de repérer la phase du signal de couleur
- sur la fréquence de la sous-porteuse elle-même pendant l’intervalle entre deux lignes, au moment où le spot électronique revient à gauche de l’écran pour recommencer à balayer la ligne suivante.
- Il nous faut, pour être complet, mentionner que le son est transmis de façon tout à fait indépendante du reste par une onde porteuse son extérieure à la bande passante du signal Y : la bande totale occupée par l’ensemble des signaux d’une chaîne de télévision en couleurs couvre un intervalle de fréquences de 6 Mc/s seulement (fîg. i3).
- Systèmes de transmission dérivés du système fédéral américain. — La principale objection que l’on puisse faire au système de transmission que nous venons de décrire est la complexité introduite par la modulation en phase et en amplitude de l’unique sous-porteuse, qui transporte simultanément les deux signaux de couleur.
- Le système à deux sous-porteuses (Philips) transmet les deux signaux de couleur sur deux fréquences différentes (fîg. i5) : bien que cette idée fort simple ait précédé celle d’une sous-porteuse unique, la réalisation en est postérieure. Malheureusement, le système Philips présente des inconvénients assez grands qui en limitent l’intérêt. Le principal est dû aux inégalités de propagation des deux ondes sous-porteuses qui se traduisent à la réception par des virages de la couleur de l’image. On est obligé pour pallier ce défaut d’introduire des « mémoires » d’amplitude dans les récepteurs, analogues aux systèmes anti-fading des récepteurs radiophoniques. En définitive, l’application de ce procédé introduit une complication aussi grande que celle du système fédéral américain.
- Le système français « simultané séquentiel » réunit les avantages des deux procédés précédents : les deux signaux de cou-
- Porteuse Porteuse
- image son
- Sous-porteuses Y i/ma9&
- r R-Y I ' 1/1 l\ Mc/s
- —1 1 1 1 1 1 1 ! ; us rr fréquences radio T 1 1 1 i
- 1 1,25 < 5,5
- Fig. 15. — Transmission à deux sous-porteuses (Philips).
- La bande passante 11e diffère de celle représentée dans la figure 14 que par la présence de deux ondes sous-porteuses distinctes.
- p.215 - vue 219/527
-
-
-
- 216
- 2 inverseurs
- 2 additionneurs
- Cathode
- -Plaques déflectrices a 'Plaques déflectrices y
- Signal de
- chrominance C
- Signal de luminance Y
- Tube Codeur
- i—Secteurs métallisés
- Filtre passe-bas
- Matrice
- Fig. 16. — Principe du codage du système de M. G. Valensi.
- Des explications détaillées sont données dans le texte. Remarquons que les signaux délivrés par les additionneurs sont en fait proportionnels à — log x et — log y et non à log x et log y : ceci tient au fait que log x et log y sont négatifs, les coordonnées x et y étant inférieures à 1. Nous n’avons pas tenu compte de cette complication dans le texte.
- leur sont transmis alternativement par une onde sous-porteuse unique, la commutation des couleurs étant faite à la fréquence des lignes. Par contre, le signal de luminance Y arrive en permanence au récepteur, ce qui assure la compatibilité avec le noir et le blanc. Cependant, le récepteur ne capte jamais en même temps les deux signaux de couleur : il est nécessaire de retarder 1 un des signaux pendant le temps qui correspond au balayage d’une ligne, afin que les deux signaux soient envoyés simultanément à la matrice q.ui en déduit les signaux primaires. Comme les deux signaux primitifs alternent à chaque ligne, un inverseur électronique envoie l’un ou l’autre à l’entrée d’une ligne à retard, et la matrice reçoit en permanence des informations de couleur. Remarquons que la te mémoire de la couleur » d’une ligne à la suivante réduit la définition du coloriage dans le sens vertical, et ce système va plus loin que les autres dans l’exploitation des imperfections de l’œil : la bande passanle lolale nécessaire à la transmission des signaux de couleur est d’ailleurs réduite au tiers ou au quart de celle du signal de luminance.
- Il faut rapprocher des procédés que nous venons de décrire le système français a double message » des Laboratoires d’Ëlectro-nique et de Physique appliquées. Au lieu de mettre en œuvre une différenciation de phase, de fréquence ou de temps pour transmettre deux des trois informations qui définissent complètement la brillance et la couleur d’une lumière, il utilise une différence d’amplitude. Dans l’un des modes de réalisation possibles, les primaires rouge et verte sont modulées avec des polarités opposées sur une même onde porteuse, tandis que la primaire bleue est transmise par une sous-porteuse distincte. On réalise ainsi pour les deux premières primaires un dispositif de transmission à séquence de points, qui assure très aisément la compatibilité avec les récepteurs en noir et blanc.
- Il faut noter, à propos de ce système comme des précédents, qu’un dispositif appelé Color Killer par les ingénieurs américains doit être prévu dans les récepteurs pour supprimer les couleurs dans le cas de la captation d’une émission achrome, et aussi dans le cas où les brouillages ou les parasites ont pour effet, de fausser les couleurs, au point de les rendre plus désagréables qu’utiles.
- Système de M. Georges Valensi. — Examinons maintenant un procédé de conception très différente, dont le brevet a été déposé dès 1939 par M. Georges Valensi. Cet inventeur français a réussi à faire tenir dans un signal unique de bande passante égale à celle du noir et blanc toute l’information concernant la couleur de l’image, ce qui paraît impensable c priori. La figure 16 montre de façon très schématique le principe utilisé. Comme précédemment les trois signaux video R, V et B qui correspondent aux trois couleurs primaires
- sont transformés en trois autres de nature différente dans une matrice. Celle fois, ces nouveaux signes se rapportent aux composantes primaires X, Y et Z, qui servent à définir le diagramme chromatique de la C.I.E. décrit dans notre premier article. 'Le signal Y correspond, nous l’avons vu à ce propos, à l’intensité lumineuse et sera choisi comme signal de luminance, transmis au récepteur par une onde porteuse comme dans les systèmes de transmission précédents. Les deux autres signaux sont relatifs à la composante X et à la combinaison X + Y + Z : l’ensemble du signal Y et de ces signaux peut servir à définir très simplement la couleur de chaque point de l’image au moyen de ses coordonnées X et Y dans le diagramme des couleurs : des lampes spéciales nommées formairons et des additionneurs permettent de réaliser électroniquement les opérations :
- Log x — Log X — Log (X + Y + Z)
- Log y = Log Y — Log (X + Y + Z).
- Les signaux Log x et Log y sont appliqués aux plaques déflec-trices d’un tube cathodique spécial dit tube codeur de telle sorte que le faisceau électronique de ce tube vienne frapper son écran en un point de coordonnées Log x, Log y. Sur cet écran a été figuré le diagramme chromatique XYZ lui-même, en coordonnées logarithmiques, sous forme d’un dépôt métallique fragmenté en 28 surfaces qui correspondent à autant de couleurs (fig. 17). Chacune d’elles est connectée par l’intermédiaire d’une broche de sortie à un point d’une chaîne de résistances ajustées de telle manière qu’un signal plus ou moins intense apparaisse aux bornes de cette chaîne selon la case qui a reçu le faisceau électronique : ainsi, grâce à ce découpage du domaine des couleurs, celles-ci peuvent être transmises par un seul signal de chrominance dont la bande passante peut être réglée à volonté selon les possibilités (généralement au quart de celle du signal Y).
- La restitution de l’image ne nécessite pas un tube cathodique analogue au tube codeur, mais trois formairons sur le fonctionnement desquels nous ne pouvons insister; cette restitution ne présente pas de grandes difficultés.
- Le système de codage et de transmission de M. Valensi a pour lui une grande élégance, bien représentative des réalisations françaises; il constitue sans doute l’application la plus extraordinaire du triangle des couleurs dont le principe a été indiqué par Maxwell. D’ailleurs, la télévision en couleurs eût été impossible sans les progrès de la colorimétrie qui a réussi à faire des impressions colorées des grandeurs mesurables et reproductibles. Pour être juste, il nous faut reconnaître que la physiologie des perceptions chromatiques doit beaucoup aux recherches des techniciens de la télévision en couleurs, surtout en ce qui concerne la vision des très petites plages colorées.
- p.216 - vue 220/527
-
-
-
- 217
- broche de connection
- blancs
- û vert
- Fig. 17. — Écran du tube codeur de M. G. Valensi.
- Sur cet écran a été figure en coordonnées logarithmiques le diagramme chromatique, sous forme de zones métallisées munies chacune d’une broche de connexion. Remarquons que la partie centrale qui correspond aux blancs est dépourvue de broche, si bien que le signal de couleur est nul pour les blancs : ceci autorise la compatibilité dans les deux sens avec les émissions en noir et blanc, d’une manière fort simple puisque les émetteurs en noir et blanc ne produisent aucun signal de couleur.
- L’avenir de la télévision en couleurs. — Les États-Unis sont à l’heure actuelle la seule nation où des chaînes de télévision en couleurs soient effectivement en service (l’U.R.S.S. prévoit dans un avenir très proche la mise en marche d’un émetteur pour la couleur). En fait, les problèmes purement techniques que posent les caméras de prise de vues et les récepteurs d’images colorées sont encore loin d’être parfaitement résolus, bien que les efforts de recherche aient été considérables : on estime que les U.S.A. ont dépensé jusqu’ici l’équivalent de 5o milliards de francs pour la télévision en couleurs. Même dans les cas simples où les problèmes de transmission ne se posent pas, la caméra et le récepteur pouvant être directement connectés par une ligne de transmission (applications médicales et industrielles), la résolution de l’image ne peut guère dépasser 5oo lignes avec les meilleurs tubes construits actuellement : il faut considérer qu’il y a provisoirement là une limite absolue qu’il est illusoire de prétendre outrepasser d’ici quelques années, au moins dans une réalisation qui sorte du cadre du laboratoire.
- La transmission des images colorées par ondes radioélectriques complique singulièrement la question, non plus du point de vue purement technique, mais à cause de ses incidences économiques, essentiellement variables selon la nation mise en cause.
- Aux États-Unis d’Amérique qui ont ouvert la voie à la télévision en couleurs, le problème est très particulier puisqu’il faut assurer l’existence d’un grand nombre de chaînes de télévision indépendantes; d’autre part, l’existence de la télévision y est essentiellement conditionnée par là publicité. Dès la mise en marche d’une chaîne de télévision en couleurs, ilu.êst indispensable qu’elle ait un auditoire suffisant pour que les firmes consentent à la financer en y insérant leur publicité ; il faut donc à tout prix que les images de la télévision en couleurs puissent être captées par les récepteurs noir et blanc existants, avant que le public achète petit à petit des récepteurs pour les couleurs beaucoup plus onéreux : ceci exige que soit réalisée la
- compatibilité qui conduit à adopter des normes d’analyse iden.-tiques à celles qui régissent déjà la télévision en noir et blanc, ainsi qu’un système de transmission où les signaux relatifs à la luminance et aux couleurs soient séparés.
- Cependant la compatibilité n’apparaît a priori ni comme une nécessité technique ni comme une contingence humaine : elle ne fut exigée aux U.S.A. que par le mode de financement particulier de la télévision, qui repose sur la publicité.
- En Europe, le problème est à la fois plus simple et plus complexe. Chaque nation est trop petite pour posséder jamais un grand nombre de chaînes de télévision; aussi certains procédés de transmission, rejetés a priori aux États-Unis à cause de leur bande de fréquences trop large, peuvent-ils être retenus ici. Rien n’interdit d’ailleurs de transmettre les images télévisées dans une bande de fréquences différente de celle qui est habituellement allouée à la télévision (1C2 à 21G Mc/s pour la France), par exemple dans la bande qui s’étend de 470 à 960 Mc/s : le souci de la compression de la bande passante vient alors au second plan et l’on recherchera une meilleure qualité des images avec des récepteurs simples et à bon marché. Mais les problèmes techniques de la transmission sur des fréquences aussi élevées sont loin d’être résolus, et bien entendu un tel système ne serait pas compatible avec les chaînes existantes pour le noir et blanc, qui fonctionnent sur des fréquences beaucoup plus basses.
- Beaucoup d’organismes nationaux désireraient toutefois bénéficier sur leur propre territoire des avantages de la compatibilité : mais la disparité des « standards » européens (6 normes différentes avec des systèmes à 4o5, C20 et 819 lignes et quelques variantes) interdirait alors la réalisation aisée des transmissions d’images d’un pays à un autre : en noir et blanc, 1’ cc Eurovision » est déjà considérée comme un véritable tour de force technique.
- L’opposition entre la compatibilité et le légitime désir d’unifier les normes d’analyse pour la totalité de l’Europe constitue donc le problème essentiel qu’il faut résoudre de toute urgence; il est à craindre, malgré l’expérience menée aux U.S.A. qui a montré que la télévision en couleurs était parfaitement réalisable, que les commissions européennes de normalisation, qui n’ont pas réussi à unifier les standards de télévision en noir et blanc, ne tergiversent encore à l’infini sur le choix des caractéristiques d’analyse des images colorées et d’un système unique de transmission. Actuellement la question n’avance qu’à l’intérieur de cercles organisés indépendamment par plusieurs pays, où s’échafaudent des projets tous différents les uns des autres, que les commissions internationales seront bien forcées d’enregistrer; c’en serait fait alors d’une télévision en couleurs unifiée sur toute l’Europe.
- Nos connaissances actuelles sont suffisantes pour que les responsables prennent des décisions iri’évocables dans un sens ou dans l’autre : espérons que ce grave problème sera bientôt tranché, afin que chacun puisse dans un proche avenir bénéficier des avantages uniques d’une remarquable réalisation.
- Yves Angel, James Lequeux,
- Professeur au Conservatoire Ancien élève de l’E.N.S.,
- national des Arts et Métiers. Agrégé de l’Université.
- Vêtement pour l'Arctique
- La liliale canadienne de la firme Du Pont de Nemours a mis au point un type de vêtement capable de résister à — 60° G et empêchant la pénétration des vents glacés. Ce vêtement a été expérimenté par des postiers, des mineurs, etc., travaillant dans le Nord canadien ; il est fabriqué en nylon, résistant à l’eau grâce à une couche de néoprène. Aucune pièce de métal n’est utilisée, les fermetures éclair sont elles-mêmes composées de nylon moulé. Un habit complet ne pèse que 3,5 kg.
- p.217 - vue 221/527
-
-
-
- 218
- Une nouvelle orientation des programmes militaires
- Le chasseur léger simplifié
- L’élaboration d’une aviation de défense avait conduit jusqu’à maintenant à des avions de poids de plus en plus élevés du fait des nombreux équipements demandés sur les avions modernes. Si l’on compare les intercepteurs de série actuels comme le Convair F. 102 ou certains prototypes comme l’English Electric P. i B. dont le poids atteint 16 t, aux chasseurs de la dernière guerre, on constate un alourdissement appréciable qui se traduit évidemment par une augmentation du prix de l’avion (on peut en effet, en première approximation, évaluer le prix d’un avion complètement équipé à 17 000 F/kg).
- Une nouvelle tendance se dessine actuellement, particulièrement chez les pays européens, qui ne disposent que de crédits limités pour l’équipement de leur force aérienne, vers la mise au point d’avions légers, munis des instruments strictement nécessaires et capables de faire face à plusieurs missions. Une telle machine devrait en outre se satisfaire d’une maintenance simple et peu coûteuse, compatible avec l’entraînement des unités fournies en temps de paix.
- Un exemple typique de ce programme a été fourni par le concours d’avions d’attaque au sol, mis sur pied en novembre dernier par l’O.T.A.N. et auquel participaient des avions français et italiens. Ce concours devait servir à définir quel était l’appareil le plus qualifié pour équiper les forces de tous les pays de l’Europe occidentale.
- La réalisation de groupes propulseurs légers. —
- L’étude de cette formule d’appareils, sans sacrifier naturellement les performances et les qualités de vol, n’a été rendue possible que grâce aux progrès réalisés dans le domaine d,es groupes propulseurs.
- C’est surtout dans le domaine des turboréacteurs de moyenne poussée que des efforts ont été faits, particulièrement en Grande-Bretagne où la Société Rolls-Royce a mis au point l’Orpheus de 2 200 kg de poussée, qui est justement utilisé sur la majorité des avions présentés au concours de l’O.T.A.N., et qui jouit d’un poids spécifique de 0,17 kg par kilogramme de poussée, donc remarquablement faible. Des versions plus puissantes de ce moteur sont d’ailleurs d’ores et déjà à l’étude, et des poussées de 3 000 kg, sans augmentation appréciable du poids sont attendues. Quatre avions furent présentés au concours, le Fiat G. 91, le S.E. 5 002 « Baroudeur », déjà présenté dans La Nature (juin ig54), le Bréguet 1 001 « Taon » et le Dassault « Étendard VI ».
- Le Taon (fîg. 1) est le plus léger avec un poids total de 4 090 kg, il possède une aile de forte flèche (45° à 25 pour 100 de la corde) et assez mince, de 6 pour 100 d’épaisseur rela-
- tive, qui lui permet d’atteindre un nombre de Mach de 0,97.
- Le G. 91 et l’Étendard sont par contre déjà plus lourds, respectivement 5 100 et 5 5oo kg. Quant au Baroudeur, il ferme la marche avec ses 6 100 kg ; il est vrai que, conçu avant la mise à l’étude de l’Orpheus, il est propulsé par un Atar E. 3 de 3 700 kg de poussée, mais beaucoup plus lourd, et que son nombre de Mach maximum est de 0,98.
- Les conclusions définitives des experts de l’O.T.A.N. n’ont pas encore été déposées. Disons seulement que, outre les qualités de vitesse et de maniabilité, l’aptitude à décoller et atterrir sur de courtes distances, même dans le cas de pistes en herbe, et les conditions dans lesquelles s’effectuent les opérations de réarmement et de ravitaillement, seront prises en considération. Quel que soit l’avion choisi, il est probable qu’il sera construit en commun par les différentes sociétés qui ont participé au projet.
- La propulsion mixte. — Si le turboréacteur convient encore fort bien pour un avion d’attaque au sol, il n’en est plus de même pour un intercepteur pur qui doit être capable de monter à des altitudes d’au moins 20 000 m. Or, la poussée des turboréacteurs diminue à peu près proportionnellement à la densité de l’air, et à 12 000 m par exemple, on constate une perte de 65 pour 100. On a donc pensé à utiliser le moteur-fusée qui, lui, a une poussée légèrement croissante avec l’altitude par suite de la diminution de la contre-pression à la sortie de la tuyère au fur et à mesure que l’air se raréfie. Malheureusement, la fusée consomme énormément de combustible, ce qui interdit des temps de vol longs à un avion ainsi propulsé. L’association du turbo-réacteur et de la fusée, qui disposent de caractéristiques et de performances complémentaires, devait donc se révéler fort intéressante, d’autant que le moteur-fusée est certainement le groupe propulseur qui jouit du poids spécifique le plus faible.
- Cette association a été tentée pour la première fois par la Société Sud-Aviation, avec le S.O. 9 000 « Trident », dont nous avons déjà parlé ici même (La Nature, mai 1955). Celui-ci, qui initialement comportait deux réacteurs Turboméca Marboré de 4oo kg de poussée chacun et un moteur-fusée S.E.P.R. de 1 5oo kg de poussée, fut suivi successivement du S.O. 9 o5o Version I, puis du S.O. 9 o5o Version II, qui vient de Commencer ses essais en vol en battant officieusement, avec 22 000 m, le record d’altitude pour avions partant du sol et le record de montée à i5 000 m avec 2 mn 36 s. Le Trident II dispose maintenant de deux turboréacteurs M.D. 3o « Viper » donnant au total x 520 kg de poussée, ainsi que d’une fusée S.E.P.R. 63i à deux
- p.218 - vue 222/527
-
-
-
- 219
- Fig. 2. — Le « Griffon », qui a atteint une vitesse en montée de 18S m/s (Photo S.N.E.C.M.A.).
- chambres fournissant 3 ooo kg de poussée. Le rapport poussée/poids au décollage atteint ainsi la valeur de o,88, ce qui explique les vitesses ascensionnelles élevées observées.
- L’Angleterre qui possède pourtant de remarquables groupes-fusées d’appoint, n’est venue que tardivement à la propulsion mixte, et peut-être à la lumière des résultats intéressants du Trident. Toutefois, la Société Saunders-Roe vient de sortir un prototype d’in-tercepteur qui répond à cette formule; le S.R, 53. Le tuboréacteur est un « Viper » d’une version améliorée par rapport à celle montée sur le Trident puisqu’il donne i ooo kg de poussée ; le moteur-fusée De Ilavilland « Spectre » peut donner jusqu’à 4 ooo kg de poussée (il fonctionne à l’eau oxygénée et au kérosène, ce qui permet d’employer le même combustible que pour le turboréacteur).
- Le rapport poussée/poids est alors de o,g5, soit très près de l’unité, ce qui justifie qu’il grimpe presque à la verticale. Mais le S.R. 53 n’est qu’un avion expérimental; l’avion d’arme qui doit lui succéder, le S.R. 177, sera équipé d’un turboréacteur plus puissant, le De Havilland « Gyron-Junior » de 3 600 kg de poussée sans post-combustion; la poussée totale disponible serait alors de 7 à 8 t, ce qui, même en cherchant à réaliser un avion de poids un peu plus élevé, permettrait cependant d’emporter une charge (carburant + armement) très intéressante. L’armement devrait d’ailleurs se composer de deux engins « Firestreak » propulsés par fusées à poudre et dont le système de guidage consiste en une tête chercheuse actionnée par les rayons infrarouges émis par l’objectif, donc pratiquement impossible à brouiller.
- Une autre possibilité de propulsion mixte réside dans l’association du turboréacteur et du statoréacteur. Outre les avions
- à tuyère thermo-propulsive Leduc; dont nous avons déjà eu l’occasion de parler ici (La Nature, avril 1955), elle est adoptée sur le Nord 1 5oo <c Griffon » (fig. 2) qui détint récemment le record officiel de vitesse de montée avec i85 m/s, ce qui correspond pratiquement à un nombre de Mach de i,85 aux grandes altitudes. Le propulseur est essentiellement composé d’un combiné turbo-stato, comprenant un statoréacteur à injec-teurs disposés à l’arrière de la veine, et au centre de celle-ci un turboréacteur S.N.E.C.M.A « Atar » 101. E. 3 de 3 5oo kg de poussée (fig. 3). Au décollage, le turboréacteur fonctionne seul, alors qu’aux grandes vitesses le statoréacteur annulaire fournit l’essentiel de la poussée. La voilure est un delta de 6o° de flèche au bord d’attaque, très mince, et le contrôle de profondeur et de gauchissement est assuré par une même paire d’élevons au bord de fuite. Il n’y a pas d’empennage horizontal à l’arrière, mais un petit stabilisateur du type « Canard » placé à l’avant du fuselage. Le Griffon n’a pas encore atteint ses performances maximum, et l’on est en particulier assuré qu’il pourra dépasser Mach 2.
- Injecteurs du statoréacteur
- Atar 101-E3
- Veine d'air
- Fig. 3. — Coupe schématique du « Griffon ».
- * #
- Tels qu’ils sont, les nouveaux intercepteurs vont donc augmenter encore les possibilités de défense aérienne au moyen d’avions pilotés, et permettre d’attendi’e que la mise au point des engins guidés soit terminée. La liaison entre les deux types de machines sera d’ailleurs peut-être assurée par des intercepteurs classiques, mais téléguidés et sans pilote, et à ce sujet il faut signaler qu’une étude de cette nature est en cours sur le Trident.
- Jacques Spincourt.
- Rêve et mouvements des yeux
- Dans le Journal of Experimental Psychology (mai 1957), deux psychologues de l’Université de Chicago, les docteurs Dement et Kleitman ont rendu compte d’une série d’expériences sur le rêve. C’est par les mouvements des yeux que l’on peut constater qu’un dormeur est en train de rêver. Contrairement à une opinion assez répandue, le rêve ne serait pas instantané : sa durée correspondrait au contraire à la succession des événements qui s’y déroulent sans que ceux-ci soient concentrés dans le temps. La cadence moyenne parmi les sujets observés a été d’un rêve toutes les 92 mn. Aucun rêve ne se produit pendant la période initiale du sommeil. Les mouvements des yeux sont déterminés par l’action du rêveur : c’est ainsi qu’un des sujets rêvant qu’il grimpait à une échelle regardait alternativement vers le haut et vers le bas.
- Le consommateur néerlandais moyen
- D’après les Nouvelles de Hollande, en 1956 le Néerlandais moyen a consommé 0,9 kg de thé et 2,9 kg de calé, près de 1,5 1 de vin et 2,6 1 de boissons distillées ; il a bu 18 1 de bière et consommé 191 kg de lait et produits laitiers. Il a mangé 129 œufs, 7 kg de fromage, 40 kg de viande, 3 kg de beurre et 20 kg de margarine, 90 kg de pommes de terre, 48 kg de fruits, 40 kg de sucre, 8 kg de poisson. Par référence aux chiffrés de 1949, on constate une augmentation de la consommation du café et du thé, du fromage, de la viande, du sucre ; une diminution de celle des pommes de terre, du poisson et des produits laitiers, ainsi que des fruits. Chaque Hollandais, enfin, a en moyenne fumé 101 cigares et. 1 208 cigarettes, ce qui représente deux fois plus qu’avant la guerre.
- p.219 - vue 223/527
-
-
-
- La lecture sur les lèvres, remède à la surdité profonde 1
- Les données du problème sont connues : d’un côté les sons, matériel fondamental de la langue, revêtant heureusement une forme visuelle synchronisée à leur forme vibratoire; de l’autre côté un sujet sourd qui doit « voir les sons » et les comprendre. La phonétique et la sémantique apparaissent donc étroitement associées dans la lecture labio-visuelle, la sémantique embrassant les phénomènes intellectuels et se confondant, selon Michel Bréal, avec la psychologie du langage.
- C’est donc à la phonétique et à la sémantique que l’enseignement de la lecture sur les lèvres demandera ses directives. Et si cette lecture est bien un art, que l’on cultive par l’étude et l’exercice et qui est en relation directe avec le « beau langage », elle est aussi une science qui établit et explique les lois de la perception visuelle de la parole, analysant la réalité complexe de la phrase, et s’efforçant de classer, ou de reclasser, les éléments et les groupes d’éléments qu’elle découvre sous l’unité phraséologique.
- Analyse phonétique. — C’est en effet la phrase qui semble constituer l’unité du discours. C’est par elle que l’on constate une chose, que l’on affirme, que l’on souhaite, que l’on commande, que l’on s’émeut, etc. Cependant, les phrases successives du discours amènent plusieurs éléments qui leur sont communs. Ce sont les mots. Ainsi, le mot nous apparaît comme un produit d’analyse. Et l’on peut s’en rendre compte par le fait que les illettrés sont malhabiles à l’extraire du .contexte. Ils n’en distinguent ni la fin, ni le commencement. La forme phraséologique leur paraît « d’un seul tenant ».
- Poussant plus loin l’analyse phonétique et isolant les éléments communs à plusieurs mots, nous trouvons des phonèmes. Ceux-ci enfin peuvent concerner, soit des sons : voyelles, consonnes sonores, soit des groupes de sons : diphtongues, syllabes (multiformes).
- Certes, le lecteur sur les lèvres n’entendra pas la musique vocalique, ni le bruit consonantique; du moins il déterminera visuellement la première par le jeu libre de la voyelle, le souffle paraissant sortir sans effort, et le second par l’observation d’une résistance qui vient briser ou gêner l’émission de la colonne aérienne (sonore avec les consonnes laryngiennes ou bucco-nasales; muette avec les consonnes explosives-muettes et sifflantes-muettes) (voir le tableau I).
- Tableau 1
- Divers modes de perception de la parole
- Sujets normaux Sujets sourds
- Auditif Auditif visuel Visuel Vibratoire amplifié Auditif tactile Vibratoire
- l’oreille l’œil et l’oreille l’œil l’emploi du télétacteur l’oreille et le tact autour de l’oreille le tact de la phalange dorsale du sujet sur le larynx de l’opérateur
- 1. Pour la mesure du degré de surdité, voir : Comment on apprend à parler à un enfant sourd-muet, par Paul Vuillemey, La Nature, février 1958, p. 63.
- Disons quelques mots maintenant du comportement des voyelles et des consonnes. Ces éléments ne sont pas toujours purs. Souvent, la voyelle joue le rôle de consonne, c’est le cas des fermées : I, U, OU, etc., placées dans certaines conditions (Iode, hUit, OUate).
- Et réciproquement, la consonne peut jouer le rôle de voyelle, c’est-à-dire n’offrir que très peu de résistance à l’émission phonétique. Il y a peu de différence, par exemple, entre la voyelle I, et la consonne ILL (ou Y).
- Il n’y a pas de transitions brusques entre les éléments voca-liques et les éléments consonantiques. On passe en effet, par degrés insensibles, d’une catégorie à l’autre. Et les semi-voyelles peuvent être aussi appelées semi-consonnes : ceci est valable pour les éléments fermés que nous venons de citer.
- La diphtongue est un son double observé dans des mots tels que Oiseau, LION, SUIF. La voix passe rapidement d’un son sur l’autre; l’un d’eux prédomine, c’est l’élément le plus franchement vocalique; l’autre a un rôle consonantique, c’est la semi-voyelle ou la semi-consonne. Celle-ci se place parfois avant la voyelle (IË), parfois après (UI).
- La diphtongue doit toujours être considérée sous l’angle phonétique, non orthographique. AU dans eau, OU dans cou, EU dans queue sont des diphtongues fausses ou improprement dites.
- Une combinaison de deux voyelles donne lieu à une diphtongue-voyelle; une combinaison de deux consonnes, une diphtongue-consonne. Et nous avons distingué des triphtongues et même des combinaisons de quatre consonnes successives (certaines onomatopées, etc.). Ce qui ne confirme pas, semble-t-il, l’opinion de Galichet (Physiologie de la langue française, 1949, p. 18). Strapontin, par exemple, présente bien une triphtongue initiale du type CCC (trois consonnes) ; de même strophe, etc. Le lecteur sur les lèvres devra être amené à prendre une nette conscience de ces particularités, et à prononcer, en une seule émission de voix, les voyelles et les consonnes diphtonguées.
- Parmi les qualités générales de la parole, le timbre est inaccessible au sourd directement. La hauteur et l’intensité, qui varient ensemble et que l’on ne peut isoler pratiquement dans la parole courante, sont perçues indirectement, par une expression musculaire d’effort.
- La durée est sentie en tant que telle. Il ne faut pas hésiter à rythmer ses phrases naturellement. Le rythme joue dans la langue, ainsi qu’en musique, un rôle significatif. II a permis à nos sujets de reconnaître des phrases, sans l’aide de la vision (voie auditive-auriculo-tactile, voir le tableau II qui indique les divers modes de perception de la parole).
- Les consonnes ont été classées d’après leur sonorité, leur localisation, leur fermeture, etc., de même d’ailleurs que les voyelles. On se souvient des classements que nous avons établis d’après leur facilité de perception visuelle. A ce sujet, nous n’aviohs pas présenté les éléments « similaires ». Le moment est venu d’en parler. Ce sont, en somme, des formes labio-visuelles polyvalentes.
- Parmi les voyelles, on distingue à l’oreille :
- A, AN; O, ON; E, IN; EU, UN.
- La même image est à la fois le signe visuel de A, et celui de AN (fig. 1 à 3). Il n’y a, en effet, que le phénomène de la nasalisation qui différencie ces deux voyelles. Or, ni la cause (abaissement du voile du palais), ni l’effet (timbre nasal), ne sont accessibles à la vue. Placé devant nos sujets, nous avons
- p.220 - vue 224/527
-
-
-
- 221
- Tableau II
- Classement phonétique des consonnes et des voyelles
- (des muettes aux fortes).
- ------------>•------------------------------------------------>
- Consonnes Voyelles
- Muettes Sonores Faibles Fortes
- Bourdon Bucco- Semi- Fermées Demi- Ouvertes Bucco-
- hautes nasales voyelles fermées nasales
- o- (P B M L I É È IN
- c-> \ T D N R U EU E UN
- K* (C G GN Y OU AU 0 ON
- s (F V A AN
- = s S = ( CH Z J
- prononcé la série nasale, et ils ont répondu par l’élément similaire non nasalisé. Ayant renouvelé l’expérience plusieurs fois et dans des ordres divers, nous avons conclu qu’ils ne percevaient pas la nasalisation vocalique.
- Parmi les consonnes similaires, on remarque les séries suivantes :
- P, B, M; T, D, N; C, G; F, Y; S, Z; CH, J.
- Les mêmes expériences ont été faites que pour les voyelles similaires et elles aboutissent aux mêmes conclusions. Nous préciserons donc que, dans les consonnes similaires, nos sujets n’ont perçu ni la sonorisation des éléments muets, ni leur nasalisation dans les deux premières séries (M et N).
- Certains auteurs ont décrit le caractère différentiel de l’élément nasalisé, ou sonorisé. Mais ce caractère ne se rencontre pas chez tous les sujets, malgré les différences physiologiques bien connues, qui sont à la base des changements phonétiques.
- Par exemple, la différence qui semble facile à faire, a priori, est celle de K et de G. En les comparant, nous avons : une occlusion plus énergique de la première consonne, une pression du souffle plus forte; et pour la deuxième un léger tremblement, qui serait en concomitance avec la vibration laryngienne, un mouvement du maxillaire, du cartilage thyroïde, etc. L’expérience a tôt fait de montrer l’incertitude de ces caractères affirmés par les uns, niés par les autres; ils proviennent d’observations particulières (cas d’espèce).
- Chaque individu n’a-t-il pas sa manière personnelle de pro-
- noncer un élément? Cette manière dépend, dans une grande mesure, des particularités anatomo-physiologiques de chacun. Nous admettons donc les analyses très poussées des éléments similaires. Elles répondent, certes, à du réel, que l’observateur a étudié, souvent sur lui-même, et dans le but louable de donner à ses sujets des signes distinctifs. Mais elles ne paraissent pas apporter des caractères généraux. Le principe exhaustif qui s’en dégage, c’est que, seule, l’intervention psychophysiologique permet de faire cesser l’équivoque de la donnée physique. Et il est clair que cette intervention ne peut agir que lorsque l’élément similaire est intégré dans le corps d’un mot, ou d’une phrase. C’est ainsi qu’intervient la sémantique.
- Analyse sémantique. — Cette analyse commence avec le mot, tiré de la phrase par abstraction. Avec lui s’arrête l’analyse physique de la matière sonore. Avec lui commence l’analyse psychophysiologique de cette matière. Toutefois, cette séparation n’est pas aussi rigoureuse qu’il le paraît. En effet, la matière sonore a toujours droit de cité, même dans la partie la plus abstraite du langage : la bonne prononciation des éléments, des syllabes, des mots, la liaison des mots à l’intérieur de la phrase, sont nécessaires à une bonne compréhension. Réciproquement, la sémantique intervient au début du langage, dès qu’une signification est attribuée au signe, et celui-ci peut être, on le sait, l’élément qui joue un rôle grammatical, ou verbal, ou même phraséologique.
- Sous ces réserves, la séparation que nous avons faite est fructueuse dans la pratique, car elle nous conduit à faire un constant et judicieux appel, d’une part aux sens (avec le recours aux sensations vibratoires laryngiennes de la parole, à leur intensité, à leur température, à leur localisation, aux sensations kinesthésiques et même à des signes qui rappellent, par exemple, l’absence ou la présence de la nasalisation), d’autre part à la forme labio-visuelle, substitut de la forme auditive.
- Dès les premiers essais, que l’on s’accorde à qualifier de mécaniques, le sujet a son attention attirée sur la signification que peuvent lui apporter les premières formes visuelles. La syllabe PA, que nous présentons au début du cours, ne remplace-t-elle pas, à elle seule, une phrase entière dans la langue parlée et abréviative ? N’est-elle pas déjà un nom ? Et n’en est-il pas de même pour toutes les formes syllabiques qu’elle revêt : PAPA, AP, A, PAP (du mécanique à l’intellectuel) P
- Fig. 1 à 3. — Émission de la voyelle A ou AA. — A gauche : de face. — Au milieu : Lecture de profil gauche.
- A droite : Lecture de profil droit.
- p.221 - vue 225/527
-
-
-
- — 222 ........ ........... .................. .......... "
- Par contre, dans le cours de la lecture labiale, en pleine période psychologique, le sujet peut être arrêté par un obstacle physique. On fait alors, à ce moment, les exercices mécaniques que nous connaissons déjà : réintroduction dans le connu phonétique, puis retour vers la signification que l’on atteint d’un coup, ou par degrés, suivant les cas et les sujets (de l’intellectuel au mécanique avec retour vers l’intellectuel).
- On s’aperçoit que c’est par une compénétration bien comprise de la science des sons et de celle de leur signification, que le sourd s’achemine rapidement vers la compréhension des formes labio-visuelles de la langue orale.
- Analyse verbale. — Le mot, en tant que composé mono-di-tri-poly-syllabique, nous amène à différencier certains phénomènes cognitifs. Il y a, en effet, des unités indécomposables (mère, enfant) et des assemblages de plusieurs éléments significatifs, dans lesquels la racine est un élément essentiel.
- Cette racine, ou radical, exprime l’idée centrale, et autour d’elle viennent s’ajouter les préfixes ou les suffixes, qui représentent des idées accessoires. Les terminaisons, ou désinences, qui expriment le genre, le nombre, la personne, peuvent aussi être considérées comme suffixes. On tirera parti de ces remarques pour constituer des exercices de lecture labiale, inspirés des familles de mots, du nombre et du genre de ceux-ci, de la conjugaison, etc.
- Le mot, en tant que remplissant dans une phrase certaines fonctions, a évidemment une importance variable. Tel mot exprime la substance, tel autre la qualité, le troisième un état ou une action, le quatrième une relation, etc. D’où la distinction classique des parties du discours. Certains exercices pourront être basés sur ce classement grammatical, en partie seulement légitime, mais en tout cas commode, au point de vue où nous nous plaçons. Ils tiendront compte de la fréquence des mots employés dans la conversation courante. Ainsi, il est nécessaire d’exercer le sujet à la lecture rapide, automatique, des adjectifs possessifs, entre autres. Le plan sera donc établi suivant la liste des adjectifs les plus usités (notre, votre, etc.), et nous les ferons déterminer — car il ne faut pas les présenter seuls — des substantifs commençant par une série de consonnes données (considération physique).
- Les substantifs nous donnent les exemples les plus nombreux. Comme ils s’appuient sur un article, nous les présenterons avec cet article. Le nom appelle son qualificatif, et nous n’aurons garde d’oublier la parenté étroite qui relie le substantif, l’article et l’adjectif.
- On liera différents substantifs, et on les animera au moyen du verbe, principal élément du discours. Celui-ci sera présenté sous les formes : expositive, négative, interrogative, pronominale, passive, neutre.
- Des adverbes utilisés quotidiennement (aujourd’hui, hier, demain) auront la priorité sur les autres.
- Les diverses sortes de pronoms seront présentées méthodiquement. Toutefois, les pronoms personnels viendront au début.
- Les prépositions indiquant les dépendances, les conjonctions à valeur logique, les interjections même seront passées en revue, suivant leur importance et à propos d’exemples familiers.
- Bien que l’ordre grammatical prédomine ici, nous aurons soin de ne jamais présenter seules les différentes parties du discours, mais dans des groupes de mots ou dans l’unité phraséologique (globalisme).
- Analyse psychophysiologique des phrases du dis= cours. — Dans le corps du discours, nous ferons quelquefois appel aux synonymes, pour assurer la compréhension d’un mot mal interprété ainsi que nous l’avons déjà signalé (classement psychophysiologique).
- Les homographes, homonymes et paronymes, prêteront matière à étude (classement phonétique et graphique).
- Les proverbes et les pensées seront groupés sous différentes rubriques, afin d’en faciliter l’intelligibilité, par exemple : agriculture, animaux, etc. (classement psychophysiologique).
- Puis nous tenterons d’aborder la lecture labio-visuelle de textes littéraires, scientifiques, etc. (classement scientifique, philosophique) .
- Rappelons que, du point de vue sémantique, la phrase est une réunion de mots qui forment un sens complet, et que, l’analyse psychologique et physique de ceux-ci étant terminée, nous avons été amené à en faire l’analyse grammaticale. Dans le discours, les phrases s’enchaînent les unes aux autres (liaison psychophysiologique). Dans la phrase les mots sont liés les uns aux autres, mais il s’agit d’une liaison euphonique. Nous devons aussi étudier les liaisons, c’est-à-dire les différents cas qui peuvent se présenter, suivant les diverses combinaisons voca-liques et consonantiques, ainsi que le rôle de l’E muet à la fin des mots (considération phonétique qui a sa répercussion sur l’image visuelle).
- *
- * *
- En résumé, pour faciliter la tâche du lecteur sur les lèvres (qui est souvent un sourd de guerre) nous avons analysé le discours : matière première à percevoir, puis de proche en proche : la phrase, le mot, la syllabe, la voyelle, la consonne. Ce sont des mouvements labio-visuels et des idées, c’est-à-dire du physiologique et du psychologique, qui ont guidé nos démarches, celles-ci s’exerçant sans cesse sur le plan synthétique et sur le plan analytique.
- Mais le couronnement d’un enseignement fructueux est lié au globalisme de la lecture visuelle et, sur le plan social, le sourd profond obtient la réussite avec beaucoup de volonté et de persévérance, et quelques conseils techniques du spécialiste.
- En pratique, le sourd lecteur labio-visuel sera son propre éducateur : en observant les lèvres des personnes qui parlent et cela de face et de profil (droit et gauche) (fig. i à 3) ; en s’aidant d’un miroir, source précieuse d’auto-observation; et en parlant le plus possible, comme nous n’avons cessé de le souligner au cours de nos divers travaux.
- Paul Vuillemey, Docteur ès Sciences, Docteur ès Lettres.
- Bauxite et houille blanche en A. O. F.
- On sait que la Guinée française possède d’intéressants gisements de bauxite, non seulement dans les îles de Los (au large de Conakry), mais aussi dans le massif du Fouta-Djalon. Une ligne ferrée longue de 130 km doit être construite pour relier ce dernier gisement à la côte.
- D’autre part, la construction d’un ou de deux barrages sur le fleuve Konkouré est dès à présent entrée dans la phase des travaux préliminaires. La rivière doit fournir 3 milliards de kWh
- par an, qui permettront l’industrialisation de la région et la transformation de la bauxite en aluminium.
- Plusieurs sociétés européennes ont décidé de constituer une sorte de holding pour l’exploitation de ces richesses : la France est représentée par Péchiney-Ugine, l’Allemagne par Yereinigte Aluminium Werke, l’Italie par la Montecatini. On note aussi la participation de firmes suisses et britanniques. La participation française doit être majoritaire.
- p.222 - vue 226/527
-
-
-
- 223
- La conquête des atterrissements littoraux
- En de nombreux points du globe existent des zones amphibies, alternativement couvertes, et découvertes par la marée, que la sédimentation exhausse lentement. Ces « laisses de mer » se trouvent aussi bien le long des rivages tropicaux (Nouvelle-Guinée, A.O.F., Guyanes...) que des côtes tempérées (Europe occidentale, Nouvelle-Angleterre) ou arctiques (Mourmansk). Elles couvrent de vastes étendues sur le littoral de la mer du Nord, où les conditions sont assez favorables à leur extension : estrans abrités par des îles (Frise), marges d’estuaires (Escaut, Rhin, Elbe, Tamise), golfes plus ou moins envasés (Wash, Dollart, Jade). Des conditions à peu près semblables existent sur les côtes de la Manche (Veys, baie du mont Saint-Michel) et de l’Atlantique (marais Poitevin).
- L’homme a cherché, en Europe occidentale, à conquérir ces atterrissements en les entourant de digues : cette opération a reçu le nom hollandais de bedijking (littéralement <c endigue-ment »). L’homme repousse vers le large la ligne de défense contre la mer. Différentes méthodes sont employées afin d’accélérer le processus de dépôt des alluvions : les principales concernent le « jardinage de la vase » et la plantation d’espèces halo-philes.
- Le dépôt des sédiments. — Le colmatage, dû soit a l’action des marées, soit à l’alluvionnement d’un fleuve, aboutit toujours à un résultat identique : l’exhaussement de l’altitude de l’estran (1). Lorsque l’altitude moyenne est devenue telle que seules les hautes mers exceptionnelles recouvrent la zone à conquérir, il est possible de fermer cette dernière par une digue. Du stade de la slikke luisante sous le soleil (fïg. 2), on passe à celui de l'herbu ou schorre (fig. 3) et enfin au polder cultivé.
- L’homme a cherché à hâter l’évolution naturelle, afin d’accroître l’étendue des polders littoraux. Son intervention est capitale, car elle seule permet la création de polders : les côtes amphibies de Guinée ou d’Amérique du Sud, où la mangrove à palétuviers demeure constamment sous l’influence des marées, ne sont pas aménagées en « polders ».
- Dans les conditions naturelles, c’est-à-dire sans aucune intervention de l’homme, la vitesse de sédimentation apparaît très inégale suivant les régions considérées. Les expériences systématiques que le professeur Niels Nielsen, de l’Université de Copenhague, a conduites depuis 1981 dans la région de Skal-lingen (Danemark) indiquent un rythme d’exhaussement de 3,5 mm par an. En Angleterre, J. A. Steers a mesuré un exhaussement très variable suivant la localisation des vingt-trois stations choisies par lui : les chiffres moyens oscillent entre 5 et 8 mm par an. En France, dans la région du mont Saint-Michel, qui connaît les plus fortes marées d’Europe (i5 m d’amplitude), l’accroissement paraît beaucoup plus spectaculaire, atteignant 200 mm annuellement en certains endroits de la baie; dans la baie vendéenne de l’Aiguillon (voir La Nature, mars iq58, p. 100), l’exhaussement semble assez irrégulier selon les endroits, allant de o à xoo mm (amplitude des marées, 5 m en moyenne).
- En s’appuyant sur des cartes anciennes et sur les récits de vieilles chroniques, il est possible de dresser un état des conquêtes réalisées aux dépens de la mer depuis des siècles. En réalité, il importe de se montrer prudent, en raison de l’inexactitude des relevés anciens.
- Les observations de Steers en Angleterre, de Phlipponneau et de Verger en France, de Hansen au Danemark... démontrent que le dépôt des sédiments apportés par la mer s’opère essentiellement au moment de l’étale, alors que l’eau est la plus calme. C’est aux endroits où la tranche d’eau est la plus mince
- 1. On appelle estran la zone découverte chaque jour par la marée.
- Fig. 1. — Vue aérienne d’un chenal de jusant dans les Wadden.
- Un chenal de ce type, aux ramifications irrégulières, est appelé « arbre », à cause de la forme qu’il présente.
- (.Aèrophoto Nederland).
- que le dépôt est le plus facile : on voit, dans les estuaires bretons, des plaques de schorre continuer à s’exhausser en même temps que l’érosion les ronge latéralement (fig. 3). Il est possible qu’une partie des matériaux d’exhaussement provienne précisément de l’érosion de certains endroits déjà colmatés. C’est ce que A. Guilcher a appelé « le cycle de la vase »; cette théorie expliquerait que la sédimentation de quelques points précis coïncide dans le temps avec l’érosion .d’autres points situés à proximité.
- Le « cycle de la vase » ne doit cependant pas faire croire à un équilibre perpétuellement maintenu entre avancées et reculs, entre sédimentation et érosion. Il arrive que la mer dévaste brutalement un secteur et ruine des polders déjà affermis : l’histoire hollandaise est remplie du récit de ces événements, dont les plus spectaculaires sont ceux de, 1421, 1670 et 1953. Entre Cancale et Cherrueix, à l’ouest du mont Saint-Michel, le polder des Nielles, endigué au xix6 siècle, a été détruit par la mer en 1922. Il semble que la remontée du niveau général des mers, actuellement enregistrée, soit en partie responsable de la reprise d’érosion constatée depuis une cinquantaine d’années (sans que ce phénomène soit d’ailleurs général sur toutes les côtes).
- Au large de la côte continentale, une ligne d’îles peut indiquer l’emplacement d’un rivage ancien, tronçonné par les tempêtes et les transgressions : des sortes de seuils, appuyés sur des hauts-fonds, relient souvent ces îles à la terre ferme. Utilisés à marée basse par les pêcheurs, ces seuils ont reçu en Frise le nom de wantij; on en trouve de semblables tout le long du littoral jusqu’au Slesvig-Holstein : sur les cartes allemandes ils sont fréquemment signalés par le terme hohe weg (haute chaussée, chemin élevé).
- De tels seuils se sont constitués généralement sur une crête
- p.223 - vue 227/527
-
-
-
- Fig-. 2 (en liant à gauche). — Slikke nue : vasière de la baie de VAiguillon ; remarquer les petits chenaux d’érosion. — Fig. 3 (en haut à droite). — Plaques de schorre isolées sur la slikke (baie de l’Aiguillon, côté Est). — Fig. 4 (ci-contre). — Le passage du Gois.
- (Photos P. Wagret).
- séparant deux systèmes de chenaux de marée disposés en sens inverse. Le dépôt des alluvions s’y effectue naturellement plus aisément que dans les endroits drainés par le reflux. Dans certains cas, il est possible de construii'e une jetée {dam en anglais et en hollandais, damm en allemand) destinée à rattacher les îles au continent : ainsi, entre i864 et 1871, pour les îles zélan-daises de Zuid-Beveland et Walcheren; en 1927 pour Sylt; en 1985 pour Nordstrand; en 1948 .pour Rômô. Chemins de fer et roules utilisent ces jetées lancées sur l’estran.
- Dans d’autres cas, seules des digues submersibles ont été édifiées, comme au Slesvig-Holstein. Leur effet est d’opposer un obstacle au développement ramifié et désordonné des chenaux de marée, dont l’érosion régressive provoque un amaigrissement de l’estran (fig. 1). Dans tous les cas, l’influence de ces constructions sur 1’ « engraissement » des vasières paraît incontestable, d’après les mesures relevées à la fois en Zélande, au Slesvig allemand et au Danemai’k.
- En France, on connaît le passage du Gois (ou Guâ) reliant, à mer basse, l’île de Noirmoutier au continent. Une chaussée utilisable pour les voitures, mais submersible et jalonnée de postes de refuge (fig. 4), a été aménagée à la fin du siècle dernier sur la ligne de faîte entre les deux systèmes de chenaux de marée (Fromentine au sud, le Fain de Bourgneuf au nord).
- Quant à la digue permanente, longue de 1 900 m, qui rattache depuis 1880 le mont Saint-Michel au continent (fig. 5), point n’est besoin d'épiloguer sur les discussions acharnées dont elle fut et dont elle est encore l’objet. Une guerre sournoise ou ouverte oppose depuis trois quarts de siècle les Beaux-Arts aux Ponts et Chaussées, la société des « Amis du mont Saint-Michel » à la municipalité du Mont : les seconds sont partisans du maintien de la digue, les premiers réclament le dérasement du « hideux pédoncule » qui brise le splendide isolement du mont Saint-Michel « au péril de la mer ». En 1900, un projet de loi ne dut de rester lettre morte qu’à la crise économique et au manque de crédits : il prévoyait la destruction d’une partie de la digue.
- Fig. 5. — Le Couesnon canalisé et le mont Saint-Michel.
- (Photo P. Wagret).
- p.224 - vue 228/527
-
-
-
- Fig. 6 (en ha*' è '«i1" ' Côté Sud de la digue-jetée de Nordstrand (Allemagne) : détail du point de départ d'un système de lalimini; (fascinages) à marée haute. -- Fig. 7 • n haut à •lrnir Système
- de greppels sur le littoral frison, à Paesens ; vue prise du faite de la digue côtière ; à droite, l’évolution est presque terminée et le kwelder est prêt à être endigué. — Fig. 8 (ci-contre). — Une « île artificielle » près de Rejsby (Danemark).
- En fait, les études récentes semblent donner raison aux ingénieurs des Ponts et Chaussées : le niveau de la tanguaie n’est pas influencé par l’existence de la digue insubmersible; ce niveau est conditionné par les déplacements des rivières et des chenaux généi’ateurs d’érosion. Tant que la Sée et la Sélune resteront libres à travers les grèves, il semble certain que le colmatage ne progressera pas dans le secteur oriental de la baie. Il en va autrement, nous le verrons, dans le secteur occidental qui va du Couesnon au Vivier : là, les travaux de canalisation du Couesnon ont causé un sensible accroissement de la surface de l’herbu, lié également à l’extension de la spar-tine de Townsend (voir plus bas).
- Le labourage de la vase. — La méthode appelée « labourage (ou jardinage) de la vase » est connue depuis plusieurs siècles des cultivateurs de Frise, de Groningue et du littoral allemand. Les anciens auteurs (Vierlingh, 1570) recommandaient chaleureusement ce procédé, appelé en Llollande slib-vangst ou slijkvangst (littéralement « prise de limon »).
- De petits fossés, perpendiculaires au rivage, sont creusés à la bêche ou à la machine (charrues à double versoir, traînées par des tracteurs à chenille). Le flot y dépose calmement des alluvions; bientôt le niveau s’élève, des plantes halophiles prennent possession du sol vaseux qui se transforme progressivement en schorre (appelé kwelder en Frise). L’endiguement délimitera un nouveau polder.
- Ces travaux, traditionnellement réalisés par les paysans, sont maintenant entrepris le plus souvent par l’État, tant aux Pays-Bas qu’en Allemagne et au Danemark : en effet, les difficultés actuelles, la crise économique, les guerres, les hausses de salaires interdisent aux particuliers de mener à bien de semblables efforts. Cependant, les propriétaires riverains, moyennant le versement d’une contribution, obtiendront concession définitive des terres conquises dans le prolongement cadastral de leur domaine actuel. La solution adoptée diffère sensiblement de
- Fig.
- 9. — Sédimentation sur le côté Sud de la digue-jetée de Rômô ( Danemark).
- (Photos P. Wagret).
- p.225 - vue 229/527
-
-
-
- 226
- Fig. 10 et 11. — A gauche : « Jardin de vase » sur le littoral frison, à marée basse. — A droite : Réseau de rigoles de sédimentation (grüppen) sur le côté Sud de la digue-jetée de Nordstrand (Allemagne), à marée descendante (Photos P. Wagret).
- celle qui a été retenue pour les polders du Zuyderzée, totalement aménagés par l’Etat et loués par lui à des fermiers sélectionnés.
- La méthode de « jardinage de la vase » reste la même partout, à l’exception de nuances sans importance. Elle repose sur les principes suivants : la vase se dépose dans les secteurs les plus calmes; la turbulence de l’eau doit donc être évitée, notamment au moment du jusant, sinon la vase déjà déposée risque d’être arrachée; l’influence du soleil et du vent collera sur la slikke les particules de vase nouvelle. On s’explique que de telles méthodes ne puissent être appliquées dans des zones troublées, à forts courants de marée par exemple. Les conditions les meilleures sont réalisées en eau peu profonde, à l’intérieur de baies largement échancrées, ou à l’abri d’îles parallèles au rivage.
- Les zones de sédimentation (bezinkveld en hollandais, littéralement « champs de dépôt ») sont délimitées par des diguet-tes de terre ou des alignements de pieux enserrant des fascines, de manière à mesurer environ chacune 4oo m de côté. Des digueltes secondaires, ou des fascinages, cloisonnent cette zone qui n’est en relation avec la mer que par une ouverture assez étroite. Les fascinages sont constitués d’osier (Hollande) (11g. io) ou de branches de pin (Allemagne) (fig. 6) ; ils remplacent les diguettes de terre chaque fois que la terre est insuffisamment épaisse et compacte. Généralement, les pieux qui enserrent les fascines sont distants de o,a5 m : les Hollandais appellent ce système takkenbos, les Allemands lahnungen, les Danois lâning.
- L’intervalle optimal entre les rigoles destinées à recevoir la vase en suspension dans l’eau de mer se situe entre 4 et 6 m; leur profondeur n’excède pas o,4o m et leur largeur o,8o m. À .marée haute, ces rigoles (greppels en hollandais, grüppen eri* allemand, grôbler en danois) recueillent lentement la vase.
- On les cure une fois par an en moyenne, en rejetant la vase sur les côtés, qui s’exhaussent régulièrement (fig. u).
- En semant des halophytes, l’évolution est accélérée vers le colmatage définitif. Il sera un jour possible d’endiguer le bezinkveld, dès que seules les hautes marées le recouvriront : on créera d’abord un zomerpolder (« polder d’été »), utilisé comme pâturage pour les bestiaux à la belle saison. Ultérieu-î-ement enfin, une digue maritime fermera le nouveau polder permanent (fig. 7), où des constructions pourront s’élever. Tel est le processus suivi en Allemagne et sur la côte du Jutland méridional, où se retrouve le vieux nom frison de cogghe (« polder »), écrit ici koog (allemand) ou kog (danois).
- Sur la côte du Jutland méridional, le savant danois B. Jakobsen a même i’éussi à faire émerger une sorte d’île artificielle (fig. 8), en employant la méthode de « labourage de la vase » à quelque distance du rivage : la sédimentation a rapidement progressé dans le secteur intéressé par l’expérience (Rejsby), un îlot où les halophytes ont pris pied s’est agrandi à quelque distance du l'ivage. Un chenal appelé landpriel continue à séparer l’île artificielle de la terre ferme : il sera lentement comblé à son tour, tandis que le côté extérieur du nouveau pré salé commence à être rongé par l’érosion, qui le découpe en microfalaise.
- D’autres expériences sont menées de part et d’autre des jetées qui relient certaines îles au continent (Rômô, Noi’dstrand) : des « casiers « délimités par des rangées de pieux garnies de fascines (fig. 6) jalonnent le pied des digues. Grâce à la progression rapide des plantes halophiles, la sédimentation avance rapidement (fig. 9). Dans dix ou quinze ans, ce pré salé (grünland) sera mûr pour l’endiguement. Ainsi s’opèrent ou se préparent des conquêtes nouvelles, spécialement dans la région de Sylt et dans les Wadden néerlandais.
- Les Hollandais expérimentent également des méthodes origi-
- p.226 - vue 230/527
-
-
-
- 227
- «aies dont certaines donnent des résultats inattendus : la sédimentation en casier artificiel entièrement fermé (une vanne fermée au moment de l’étale ne s’ouvre qu’à marée basse, si bien que le dépôt de la vase peut s’effectuer en eau calme pendant plusieurs heures) ; la floculation des argiles en suspension par des méthodes chimiques ; la sédimentation a biologique » par les Lamellibi’anches (le tube digestif des moules, coques, annélides retient les particules argileuses de l’eau qui, soudées par du mucus, sont rejetées et contribuent à accroître la sédimentation). A ce propos, des expériences ont permis de constater que 80 grosses moules avaient pu, en quinze jours, « Filtrer » l’équivalent de près de 5 kg de vase sèche !
- Le rôle de la végétation halophile. — La végétation a une importance considérable dans le processus du colmatage. C’est sa présence qui définit le schorre ou herbu par rapport à la vasière nue qu’est la slikke : tandis que celle-ci, découverte et recouverte journellement par le flot, occupe les secteurs les plus bas de l’estran, l’herbu, au contraire, se localise sur les points les plus élevés, à la limite du domaine continental. Une microfalaise, dont la hauteur relative va de quelques décimètres à x ou 2 m, marque l’entaille de l’érosion au contact entre les deux zones.
- La partie inférieure du schorre est encore parcourue par le réseau irrégulier des chenaux de marée, plus ou moins encaissés selon l’amplitude du flot (6 m dans la baie du mont Saint-Michel). La végétation qui envahit le schorre est adaptée au sel; sa présence accroît le dépôt des sédiments, grâce aux feuilles, aux tiges, aux racines qui retiennent les particules en suspension dans l’eau de mer et consolident celles qui étaient •déjà déposées. Même le varech mort ou les zostères (grass wrack des Anglais, zeegras des Hollandais) qui stationnent dans les creux à la limite extérieure de l’herbu, retiennent une partie de la vase contenue dans l’eau.
- Plus pi'ès de la mer, les espèces halophiles dominantes sont les salicornes (surtout Salicornia herbacea) et les spartines (particulièrement Spartina Tovmsendi) ; puis on trouve les astéries (Aster tripolium) et, sur le schorre proprement dit, Puccinel-lia maritima, Suæda maritima, Limonium vulgare, et, colonisant les bords des chenaux de marée, l’envahissant et touffu Obione portulacoides. Plus haut se fixent Festuca rubra, Arte-misia maritima, Junous maritimus et J. gerardii, Agropyrum junceum, Plantago maritima, Armeria maritima, etc.
- De nombreuses nuances régionales existent dans l’étagement •de ces diverses espèces. Certaines d’entre elles ne réussissent que dans des secteurs déterminés : ainsi Suæda fruticosa, espèce méditerranéenne, ne s’aventure que rarement en mer du Nord. D’autres fois, l’étagement varie en altitude d’un point à un autre : dans le golfe de Dollart, la spartine ne croît qu’à un niveau relativement élevé, alors qu’ailleurs (Danemark, mont
- Fig-. 12. — Deux spartines des vases salées : Spartina alterniflora (à gauche), Sp. stricta (à droite).
- (D'après II. Coste, Flore de la France).
- Fig. 13. — Baie du mont Saint-Michel, vue de Genêts.
- I.e mont est à 5 km (Photo P. Wagret).
- Saint-Michel, Zélande) elle colonise de préférence les zones les plus basses.
- L’homme a cherché à utiliser les aptitudes de plantes comme Puccinellia maritima afin d’accélérer le processus naturel de colmatage. Mais c’est la spartine qui joue à ce point de vue le principal rôle : on lui consacrera donc un certain développement (fig. 12).
- « Spartine » est le nom de plantes halophiles dont plusieurs espèces poussent sur les rivages tempérés et tropicaux. Certaines de ces espèces sont américaines (Spartina alterniflora des côtes du Canada et de la Nouvelle-Angleteri’e, Spartina brasi-liensis des rivages sud-américains); d’autres sont européennes, comme Spartina stricta de Zélande. La plante la plus connue est un hybride de Sp. stricta et de Sp. alterniflora, connu sous le nom de Spartina Toicnsendi.
- La spartine de Toxvnsend a été signalée pour la première fois en 1879 dans la région de Southampton; de là, elle essaima rapidement sur les rivages de Grande-Bretagne et de France (Le Havre, iqi5). En 1920, aucun point des côtes des îles Britanniques n’était plus à l’abri de son extension ; dans le Wash, la baie de Cardigan, le firth of Forth, la spartine, appelée rice grass (« herbe-riz ») pi’ogressait inéluctablement.
- Inléressés, les Hollandais plantèrent quelques centaines de pieds de Sp. Townsendi dans le secteur du Sloe, entre Walche-ren et Beveland (1924). Puis, ils procédèrent à des plantations systématiques. En 1980, le niveau du Sloe avait gagné près d’un mètre ! La spartine méritait bien le nom d’ « herbe à vase » (slijkgras) qu’on lui donnait aux Pays-Bas. Depuis
- p.227 - vue 231/527
-
-
-
- 228
- Fig. 14. — La Sélune (à droite), limitée par la digue de Roche-Torin ; à gauche, le schorre, qui s’est nettement élevé depuis la construction de la digue.
- (Photo P. Wagret).
- a5 ans, la spartine a permis un accroissement spectaculaire des conquêtes maritimes en Zélande et en Hollande méridionale. Il en est de même en Angleterre (Severn, Norfolk, basse-Tamise, Romney marsh).
- La spartine dispose cl’un puissant réseau de racines enfoncées tenacement dans le sol; ses feuilles, ses tiges, ses racines superficielles retiennent la vase en suspension. Ses graines vivent longtemps dans l’eau de mer et sont transportées assez loin par les courants, les bateaux et les vents. En même temps, l’érosion marine est très limitée, car les touffes de spartine opposent à son action un obstacle beaucoup plus dense que les salicornes éparpillées et discontinues.
- Malheureusement, la spartine n’est pas utilisable comme fourrage destiné à l’alimentation du bétail : elle communique un léger goût au lait, ce que ne font pas d’autres plantes halophiles comme la graminée Poa maritima. (la « misotte » des rivages vendéens). En revanche, on a pu, en Grande-Bretagne, s’en servir comme matière première d’un assez grossier papier d’emballage.
- L’extension de la spartine se heurte à des conditions climatiques parfois trop sévères : ainsi sur les rivages de Groningue, où elle piétine, ou sur la côte du SIesvig-Holstein, où elle n’a pas réussi. Fait curieux, des plantations effectuées en ig3i au Danemark ont fort bien réussi, en dépit d’un climat à peu près identique. On plante systématiquement Sp. Toivnsendi sur la côte du Jutland méridional, notamment afin de hâter la sédimentation entre les îles (Rômô) et le continent.
- Dans la baie du mont Saint-Michel, Sp. Townsendi a fait son apparition en 1930. Depuis cette date, son extension prodigieuse l’y a fait surnommer « le péril vert » par les Beaux-Arts. Aujourd’hui, l’herbu atteint presque les remparts du mont, alors qu’en 1800, il s’en tenait encore à près de i km. Entre le mont lui-même et Cherrueix, à l’ouest, le colmatage gagne sans cesse en avant du front des nouveaux polders. Le mont Saint-Michel sera-t-il encore longtemps « au péril de la mer » ?
- En fait, deux points sont à retenir : en premier lieu, le « péril vert » est-il si menaçant ? Les études des hydrographes, reprises par J. Jacquet et M. Phlipponneau, indiquent que l’exhaussement de certains secteurs de la baie est provoqué
- davantage par la canalisation des rivières que par l’extension de la spartine. Non que l’action de celle-ci soit négligeable; mais l’érosion due aux cours d’eau (Sélune, Sée) compense l’accroissement de la sédimentation dans la partie Est de la baie, tandis que dans la partie Ouest l’endiguement du Coues-non n’empêche plus l’exhaussement de la tanguaie. Tant que le Couesnon a divagué, on n’a jamais constaté de colmatage à l’ouest du mont.
- C’est pour cette raison que la digue lancée à la lin du xix® siècle depuis la pointe de Roclie-Torin en direction du mont a été interrompue : son effet était, en limitant les divagations de la Sélune, de faire progresser considérablement l’herbu (fig. i/j). Si elle avait été achevée, le colmatage de ce secteur était inéluctable. L’équilibre semble au contraire se maintenir actuellement.
- En second lieu, il n’y a « péril vert » que parce que le mont Saint-Michel se dresse au milieu des grèves solitaires. Nul ne s’alarmerait s’il n’existait pas, ou s’il n’était qu’un îlot pelé comme son voisin Tombelaine. Au contraire, le rôle de la spartine, conquérante de terres nouvelles, serait magnifié.
- Il va de soi naturellement que la présence de l’incomparable « Merveille », avec les souvenirs qui s’y rattachent, avec sa beauté architecturale, avec toute sa poésie et toute sa grandeur, interdit de traiter les grèves qu’elle domine comme de quelconques vasières. L’homme, qui ailleurs favorise les entreprises de conquête sur la mer, peut-il ici empêcher ou retarder la sédimentation ? Là gît tout le problème.
- *
- * *
- Labourage de la vase, plantation cl’halophytes sont deux aspects d’une même entreprise, tendant au même résultat. Sur tous les rivages du globe, jusqu’en Australie et en Extrême-Orient, on trouve aujourd’hui les mêmes méthodes, issues de l’expérience parfois séculaire des anciens dessiccateurs. Ainsi se créent pacifiquement les conquêtes sur la mer et s’agrandit l’œkoumène, par des procédés plus empiriques que « scientifiques ».
- Paul Wagret.
- p.228 - vue 232/527
-
-
-
- Une nouvelle maladie du cresson
- 229
- Dans une note présentée récemment à l’Académie des Sciences, M. P. Bondoux, de la Station centrale de Pathologie végétale de Versailles, signale qu’une maladie du cresson vient de faire son apparition dans les cressonnières de Saint-Hilaire, dans la région d’Étampes, et à Pierre-la-Treiche en Meurthe-et-Moselle. Cette maladie, inconnue en France jusqu’à ce jour, a été signalée pour la première fois en 1948 en Angleterre par MM. D. M. Spencer et H. H. Glasscook. En 1949, elle sévissait dans de nombreuses cressonnières anglaises. La maladie commence à se manifester en octobre-novembre; elle atteint son plein développement au cours de l’hiver et dans les cas observés, la récolte de janvier-février est en grande partie anéantie.
- Les premiers symptômes visibles, accompagnés d’une forte diminution de la vigueur des plantes, apparaissent sur les feuilles. Celles-ci restent de taille réduite et les jeunes folioles deviennent cassantes. Ce rabougrissement des parties émergées est toujours accompagné d’une déformation des racines; leur longueur est considérablement diminuée et elles sont courbes et tordues, d’où le nom anglais de la maladie : crook root disea.se, le mot crook signifiant courbure. En outre, le nombre des racines est réduit de 75 pour 100 environ. Des racines secondaires peuvent alors se développer mais elles sont à leur tour attaquées et déformées. Lorsque la maladie a atteint son plein développement, la base de la tige du cresson pourrit le plus souvent, ce qui entraîne une rupture et les plantes ainsi détachées flottent et suivent le courant de l’eau.
- MM. Spencer et Glasscook ont reconnu que la maladie était provoquée par un champignon aquatique parasite, probablement une espèce du genre Spongospora, classe des Archimy-cètes. D’après Spencer, il s’écoule 8 à 10 jours entre l’infection et la libération des premières zoospores, dans les conditions du laboratoire.
- L’importance économique de cette maladie est assez considérable. En Angleterre, on estime que la production du cresson est diminuée de plus de 3o pour 100. La rapidité avec laquelle le parasite se développe dans les racines et émet des zoospores dans l’eau de la cressonnière explique l’extension facile de la maladie dans une zone contaminée. Cette maladie prend dès maintenant des proportions inquiétantes.
- Aucune méthode de lutte précise n’a encore été donnée. Cependant J. A. Tomlinson, en ig56, a montré que le zinc gênait et même empêchait le développement du parasite. Les circonstances de cette découverte méritent d’ailleurs d’être
- signalées. L’auteur effectuait des études sur la maladie au laboratoire, et il constata que les cultures alimentées par de l’eau de ville n’étaient pas atteintes alors que celles alimentées par de l’eau distillée devenaient très rapidement la proie du parasite. Une analyse des deux eaux fut effectuée et on constata que l’eau de ville contenait 45 fois plus de zinc que l’eau distillée, ceci étant vraisemblablement dû au passage de l’eau dans des conduites en fer galvanisé. L’étude fut poursuivie d’une manière plus scientifique au moyen d’addition de quantités déterminées de sulfate de zinc à l’eau des cultures. Les résultats furent les suivants : alors que 19,5 pour 100 des racines primaires et 12,5 pour 100 des racines secondaires étaient atteintes dans l’eau distillée, aucune racine primaire et o,o3 pour 100 seulement des racines secondaires étaient infectées dans des solutions de sulfate de zinc, ceci pour une concentration en zinc de o,5 p.p.ni. (on appelle p.p.m. ou parties par million, le nombre de millièmes de milligramme d’un élément par millilitre de solution). Pour une concentration en zinc de 2 p.p.m., la maladie est complètement supprimée.
- Mais l’application efficace d’un tel traitement apparaissait comme extrêmement difficile puisqu’il s’agit d’une plante aquatique vivant dans une eau constamment renouvelée (3 à 5 millions de litres par hectare et par jour). Tomlinson eut alors l’idée d’utiliser une substance relativement insoluble qui libérerait lentement le zinc et qu’il serait aisé de répandre dans les cressonnières. A cet effet, de l’oxyde de zinc est dissous dans un verre et celui-ci est ensuite broyé en poudre fine. Des expériences ont été effectuées dans des cressonnières anglaises et semblent avoir donné des résultats encourageants. Il faut 5oo g de poudre de verre par mètre carré; les effets du traitement sont nettement visibles 4 à 8 semaines après le premier traitement et ils sont encore apparents 8 mois plus tard.
- Le cresson ainsi traité contient plus de zinc que celui des cultures normales, mais la teneur en zinc reste suffisamment faible pour que la consommation par l’homme ne présente aucun danger. On n’a pas non plus observé d’effets nocifs sur les poissons qui vivent dans les cours d’eau où se déverse l’eau des cressonnières.
- Il reste également des inconnues dans le cycle complet de développement du champignon. Des études sont entreprises actuellement afin de préciser la période du maximum d’efficacité du traitement.
- R. R.
- Le cuivre du golfe d’Akaba
- On annonce la mise en exploitation prochaine d’importants gisements de cuivre situés à Timna dans le golfe d’Akaba, à l’est de la presqu’île du Sinaï. Cette région, actuellement à peu près désertique, fut il y a 3 000 ans un centre important de production de ce métal ainsi que l’ont montré les expéditions archéologiques de l’American School of Oriental Research de Jérusalem, sous la direction de M. Nelson Glueck. Ces missions ont, en effet, repéré de nombreux gisements cuivreux, indiqués par d’importants amas de scories et par les ruines d’anciens fours à fusion. Dans les ruines, on retrouve de vastes chambres dont les murs étaient traversés par des rangées de tuyaux qui servaient à amener l’air pour les fours à fusion ou de raffinage et il semble que l’industrie développée à cette époque était arrivée à un degré de perfection très honorable. Les céramiques rencontrées dans cette région indiquent que la grande période d’activité coïncide avec les ix° et xa siècles avant notre ère. Tout porte à croire cependant que c’est dans cette région qu’eut lieu la découverte du cuivre en des temps beaucoup plus reculés. Les gisements ne semblent cependant pas avoir été épuisés par les métallurgistes indigènes puisque l’extraction et le traitement doivent atteindre 1 500 t par jour.
- R. R.
- L’exploitation du fer des marais au Danemark
- Les minerais de fer des marais et des lacs sont des dépôts colloïdaux laissés par les eaux tourbeuses qui ont lessivé le fer des terrains qu’elles traversent. Ils sont constitués de limonite impure, souillée par de l’argile et du sable. On attribue leur formation à l’action d’algues et de bactéries, action qui se poursuit de nos jours dans les régions marécageuses en Suède, en Allemagne, au Danemark, etc. La couleur des dépôts varie de l’ocre au brun clair, et au noir s’ils contiennent du manganèse.
- Au Danemark des minerais de fer des marais sont exploités dans la partie méridionale du Jutland depuis 1951. Depuis cette date jusqu’à 1955 les exportations ont porté sur 557 000 t. Elles se maintiennent actuellement à un peu plus de 100 000 t par an. Le minerai riche est livré aux usines sidérurgiques d’Allemagne, l’ocre est utilisé comme masse d’épuration des usines à gaz de Grande-Bretagne, de Suède et de Norvège. L’exportation du minerai riche en manganèse est interdite ; il sert au Danemark à la préparation du sulfate de manganèse, qui est utilisé comme engrais et même comme adjuvant aux rations alimentaires de certains animaux.
- L. P.
- p.229 - vue 233/527
-
-
-
- Un verre cristallin : le Pyrocéram
- Les verreries Corning ont annoncé récemment qu’elles avaient mis au point un matériau dérivé du verre et dont les propriétés sont tout à fait remarquables. Sa dureté le place en effet entre les aciers rapides et le saphir, il est plus léger que l’aluminium et conserve toutes ses propriétés jusqu’à 700° C. Le pyrocéram est, en fait, du verre polycristallin. On sait que le verre est une substance amorphe, c’est-à-dire un liquide figé. Il est donc dans un état instable et ne demande qu’à cristalliser, mais les conditions ordinaires de sa formation et de son emploi sont telles que les germes indispensables à la cristallisation ne sont jamais présents. Le nouveau procédé consiste donc, d’une part, à créer ces germes de cristallisation et, d’autre part, à placer le verre dans des conditions telles que la cristallisation se produise avec une vitesse suffisante.
- Pour cela, lors de la fabrication du verre, on y incorpore certaines substances telles que du cérium et du silicate de cuivre. Le verre est ensuite exposé à un rayonnement ultraviolet
- 8606
- 8605
- 8607 '
- Température
- 800 °C
- Fig:. 1. — Propriétés thermiques des pyrocérams.
- On voit nettement la grande variété de propriétés que l’on peut obtenir. On remarquera que l’échantillon 8607 se contracte quand on le chauffe.
- qui provoque une excitation photochimique du cérium et du cuivre. Il est ensuite porté à une température d’environ 900°. Les autres éléments du verre acquièrent alors une mobilité suffisante pour se grouper autour des germes que constituent les atomes de cérium et de cuivre excités. Il se forme ainsi une multitude de petits cristaux uniformément répartis dans la masse.
- Cette structure cristalline explique les propriétés exceptionnelles du pyrocéram. De par son mode d’élaboration, on voit qu’il est possible de faire varier à volonté son degré de cris-tallinité et par là ses propriétés, que l’on peut donc déterminer pour ainsi dire « sur mesures » : 4oo compositions différentes de pyrocéram ont déjà été fabriquées. Mais un faible nombre seulement de celles-ci ont été complètement étudiées. C’est ainsi que l’on a pu en faire varier le coefficient de dilatation depuis des valeurs légèrement négatives jusqu’à des valeurs de quelques cent-millièmes par degré.
- Considérons par exemple le pyrocéram désigné par le
- Fig:. 2. — Une pointe de pyrocéram rayant un bloc d’acier.
- (Photo U.S.l.S.).
- numéro 86o5. Sa densité est de 2,62 contre 2,70 à 2,80 pour les alliages d’aluminium. Sa résistance à la rupture est de 3o kg/mm2 et elle ne commence à décroître que vers 700° C. Il est plus dur que le silex et les aciers à haute teneur en carbone. Sa structure cristalline le rend très résistant à l’abrasion. Il est en outre imperméable aux gaz.
- C’est un excellent isolant et son facteur de pertes en haute fréquence le rend comparable aux meilleures céramiques. On songe déjà à l’employer dans le domaine des hyperfréquences (radar) pour remplacer la céramique dont le travail est souvent délicat.
- Les essais chimiques ne sont pas encore terminés mais d’ores et déjà on peut dire qu’il résiste aussi bien aux acides que le pyrex et mieux aux bases.
- Les propriétés optiques sont également remarquables. En faisant varier sa composition, on peut le rendre à Arolonté translucide, opaque ou transparent. Le prix du pyrocéram sera vraisemblablement intermédiaire entre celui du verre et celui des alliages qu’il sera amené à remplacer. Son intérêt prin-
- Fig. 3. — Cônes de fusée en pyrocéram.
- Aussitôt façonnés, ils sont rapidement transportés dans un four pour le recuit. Transparents avant ce traitement final, iis sortiront du four cristallins, blancs et opaques.
- (Photo Corning Glass Works).
- p.230 - vue 234/527
-
-
-
- 231
- cipal réside dans le lait que l’on peut le mouler avant de le traiter. On peut utiliser pour cela tous les procédés de façonnage habituellement employés pour le verre (moulage, soufflage, centrifugatio'n...), ce qui diminuera certainement le prix de revient. De même que le verre il a une très faible conductibilité calorifique, propriété qui, alliée à un faible coefficient de dilatation et à une très grande solidité mécanique* le rend particulièrement résistant aux chocs thermiques. On a pu sans dommage le tremper dans de l’eau-à 5° après l’avoir chauffé à 8oo°.
- Ces qualités le rendent intéressant pour la fabrication des cônes de fusées et il est dès maintenant utilisé dans ce domaine. D’autre part, en ne traitant par les ultraviolets qu’une partie du verre, on peut obtenir des échantillons qui ne soient que partiellement cristallins, ce qui permet par exemple de les
- rendres opaques en certains endroits et transparents en d’autres; ou encore, en utilisant les différences de solubilité dans l’acide fluorhydrique (les parties cristallines sont ioo ooo fois plus solubles que les parties amorphes), d’y forer très commodément des trous en le soumettant aux ultraviolets à travers un cache de forme appropriée. Ceci peut être utilisé pour la fabrication des masques perforés indispensables à la télévision en couleurs; ces masques comportent environ 3oo trous par centimètre carré, qui doivent être répartis avec une grande précision.
- Les qualités remarquables du pyrocéram permettent de prévoir également son emploi prochain dans la fabrication des tuyauteries utilisées pour l’industrie pétrolière.
- F. R. et R. R.
- Migrations artificielles
- de la Truite
- Fig. 1. — Ramassage des alevins de truites de Flea Creek à l’aide d’un filet de moustiquaire.
- {Photo aimablement communiquée par l’Ambassade d’Australie).
- pvEs soins tout particuliers sont prodigués à la truite dans les pays anglo-saxons où la pêche sportive de ce poisson a de nombreux et enthousiastes adeptes. Un acte de dévouement accompli récemment en Australie par les membres de l’Association des pêcheurs de Canberra illustre les attentions que les sportifs réservent en toutes occasions à leur victime favorite. Par suite d’une exceptionnelle sécheresse, un des cours d’eau les plus riches en truites des Alpes australiennes, Flea Creek, cessa de couler et les poissons, réfugiés dans les trous de la rivière, risquaient de périr, leurs asiles étant en voie de rapide évaporation. Alertés, les pêcheurs organisèrent une caravane de secours qui dut accomplir un pénible parcours à travers une région de montagnes abruptes et désolées.
- Le plan adopté était de transporter la population des truites, composée en majorité d’alevins, dans la Goodradigbee River, torrent encore alimenté d’eau et dont la Flea Creek est un affluent. A partir du confluent, les pêcheurs remontèrent le lit desséché sur plusieurs kilomètres : dans chaque trou d’eau, ils capturèrent les alevins au moyen de fins filets de moustiquaire. Le transport fut organisé méthodiquement, des équipes se relayant pour porter jusqu’aux eaux vives des bidons de lait où les petits poissons avaient été recueillis. L’opération, menée avec un plein succès, a permis de sauver quelques milliers de truites.
- Cet épisode de défense « intéressée » de la nature est à rapprocher de migrations artificielles de truites, à de bien plus longues distances, depuis tantôt un siècle. C’est, en effet, vers 1860 que des œufs de truites, recueillis en Grande-Bretagne et conservés
- vivants dans la glace, ont été acbeminés vers les rivières de Nouvelle-Zélande : ce pays, où ce poisson était inconnu, est devenu le paradis des pêcheurs de truites.
- D’autres échanges intercontinentaux de truites ont eu lieu entre la Grande-Bretagne et les Etats-Unis. C’est ainsi que les pêcheurs anglais ont périodiquement repeuplé leurs rivières, grâce à des truites arc-en-ciel venues d’outre-Océan. Le succès de ces opérations a souvent été mitigé : les poissons se reproduisaient sur plusieurs générations, sans pouvoir toutefois s’acclimater définitivement. De meilleurs résultats ont été obtenus dans le peuplement en truites des eaux douces de Tasmanie, de Ceylan, de Kashmir, de l’Union Sud-Africaine et du Kenya.
- Si, au total, les pêcheurs sportifs se félicitent de l’expansion de la truite, les biologistes font à ce sujet de très sérieuses réserves : l’introduction d’une espèce nouvelle apporte toujours des perturbations importantes dans la faune locale et risque même de provoquer l’extinction des espèces existantes. On se trouve parfois en présence d’une, prolifération des nouvelles venues qu’il est impossible de refréner et qui bouleverse un équilibre biologique séculaire.
- C’est ainsi que les truites de Nouvelle-Zélande ont considérablement réduit la pêche de l’anguille et de l’écrevisse. Introduites dans le Grand Lac de Tasmanie, elles sont en train de décimer un élément fort intéressant de la faune de ce lac, un crustacé d’une espèce archaïque qui n’existe en aucun autre point du globe. Ce crustacé n’a pu se maintenir que dans une zone très limitée et l’on s’attend à sa disparition définitive.
- p.231 - vue 235/527
-
-
-
- 232
- La 55e Exposition
- de la Société française de Physique
- Accueillie cetle année encore au Grand Palais, l’Exposition d’instruments et de matériel scientifiques organisée par la Société française de Physique a permis de se rendre compte des grandes tendances de la physique moderne. Bien que les instruments présentés se classent aussi bien parmi les appareils de laboratoire que parmi les appareils de contrôle industriel, ce qui traduit la complexité croissante des problèmes de production, et l’interpénétration de plus en plus nette de la science et de la technique, la science nécessitant, pour progresser, des techniques de plus en plus complexes et, réciproquement, l’industrie faisant de plus en plus appel à des notions scientifiques abstraites. Nous en avrons eu cette année deux exemples très caractéristiques.
- Le premier est celui de la résonance paramagnétique et nucléaire. Ces phénomènes découverts depuis peu ont été jugés si intéressants que des firmes industrielles ont entrepris de construire en série des appareils qui permettent de les étudier. Ces appareils serviront aussi bien à des recherches sur ces phénomènes eux-mêmes qu’à faire des analyses.
- Le second exemple nous est donné par le développement des applications des ultrasons. Ils s’étendent actuellement dans le domaine industriel grâce à l’apparition relativement récente des céramiques au titanate de haryum.
- Comme toujours, l’électronique tient une place de choix,
- mais elle semble quand meme en légère régression par rapport aux années précédentes ; cela tient à ce que les appareillages se stabilisent dans ce domaine.
- Comme chaque année, nous avons pu voir de nombreuses utilisations de la télévision industrielle : télémicroscopie, permettant à un grand nombre de personnes de regarder en même temps la même préparation, ou contrôle à distance à l’aide de caméras entièrement télécommandées. On peut, en effet, régler de loin la direction d’une caméra, sa mise au point et même la longueur focale de son objectif, que ce soit par quantités discrètes (tourelle à 3 ou 4 objectifs) ou continûment (objectifs « Pancinor » télécommandés). La société Thomson-Houston présente cette année une caméra de télévision en couleurs (on peut regretter qu’elle n’ait pas été montrée en fonctionnement). Reliée par câble à des récepteurs trichromes, elle permet une reproduction, paraît-il, extrêmement fidèle des couleurs; elle est destinée surtout à l’enseignement médical et éventuellement au contrôle des flammes de réacteurs ou même aux présentations de mode dans les grands magasins.
- Le lecteur trouvera, dans les pages qui suivent, des études succinctes sur des appareils qui nous ont semblé parmi les plus intéressants. Il est bien évident que tous les appareils présentés méritent l’attention à plus d’un titre, mais nous avons dû faire un choix. Espérons qu’il ne sera pas jugé trop arbitraire. F. R.
- Appareils utilisant les ultrasons
- La technique des ultrasons s’est considérablement développée au cours des dernières années; de très nombreux appareils utilisant les ultrasons ont été présentés à l’Exposition de Physique. Leur faible longueur d’onde confère aux ultrasons des propriétés particulières : on peut en obtenir des faisceaux à peu près parallèles, ce qui est impossible avec les ondes sonores; d’autre part, la concentration de l’énergie dans un faisceau d’ultrasons peut atteindre des Araleurs très élevées. D’une manière générale, un
- générateur d’ultrasons comprend un émetteur constitué par un oscillateur électronique et un vibrateur qui transforme l’énergie électrique en une vibration mécanique. Le vibrateur peut être du type piézoélectrique ou du type magnétostrictif.
- L’utilisation des cristaux piézoélectriques est basée sur le fait que, soumis à un champ électrique, ils subissent des variations d’épaisseur au rythme même des oscillations électriques. Pendant longtemps le quartz a été le seul cristal piézoélectrique uti-
- p.232 - vue 236/527
-
-
-
- 233
- Fis 2. — « Simulation d’une centrale nucléaire » de l’E.D.F.
- Installation de calcul analogique conçue et utilisée par l’Électricité été France pour l’étude préalable de la centrale nucléaire de Ghinon (Photo A.D.P.)
- lise ; il permettait la production d’ondes ultrasonores de fréquences élevées, de i à i5 Mc/s, la production de fréquences faibles conduisant à des épaisseurs de quartz inacceptables. Depuis quelques années, les quartz naturels tendent à être remplacés par des céramiques artificielles au titanate de baryum qui, soumises à des tensions électriques élevées, de l’ordre de 20 ooo V ! cm prennent une polarisation permanente.
- Les mosaïques ainsi traitées, placées dans un champ électrique alternatif, subissent des variations d’épaisseur, comme les quartz. Mais l’effet obtenu est plus important et, d’autre part, on peut obtenir avec ce matériau des formes et des dimensions quelconques. De plus, on peut opérer à des tensions plus faibles, ce qui simplifie les précautions d’isolement. Cependant, le titanate de baryum n’est utilisable qu’au-dessous de 120° C (au-dessus, il devient cubique et ne présente plus le phénomène de piézoélectricité) et, de plus, le champ alternatif a tendance à dépolariser les cristaux de titanate de baryum, de sorte que le champ maximum admissible est de 6 000 Y/cm, ce qui limite la puissance électrique applicable.
- Il n’en reste pas moins que ces céramiques sont de plus en plus employées ; elles permettent en effet de disposer d’un éventail de fréquences beaucoup plus étendu qu’avec le quartz et les émetteurs à magnétostriction. On sait que le phénomène de magnétostriction consiste en une variation de longueur d’un barreau ferromagnétique placé à l’intérieur d’un solénoïde. Le métal le plus employé est le nickel, mais les dimensions du barreau à utiliser deviennent trop petites lorsque la fréquence augmente, ce qui explique que l’on ne peut guère dépasser 80 000 c/s.
- Les applications des ultrasons sont extrêmement nombreuses; nous nous bornerons ici à celles qui ont fait l’objet d’appareils présentés à l’Exposition.
- Nettoyage par ultrasons. — Les ultrasons permettent des nettoyages et dégraissages industriels extrêmement poussés. Les pièces à nettoyer sont placées dans un bain détergent approprié (par exemple du trichloréthylène), bain qui est soumis à l’action d’un faisceau d’ultrasons. 11 se produit une agitation violente qui fait pénétrer l’agent de nettoyage dans les moin-
- dres recoins des pièces à traiter. En outre, les ultrasons accroissent l’effet du détergent et augmentent son action émulsionnante sur l’huile et la graisse pouvant se trouver sur les pièces, de sorte que l’efficacité du procédé est remarquable. Il est applicable à des pièces de natures très différentes : pièces d’horlogerie, de mécanique de précision, verres d’optique, roulements à billes, éléments de tubes électroniques, etc.
- La firme « Réalisations Ultrasoniques » présente différents modèles de machines à nettoyer. La machine « Gleansonic C-a-F » utilise un générateur à magnétostriction émettant un faisceau ultrasonore de 20 000 c/s et une cuve de 27 1 de 390 mm de diamètre. Une pompe assure la circulation continue du détergent à travers un système de filtres, réalisant ainsi sa régénération. Cette firme réalise également des machines automatiques de nettoyage qui soumettent les pièces à divers traitements tels que prélavage, rinçage, séchage, etc. La société Piézo-Céram-Ëlectronique présente deux machines à nettoyer qui utilisent des générateurs à titanate de baryum émettant des ultrasons à des fréquences élevées de 5oo 000 à 1 000 000 c/s.
- Ce procédé de nettoyage est certainement susceptible d’un grand développement dans l’avenir. Il permet en effet de concilier un nettoyage parfait en continu ou en discontinu avec une rentabilité élevée, grâce à une économie de main-d’œuvre et un gain de temps considérable puisque quelques dizaines de secondes suffisent le plus souvent, même pour des pièces de formes compliquées.
- Contrôle non destructif des matériaux. — Les ultrasons permettent de déceler des défauts dans les matériaux. Deux méthodes sont utilisées : la méthode par « écho » et celle par « transparence ».
- Lorsqu’un faisceau d’ultrasons arrive à la surface de séparation de deux milieux de natures très différentes, ce faisceau est presque totalement réfléchi. Dans la méthode par écho, un même système joue le rôle à la fois d’émetteur et de récepteur; c’est ce qui est réalisé par exemple dans l’appareil « Microradar » présenté par la firme Réalisations Ultrasoniques. L’impulsion de départ fait apparaître sur la gauche de l’écran d’un tube cathodique un signal lumineux vertical. Si l’on pose le palpeur
- p.233 - vue 237/527
-
-
-
- sur une pièce, on constate vers la .droite de l’écran un autre signal vertical figurant la paroi de la pièce, opposée au palpeur.
- Si Ja vibration ultrasonore rencontre un défaut dans son parcours, elle se réfléchit et le signal qui figure l’écho de fond diminue d’amplitude ou disparaît complètement. Il apparaît alors sur l’écran un autre signal qui se situe entre l’impulsion de départ et l’écho de fond, ce qui permet donc de déceler le défaut. Cet appareil permet en outre la mesure de l’épaisseur d’une pièce en partant d’une seule face, la distance entre l’impulsion de départ et l’écho de fond représentant cette épaisseur.
- Il suffit de procéder à un simple étalonnage. Cette méthode permet la détection des défauts et les mesures d’épaisseurs sur des produits très minces : à partir de o,5 mm dans l’acier et l’aluminium, 0,2 mm dans les plastiques, etc. Il suffit qu’une seule face soit accessible, ce qui permet de contrôler les conduites forcées, les coques de navires, etc.
- Dans la méthode par transparence, le faisceau d’ultrasons, après traversée de la pièce, est reçu sur un récepteur qui transmet le signal à un appareillage électronique qui l’affiche à son tour sur un écran cathodique. Si un défaut se présente sur le parcours des ultrasons, il arrêtera totalement ou partiellement le faisceau suivant son importance et l'énergie reçue au récepteur diminuera d’autant; on verra donc sur l’écran du tube cathodique le signal diminuer d’amplitude. Un appareil permettant le contrôle automatique des barres a été conçu sur ce principe par les Réalisations Ultrasoniques. La barre passe à l’intérieur d’une couronne de 18 traducteurs, 9 servant d’émetteurs et 9 de récepteurs. Ils sont reliés à un commutateur mettant en service un traducteur après l’autre, ce qui crée un faisceau ultrasonore tournant à xoo t/s. De cette manière, il arrive obligatoirement
- Deux spectrographes à
- Une nouvelle branche de la spectroscopic est née lorsque Cleeton et Williams ont découvert, en 1934, la première raie spectrale dans le domaine des fréquences radioélectriques. Le développement de la spectroscopic des radiofréquences s’est effectué très rapidement, et ses applications déjà nombreuses semblent promues à un très large avenir Z1). Comme les transitions optiques, les transitions hertziennes se traduisent par le passage d’un atome ou d’une molécule d’un niveau d’énergie à un autre, avec absorption ou émission d’un photon. Il s’agit cependant de niveaux d’énergie très rapprochés dont la différence est beaucoup plus petite qu’en optique, si bien que le photon qui est mis en jeu est de longueur d’onde bien plus grande et appartient au domaine radioélectrique. Dans les conditions habituelles, l’absorption l’emporte sur l’émission et les raies de radiofréquences apparaissent ordinairement en absorption.
- Parmi ces raies, pour lesquelles de nombreux mécanismes de production ont déjà pu être observés, les raies de résonance magnétique sont peut-être les plus intéressantes. Elles apparaissent chaque fois que l’on place dans un champ magnétique des atomes ou des molécules qui possèdent un moment magnétique. La théorie quantique prévoit que ce moment ne peut occuper, par rapport à la direction du champ magnétique, qu’un petit nombre d’orientations privilégiées. A chaque orientation correspond une énergie différente, et la transition du moment magnétique d’une de ses positions possibles à une autre s’accompagne de la libération ou de l'absorption d’un quantum d’énergie, c’est-à-dire d’un photon dont la longueur d’onde appartient au domaine radioélectrique.
- Lorsque le moment magnétique de l’atome provient d’un des
- 1. Voir : Le « Maser », amplificateur et oscillateur moléculaire, par J. Lequetjx, La Nature, décembre 1957 ; et, du même auteur : Une horloge atomique à césium, La Nature, février 1958.
- un moment où le défaut présente une surface maximum par rapport au faisceau; il devient alors nettement visible. 11 n’y a donc pas de zones incontrôlées; le contrôle est rapide puisque la vitesse de défilement des barres atteint 10 à i5 mm à la seconde pour un diamètre de 60 mm environ.
- De nombreux autres appareils fonctionnant sur des principes analogues sont présentés. Signalons par exemple un dispositif de sondage des rails mis au point par la firme Krautkrâmer pour les Chemins de fer fédéraux allemands (voir la photo de la couverture). Le dispositif permet le contrôle simultané des deux rails et avertit par signaux lumineux et acoustiques l’opérateur qui pousse le léger chariot sur la voie.
- Viscosimètre à ultrasons. — Les ultrasons permettent la mesure de la viscosité des liquides. L’appareil présenté par la maison Jobin et Yvon est basé sur le principe suivant. Une barre d’acier est plongée dans le liquide étudié et excitée par magnétostriction à une fréquence ultrasonique. Or l’amortissement des vibrations de la barre dépend de la viscosité du liquide ; un indicateur électronique relié à la barre mesure les variations d’amortissement. Cet appareil permet donc la mesure et l’enregistrement en continu de la viscosité de liquides immobiles ou en mouvement dans des canalisations. Il peut également commander des mélangeurs, des réchauffeurs, ou toutes autres installations destinées à modifier ou à maintenir à une valeur donnée la viscosité des liquides. La quantité minimale de liquide nécessaire est de 2 cm3. L’appareil peut fonctionner entre — 1200 et + 35o° C et jusqu’à plusieurs milliers d’atmosphères au moyen d’une sonde spéciale.
- R. R.
- résonance magnétique
- Fig. 3. — Spectrographe à résonance paramagnétique électronique, présenté au stand du C.N.R.S.
- De gauche à droite : l’armoire comprenant les dispositifs de variation du champ magnétique et l’oscilloscope, le spectrographe proprement dit dont on aperçoit la partie haute fréquence et un des pôles de l’aimant permanent, et les alimentations (Photo A.D.P.).
- électrons qui entourent le noyau, on dit que l’on a affaire à la résonance paramagnétique électronique. Comme les moments magnétiques des électrons s’annulent deux à deux, on ne pourra observer ce phénomène qu’en se servant d’atomes ou de molécules paramagnétiques qui comportent un nombre impair d’électrons. La première raie radioélectrique liée au
- p.234 - vue 238/527
-
-
-
- 235
- paramagnétisme a été observée en iq45 par le savant soviétique Zavoiskv. Pour étudier la résonance paramagnétique électronique, on utilise un spectrographe pour ondes hertziennes ultracourtes, dont un modèle perfectionné, conçu au laboratoire de Chimie physique de la Sorbonne et construit industriellement par la Société Intertechnique, vient d’être présenté à l’Exposition de la Société française de Physique (fig. 3).
- Le principe de cet appareil (fig. 4) consiste à observer l’absorption de résonance d’une onde radioélectrique par un échantillon paramagnétique qui est placé dans un champ magnétique. Cette absorption se produit pour une valeur de la fréquence qui est proportionnelle au champ magnétique. On peut donc explorer le spectre de résonance paramagnétique du matériau soit en faisant varier la fréquence de l’onde hertzienne et en laissant fixe le champ magnétique, soit à fréquence constante avec un champ variable. C’est cette dernière possibilité que l’on utilise le plus souvent. Ici l’onde radio est fournie par un klystron oscillant sur 7 100 Mc/s et se propage par guide d’oncle jusqu’à une cavité résonnante accordée sur cette fréquence, qui contient l’échantillon et qui est placée entre les pôles d’un fort aimant permanent. La fraction de l’onde qui n’est pas absorbée par résonance paramagnétique sort de la cavité et est dirigée, par un organe nommé circulaleur, vers un détecteur. Le signal détecté et amplifié est envoyé soit vers un enregistreur, soit sur les plaques verticales d’un oscilloscope cathodique. D’autre part, le champ magnétique varie lentement au cours du temps grâce à des bobines alimentées par un générateur de balayage : le spectre d’absorption de radiofréquences de l’échantillon est donc exploré de façon continue et s’inscrit sur l’enregistreur. Si, au lieu d’enregistrer le specti’e, on désire seulement le connaître rapidement et de façon moins précise, on peut l’observer sur l’oscilloscope : dans ce cas, il faut remplacer le balayage continu du champ magnétique par une modulation à basse fréquence, ce qui permet d’explorer le spectre plusieurs fois chaque seconde.
- La résonance paramagnétique électronique, que cet appareil permet d’étudier, offre un excellent moyen de connaître la structure des atomes et des molécules paramagnétiques. Son domaine couvre les ions des métaux de transition et des terres
- ’ Enregistreur Oscilloscope
- Détecteur
- Circu/ateur
- Guides
- d'onde
- Cavité
- balayage
- Gén.
- modulation
- Générateur H. F.
- résonnante Bobines de
- modulation et balayage
- Fig. 4. — Principe d’un spectrographe à résonance magnétique.
- Explications clans le texte. On peut observer le spectre soit par enregistrement, soit sur l’écran d’un oscilloscope (les connexions se font alors par le circuit en pointillé).
- rares dont elle permet de déterminer les niveaux d’énergie et la structure cristalline des complexes, et quelquefois d’effectuer le dosage. Des renseignements très précieux peuvent également en être déduits sur les impuretés des semi-conducteurs, qui sont aussi paramagnétiques. Mais le principal intérêt de la résonance paramagnétique concerne l’étude des radicaux libres, dont certains sont stables et d’autres jouent un très grand rôle comme intermédiaires des réactions chimiques. Comme cette branche récente de la chimie est en pleine expansion, on peut prédire un bel avenir aux spectrographes à résonance paramagnétique électronique.
- L’autre spectrographe en radiofréquences présenté à l’Exposition de la Société française de Physique par la firme suisse Trüb Tauber (fig. 5) concerne cette fois la résonance magné-
- Fig. 5. — Spectrographe à résonance magnétique nucléaire Trüb Tauber.
- A. gauche, l’aimant permanent, l’oscillateur à quartz et le préamplificateur du récepteur. L’armoire des alimentations et des commandes, l’oscilloscope et l’enregistreur sont également visibles sur cette photographie.
- (Photo A.D.P.).
- p.235 - vue 239/527
-
-
-
- 236
- tique nucléaire. De très nombreux noyaux atomiques présentent en effet un moment magnétique dont les propriétés sont tout à fait analogues à celles du moment électronique, et qui peut aussi occuper dans un champ magnétique diverses positions qui correspondent à autant de niveaux d’énergie. Mais les quantités d’énergie mises en jeu sont encore plus faibles que dans le cas de la résonance électronique, si bien que les fréquences couvertes par la résonance nucléaire sont bien plus basses, à champ magnétique égal. Aussi, la partie haute fréquence d’un spectrographe à résonance magnétique nucléaire, dont le principe est, par ailleurs, absolument analogue à celui du spectrographe électronique, n’utilise pas la technique des guides d’onde et des cavités résonnantes.
- L’échantillon est placé cette fois dans une bobine qui fait partie d’un circuit résonnant alimenté par un oscillateur à quartz. II faut prévoir autant d’oscillateurs et de récepteurs accordés que de noyaux atomiques à étudier : dans le spectrographe Triib Tàuber, dont l’aimant donne un champ magnétique de 6 ooo œrsteds environ, le domaine des fréquences des raies s’étend de quelques mégacycles/seconde à 3o Mc/s.
- La connaissance des‘niveaux d’énergie du noyau dans un
- CH, CH, OH
- Fig-. 6. — Spectre de résonance magnétique des protons de l’alcool éthylique.
- En abscisses, le champ magnétique. En ordonnées, l’absorption de l’onde radioélectrique. On voit les trois composantes de la raie, relatives aux trois groupements fonctionnels, qui sont elles-mêmes décomposées (d’après Endeavour, octobre 1957).
- champ magnétique est déjà fort intéressante en soi, mais une découverte fondamentale est venue décupler le champ des applications de la spectrographie de résonance magnétique nucléaire : on s’est aperçu en ig52 que les raies obtenues avec des échantillons liquides possèdent une structure complexe qui caractérise la nature de la molécule étudiée. L’observation de cette structure fine est très délicate car les inhomogénéités du champ
- Chromatographe
- Au cours des dernières années, la chromatographie en phase vapeur ou gazeuse est devenue un moyen d’analyse extrêmement puissant. Rappelons-en brièvement le principe : d’une manière générale on sait que la chromatographie est une méthode de séparation basée sur l’affinité différente des constituants d’un mélange entre une phase fixe et une phase mobile. La phase fixe peut être un corps adsorbant et, dans ce cas, on parle de chromatographie d’adsorption ; elle peut être un liquide, immobilisé au moyen d’un solide inerte, tout au moins théoriquement car, en fait, il a lui aussi le plus souvent des propriétés adsorbantes et son effet vient se superposer à celui du liquide; en général cependant cette influence reste faible. On parle dans ce cas de chromatographie de partage et le processus de séparation est analogue à celui de l’extraction continue. On appelle alors chromatographie gazeuse toutes les techniques chromatographiques dans lesquelles la phase mobile est constituée par un gaz. La séparation est effectuée de la façon suivante : on dispose un échantillon du mélange à l’entrée d’une colonne, puis on fait passer le gaz qui peut être de l’azote, de l’hélium ou tout autre gaz suivant les besoins.
- magnétique élargissent la raie d’absorption observée et peuvent brouiller complètement son aspect. On s’est attaché à réaliser un champ très homogène en se servant d’aimants permanents munis de bobines de stabilisation et de correction du champ. Pour de nombreuses raies, l’homogénéité n’est pas encore suffisante. On doit à Félix Bloch une méthode qui permet de tourner la difficulté : l’échantillon est animé, grâce à une petite turbine à air, d’un mouvement de rotation très rapide (qui atteint ici xo ooo t/mn), ce qui élimine l’effet des imperfections résiduelles du champ magnétique dans lequel il se trouve. On atteint de cette manière un pouvoir de résolution de io8 pour le specti’ographe Ti’iib Tàuber, qui permet d’observer aisément la structure de raies d’absorption très complexes, dont l’exploration est réalisée comme dans le spectrographe à résonance électronique par variation linéaire ou par modulation sinusoïdale du champ.
- L’origine de la structure fine des raies de résonance magnétique nucléaire se trouve dans les interactions entre les différents moments magnétiques pi’ésents dans la molécule. Ces moments modifient autour d’eux le champ magnétique et déplacent donc les énergies de résonance de leurs voisins. Par exemple, les protons (noyaux d’hydrogène) qui sont contenus dans la molécule d’alcool éthylique de formule CII3 — CH2 — OH donnent une l’aie triple dont les composantes proviennent respectivement des groupements méthyle, méthylène et hydroxyle, avec des intensités qui vont dans le rapport 3 — 2 — 1, donc proportionnelles au nombre des pi'otons dans chacun de ces groupements (fig. 6). Chaque composante est elle-même complexe, ce qui fournit encore de précieux renseignements. Cette méthode permet donc de délei’miner de façon relativement simple l’existence de tel ou tel groupement fonctionnel et sa position dans une molécule compliquée, et particulièrement de connaître la position des noyaux d’hydrogène dont le moment magnétique est grand. C’est par I’obsei’vation du spectre de résonance magnétique qu’Allinger a pu déterminer complètement la structui'e d’un composé qui ne comporte pas moins de 32 atomes de carbone, l’acide helvolique. Plus encore que les specti’ographes en ultraviolet et Raman, le spectrographe à résonance magnétique nucléaire, dont Trüb Taüber vient de construire le premier modèle industriel européen, est l’outil fondamental de la chimie structurale moderne, organique ou minérale.
- J. Lequeux.
- en phase vapeur
- L’échantillon est entraîné par le gaz porteur et il se produit tout au long de la colonne, une série d’adsorptions et de désorp-tions successives l'éalisant ainsi des équilibres liquide-vapeur instantanés et qui sont différents pour chacun des constituants du mélange. Il en résulte que les divers composants progressent dans la colonne à des vitesses différentes; à condition d’utiliser une longueur de colonne assez grande on obtient ainsi une sépai’ation du mélange en ses divers constituants. Il faut ensuite détecter à la sortie de la colonne chacun des corps purs entraînés par le gaz porteur. On utilise habituellement le fait que les corps à séparer ont des conductibilités thermiques différentes. Le détecteur ou catharomètre est réalisé sur le principe suivant : on constitue un pont de Wheatstone (fig. 7) dont deux des branches sont constituées par des fils de platine contenus dans des cellules à gaz. On fait circuler dans les deux cellules le gaz porteur seul et on équilibre le pont. Si on fait ensuite cii-culer dans l’une des cellules le gaz porteur seul et dans l’autre le gaz porteur et les corps purs séparés par la colonne au fur et à mesure de leur sortie de celle-ci, les conductibilités thermiques étant différentes, la température d’équi-
- p.236 - vue 240/527
-
-
-
- 237
- Gaz porteur + corps pur ' Cellule de mesure
- Cellule de référence
- Gaz porteur
- Source de tension
- Fig. 7. — Principe de fonctionnement du catharomètre.
- libre du fil varie et par conséquent aussi sa résistance; il en résulte un déséquilibre du pont, c’est-à-dire un courant entre A et B. Un enregistreur du type potentiomètre électronique enregistre la tension de déséquilibre du pont en fonction du temps. Un certain nombre de précautions sont nécessaires : la tension d'alimentation du pont doit être parfaitement constante; la vitesse de passage des gaz dans les cellules également et la température extérieure des cellules doit être bien définie.
- C’est sur ces principes qu’a été construit le chromatographe en phase vapeur présenté par la société Jobin et Yvon. On peut schématiser l’appareil de la façon suivante (fig. 8). Le gaz porteur contenu dans une bouteille est détendu à une pression de 2 kg/cm2; il passe ensuite dans un débitmètre situé en avant du dispositif d’introduction de l’échantillon, de sorte que l’étalonnage n’est pas affecté par la présence des corps séparés. Une vanne à aiguille permet de régler le débit du gaz porteur avec précision, et un manomètre indique la pression du gaz à l’entrée de la colonne. Le'gaz porteur passe alors dans un serpentin où il est réchauffé, puis dans la cellule de référence du catharomètre. On trouve ensuite le dispositif d’introduction de l’échantillon constitué par une chambre de faible volume permettant l’introduction des échantillons, soit par une seringue terminée par une aiguille hypodermique pour les liquides, soit par une vanne en acier inoxydable pour gaz et liquides et convenant pour des volumes plus importants. Le gaz porteur entraîne l’échantillon et passe alors dans une colonne en acier de 2 m de longueur et de 4 mm de diamètre.
- L’appareil peut, en fait, recevoir 5 colonnes de ce type montées en série, ce qui est important car la séparation des constituants d’un mélange exige une longueur minimum de colonne variable, suivant la nature de ce mélange. La cellule de mesure du catharomètre est alors traversée par le gaz porteur et les corps purs séparés qui sortent de la colonne. On obtient sur l’enregistreur une courbe qui présente une série de pics et l’aire de chaque pic est proportionnelle à la concentration du composant correspondant. Il suffit donc d’adjoindre à l’appareil un intégrateur électronique donnant une mesure de l’aire de chacun des pics pour réaliser une analyse quantitative. On peut monter à la sortie de l’appareil un dispositif de récupé-
- Détendeur
- B,
- \Serpentin de réchauffage i du gaz porteur ' Introduction
- Vanne
- Manomètre
- BruteiUe de Débitmètre gaz porteur
- Compartiment thermostaté
- Cellule de réfé
- | de/échantillon
- Colonne
- .Cellule
- de
- mesure
- Régulateur de température
- Pont de mesure
- Fig. 8. — Schéma du chromatographe Jobin et Yvon.
- Potentiomètre
- enregistreur
- ration constitué par une ou deux vannes à plusieurs voies permettant de diriger les fractions vers des récupérateurs, la récupération s’effectuant par barbotage, piège à froid, etc.
- L’ensemble compris entre le serpentin de réchauffage et la cellule de mesure est enfermé dans un compartiment thermo-stalé dont la température peut être réglée entre + 4o° et 3oo° C, ceci à ± 0,2 pour ioo au moyen d’un régulateur. Un groupe réfrigérateur peut être, en outre, incorporé à l’appareil; il permet de réguler la température entre — 20° et + 4o° C. Enfin, l’appareil peut être rendu entièrement automatique au moyen d’un programme commandé par un moteur synchrone qui réalise le cycle complet des opérations : introduction de l’échantillon, vérification de l’équilibre du pont, etc. Cet appareil est donc susceptible d’être utilisé aussi bien pour des travaux de recherches que pour des travaux de routine. La possibilité d’y installer des colonnes dont la longueur peut atteindre io m permet de séparer des corps extrêmement voisins. D’autre part, le volume de gaz porteur qu’il faut faire passer dans l’appareil pour faire sortir un corps pur déterminé est caractéristique de ce corps dans des conditions données. Il peut donc servir en analyse qualitative et ceci d’autant plus que si le débit du gaz porteur est maintenu constant, on est ramené à la mesure d’un temps. Si l’on ne dispose d’aucune information sur le mélange, les corps purs qui émergent du chromatographe peuvent être étudiés au spectrophotomètre ou au spectromètre de masse. L’analyse des traces est également possible, une déviation appréciable de l’enregistreur étant obtenue pour des concentrations de l’ordre de 2. io~6.
- Le domaine d’emploi de cet appareil est extrêmement vaste; tous les corps depuis les gaz jusqu’aux liquides bouillant à 4oo° C en sont justiciables; il a donc une place dans les industries qui effectuent des analyses de gaz naturels, de produits de combustion, d’huiles essentielles, de parfums, etc.
- R. R.
- p.237 - vue 241/527
-
-
-
- 238
- Thermobalances à enregistrement continu
- L’élude de problèmes variés impose souvent de suivre les variations de masse d’une substance soumise à des traitements divers : chauffage, refroidissement, action d’un gaz, du vide, de la lumière, etc. Aussi, depuis longtemps déjà, de nombreux chercheurs se sont-ils préoccupés de réaliser des instruments qui permettent de suivre et d’enregistrer les variations de masse d’un système, et ceci sans arrêter les traitements en cours.
- D’une manière générale, les thermobalances permettent l’étude de toute réaction qui s’accompagne d’une variation de poids. Prenons quelques exemples. Les courbes obtenues lorsqu’on chauffe un précipité à diverses températures, courbes qui représentent les variations de poids en fonction du temps, permettent de déterminer dans quelles conditions exactes un précipité doit être séché ou calciné pour que l’on obtienne un produit de composition définie. Les résultats obtenus permettent ainsi de fixer les conditions correctes de la gravimétrie classique. L’oxydation des métaux à haute température est un problème très important, surtout lorsqu’ils ont une utilisation technique comme le cuivre ou les aciers. Or l’oxydation s’accompagne d’une augmentation de masse; par suite, le phénomène peut être suivi avec une balance à enregistrement continu, permettant ainsi la détermination de la cinétique de l’oxydation. La thermobalance est également très utile dans l’étude des décom-
- Fercloux
- Nacelle
- Bobine
- Cellule
- photoèlectriqui
- Ecran
- Lentille
- Source
- Fig. 10. — Principe de fonctionnement de la balance enregistreuse en continu de la société D.A.M.
- positions thermiques : l’échantillon est soumis à un échauffe-ment suivant une loi déterminée et l’enregistrement de la variation de masse permet de suivre le progrès de la décomposition.
- On peut d’ailleurs arrêter l’expérience après chaque départ de substance et analyser les résidus, ce qui permet d’établir le processus réactionnel. C’est ainsi qu’ont été étudiées récemment diverses réactions comme la décomposition thermique de l’hydrargillite, de la bochmite, de l’hypophosphite de
- Fig. 11. — La thermobalance électronique Ugine-Eyraud.
- On distingue à droite le tube-laboratoire qui contient la nacelle et qui est recouvert du four. A gauche se trouvent le système optique, la bobine et
- le fer doux.
- (Photo A.. Gamet ; Société D.A.M.).
- sodium, etc. Remarquons d’ailleurs que dans l’étude de ces décompositions, de nombreux phénomènes perturbateurs limitent ou conditionnent l’évolution chimique des corps solides soumis à réchauffement; par suite, il peut être indispensable d’opérer sous vide ou sous atmosphère contrôlée.
- Ces quelques exemples montrent l’intérêt qu’il y a souvent à utiliser une balance à enregistrement continu.
- La Société D.A.M. présente un tel appareil dont le principe de fonctionnement est le suivant (fîg. io).
- Le fléau de la balance porte suspendu au couteau de gauche une masse de fer doux et un écran; cet écran intercepte partiellement le faisceau lumineux issu d’une lampe électrique, concentré par une lentille, et il règle ainsi l’éclairement d’une cellule photoélectrique. Le courant issu de la cellule est amplifié et traverse ensuite une bobine à profil spécial, dans l’axe de laquelle est placé le fer doux. A l’extrémité droite du fléau est suspendue la nacelle qui contient le produit à étudier. Supposons, par exemple, qu’il y ait un accroissement de poids; le fléau bascule vers la droite, d’où une augmentation de l’éclairement de la cellule photoélectrique, donc du courant qui traverse la bobine, donc de la force exercée par le champ magnétique sur le fer doux.
- Cette augmentation de force compense l’augmentation de poids du produit étudié et, comme la section du faisceau lumineux est très faible au voisinage de l’écran, il s’ensuit qu’au coui's de l’enregistrement le fléau conserve une position sensiblement invariante. Les variations de poids sont mesurées par le courant issu de la cellule photoélectrique. Ce courant crée une différence de potentiel que l’on enregistre au moyen d’un appareil convenable. Un calcul simple montre que la variation de poids entre deux instants est proportionnelle à la différence des carrés des tensions à ces deux instants. L’utilisation d’un potentiomètre enregistreur, comportant un discriminateur de force électromotrice de façon à pouvoir régler l’origine de la courbe d’enregistrement, permet, d’une part de ne pas utiliser des champs magnétiques trop faibles pour lesquels l’aimantation du fer n’est pas encore une fonction linéaire du
- p.238 - vue 242/527
-
-
-
- 239
- champ magnétique, d’autre part d’enregistrer des pertes de poids dans une région de l’échelle parabolique assez éloignée de l’origine, et par conséquent d’obtenir des allures de courbes assez voisines de celles qu’on obtiendrait en échelle linéaire, car on peut alors en première approximation confondre une portion de parabole avec une droite.
- La portée utile de l’appareil est de ioo g, ce qui est assez exceptionnel pour ce genre d’appareil et le constructeur garantit une sensibilité et une fidélité meilleures que le vingtième de milligramme. La balance est livrée avec un équipage permettant l’enregistrement d’une perte de poids de o à xoo mg. Des cavaliers permettent de procéder à un étalonnage et la balance peut être aisément modifiée pour pouvoir atteindre des pertes de poids supérieures.
- Une des caractéristiques les plus intéressantes de cette balance est qu’on peut faire le vide dans l’ensemble de l’appareil. La pression résiduelle que l’on peut tenir dans l’enceinte pendant 24 h sans pompage est de 0,01 mm de mercure. En outre, l’intérieur de l’appareil a subi un traitement spécial qui donne une protection superficielle sans risque de produire un dégazage lent. Enfin, un système de circulation de gaz a été prévu de sorte que l’on peut soit capter les gaz provenant de la transformation des produits étudiés en vue de l’analyse de l’atmosphère qui règne dans le tube-laboratoire où est placée la nacelle, soit opérer en almosphère contrôlée, soit encore effectuer un balayage qui entraîne les produits dégagés lorsque ceux-ci sont corrosifs, donc réaliser la protection de l’appareil. Le four permet des études entre la température ambiante et i ooo° C environ. En conclusion, cette balance nous paraît avoir été l’objet d’une mise au point particulièrement soignée, et elle présente un ensemble de performances rarement atteintes dans ce type d’appareil.
- Le C.N.R.S. présente également un appareil permettant à la fois l’analyse thermogravimétx'ique et l’analyse thei'mique dif-
- Cr eu sets
- Thermocouples
- Pastille
- 'Masse lotte d’équilibrage
- P—Q
- Cylindre
- calibré
- Moteur..
- Cylindre
- compensateur
- Fig. 12. — Schéma de l’appareil d’analyses différentielles et pondérales simultanées du C.N.R.S.
- férentielle (fig. 12), méthodes qui, utilisées simultanément, pei'-mettent d’obtenir de nombreux renseignements dans l’étude des changements d’état physique d’un échantillon soumis à une loi de chauffe déterminée. La balance enregistreuse est du type à équilibre constant, c’est-à-dire que l’échantillon a une position parfaitement définie et invariante au cours de l’opération,
- ce qui permet en particulier de repérer sa température avec précision.
- Le principe de fonctionnement est le suivant : le fléau supporte d’un côté l’ensemble destiné à maintenir les creusets, ainsi qu’un cylindre calibré qui plonge partiellement dans une cuve et reçoit, de la part du fluide de la cuve, une poussée définie. Lorsque le creuset contenant la substance à étudier subit une variation de masse, il en résulte un déplacement vertical du cylindre par rapport au niveau du liquide. Pour ramener la balance à sa position première, il suffit de provoquer une variation égale et de signe contraire du niveau du liquide, ce qui est obtenu en déplaçant vei’ticalement un autre cylindre qui plonge lui aussi dans la cuve. Le mouvement de ce cylindre compensateur est assuré par un moteur à double sens de marche commandé de la façon suivante. L’extrémité gauche du fléau se termine par une tige susceptible de réaliser un contact électrique avec une pastille fixe. Supposons que la masse diminue, le cylindre relié au fléau s’élève; il faut donc que le cylindre compensateur s’enfonce dans le liquide pour rétablir l’équilibi’e. Or, en meme temps, la tige vient toucher la pastille; il suffit donc que l’appareil soit monté de façon que, lorsqu’il y a contact, le sens de rotation du moteur soit tel que le cylindre compensateur s’enfonce dans la cuve, ce qui est obtenu au moyen d’un relais simple. Un index solidaire du mouvement du moteur permet l’enregistrement des variations de masse de l’échantillon. Quant à l’analyse thermique, elle est effectuée suivant la méthode classique : deux thermocouples plongent respectivement dans la substance étudiée et dans une substance qui ne subit aucune transformation dans le domaine de température étudié. Si la substance étudiée subit une transformation s’accompagnant d’un dégagement ou d’une absorption de chaleur, il va en x’ésulter une différence de température entre les deux creusets que l’on eni’egistre. On mesui’e, en outre, séparément la température de l’échantillon au moyen d’un autre thermocouple fixé à la partie supérieure du four. L’emploi d’un millivoltmètre à ti'ois voies permet de gi’ouper sur un même diagramme les trois courbes caractéristiques.
- Cette méthode permet de déterminer l’ensemble des phénomènes qui se produisent au cours d’une dissociation thermique, alors que l’emploi d’une seule des deux méthodes, analyse thermogravimétrique ou analyse thermique différentielle, n’est pas toujours suffisant. Par exemple, lors de la déshydratation de la kaolinite qui est un silico-aluminate bydi'até, la courbe d’analyse thei'mique montre qu’il se produit une x’ecrislallisation à 960°, réaction exothermique sans variation de masse, donc impossible à déceler par la méthode thermogravimétrique. Cet appareil permet donc d’avoir des renseignements extrêmement complets en une seule expé-l'ience.
- R. R.
- Horloge à quartz à transistors
- Les horloges à quartz, qui donnent le temps avec une précision remarquable grâce à la stabilité de leur oscillateur piézoélectrique, sont souvent très lourdes et volumineuses. Le Centre national d’étude des Télécommunications a songé à remplacer les nombreux tubes électi’oniques qu’elles contiennent par des transistors : il en est résulté une réduction considérable de la consommation de coui’ant (5o mA fournis par une batterie de 12 V) et surtout de l’encombrement, puisque l’appareil présenté à l’exposition de la Société française de Pliysique n’est pas plus grand qu’un récepteur de radio ordinaire. Les performances sont cependant comparables à celles d’une horloge à quartz classique; elle fournit à volonté une fréquence stabilisée (100 kc/s) ou des impulsions qui servent de marques de temps.
- J. L.
- p.239 - vue 243/527
-
-
-
- 240
- Spectrophotomètre automatique
- Les méthodes de dosages spectrophotométriques connaissent actuellement un développement considérable. Grâce, en effet, à un choix judicieux des conditions opératoires, elles peuvent s’appliquer à un très grand nombre de dosages avec une précision suffisante.
- Rappelons-en le principe : Supposons qu’un faisceau de lumière monochromatique traverse une épaisseur déterminée d’un corps absorbant. Une partie de la lumière est absorbée et on appelle densité optique le rapport de l’intensité du faisceau lumineux à l’entrée de la solution à son intensité à la sortie. Or, le logarithme de la densité optique est proportionnel à la concentration du corps absorbant. Un simple étalonnage au moyen d’une solution de concentration connue permet donc de réaliser un dosage par mesure de la densité optique. Mais pour la mise au point d’un dosage, il faut au préalable déterminer le ou les domaines de longueur d’onde où la substance à doser absorbe le mieux la lumière. Par suite, on doit tracer d’abord la courbe d’absorption de la substance considérée en fonction de la longueur d’onde. On choisit ensuite la longueur d’onde la mieux appropriée au dosage, choix qui peut être délicat lorsqu’il s’agit d’un mélange car il faut dans ce cas se placer à une longueur d’onde où seul le corps à doser absorbe. En fait, de nombreuses méthodes permettent l’élimination des substances gênantes sans séparation, mais la place nous manque pour les développer. Nous voyons donc qu’en définitive la mise au point et le dosage proprement dit se ramènent à des mesures de densité optique.
- Le spectrophotomètre présenté par les Établissements Jouan permet ces mesures avec une très gi’ande précision. Le principe de l’appareil est le suivant (fig. i3). Le faisceau lumineux issu de la source est modulé à fréquence élevée au moyen d’un disque perforé entraîné par un moteur à vitesse constante. U tombe ensuite sur un monochromateur à prisme de quartz qui couvre une échelle de longueurs d’onde comprises entre 220
- Miroir concave
- Prisme
- Figr. 13. — Schéma
- de principe du spectrophotomètre Jouan.
- Pentes
- Source
- lumineuse
- Persiennes
- Canal mesure
- Cellule
- Commutaleur
- synchrone
- Canal référence
- Moleun
- Galvanomètre de zéro
- Fig. 14. — Le spectrophotomètre Jouan.
- et 1 o4o ma, c’est-à-dire du proche ultraviolet au proche infrarouge, puis il est renvoyé alternativement à travers la cuve, de mesure et la cuve de référence au moyen de deux miroirs. L’un des miroirs est constitué en effet par un disque tournant entraîné par un moteur et comporte un secteur réfléchissant et. un secteur ouvert. Lorsque la partie réfléchissante se trouve intercalée sur le faisceau, celui-ci se trouve dirigé à travers la cuve qui contient la solution à mesurer. Lorsque le faisceau traverse le secteur ouvert du disque, il atteint le second miroir qui est fixe et passe à travers la cuve qui contient la solution témoin. La caractéristique essentielle de l’appareil est que les flux lumineux sont optiquement égalisés, avant amplification, ceci au moyen de deux persiennes tournantes, l’une permettant l’égalisation des flux avant la mise en place de la solution à mesurer, l’autre servant à la mesure de l’absorption après mise en place de cette solution. La position de cette personne repérée avec précision indique directement la densité oplique relative d’une cuve par rapport à l’autre.
- La comparaison de l’intensité des deux faisceaux est effectuée au moyen d’une cellule photoélectrique qui reçoit alternativement les deux faisceaux, d’où production d’un courant qui est modulé puisque le flux lumineux issu de la source est lui-même modulé. Ceci est très important car la modulation permet l’amplification au moyen d’un amplificateur alternatif, comportant, des filtres de bandes accordés sur cette fréquence de modulation, d’où la possibilité d’un très grand gain tout en éliminant pratiquement le bruit de fond. Le courant amplifié est ensuite redressé et envoyé dans un galvanomètre de zéro. Il faut par suite que les courants qui correspondent au trajet du faisceau lumineux, soit à travers la cuve témoin, soit à travers la cuve de mesure, traversent le galvanomètre en sens opposé. Ceci est obtenu au moyen de relais inversant le sens
- p.240 - vue 244/527
-
-
-
- de passage dans le galvanomètre en accord avec la traversée des cuves, relais qui sont commandés par le commutateur solidaire du miroir tournant. Les avantages qui résultent du principe de cet appareil sont nombreux : étant donné l’alternance des flux à travers les deux cuves, on fait une véritable mesure statistiqne en un temps très court, de l’ordre de 5 s; la rapidité de l’opposition fait qué les variations de la source lumineuse n’influent pas sur la mesure, de sorte que l’appareil peut ainsi être alimenté par le secteur. La précision des mesures est de l’ordre de deux millièmes.
- L’appareil existe sous deux formes, l’une entièrement automatique, l’autre semi-automatique. L’enregistrement automatique permet de faire défiler les longueurs d’onde en assurant électriquement la rotation du prisme et, de manière synchrone, celle d’un tambour porteur d’une feuille d’enregistrement. Sur ce tambour se déplace verticalement un stylet inscripleur dont
- la position varie en fonction de l’absorption. Chacune des fonctions de l’appareil est asservie séparément : contrôle automatique de sensibilité effectué par l’intermédiaire de relais qui commandent, en fonction du niveau de sortie de l’amplificateur, la largeur de fente du monochromateur. Un autre ensemble de relais commande en fonction du sens de déséquilibre optique un moteur à double sens de marche qui rétablit automatiquement l’égalité des flux, en agissant sur la persienne de mesure. Le prisme est aussi entraîné, et il est bloqué toutes les fois que l’équilibre des flux n’est pas réalisé; il en est de même du dispositif de pointage. Dans l’appareil semi-automatique, les réglages de longueur d’onde, de sensibilité et d’égalisation des faisceaux sont effectués par l’opérateur. L’appareil permet également les études de cinétique, grâce à un dispositif spécial qui fait tourner le tambour en fonction du temps, indépendamment du prisme. R. R.
- Coupleur électro-magnétique à poudre
- Depuis quelque temps sont apparues sur le marché des voitures sans pédale d’embrayage. Ces voitures sont munies d’embrayages automatiques, en général électro-magnétiques. La maison Jaeger, qui fabrique un modèle d’embrayage de ce type, le présente cette année à l’Exposition de Physique; elle présente aussi de petits embrayages fondés sur le même principe, mais destinés à des servomécanismes ou à de petits moteurs.
- Ces appareils sont extrêmement intéressants dans de nombreuses applications mécaniques. En particulier, nous avons pu voir au stand Jaeger quelques expériences assez frappantes, par exemple un moteur entraînant une poulie par l’intermédiaire d’un tel embrayage. Sur cette poulie vient s’enrouler un fil lesté par un poids : suivant l’intensité du courant qui passe dans le coupleur, le moteur tournant toujours à la même vitesse, on peut soulever le poids à une vitesse réglable, le maintenir à une position fixe, ou le faire descendre lentement. Cette expérience résume assez bien les propriétés du coupleur électromagnétique. Examinons son fonctionnement,.
- Le coupleur comporte trois parties essentielles : un primaire relié au moteur et constitué principalement par un volant en matériau magnétique, un secondaire relié au récepteur de puissance, et un bobinage solidaire du primaire alimenté par deux bagues collectrices qui crée un flux magnétique entre les deux pièces précédentes.
- Cet espace est rempli d’une poudre magnétique qui, sous l’influence du champ auquel elle est. soumise, s’agglomère d’autant plus que le champ est: plus intense; au delà d’une certaine valeur du champ, la poudre établit un lien rigide entre les deux pièces. En deçà de cette valeur, elle permet au secondaire de « glisser » par rapport au primaire, c’est-à-dire de tourner moins vite. Mais ce qui est remarquable, c’est que pour une intensité donnée de courant et quel que soit le glissement, le couple transmis est le même, ce qui permettait dans l’expérience citée plus haut de maintenir le poids en place pour une valeur convenable du courant (telle que le couple transmis équilibre exactement celui exercé par le poids sur la poulie).
- En ce qui concerne les embrayages de voilures, le courant circulant dans le bobinage est donné par la dynamo et augmente donc avec la vitesse du moteur : au démarrage, le courant est faible et l’ernbrayage « patine » mais transmet néanmoins un couple important, puis au fur et à mesure que la vitesse augmente, le courant augmente également et finalement l’embrayage réalise une liaison rigide entre les roues et le moteur. Au moment de changer de vitesse, un contact électrique placé sur le levier coupe le courant, ce qui revient à débrayer comme une voiture de type classique.
- 1, primaire entraîné par le moteur ; 2, collecteurs servant à alimenter le bobinage en courant électrique ; 3, bobinage créant le champ magnétique ; 4, secondaire relié à l’organe d’utilisation ; 5, entrefer ; dans cet espace très réduit se trouve la poudre magnétique qui assure la liaison entre primaire et secondaire. Le coupleur figuré ici est du type de ceux utilisés dans les automobiles.
- Lors des débuts de ces appareils, la poudre employée arrivait à s’oxyder du fait des températures assez élevées (de l’ordre de 3oo° à 4oo°) que prenait le système. En effet dans tous les embrayages, par définition même, une partie de la puissance est transformée en chaleur, ce qui provoque des élévations importantes de température. On a mis au point maintenant des poudres d’acier inoxydable, à base de chrome et d’aluminium, résistant convenablement à goo° C. 11 semble que l’en-semble soit maintenant bien au point et permette des usages industriels variés. Le seul reproche que l’on puisse faire, c’est d’être à la merci d’une panne brusque de courant ou d’une rupture du circuit électrique, et il est à souhaiter que des systèmes de sécurité puissent lui être adjoints en certains cas.
- F. R.
- p.241 - vue 245/527
-
-
-
- 242
- Nouveaux oscilloscopes
- En madère d’oscilloscopes, les nouveautés cette année sont de deux sortes. Tout d’abord il faut signaler l’apparition sur le marché d’oscilloscopes de hautes performances de fabrication française. On peut signaler la nouvelle série Ribet-Desjardins qui doit sortir dans le courant de l’année ainsi que le synchro-scope de Lérès. Tous ces appareils peuvent se comparer, en ce qui concerne les performances annoncées et la commodité
- Fig:. 16. — Schéma du mêmo-scope.
- 1, couche mémoire ; 2, grille repoussant les ions ; 3, canon à électrons secondaires ; 4, plateaux de déflexion ; 5, canon à électrons principal ; 6, grille colleclant les
- électrons secondaires ; 7, écran fluorescent ordinaire.
- d’emploi, aux meilleurs appareils étrangers. Reste à savoir évidemment quelles seront leurs qualités de robustesse et de longévité.
- Line autre nouveauté est constituée par le « Mémo-scope » Hughes. Cet. appareil se présente comme un oscillographe normal, mais son écran est constitué de telle sorte qu’il permet de conserver indéfiniment la trace du phénomène enregistré. Cette propriété est utile, surtout lorsqu’on a affaire à un phénomène unique et rapide. On évite ainsi d’avoir à photographier le phénomène, ce qui entraîne toujours des temps morts et des frais supplémentaires. Une fois la trace enregistrée et étudiée à loisir, on peut l’effacer en appuyant sur un bouton.
- L’ame du mémo-scope est constituée par le « mémotron »,
- tube cathodique spécial qui comprend, en plus des éléments ordinaires, un canon à électrons lents, une couche spéciale constituant la mémoire et une grille collectrice d’électrons secondaires.
- Dans un premier stade, le tube fonctionne de façon normale : Je balayage horizontal est déclenché par le phénomène à observer et le pinceau d’électrons rapides issu du canon principal décrit la courbe à enregistrer; les électrons tombent sur la couche mémoire, ils extraient de cette couche des électrons secondaires en plus grand nombre, créant ainsi une trace chargée positivement; la constitution de la couche est telle que cette trace subsiste indéfiniment. Les électrons secondaires émis sont collectés par la grille positive placée à cet effet.
- Dans un stade suivant intervient un deuxième canon à électrons, qui illumine toute la surface de l’écran. En simplifiant quelque peu, on peut dire que les électrons ne traversent la couche mémoire qu’aux endroits où celle-ci est chargée positivement; une fois cette couche traversée, les électrons sont accélérés par une dernière grille qui leur donne une vitesse suffisante pour illuminer l’écran. L’effacement est obtenu en annulant le potentiel de la grille collectrice d’électrons secondaires; les électrons, n’étant plus éliminés, « bouchent » rapidement la trace positive de la couche mémoire, permettant ainsi d’effacer à volonté la trace sur l’écran.
- Cet appareil peut être utilisé soit comme oscillographe ordinaire, soit avec le système à mémoire; il permet, comme nous l’avons dit, d’enregistrer des phénomènes uniques et aussi de tracer des courbes de réponses, sans avoir à faire varier des paramètres de façon périodique; il suflit de leur faire décrire un seul cycle, ce qui simplifie de nombreux montages.
- Nous avons vu d’autre part au Stand Intertechnique un oscillographe ultra-rapide. Il peut analyser des phénomènes se répétant jusqu’à 2 milliards de fois par seconde (bande passante de 2 ooo mégacycles). Le spot de 4o microns de diamètre seulement met pour parcourir l’écran le même temps que la lumière pour parcourir 3 cm.
- Cet appareil exceptionnel possède un tube cathodique à ondes progressives. Ce type de tubes a été mis au point ces dernières années pour être utilisé dans le domaine des hyperfréquences (radar et relais hertziens).
- F. R.
- Moteur à circuits imprimés
- La technique des servomécanismes, qui a fait des progrès constants ces dernières années, nécessite des moteurs spéciaux. En particulier on exige que l’inertie de ces éléments soit faible, leur permettant ainsi de démarrer très rapidement de façon à ne pas augmenter outre mesure le temps de réponse de la chaîne d’asservissement. C’est ainsi que l’on a déjà vu apparaître les « moteurs aiguille » de forme très allongée, cette forme permettant de diminuer l’inertie tout en conservant la même puissance. Celte année la Société d'Électronique et d’Automatisme (S.E.A.) présente un nouveau type de moteur : je bobinage du rotor est imprimé sur un disque isolant, suivant une technique maintenant répandue et qui vit le jour dans l’industrie électronique. Le rotor présente ainsi un faible poids et une inertie réduite; les conducteurs imprimés ont évidemment une section très faible, mais ils se trouvent dans de bonnes conditions de refroidissement, ce qui leur permet de supporter de grandes densités de courant : jusqu’à ioo A/mm2.
- Le stator est constitué par un aimant permanent en ticonal, alliage permettant d’obtenir des champs élevés. On peut arri-
- ver à des caractéristiques très intéressantes, par exemple : pour une puissance d’un huitième de cheval, un moment d’inertie de iôo g/cm2 et une accélération théorique de 20 000 rad/s2. De telles accélérations n’avaient été obtenues jusqu’à présent qu’avec des moteurs de puissance beaucoup plus faible (1 centième de cheval environ). Ce moteur peut de plus tourner très lentement sans à-coups.
- Comme application de ces moteurs, la S.E.A. présente un appareil de lecture des bandes perforées, qui sert à transformer en impulsions électriques des renseignements contenus sur une bande de papier sous forme de perforations. L’appareil doit faire défiler la bande par saccades, il est actionné par un moteur imprimé qui s’arrête et redémarre donc extrêmement souvent et chaque fois en un temps très court (un cinquantième de seconde). A l’arrêt il est freiné énergiquement par courants de Foucault.
- Ce type de moteur semble destiné à un développement important.
- F. R.
- p.242 - vue 246/527
-
-
-
- 243
- Chronoscope pour l’enseignement
- L’A.O.I.P. présente cette année un appareil de démonstration très intéressant. Il s’agit d’un chnonoscope dont la sensibilité est d’un dixième de seconde. Cet appareil, destiné principalement à des expériences dans les classes du niveau secondaire, peut éventuellement rendre des services dans les laboratoires ou même dans des industries. Nous avons pu voir cet appareil utilisé à la mesure de la gravitation terrestre. Il peut
- Fig. 17. — Ensemble pour la mesure de la gravitation terrestre.
- On distingue au milieu de la règle graduée un électro-aimant qui retient la bille avant l’expérience ; la suppression du courant dans l’électro-aimant déclenche en môme temps la chute et le chronoscope. En bas de la règle, le relais qui arrête le chronoscope à la fin de la chute.
- évidemment avoir d’autres usages. Sa sensibilité est suffisante pour mettre en évidence l’influence de la résistance de l’air sur la vitesse d’une bille lorsque la hauteur de chute dépasse i m. Le fonctionnement de ce chronoscope semble assez original : l’aiguille est entraînée par un moteur synchrone, tournant à la vitesse d’un tour par seconde. L’axe qui porte l’aiguille comporte deux plateaux en fer pouvant se déplacer en sens opposés sous l’action de deux électro-aimants alimentés en courant continu 12 Y.
- L’attraction d’un de ces plateaux provoque l’embrayage; à ce moment moteur et aiguille sont solidaires et tournent par conséquent à la même vitesse. Lorsque le courant est coupé dans
- l’électro-aimant d’embrayage, il s’établit instantanément dans l’autre, ce qui a pour effet, en attirant le deuxième plateau, de freiner énergiquement l’axe de l’aiguille. Le réglage de l’appareil est tel que le temps d’embrayage est rigoureusement égal au temps de freinage, à condition que la tension d’alimentation des électro-aimants soit rigoureusement de 12 V.
- Une des originalités de ce chronoscope est que la mise en marche et l’arrêt se font par ouverture de circuits; grâce à ce dispositif, il est très aisé de commander la mise en marche et l’arrêt par le phénomène à étudier.
- Le constructeur affirme que l’erreur maximale par lecture est inférieure à 5 millièmes de seconde. F. R.
- Mesures magnétiques
- Nous avons remarqué deux appai’eils de mesures magnétiques qui semblent assez originaux. Ils sont présentés par la General Electric (U.S.A.). Il s’agit d’abord d’un gaussmètre extrêmement commode et d’un prix relativement réduit. Le principe en est simple : on place dans le champ magnétique à mesurer
- un petit aimant retenu par un ressort spiral de rappel. L’aimant tend à se diriger parallèlement au champ, le ressort spiral tend à l’en empêcher; l’équilibre entre ces deux forces se réalise après -une certaine rotation de l’aimant et l’angle dont celui-ci a tourné à ce moment sert à mesurer le champ magnétique. L’intérêt de l’appareil réside dans sa présentation. La partie sensible est constituée par un petit cylindre d’alliage au cobalt fixé au bout d’une assez longue tige en matériau non magnétique. C’est cette tige qui est reliée au ressort et à l’aiguille de lecture; l’ensemble repose sur deux petits supports en rubis. Le petit aimant et la tige sont enfermés dans un tube dont le diamètre extérieur ne dépasse pas 2,5 mm. Sur certains modèles ce diamètre est même inférieur à i,5 mm. L’aimantation du petit barreau risquant de varier à l’usage, le fabricant livre avec l’appareil un étui qui contient un aimant permanent étalonné et très stable qui permet de vérifier à tout instant les mesures. L’extrême finesse de la partie sensible de l’appareil permet d’étudier commodément la l'épétition du champ dans un entrefer même très étroit. On peut aussi étudier les fuites d’un circuit magnétique et même mesurer l’induction au sein
- p.243 - vue 247/527
-
-
-
- 244
- d’un matériau magnétique en v perçant un trou de faible diamètre.
- Diverses sensibilités sont disponibles : de a5 à 20 000 gauss pour toute l’échelle. II existe aussi des appareils de même présentation pour des champs magnétiques alternatifs.
- Le deuxième appareil dérive du précédent; il permet de mesurer l’épaisseur d’une couche de matériau non magnétique déposée sur un support lui-même magnétique, par exemple une couche d’émail ou de peinture sur une tôle, ou une couche de chrome sur une pièce d’acier. Le principe est le suivant. Le support ferme un circuit magnétique dans lequel la couche à mesurer provoque une fuite d’autant plus importante que la couche est plus épaisse. Cette fuite provoque une variation de flux dans le circuit magnétique, variation que l’on mesure avec un gaussmètre analogue à celui décrit plus haut. L’appareil est livré avec des calibres d’épaisseur. Il peut être très commodément utilisé pour des vérifications en série, grâce à un système spécial, et son prix est peu élevé.
- F. R.
- Ultracentrifugeuse « Spinco »
- La firme Beckrnan présente une ultracentrifugeuse qui permet de soumettre d’importants volumes de liquide à des charnus allant jusqu’à i4o 000 fois celui de la pesanteur. Les tubes sont disposés dans un rotor massif, de sorte qu’aucun équilibrage n’est nécessaire. Une pompe d’un débit de 58 1 par minute fait le vide dans la chambre, afin d’éviter tout échauffement par frottement sur l’air. Le débit de la pompe est tel que la chambre est vidée au cours de la période d’accélération du .rotor. L’appareil est entièrement automatique; il suffit de régler la vitesse de rotation et le temps pendant lequel on veut que la centrifugation ait lieu. Différents dispositifs de sécurité évitent toute fausse manœuvre. En outre l’appareil permet de travailler entre la température ambiante et O0 C. Il existe trois rotors qui permettent de centrifuger respectivement 162 ml à 4o 000 tr/mn maximum, 46a ml à 3o 000 tr/mn et 940 ml à 21 000 tr/mn. Les périodes d’accélération correspondant à ces trois vitesses sont : 4,5 mn, 10 mn, i5 mn. Les applications d’un tel appareil sont
- extrêmement variées : séparation de précipités, concentration, purification et classement des macromolécules et des colloïdes, c’est-à-dire étude des virus, des protéines, des enzymes, des hauts polvmères, des pigments, etc,
- R. R.
- Appareils de mesure électroniques
- Comme chaque année, la Société Lemouzy présente à l’Exposition de la Société de Physique quelques-uns de ses appareils de mesure des quantités électriques, dont les performances sont exceptionnelles. Parmi ceux-ci, citons un pico-ampèremètre capable de mesurer io~14 ampère, un pico-capacimèlre donnant une mesure directe des capacités de 1 pF à 1 p.F (à 5o périodes) ; enfin un appareil'nommé iso-R-mètre permet d’étudier les résistances d’isolement des câbles de transmission, condensateurs, etc. ; grâce à la résistance d’entrée nulle, l’effet de la constante de temps est éliminé.
- Signalons d’autre part que la Société Chauvin-Arnoux a mis sur le marché un millivoltmètre électronique en courant continu et un voltmètre électronique en alternatif fonctionnant jusqu’à 600 MHz, qui risquent de concurrencer sérieusement des appareils semblables provenant de l’étranger.
- Microgalvanomètres Heito
- Les établissements Heito ont présenté à l’Exposition de Physique des galvanomètres à miroir et à cadre mobile dont l’équipage est contenu dans un tube hermétique de 4 nim de diamètre et de 80 mm de long. Ils sont destinés à l’enregistrement photographique simultané d’un grand nombre de phénomènes : Heito fabrique par exemple une caméi’a d’enregistrement à 5o galvanomètres utilisant du papier photographique de 3i cm de largeur. Les microgalvanomètres sont placés dans des blocs aimantés qui soumettent leur cadre au champ magnétique approprié. Leur sensibilité réglable est de 5o à 120 mm à 3o cm par milliampère, et leur période propre est de l’ordre de 120 à 3oo c/s selon les modèles.
- Un nouveau pyromètre pneumatique
- Le principe des mesures de température dans un gaz ou dans une flamme n’est pas nouveau : on détermine la température en évaluant la densité du gaz. Il existe deux types d’appareils : les appareils statiques (thermomètres à gaz) et les appareils dynamiques (pyromètres pneumatiques). Le schéma de fonctionnement des pyromètres pneumatiques est le suivant. On force le gaz à traverser deux rétrécissements successifs. A chaque rétrécissement, le gaz subit une chute de pression et se refroidit. On mesure directement la température du gaz après le deuxième rétrécissement ainsi que les deux chutes de pression. C’est de ces renseignements que l’on déduit la température.
- Les appareils fabriqués jusqu’à présent utilisaient à l’entrée du gaz un simple orifice dans une plaque. Ceci a l’inconvénient d’introduire des pertes de pression avant le premier rétrécissement. D’autre part, de nombreux dépôts et des déformations entravent le bon fonctionnement de l’appareil pour les hautes températures.
- Le nouvel appareil mis au point par la British Coal Utilization Research Association pallie ces inconvénients en remplaçant le simple orifice par un tube de Venturi. On obtient ainsi de meilleures mesures et on a pu déterminer des températures plus élevées, qui n’avaient jamais été mesurées et étaient seulement évaluées théoriquement. Les applications les plus importantes concernent la mesure des températures dans les hauts fourneaux. Les premiers résultats semblent confirmer les évaluations théoriques. D’autre part, le pyromètre de Venturi possède un temps de réponse très court, ce qui est intéressant lorsque les vitesses de réactions sont très grandes, comme c’est le cas dans un convertisseur de Ressemer : l’enregistrement de la température par le pyromètre se fait presque simultanément avec les variations de température de la flamme.
- Volcanisme et faune fluviale
- L’éruption, en 1955-1956, du volcan Besiainianny, dans la péninsule du Kamtchatka, recouvrit la région avoisinante d’une couche épaisse de cendres, dont l’épaisseur moyenne fut évaluée à 5 kg par mètre carré. Ces cendres envahirent également les rivières et les lacs de celte région, et y exercèrent de véritables ravages, en ce qui concerne notamment la faune fluviale. Dans la revue soviétique Pri-roda (décembre 1957), M. I. I. Kourenkov expose les études qui furent faites à ce sujet. Un dépôt de cendres se forma au fond du fleuve Kamtchatka, détruisant totalement les mollusques (surtout le Sphæriwn corncum), particulièrement sensibles à l’acidité, dont le degré s’étnit fortement accru. Les larves de Chironomides en furent également affectées : bien que leur aspect demeurât inchangé, leur masse totale passa de 20,4 g par mètre carré en 1955 à 4,4 g par mètre carré seulement en 1956. Il en fut de même des vers Oligochètes, dont le nombre tomba de 1,2 g à 0,3 g par mètre carré. Les poissons souffrirent aussi, et leurs diverses espèces ne furent pas atteintes dans les mêmes proportions. Ainsi le saumon fut à peine affecté, alors que le carassin et l’épinoche périrent par quantités énormes. Aucune autre cause de cette destruction massive n’ayant pu être décelée à l’examen des carassins crevés, sauf la coloration anormalement rouge de leurs branchies, on est tenté d’en imputer la responsabilité aux conséquences d’une intoxication par des extraits fortement acides des cendres déposées au fond des lacs et des fleuves par l’éruption. En effet, à la différence du saumon, le carassin ne fréquente habituellement que l’eau calme et stagnante, évitant de pénétrer dans les zones constamment agitées par le courant. Les cendres s’accumulent dans les zones calmes, ce qui expliquerait leur ingestion massive par les carassins.
- C. M.
- p.244 - vue 248/527
-
-
-
- LE CIEL EN JUILLET 1958
- 245
- SOLEIL : du 1er juillet au 1er août (à 0h) sa déclinaison décroît de 23°10' à -f 18°H' ; la durée du jour passe de 16*3® le 1er à lo*7m le 31 ; diamètre ap-p. le 1er = 3r3Q",9, le 31 — 31'34",1. — LUNE : Phases : P. L. le 1er à GM111, D. Q. le 9 à 0*21®, N. L. le 16 à 18*33®, P. Q. le 23 à 14*19®, P. L. le 30 à 16*47® ; apogée le 8 à 23*, diamètre app. 29'34" ; périgée le 21 à 11*, diamètre app. 32'2o". Principales conjonctions : avec Mars le 9 à loh, à 2°o8' N. ; avec Vénus le 14 à 6*, à 2°49' S. ; avec Uranus le 18 à 3*, à o°40' S. ; avec Mercure le 18 à 21*, à 5°5' S. ; avec Jupiter le 23 à 4*, à 1°31'S. ; avec Neptune le 23 à 18*, à 1°19'S. ; avec Saturne le 27 à 3*, à 2°43' N. Principales occultations : le 24, de 22 Balance (inag. 6,6), immersion à 20*58®,7 et de v Balance (mag. 5,3), immersion à 21*6m,S, — PLANÈTES :
- MÊÊÊÊÊÊKÊÊÊÊÊÊÊÊÊÊÊÊ^ÊnÊKÊÊÈÈÊÈÊÊÈÈÊÈÊÊÈÊÊÈÊÊÈÊÊÊÊ
- Amateurs d*ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- fondée en 1887 par C. Flammarion, reconnue d'utilité publique en 1897
- vous recevrez la revue mensuelle L*ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc. Demandez les programmes au Siège Social : Hôtel des Sociétés Savantes 28, rue Serpente, PARIS-6®
- Permanence, tous les jours non fériés de 14 à 17 h.
- Cotisations : Région Parisienne, 1 800 F ; France, 1 500 F ; Etranger, 2 300 F ; Etudiants, 250 F.
- Droits d'inscription, 200 F ; Etudiants, 140 F.
- Spécimen gratuit de la revue sur demande.
- Mercure, difficile étoile du soir, se couche le 24 à 20*41® soit 1 h-m après lo Soleil ; Vénus, radieuse étoile du matin'dans
- I aube, se lève le 24 à lh50m, soit 2M8m avant le Soleil ; Mars, dans les Poissons puis le Bélier, se lève avant minuit, le 15 : diamètre app. 9",2, mag. 0,1 ; Jupiter, dans la Vierge brille le soir, se couchant le 12 à 23ta23m, diamètre app. 37",2 ; Saturne, dans Ophiuch-us se montre encore la plus grande partie de la nuit, le 12 : diamètre app. 17 "8, axes de l’anneau : 41 "0, et + 18",4, coucher à 2hSm ; Uranus, dans le Cancer est inobservable, en conj. avec le Soleil le mois prochain ; Neptune, dans la Vierge se rapprochant peu à peu de Jupiter à l’est, s’aperçoit encore le soir, diamètre app. 2",4, le 16 : position : 14h2n' et — 10°31'. — ÉTOILES VARIABLES : minima de (3 Lyre (3m,4-4m,3) le S à lh,7, le 21 à 0h,0 ; maxima de S Céphée (3m,7-4“,6) le 2 à 5h,3, le 7 à -14M, le 12. à 22^,9, le 18 à 7*7, le 23 à 16h,o, le 29 à 1*3 ; maxima de r, Aigle (3m,74^,4) le 7 à 16h,2, le 14 à 20h,4, le 22 à • 0h,6, le 29 à 4h,9 ; maxima de R Lion (4m,441m,.6) le 19, de R Corbeau (Sm,9-14m,4) le 25, de R Triangle (5m,442.m,0) le 30. — TEMPS SIDÉRAL : au méridien de Paris, à 0h (T. U.), le 1er : 18h43IU31s, le 11 : 19h22m57s, le 21 : 20h2m22s, le 31 : 20h41«48s.
- Phénomènes intéressants. — Surveiller attentivement l’apparition de groupes de taches à la surface du Soleil. — Du
- II au 14, lumière cendrée de la Lune, le matin. — On observera les apparences des anneaux de Saturne, très ouverts côté face nord. — Du 25 au 30, étoiles filantes : Aqnarides (radiant S Verseau), maximum le 28. — En l’absence de- Lune, l’observation de la Voie lactée devient facile dans les constellations où elle est le plus intense : Scorpion, Ophiuchus, Sagittaire, Écu, Aigle, Cygne.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. T ARTOIS.
- LES LIVRES
- NOUVEAUX
- Analytical Cornes, par Rarry Spain. 1 vol.
- 14x22, x-145 p., 68 fig. Pergamon Press,
- Londres, 1957. Prix, relié : 30 sh.
- Etude complète et excellente des coniques considérées du point de vue de la géométrie analytique. Toutes les notions indispensables sont soit rappelées, soit développées intégralement. On débute par la théorie de la droite, du cercle et des coniques sous leurs formes classiques. Les changements d’axe sont étudiés et les invariants introduits sont utilisés ensuite pour la classification des coniques données par l'équation générale du second degré. On étudie enfin les coordonnées homogènes, les propriétés des coniques telles qu’on les déduit de leur équation générale, les faisceaux de conique, l’homographie, les coniques confocales, etc. 250 exercices environ avec les solutions.
- The planet Earth, édité par D. R. Bâtes.
- 1 vol. 14x22, 312 p., fig. Pergamon Press,
- Londres, 1957. Prix, relié : 35 sh.
- Parmi les nombreux ouvrages de vulgarisation suscités par l'Année géophysique internationale, celui-ci occupe une place de choix. Pergamon Press a demandé à des spécialistes connus d’évoquer pour le grand public les connaissances actuelles sur les sujets qui les préoccupent. D. R. Rates a assuré la cohésion de l’ensemble .et a rédigé pour sa part deux importants chapitres. Après une introduction due à Sydney Chapman, président de l’Année géophysique, sont évoqués tour à tour l’âge et l’évolution de la terre (sous la plume de G. Kuiper), puis les profondeurs de notre globe, la croûte terrestre, les océans, le champ magnétique et l'atmosphère. Viennent ensuite quelques études consacrées au climat et aux problèmes qui s’y rapportent, à l’ionosphère et aux différentes météorites et particules atomiques qui parviennent à. la Terre. Enfin, les problèmes de la genèse de la vie sont habilement passés en revue. Abondante bibliographie.
- Thermodynamique, par Jean Mercier. 1 vol.
- 15,5x24, vm-618 p., fig. Gauthier-Villars,
- Paris, 1957. Prix : 5 600 F.
- Ce traité, qui reproduit en l’étoffant un cours développé devant les candidats au certificat de uhysique générale de la Faculté de Bordeaux,
- et que consulteront également avec profit les élèves des grandes écoles d’ingénieurs, conçoit la thermodynamique d’une façon plus large qu’elle ne l’est dans certains ouvrages analogues, puisqu’il aborde certaines questions généralement estompées : transmission de la chaleur, étude de l'état solide, applications de la thermodynamique en électricité, etc. Le côté expérimental n’a pas été négligé et diverses applications numériques fournissent des ordres de grandeur qui ramènent1 le lecteur à la pratique. La physique ne doit pas, en effet, rester
- COLLECTION ARMAND COLIN
- Dernières nouveautés ;
- L’Aluminium.
- La Fabrication du Papier. Les Centrales nucléaires. Les Océans.
- Chimie macromoléculaire. Les Moussons.
- L’érosion des Continents.
- 360F
- C.A.C.
- une énumération de principes et il reste à souhaiter que cet excellent ouvrage soit complété par un livre de problèmes.
- Introduction à la Physique nucléaire, par David Halliday. Traduit de l’américain par R. Bvrjon. 1 vol. 16x25, 500 p., fig. Dunod, Paris, 1957. Prix, relié : 4 700 F.
- Sans complication superflue et en s’appuyant constamment sur des exemples expérimentaux, l’auteur expose tous les points importants de celle science actuellement en plein développement. Toutes les connaissances maintenant classiques sont exposées avec clarté. Radioactivités a et 3» rayonnement y et conversion interne, interaction des rayonnements avec la matière, détection des rayonnements, neutronique, fission de l'uranium et piles, magnétisme nucléaire, rayonnement cosmique et particules nouvelles, tels sont les principaux chapitres de ce manuel qui permettra au lecteur d’accéder de plain-pied à la littérature spécialisée.
- L’értergie nucléaire dans le monde, par
- T. Reis. 1 vol. 16x25, 296 p., nombreuses figures et tables. Dunod, Paris, 1957. Prix, relié : 2 900 F.
- Dans un domaine évoluant aussi vite que celui de l’énergie nucléaire, M. Reis a essayé de faire le point du développement des divers programmes atomiques de tous les pays. Pour donner tout son sens à cette estimation, il fallait d’abord procéder à une estimation plus générale. celle des besoins et ressources énergétiques du monde et des divers pays pris individuellement. Ensuite est dressé l’état de développement des principaux programmes atomiques nationaux, de leur historique à leurs réalisa* lions tes plus récentes, que suivent des conclusions très intéressantes concernant la situation mondiale en matière de réacteurs atomiques. Pour finir, les organisations internationales sont passées en revue, des comparaisons sont établies, et un très Important ensemble de références est donné.
- Les centrales nucléaires, par Paul Ghambadal. 1 vol. 11x16,5, 188 p., 41 fig. Armand Colin, Paris, 1957. Prix : 360 F.
- I/utilisation de l’énergie atomique est à peine
- p.245 - vue 249/527
-
-
-
- 246
- à ses débuts et déjà les centrales atomiques en fonctionnement ou en construction dans le monde sont de types très variés. Sans doute l’avenir fera un tri parmi ces solutions ; il en verra aussi se créer de nouvelles. Pourquoi une telle variété ? C’est ce qu’explique ce petit livre dont les chapitres traitent un par un les principaux problèmes techniques de ces entreprises : production de chaleur dans un réacteur, extraction de la chaleur, récupération à la sortie, production de vapeur dans les bouilleurs, dans les chaudières sans foyer, et dans le réacteur, combinaison d’un réacteur avec un foyer à combustion, récupération de la chaleur d’origine nucléaire à l’aide d’une turbine à gaz.
- Grundlagen der Chemie, par Karl Hernies. 1 vol. 15x21, xxiv-456 p., 35 fig. Verlag Hans Cari, Nuremberg, 1957. Prix, relié : 18,50 DM.
- Excellent ouvrage de vulgarisation dans lequel l’auteur, tout en présentant les faits essentiels de la chimie minérale, introduit les bases fondamentales de la chimie générale et des notions suffisantes de chimie industrielle. L’ouvrage est rédigé dans un allemand remarquablement facile à comprendre.
- Chimie macromolécuîaire. Tome I. Généralités, par Georges Cuampetier, professeur à la Sorbonne. 1 vol. 11x16,5, 214 p.t 52 fig. Armand Colin, Paris, 1957. Prix : 360 F.
- La notion de macromolécule, due à Weber et à Staudinger, a été d’une extraordinaire fécondité : d’une part, elle a permis de comprendre la structure et les propriétés de corps naturels comme les protéines qui forment la masse essentielle de la matière vivante ; d’autre part, elle a donné naissance à toute une science, la chimie macromoléculaire d’où sont sorties déjà d’innombrables substances de synthèse dont les propriétés sont prévisibles et modifiables presque à volonté par le chimiste. Dans ce premier tome, le professeur Champetier, un de nos meilleurs spécialistes, étudie les structures des macromolécules, leur synthèse par polymérisation, polycondensation et polyaddition, la détermination des grandeurs macromoléculaires, les propriétés des composés. Les tomes suivants seront consacrés aux fibres textiles, au caoutchouc et matières plastiques.
- VIENT DE PARAITRE
- Epoxy Resins. Their applications and techno-loyy, par Henry Lee et Kris Neville. 1 vol. 16x24, xn-305 p., fig. McGraw-Hill, Londres et New York, 1957. Prix, relié : 64 sh.
- Les résines « époxy » résultent en général de la condensation de l’épichlorhydrine avec le hîsphénol A : 5i5(4 - hydroxyphényl)diméthyl-
- raéthane. Résines thermodurcissables, elles trouvent de très nombreuses applications dans la fabrication d’objets moulés, des colles, des stratifiés, des revêtements. Il était opportun de leur consacrer un ouvrage exposant en détail leur fabrication, leurs caractéristiques et leurs applications.
- Chemical Engineering Operations, par Frank Rtjiuford. 2e édit. 1 vol. 14x22, vm-387 p., fig. Constable and Co. Ltd-, Londres, 1957. Prix, relié : 32 sh. 6 d.
- Le présent traité, dont la réédition consacre le succès, mérite d’être spécialement recommandé, car limité à l’essentiel, il délimite exactement les possibilités actuelles du génie chimique, considéré parfois comme susceptible de permettre de calculer tous les appareils. Passant en revue les diverses opérations de l'industrie chimique, l’auteur décrit pour chaque catégorie les divers types d'appareillage en montrant, lorsque cela est possible, c’est-à-dire dans le cas de la distillation, de l’absorption, des échanges de chaleur, etc., quelles sont les méthodes de calcul utilisables, et en indiquant dans les autres cas : broyage, filtration, etc., comment on doit se contenter d’approximations beaucoup plus imprécises.
- Achema-Jahrbuch Jahrgang 1956/1958 und Europaischer Katalog des chemischen Apparatewesens (en 4 langues), édité sous la direction de Herbert Bretschneider, à l’instigation de la Dechema Deutsche Gesell-schaft für chemisches Apparatewesen. 1 vol. 21,5x30, 1 070 p. Dechema, Francfort-sur-le-Mein, 1957. Rel.
- Iï 's’agit d’un annuaire qui doit faciliter la visite de l’exposition Achema, qui se tient en juin à Francfort, concernant essentiellement l’appareillage chimique. On y trouve des informations sur 65 écoles supérieures de chimie d’Europe (dont Nancy), s’intéressant à la
- construction de l'appareillage, et la liste des constructeurs de 7 500 appareils. La plupart des indications sont en quatre langues : allemand, anglais, français et espagnol.
- Engrais. Guide pratique de la fertilisation,
- par A. Gros. 1 vol. 13x21, 360 p., 23 tabl.,
- 6 cartes, 40 schémas et croquis, 44 photos.
- La Maison rustique, Paris, 1957. Prix ; 750 F.
- Après l’étude du mécanisme du complexe absorbant du sol, régulateur de la nutrition de la plante, Fauteur met l’accent sur l’humus. Puis il traite des conditions d’emploi des amendements, des engrais azotés, phosphatés, potassiques et composés ainsi que des éléments secondaires et des oligo-élcments. Ensuite, il expose la pratique de la fumure et notamment celle des principales cultures. Les derniers chapitres traitent de questions importantes sou\ent négligées : l’achat des engrais, leur stockage, la réglementation de leur vente et enfin la rentabilité de la fumure.
- L’équipement de la Sidérurgie. Numéro spécial de La Technique Moderne, juillet 1957.
- 24x32. 144 p., nombr. ill. Dunod, Paris.
- Prix : 1 750 F.
- Le Plan de modernisation de l’industrie française comporte un gros effort en sidérurgie puisque la production d’acier qui était d'environ 11 millions de tonnes en 1954 doit atteindre l’ordre de 17 millions de tonnes en 1961. Ceci nécessite un effort de modernisation important dont un numéro spécial de La Technique Moderne, préfacé par J. Raty, président de la Chambre syndicale de la Sidérurgie française, peut donner une idée. Une quarantaine d’articles, dus à des spécialistes et répartis dans quatre rubriques : hauts fourneaux, aciéries, laminoirs et matériels et équipements divers, nous décrivent certaines des réalisations récentes.
- Chemische und biologische Laboratorien,
- par Werner Schramm. 1 vol. 21,5x30,5,
- 250 p., 904 fig. Yerlag Chemie, Weinheim,
- 1957. Prix, relié : 50 DM.
- A une époque ou l’on reconnaît l’importance de la recherche et où, par suite, se développent de plus en plus les laboratoires qui lui sont
- monographies dunod
- LES SEMICONDUCTEURS
- P. AIGRAIN
- Professeur à la Sorbonne.
- nl\ pages n x 16, avec 67 figures. Relié toile souple.
- par
- F. ENGLERT
- Assistant à l’Institut de physique appliquée de l’Université libre de Bruxelles.
- 980 F
- LA CHROMATOGRAPHIE
- par L. SAVIDAN
- Ancien élève de l’Ecole Normale Supérieure,
- Maître de conférences à la Faculté des Sciences de Marseille.
- 120 pages 11 x 16, avec 02 figures. Relié toile souple.
- 680 F
- Ces études, d’un bon niveau scientifique, s'adressent aux chercheurs, aux ingénieurs, aux élèves des grandes écoles et des Facultés préparant la licence ou suivant le « troisième cycle » de renseignement supérieur.
- Rappel, dans la même collection :
- Les piles atomiques à neutrons lents, par J. Maurin .................................
- Principes des calculatrices numériques automatiques, par^P. Naslin.......................
- L’ionosphère et l’optique géométrique des ondes courtes, par R. Dumont . . .
- En vente dans toutes les bonnes librairies et chez 92, rue Bonaparte, Paris-6e ..I bT^TTXT^1^ B 11 Editeur, C.C.P. Paris 75-45
- 980 F 980 F 580 F
- p.246 - vue 250/527
-
-
-
- 247
- consacrés, on lira avec intérêt un ouvrage où sont rassemblées toutes les données nécessaires à leur construction et installation, notamment de précieux renseignements sur les appareils couramment utilisés dans les laboratoires chimiques et biologiques.
- Philosophie biologique, par E. Cajllot. 1 vol. 15x21, 360 p.} 11 planches hors texte.
- G. Doin, Paris, 1957. Prix : 2 850 F.
- Dans la collection « Biologie » dirigée par M. Albert Obré, destinée aux candidats aux grandes écoles biologiques, voici un livre consacré aux aspects méthodologiques et philosophiques des sciences de la vie. L’auteur, très instruit de la science sur laquelle il exerce sa pensée critique, en expose avec maîtrise l’objet et les divisions, l’esprit et les méthodes. Puis les grands problèmes éternels sont abordés. La vie paraît un processus d’ordre, d’organisation ; d’où l’idée d’une fin, d’un but. Après une discussion approfondie, l’auteur montre que la finalité n'est pourtant qu’une illusion. Cependant, rejetant le vitalisme, il ne se rallie pas purement et simplement au mécanisme. Il voit dans la théorie de l’Émergence une ressource pour échapper à ce dilemme : la combinaison d’entités d’un certain ordre réalise une entité d’ordre supérieur dont les propriétés sont entièrement nouvelles. A vrai dire, l’Émergence nous paraît souligner une difficulté, non la résoudre. Excellent livre au demeurant où sont apportés tous les éléments de x-éflexion utiles au biologiste.
- Les caractères des êtres vivants, par Maurice Rose, professeur honoraire à la Faculté des Sciences d’Alger. 1 vol. 12x18,5, 200 p., 12 fig. Presses Universitaires de France, Paris, 1957. Prix : 600 F.
- L’auteur donne un assez bon résumé des enseignements de la, génétique, mais il estime que la part de l’hypothèse y est trop grande. Ainsi, il met en doute la réalité des accidents chromosomiques classiquement décrits. Il croit plus vraisemblable que des échanges d’acides nucléiques peuvent se faire de chromosome à chromosome. Une discussion plus approfondie serait nécessaire. M. Rose accepte l’hypothèse
- selon laquelle un gène libère une substance qui elle-même agit sur la formation d’une autre, et ainsi de suite jusqu’à l’hormone finale qui induit l’évolution d’un tissu ou organe. Il se sert habilement de ce schéma pour réintroduire la possibilité de l’hérédité des caractères acquis. Il propose des expériences. Il serait temps de les faire et de les réussir. La nécessité d’une explication ne s’imposera qu’ensuite.
- Psychology, Evolution and Sex, par Cecil P. Martin. 1 vol. 15x24, xiv-166 p. Thomas, Springfield (Illinois, U.S. A.), 1956. Prix,
- entoilé : 4,75 dollars.
- Cette note discordante au milieu du concert néo-darwinien des biologistes anglo-saxons nous vient de l’Université de langue anglaise McGill à Montréal, où le professeur Martin enseigne l’anatomie. Pour lui, mutations et sélection
- -----. A NOS LECTEURS ---------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6*
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- naturelle ne sauraient absolument pas servir de base à une théorie de l’évolution, car les mutations, léthales ou affaiblissant les individus, sont obligatoirement néfastes. Quant à la sélection naturelle, il ne lui reste aucun rôle à jouer sinon d’éliminer les malheureux mutants. L’auteur ne nie pas la génétique ; il admet que les caractères héréditaires soient sous la dépendance de gènes et que ceux-ci soient représentés par de nombreux allèles différents dans les populations naturelles. Mais comment- ces allèles sont-ils apparus, si ce n’est par mutation ? L’auteur réinstruit alors le procès de l’hérédité des caractères acquis, et cite de nombreux cas qui lui paraissent en démontrer l’existence. Mais il n’en fournit pas d’explication.
- Les peintures rupestres du Tassili-N-Ajjer,
- par Yolande Tschuw, trad. de G. Piroué.
- 1 vol. 22x28, 104 p., ill. en noir et en couleurs, dépl. h. t. Baconnière, Neuchâtel, 1956 ;
- distribué par la Société française du Livre,
- Paris. Prix, relié : 2 900 F.
- La documentation illustrée qu’offre ce bel album a été recueillie au cours d’une mission effectuée au Hoggar en 1950-1951. Photographies en noir, planches hors texte quadrichro-mes ou monochromes permettent d’admirer de nouvelles peintures rupestres du Sahara central, abondamment commentées. Avec beaucoup de science, l’auteur passe en revue successivement les sujets (faune, figures symboliques, représentations anthropomorphes), la magie et Jes scènes de culte, les époques et styles. Elle ne recule pas devant les hypothèses, mais, vu l’état actuel de nos connaissances, elle fait preuve d’une grande modération et d’une louable prudence en les proposant. Elle tente une intéressante classification chronologique de ces peintures, classification relative évidemment. Un appendice de quelques pages, dû au professeur Nougier, étudie les restes, très fragmentaires, de céramique qui ont été retrouvés. Excellente bibliographie. Relevons, à propos de la remarque « jusqu’au siècle dernier, vivaient encore, dans la région de l’Ennedi, quelques rarissimes crocodiles » (p, 68) qu'aujourd'hui, dans le voisinage de l’oued Imherou, tout proche du Tassili-N-Ajjer, subsiste sans doute une faune
- --- VIENT DE PARAITRE --------------------------
- PROBLÈMES PHYSIQUES
- DE LA
- TÉLÉVISION EN COULEURS
- (Conférences ef communications présentées au Colloque International sur la Télévision en Couleurs. — PARIS, juillet 1957).
- Un volume de 424 pages (21x27 cm) avec 370 illustrations.
- Prix (emballage et frais de poste compris).. 4 000 F
- publié par ACTA ELECTRONICA, 23, rue du Retrait, PARIS 120e)
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7*
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d'Etat.
- Brevet de Technicien d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du |our » Cours du soir
- Section d'enseignement " à domicile " i Joindre timbre pour notice)
- LA MER VIVANTE
- par JOHN CROMPTON
- (( C’est tout le monde des océans qui jaillit sous nos yeux, faune et flore, êtres fantastiques aux formes tourmentées, aux existences mystérieuses »
- HILAIRE CUNY (Combat}
- Du même auteur : L'ARAIGNÉE
- Éditions
- BUCHET/CHASTEL
- p.247 - vue 251/527
-
-
-
- 248
- relique d’hydrosauriens, puisqu’un crocodile y fut lue il y a une trentaine d’années ; l'autruche, de même, se rencontre encore dans le N.-O. du Sahara. Enfin, p. 79, la « composition fantastique » renvoie à la pl. XVII a et non XIX b.
- Les guides Nagel : Hollande, par Paul Wagrkt. 1 vol. 11x16, vm-528 p., 3 plans en couleurs, 17 plans en noir, 1 carte routière en couleurs. Editions Nagel, Genève et Paris, 1958. Prix, relié : 1 900 F.
- Du point de vue du voyageur, ce guide esl bien fait, c’est-à-dire clair, complet, maniable et contenant les renseignements pratiques de tous ordres nécessaires à qui veut visiter les Pays-Bas. Mais ce que l’on appréciera encore davantage, ce sont les pages de présentation et de description du pays. Paul Wagret, agrégé de î’Université et auteur de nombreux arlicles dans La Nature, est, nous le savons, un des géographes les plus érudits et les plus perspicaces de notre temps. Bien d’étonnant s’il a réussi non seulement à tracer, mais aussi à expliquer, la physionomie si particulière de la Hollande, en fonction des divers facteurs climatiques, hydrographiques, démographiques, historiques et économiques qui ont modelé cette terre, éternellement menacée par la mer. Ce guide, en un mot, est aussi une excellente géographie des Pays-Bas.
- La France inconnue, par G. Pillement.
- Tome III ; Centre-Sud. 1 vol. 14 x 19, 312 p. et 64 photos h. t. Grasset, Paris, 1957. Prix, broché : 990 F.
- Ce nouveau volume de Pillement, consacré cette fois aux itinéraires archéologiques du Centre-Sud de la France, ne laisse pas plus indifférent que ne faisaient les précédents. Aussi courageusement et lucidement, l’auteur de Destruction de Paris et de Saccage de la France entreprend de guider le voyageur de bonne foi. Hâtons-nous avant que l’jmbécilHté des hommes aidée des fatigues du temps aient eu raison de tant de merveilles inconnues. Hors des sentiers battus, c’est d’une véritable découverte qu’il s’agit : voyez Beaulieu-sur-Dordogne, Assier, Estaing, Salers, Besse-en-Ghandesse... Tout notre tourisme est à repenser.
- Sardaigne, par A. Bonto. 1 vol. 17 x 22, 192 p. et 80 photographies h. 1. Coll. Les Beaux Pays. Arthaud, Paris, 1957. Prix, broché : 1 800 F ; relié : 2 600 F.
- Les magnifiques illustrations de ce volume (que l’on rapprochera de celui récemment paru aux Horizons de France : ils se complètent plus qu’ils ne s’opposent) le rendent précieux à tout voyageur et à toute personne désireuse de mieux connaître la grande île méditerranéenne. Terre de lumière, certes, mais terre de ténèbres jus-cfu’à une époque récente, la Sardaigne émerge de l’inconnu : le tourisme la découvre, et avec elle son merveilleux folklore ; les bonifiche mettent en valeur ses plaines fertiles débarrassées de la malaria ; les savants se penchent sur ses châteaux de pierre ou naraghi, témoins d’une civilisation protohistorique originale. Très différente de ses voisines, Corse et Sicile, l’ancienne île des Sardes offre encore les traces d’un archaïsme millénaire, jointes aux manifestations d’une modernisation rapide. Ces contrastes, renouvelés d’Olbia à Cagliari et de Nuoro à Capresa, séduiront touriste et homme cultivé.
- Causses et Cévennes, Gorges du Tarn, par J. Ginou et C. Bcrlcoa. 1 vol. 17x22, 250 p. et 173 héliogravures. Coll. « Les Beaux Pavs ». Arthaud, Paris, 1957. Prix, broché : 1 900 F ; relié : 2 700 F.
- Magnifiquement illustré, cet ouvrage offre au surplus un texte agréable et sérieusement documenté. Beaucoup de choses ont été dites des gorges du Tarn ; les auteurs réussissent à rendre nouvelle la vision qu’ils en évoquent. Du Causse desséché à l’Aigoual reboisé, la promenade est vivante et originalement conduite ; il est peu d’aussi utiles volumes.
- Tapis tunisiens. IV. Tissus décorés, par L. Poinssot et J. Revault. 1 vol. 20 x 29, 92 p., 50 fig., sous portefeuille avec 150 pl. en noir et 4 pl. en coul. au pochoir à l’a main. Horizons de France, Paris, 1957. Prix ; 8 000 F.
- Publié sous l’égide du Ministère tunisien de l’Économie nationale, et sous la direction de deux spécialistes, cet ouvrage s’intégre dans un ensemble qui, une fois achevé, comptera six volumes. Celui-ci est consacré aux tissus ras décorés de Kairouan, du Sahel et du Sud tunisien, tissus de haute lisse qui « sont à l’heure actuelle une des plus importantes industries domestiques de la Tunisie ». Cette étude ethnographique fait le tour des questions, car si le livre est d’abord œuvre de technologie, les auteurs n’ont pas négligé pour autant le côté
- folklorique : coutumes, croyances, invocations, dictons, chants des tisseuses et des fileuses. L’équivalent arabe, en romanisation, des termes et expressions significatifs ou importants est indiqué; on trouvera de même en arabe et en français le nom des motifs (douze provenances différentes) réunis dans les planches. Un ouvrage remarquable, tant par le texte que par l’iconographie, dont on ne saurait sous-estimer Futilité pour l’ethnographe, l’arabisant ou simplement l’amateur de tapis et d’œuvres d’art.
- La création scientifique, par Abraham
- A. Moles. 1 vol. 14x22,5, 238 p. René Kister,
- Genève, 1957. Prix : 1 890 F (23,50 F suisses).
- L’auteur a voulu faire un précis des processus intellectuels de la création scientifique. Il y était préparé par sa double formation scientifique et philosophique. Il met en évidence, d’une part les mécanismes psychologiques qui préparent le chercheur à la découverte (et c’est l’occasion d’opposer la science en train de se faire à la science achevée), d’autre part les méthodes qu’utilise le chercheur pour inventer. Le portrait qu’il trace de celui-ci est bien différent de celui que nous fournit une imagerie populaire. Tl y a dans la recherche une activité cle jeu qui est souvent méconnue. Ne faudrait-il pas parler aussi d’un certain automatisme ? M. Moles révèle aussi les facteurs psycho-sociaux de la « cité scientifique », les mythes qui l’animent ; enfin, il confronle création scientifique et création artistique. Livre un peu touffu, mais plein d’aperçus originaux, qui se lit avec plaisir et qui éclairera plus d’un scientifique sur le sens et les modalités de son effort.
- PETITES ANNONCES
- (190 F la ligne, taxes comprises. Supplément de 100 F pour domiciliation aux bureaux de la revue).
- VENDS phmètre Heito, autoclave, colorimètre Dubnsc, photomètre Rouy, chauffe-ballon. Mat. nf abs: Dr BOULOUS, 1, r. du Canal, Bayonne.
- AIDE-MEMOIRE DUNOD MÉTROLOGIE GÉNÉRALE
- PAR
- M. DENIS-PAPIN J. VALLOT
- Tome I. — 367 pages 10x15, avec 49 figures.
- 3e édition. 1955. Relié.... 580 F
- Tome H. — 320 pages 10x15, avec 5 figures. 36 édition. 1955. Relié ..... 580 F
- AIDE-MEMOIRE DUNOD MÉTROLOGIE APPLIQUÉE
- PAR
- M. DENIS-PAPIN J. VALLOT
- Avec la collaboration de A. FOUILLÉ.
- 424 pages 10x15, avec 236 fig, 2e édition. 1954. Relié ......................... 580 F
- En librairie et chez
- DUNOD 92, r. Bonaparte, Paris. CCP Paris 75-45
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 2e trimestre iq5S, k° 3i56. — Imprimé en Frange.
- IMPRIMERIE BARNÉOUD S. A, (3lo566), LAVAL, N° 3767. — C>-ig58,
- p.248 - vue 252/527
-
-
-
- N° 3279
- Juillet 1958
- LA NATURE
- La Science
- à l'Exposition
- de Bruxelles
- Ce numéro est plus spécialement consacré à la participation scientifique française à l’Exposition internationale de Bruxelles qui s’est ouverte le 17 avril et sera ouverte jusqu’au 19 octobre. Ceci n’implique pas, bien entendu, que les stands des autres nations soient d’un intérêt moindre que ceux dont nos savants et nos techniciens ont fourni la substance.
- Mais nous nous sommes trouvés devant un fait dont l’évidence n’a pu échapper à aucun des visiteurs de Bruxelles : celte gigantesque manifestation est d’une richesse, d’une abondance et d’une diversité telles qu’on s’y oriente difficilement. Pour le seul chapitre de la science, il faudrait à un visiteur quelque peu encyclopédiste plusieurs semaines de travail assidu pour tout voir et tout comprendre. Et au bout de cette exploration, un effort de sélection et de synthèse serait encore nécessaire pour que l’information transmise à des lecteurs prenne toute sa valeur.
- Désirant paraître à une date pas trop tardive et visant précisément à une sélection, nous avons donc demandé aux exposants scientificpies eux-mêmes — plus exacte-
- ment à certains d’entre eux dont les travaux nous sont connus — d’expliquer, commenter ou décrire leur apport.
- C’est ce qui explique le caractère monographique de la plus grande partie de ce numéro, où l’on ne trouvera certes pas une somme de la science et de la recherche françaises, mais plusieurs de leurs aspects originaux, importants et relativement peu connus.
- Une question à présent se pose : les savants français et leurs collègues étrangers ont-ils exactement répondu au thème proposé par les organisateurs belges de l’Exposition, thème développé par M. Roger Anthoine dans l’article panoramique qui couvre l’ensemble du sujet ? Ce thème était, sous sa forme la plus condensée : « La Science au service de l’homme. » Il fait irrésistiblement penser à ceux que l’on fournit aux statuaires, chargés de symboliser une abstraction par un monument. La réalisation, on le sait, est en général approximative et comment ne le serait-elle, pas encore davantage pour une oeuvre aussi puissamment collective qu’une exposition universelle ?
- En fait — et nous pensons que cela n’est pas un mal —
- Fig. 1. — L’Exposition internationale de Bruxelles.
- On découvre, du plateau du Heysel, un vaste panorama de Bruxelles et environs. A l’avant-plan, une partie de la Section belge.
- (Photo S ado, Bruxelles).
- ,1
- p.249 - vue 253/527
-
-
-
- 250
- chacun des exposants s’est exprimé librement dans le sens de ses préoccupations et selon la ligne de ses travaux.
- Le lien général s’est donc effacé devant la pensée et la création individuelles.
- Mais au delà du thème à caractère philosophicjue, un plan était matériellement nécessaire. Nous sommes particulièrement heureux cjiie ce plan ait pu être tracé pour nous — en ce qui concerne le pavillon français — par M. le professeur Gérald Antoine, de la Faculté des Lettres de Paris : chargé par le Commissaire général, M. Pierre de Gaulle, d'organiser la Section de la Pensée française,
- M. Gérald Antoine expose magistralement l’ordonnance de cette section, où la part sans doute la plus importante de l’apport scientifique français se trouve réunie.
- Le souci de planification a conduit les organisateurs à tracer une frontière entre la Science orientée vers la recherche pure et la Science vue sous l’angle de ses applications. C’est ainsi que le premier terme s’intégre à la Pensée française, tandis que le second se retrouve tout naturellement parmi les présentations de nos grandes industries.
- Il eut peut-être été juste d’étendre jusque-là notre sélection, mais la place nous manquait. Contentons-nous donc de signaler que le pavillon français comprend un important secteur industriel où voisinent les réalisations du Commissariat à l’Énergie atomique, de l’Électricité de France et des autres grandes entreprises nationales, du
- Science et Te
- Dans son discours, prononcé à l’inauguration de l’Exposition, le roi Baudoin déclarait : « Plus que jamais, la civilisation apparaît conditionnée par la Science ». C’est en effet l’expansion, fondée sur la science qui du 17 avril au 19 octobre, trouvera son expression à Bruxelles, érigée pour six mois en u capitale du monde ».
- Par essence, une exposition universelle embrasse toutes les activités humaines : non seulement l’industrie et le commerce, mais encore les sciences et les arts. Ce sont donc tous les fruits de l’intelligence humaine, tant spirituels que matériels, que présente la confrontation bruxelloise.
- Tous ces fruits, les organisateurs de l’Exposition ont voulu les situer en fonction des besoins de l’Homme. Ils ont pour cela suggéré à tous ceux qui manifestaient le désir de se trouver cette année sur le plateau du Ileysel, d’accepter comme thème de présentation : « 'Le bilan du monde pour un monde plus humain ».
- Un souci essentiel a donc été mis en vedette : servir l’humanité en dégageant l’aspect humain de tous les problèmes. Presque toutes les présentations de la Section belge, de la Section congolaise, des 44 nations étrangères et des 8 participations supranationales, ont été adaptées avec succès aux grandes lignes de ce thème.
- Certains ont donné à leur participation un sens plus strictement matériel, d’autres l’ont, axée sur l’élément humain, sur leur peuple; entre ces deux extrêmes, se situent des participations mixtes, d’où le souci de propagande économique n’est pas toujours exclu.
- Quoi qu’il en soit, chaque nation, chaque organisation internationale, présente sa conception du bonheur humain et les moyens qu’elle met en oeuvre pour y parvenir.
- Ainsi, la pacifique confrontation de 1908 offre aux nations toutes les possibilités de mieux se connaître et se comprendre. Son but est bien de a susciter une ambiance de collaboration et de paix ».
- Centre national d’Eludes des Télécommunications, de l’Industrie chimique, etc.
- La France a pris place également dans le Palais international de la Science dont la structure est définie dans l’article panoramique. Inutile donc d’insister sur les divisions prévues par les organisateurs cle l’Exposition et auxquelles les participants français se sont conformés. Signalons seulement que, sous la direction générale de M. Dupouy, ex-directeur du C.N.R.S., le chapitre « Atome » a été confié à M. Francis Perrin, Haut-Commissaire à l’Énergie atomique, alors que a la Molécule », « le Cristal » et « la Cellule » ont été placés respectivement sous la responsabilité de MM. les professeurs Cham-petier, Wyart et Fauré-Fremict. La coordination apportée en commun par ces différentes personnalités s’inscrit d’ailleurs dans un cadre où les chercheurs du C.N.R.S. et l’administration de cet organisme ont joué un rôle décisif.
- Ceci nous a fourni à la fois l’occasion de recevoir du C.N.R.S. une précieuse somme d’informations et de rassembler au mieux un choix de monographies de grande valeur. Ce sera, dans une certaine mesure, un instrument d’orientation dans l’imposante Exposition de Bruxelles dont les visileui's — cela va sans dire — élargiront selon leurs goûts la sélection ici présentée.
- Gaston Cohen et Paul Ostoya.
- chnique 1958
- La connaissance, fût-elle science, art ou enseignement, ne concerne la plupart des hommes qu’en fonction des bienfaits qu’ils en retirent; il fallait donc indiquer comment elle contribue avant tout à leur épanouissement.
- L’énergie, toutes les formes d’énergie, constitue la mesure la plus précise de la civilisation technique d’un groupement humain.
- Les industries, les techniques, l’agriculture progressent dans le sens d’un allégement du labeur humain.
- Les moyens de communication sont qualifiés de marque visible de 1’ « accélération de l’histoire », mais c’est aussi par eux que toutes les ressources, toutes les beautés du monde tendent à être mises à la portée de chacun.
- L’habitat, l’urbanisme, les services publics, l’hygiène relèvent d’une discipline unique dont le devoir est de préparer une vie meilleure.
- Les organismes internationaux font ressortir le rôle, de la coopération internationale qui seule tend à équilibrer d’un continent à l’autre les besoins et les ressources.
- Telles sont donc les perspectives ouvertes par les techniques au service de l’Homme. C’est en tenant compte de ces perspectives que l’Exposition de Bruxelles doit être décrite avant que quelques-unes de ses plus remarquables réalisations techniques' et scientifiques soient détaillées.
- Le cadre de FExposition. — A 7 km au nord-ouest, de-Bruxelles, l’Exposition est édifiée sur quelque aoo ha du plateau du Ileysel, qui fut déjà le cadre de l’Exposition universelle de 1905.
- Dix entrées ont été prévues, qui répartissent judicieusement les courants de circulation. En effet, grâce à la réorganisation des moyens de transport en commun et des voies d’accès en provenance de la ville, chacune des entrées est également accessible.
- Les superficies construites totalisent 4o pour ioo de la sur-
- p.250 - vue 254/527
-
-
-
- Fig. 2. — Le Pavillon de la Grande-Bretagne.
- Certains pays, comme la Grande-Bretagne, ont adopté le « module », ou unité de construction (Photos Sado).
- face totale, laquelle a été divisée en quatre grandes sections : belge, congolaise et du Ruanda-Urundi, internationale et étrangère,
- La Section Belge comprend 48 groupes qui représentent tous les aspects de l’industrie, des entreprises et de la recherche en Belgique. Elle occupe une superficie de 665 ooo m2 soit, comme l’y autorise le règlement des expositions universelles, un tiers de l’espace total. Les diverses présentations belges revêtent un caractère collectif : les exposants qui exercent des activités similaires sont groupés en « collectivités » et répartis en quelque trente pavillons totalisant 122 5oo m2. S’ajoutent à cette surface bâtie celles de 2 3 ooo m2 des anciens Grands Palais permanents datant de iq35 et 24 ooo m2 constitués par une trentaine de concessions commerciales.
- La Section du, Congo Belge et du Ruanda-Urundi est entièrement indépendante de celle de la Belgique et occupe un espace de 8 ha. Elle présente deux parties, l’une officielle, l’auti'e allouée au secteur privé. Sept pavillons y ont été construits. Le plus vaste, d’une superficie de 7 5oo m2, abrite la participation gouvernementale. Les six autres sont consacrés respectivement à la construction, à l’énergie et au transport, à la faune, à l’agriculture, aux assurances, banques et commerce, aux missions catholiques, aux mines et industries métallurgiques.
- Dans une partie de cette section, des jardins tropicaux ont été créés, où poussent des plantes équatoriales, grâce à l’actioir conjuguée de câbles chauffants souterrains et de lampes pour la culture des plantes à la lumière artificielle.
- .'La Section internationale, dénommée « Cité de la Coopération Internationale », groupe sur i3 5oo m2 les pavillons des grands organismes internationaux invités pour la première fois à une exposition universelle, au même titre que les Etats souverains. Un Pavillon de la Coopération mondiale a été construit par les soins de l’Exposition, afin d’y développer le thème adopté. Dans leurs pavillons respectifs, l’O.N.U., le Conseil de l’Europe, l’Organisation Européenne de Coopération Economique, Benelux et la Communauté Européenne du Charbon et de l’Acier appliquent directement un aspect du thème : la coopération des peuples. Leur but est d’exprimer visuellement les principaux éléments des problèmes de coopération et de faire mieux comprendre le besoin d’une solidarité toujours accrue entre les individus et entre les peuples.
- Fig. 3. — La flèche du Génie civil belge.
- Longue de 80 m et haute de 35 m à sa pointe, la flèche supporte une légère passerelle qui permet de contempler une carte en relief de la Belgique.
- La Section étrangère s’est vu allouer un espace de 465 ooo m2 dans la partie la plus agréable des terrains de l’Exposition : au sein des parcs et plantations d’Osseghem et de Laeken. Les traditions et les réalisations d’une cinquantaine de nations y sont montrées dans des pavillons dont l’audace architecturale va de pair avec celle des autres sections.
- L’architecture de l’Exposition. — Presque tous les pavillons temporaires sont construits en matériaux durs. Le béton et surtout l’acier, en raison des possibilités de récupération qu’il offre, ont. été amplement mis en oeuvre.
- Très souvent, les façades transparentes permettent de contempler l’ossature d’un édifice au travers de murs extérieurs dont le rôle passe au second plan ; cette disposition renforce une constatation : la prédominance toujours accrue du technicien, du calculateur dans la construction moderne.
- Beaucoup de techniques nouvelles, d’idées jugées peu pratiques jusqu’à présent, ont été expérimentées. Si bien que l’on a pu dire de cette Exposition qu’en révolutionnant les données traditionnelles de l’architecture, par les formes d’abord, et par l’usage de nouveaux matériaux ensuite, elle était de vingt ans en avance sur notre époque.
- Malgré ces caractéristiques quasi générales, l’Exposition est loin de présenter une fâcheuse uniformité de style. Certains pavillons sont nettement conçus en vue de. trouver à la fois une solution fonctionnelle et architecturale. C’est le-cas, notamment, pour les « trois grands » de l’Exposition : les pavillons de la France, de l’Union Soviétique et des Etats-Unis. Tous trois disposent de toitures suspendues bien qu’aucune solution ne soit pareille à une autre.
- Parfois aussi, on a, fait appel à clés unités, à des modules, afin de composer un pavillon; l’Italie, la Suisse, l’Espagne, de même que la Grande-Bretagne pour sa section gouvernementale, illustrent ce procédé.
- Souvent, des pavillons ont été conçus afin de tirer parti du charme du décor naturel dont bénéficie la Section étrangère. Certains constructeurs ont même poussé le respect de la nature jusqu’à incorporer des plantations existantes à l’intérieur même de leurs réalisations. C’est le cas pour les États-Unis, et aussi pour la passerelle qui traverse de bout en bout la Section étrangère.
- Quels que soient la structure, le style adoptés, les pavillons
- p.251 - vue 255/527
-
-
-
- 252
- Fig. 4. — Le Pavillon de la Communauté européenne du Charbon et de l’Acier est caractéristique de l’architecture futuriste de la Section internationale (Photo ÂCEC).
- ont cependant tous un trait commun : ils évitent délibérément l’aspect d’un « hall d’exposition ».
- Les données générales du programme architectural de l’Exposition 58 étaient, dans la Section belge, de renverser les axes de l’Exposition de 1935, de créer une vaste esplanade utilisable lors des organisations de cortèges et, dans la Section étrangère, de relier les sites boisés par une passerelle.
- Dans la Section belge, l’ancienne avenue du Centenaire, qui constituait le principal dégagement de l’Exposition de 1935, a été scindée en trois tronçons par un portique reliant les façades latérales et par l’Atomium. Ces tronçons sont, d’autre part, divisés longitudinalement par un double miroir d’eau eL un escalier d’eau à 53 plans. Quant à l’Esplanade, elle a été tracée entre le Grand Auditorium, le Pavillon collectif des Transports et les concessions de firmes particulières.
- La Section belge offre, au long de l’avenue de Belgique, un caractère d’unité accusé par les gabarits horizontaux et verticaux imposés aux architectes. Un pavillon se distingue ici, celui de l’Energie électrique, par le jeu du volume et d’un matériau-clé : un profilé d’aluminium brillant, strié. A proximité de l’Esplanade, le pavillon-toit des Transports est d une originalité certaine. C’est un hangar rectangulaire de i3 000 m2 dont la toiture au profil en double parabole est composée d’une série de poutres en aluminium de 70 m de portée, reposant à
- Fig. S. — Le Pavillon de l’U.R.S.S.
- chacune de leurs extrémités, sur une colonne légère en acier. Le toit n’a donc d’autre support que 4o pylônes haubanés latéraux; quant aux parois, elles sont inexistantes, à l’exception d’un cloisonnement nord, ajouté après coup.
- Deux édifices dominent encore, l’un la Section belge, l’autre l’Exposition tout entière : la flèche du Génie civil belge (fig. 3) et l’Atomium, symbole de l’Exposition 58 (figure de la couverture). Ces deux constructions seront détaillées dans une prochaine publication.
- L’urbanisme de la Section du Congo Belge a permis d’implanter les pavillons de façon à les rendre visibles sous toutes leurs faces et à leur faire surplomber la masse de verdure des jardins tropicaux. Afin de reconstituer une atmosphère congolaise, tous les pavillons de celte Section ont été dessinés par des' architectes belges établis au Congo, tandis que leur décoration était le plus souvent confiée à des artistes indigènes.
- C’est peut-être dans la Section internationale que l’architecture la plus audacieuse peut être observée. Des six portiques en caisson d’acier soudé supportant l’ossature du Pavillon de la C.E.C.A., à la nef d’acier et de verre de l’O.E.C.E., en passant par la coupole de l’O.N.U., les arêtes vives du Pavillon Benelux et les plans coloriés du Pavillon de la Coopération internationale, toute la section constitue une sorte de terrain d’essai de l’architecture futuriste.
- La Section étrangère, avec la liberté accordée à tous ses constructeurs, a entraîné la confrontation d’architectures nationales. Aucune mesure d’urbanisme n’a imposé d’alignement ici et, la plupart du temps, les détours des allées permettent de découvrir les pavillons isolés dans la verdure. Seule l’avenue des Nations présente une succession de pavillons, tandis que la Passerelle offre une vue plongeante sur l’implantation des participations étrangères.
- La France éblouit par un immense pavillon cantilever tout d’acier, de plastique et de verre, dont la hardiesse ne cesse d’étonner le visiteur. Sa description en sera faite d’autre part.
- Le Pavillon soviétique est d’un dessin plus classique. C’est un vaste parallélipipède d’acier, d’aluminium et de verre que l’on se propose de remonter à Moscou, après l’Exposition. L’originalité de cette construction réside dans le fait que la toiture et les parois ne reposent pas sur le sol, mais sont suspendus à l’aide de haubans à seize colonnes imposantes. Les murs sont constitués par des éléments extrêmement minces en tôles d’aluminium, formant une surface cannelée et vitrée. Le plafond du pavillon est également en verre, supporté par de minces tubes d’aluminium. Au centre du plafond, une travée de 72 m supporte un tapis de lampes fluorescentes que cache une vaste grille de défilement; cette travée est également supportée par câbles. A 8 m au-dessus du sol, un balcon de 20 m de lai’ge court sur toute la périphérie du pavillon ; il est soutenu par des colonnes secondaires, en acier.
- Le Pavillon des États-Unis est un édifice circulaire fort classique lui aussi, malgré sa qualification de « plus grand édifice circulaire du monde ». Inspiré du Colisée de Rome, il affecte la forme d’un tambour de no m de diamètre et de 22 m de hauteur, recouvert de plastique transparent. Ce recouvrement est soutenu par un réseau de câbles soumis à un effort de no t et rayonnant à partir d’un anneau central de 20 m de diamètre, pesant 45 t. Une autre caractéristique remarquable réside dans l’emploi d’un élément de recouvrement extérieur en terre cuite ouvragée, autour des salles de spectacle attenantes à i’édi-fice. Cette décoration, qui rappelle les motifs de l’Alhambra de Grenade, est encore évoquée par le grillage doublant la paroi de verre du Pavillon.
- 'L’intérêt de l’architecture mondiale n’est cependant pas limité à ces trois considérables réalisations. Le Pavillon finlandais est un orgue tout en bois, celui de la Norvège est construit du même matériau nordique et l’église du Pavillon du Vatican est faite d’éléments en bois démontables, qui permettront sa réérection.
- p.252 - vue 256/527
-
-
-
- Le Pavillon luxembourgeois et le Pavillon autrichien sont édifiés sur des pilotis d’acier, celui de l’Argentine est lacustre. Les pavillons de l’Iran, du Cambodge, du Maroc, de la Tunisie sont de fidèles représentations des architectures nationales de ces pays. Les Hollandais ont repris dans leur pavillon le thème qui leur est cher : leur lutte séculaire contre la mer. Une annexe au Pavillon des Pays-Bas a élé réalisée par Le Corbusier. La construction imaginée par le créateur de la Cité Radieuse de Marseille et de la Chapelle de Ronchamps a pour but de mettre
- Fig. 7. — Rétrospective architecturale belge : entrée de la Section folklorique.
- (PllOlo SCHGYSELS et DllïTENS).
- en relief les possibilités de l’électro-acoustique et de l’éclairagisme. C’est une énorme conque, fondée sur un système de deux surfaces à deux pentes, s’élevant à 20 m du sol. L’ensemble est enrobé d’une couche de béton de 5 cm d’épaisseur et 2 000 panneaux de formes différentes, couvrant chacun une surface d’environ 1 m2, sont tendus entre des filins d'acier de 7 mm de diamètre.
- Une passerelle pour piétons domine la Section étrangère, d’une hauteur moyenne de i5 m ; longue de 45o m et large de 2b, elle est supportée par 124 poutres en béton précontraint. Plusieurs escaliers centraux donnent accès aux édifices en contrebas.
- Des jardins et plantations renforcent le cadre de verdure que constituent déjà certains coins de l’Exposition. En plus des
- Fig. 8. — Dans la participation des Pays-Bcs : te pavillon de la Société Philips, dont la réalisation a été confiée à Le Corbusier.
- p.253 - vue 257/527
-
-
-
- plantations existantes, on a créé dés jardins qui composent eux-mêmes un rappel historique. S’inspirant de toiles de maîtres flamands, des xvi® et xvne siècles, des paysagistes ont reconstitué un jardin « Renaissance » dit « des quatre saisons », un autre, classique et des modèles de jardins modernes. La plupart des plans de pavillons ont également prévu des jardinets qui offrent suffisamment de recul pour que le visiteur puisse juger des effets architecturaux.
- Il convient de mettre un terme à cet « aperçu architectural 58 » par la mention d’une agréable fantaisie : la « Belgique Joyeuse ». Cette concession mi-commerciale, ^mi-folklorique couvre plus de 5 ha de ses quelque 175 vieilles maisons qui reproduisent les aspects les plus typiques des anciennes villes belges. 'Les souvenirs du passé ne sont pas seulement évoqués par celte architecture des siècles révolus, les costumes, les décors intérieurs •et les manifestations folkloriques achèvent de créer l’illusion d’un retour dans le temps.
- Le Palais international de la Science. — Un des
- palais permanents construits en iq35 est réservé à une des deux « collectivités » internationales, la Science. L’autre est réservé aux Beaux-Arts.
- PRÉSENCE DES SCIENCES
- Qu’on ne se méprenne pas sur ce titre : il ne s’agit point ici de dresser un inventaire, même succinct, des recherches et des appareils scientifiques exposés par la France à Bruxelles, mais seulement d’indiquer à grands traits l’esprit qu’on a voulu insuffler à cette présentation. Et d’abord, quelques mots sur sa place par rapport au contenu d’ensemble de notre pavillon national.
- Trois sections majeures — quatre avec celle d’Outre-Mer — le composent : celle de la « Yie collective » (pour employer une expression à la mode), évoquant les divers cadres sociaux de l’existence du Français : la profession, la cité, l’État. Puis celle de sa « vie individuelle et privée », le montrant chez lui, dans le milieu familial et, s’il exerce une profession libérale, dans son cabinet de travail. Enfin, celle de sa vie et de ses ressources spirituelles et culturelles, que la vox populi n’a pas tardé à baptiser, reprenant inconsciemment une locution chère à Barrés, « la Pensée française ». C’est,, on s’en doute, à l’intérieur de cette dernière section, surplombant (matériellement!) les deux premières, que les recherches scientifiques ont trouvé leur place. Quelle au juste ? Peu de mots suffiront à le préciser.
- #
- * *
- Au centre de la maison « Pensée française » se situe le foyer de l’Éducation et de l’Enseignement, vaste relativement au reste comme pour montrer que toute invention humaine est seconde et ne se nomme « création » qu’en vertu d’une métaphore. Par le fait le savant, comme l’artiste, « crée » à partir de connaissances acquises, donc enseignées, par des maîtres, par les livres ou l’expérience, selon des méthodes ou des procédés reçus, que ce soit dans l’ordre intellectuel, esthétique ou moral.
- Rien donc de plus naturel que de déployer, de part et d’autre de cet (( Empire du milieu », une double gamme : ici celle de la création artistique, littéraire, plastique, musicale, théâtrale, etc.; et là celle de l’invention scientifique, entendue dans son sens le plus large, et partant exposée sous ses aspects les plus divers.
- Le vocable imposé par nos hôtes belges à l’Exposition de 1958, « Humanisme et Technique », nous a naturellement conduits à faire passer en tête la cohorte des Sciences humaines.
- Seize nations ont accepté de s’y joindre sans attacher leurs réalisations en la matière à leur participation nationale; ce sont les Pays-Bas, les États-Unis, le Canada, la Grande-Bretagne, la Yougoslavie, la France, Israël, le Portugal, la Tchécoslovaquie, l’Italie, la Suisse, la République Fédérale Allemande, l’Espagne, l’U.ILS.S., la Pologne et la Belgique. Elles s’intégrent dans un programme général, scientifique, élaboré en vue d’intéresser la masse des visiteurs.
- Quatre classes, l’Atome, la Molécule, le Cristal et la Cellule \ivante, illustrent les progrès réalisés dans le monde entier dans ces quatre domaines de la science pure : physique nucléaire, chimie, physique de l’état solide et biologie.
- Aucune application technique ne sera reprise dans celle synthèse, puisque les réalisations pratiques issues de ces disciplines peuvent être présentées dans les pavillons nationaux.
- Ici, c’est donc une vue d’ensemble des fondements et de la route parcourue par la science, qui est présentée au public. Le mode même de présentation constitue l’indication d’une vérité : que la science est universelle et que la puissance qu’elle recèle appartient à l’humanité tout entière.
- Roger Anthoinë.
- AU PAVILLON FRANÇAIS
- Un autre motif nous le suggérait : la présence, en prolongement des panneaux consacrés à l’Éducation, des grandes familles spirituelles françaises, croyantes et incroyantes, . libéralement unies. De nos élans métaphysiques et moraux aux efforts faits pour mieux connaître et servir l’homme, il n’y avait qu’un pas à franchir, sous la belle et célèbre enseigne de maître François : « Science sans conscience n’est que ruine de l’âme ».
- Quant au contenu de l’îlot — préfigurant, peut-être, la future cité des Sciences humaines —, il devait être à son tour logiquement organisé. Si l’on admet qu’une avenue médiane le traverse de bout en bout, il se laisse distribuer en deux groupes assez distincts. D’un côté, une série de trois types de recherches étroitement associées : au point de départ, les enquêtes philosophiques et psychologiques, s’attachant à explorer avant tout le sujet pensant; au point d’aboutissement, les sciences économiques et sociales qui, par définition, analysent les groupes humains, ruraux, citadins, industriels, et leurs facteurs d’existence et de progrès; jetant enfin un pont des unes aux autres, les études portant sur le langage, instrument de communication et d’échange entre l’individu et le groupe.
- Face à cet ensemble complexe tourné vers le présent et même le devenir de^la condition humaine, nul ne s’étonnera de rencontrer'l’histoire et la géographie plus préoccupées, elles, du passé de l’homme et de sa planète.
- Cependant, chacun le sait aussi, la science de la terre, même si elle reste enseignée avant tout dans nos Facultés de Lettres, ne saurait être exclusivement, qualifiée d’ « humaine » ! Aujourd’hui, les recherches géographiques recourent à des moyens d’investigation et d’analyse qui les apparentent aux sciences physiques et naturelles. On a voulu refléter de manière tangible cet état de choses en les installant aux confins des disciplines dites humaines et des sciences nommées exactes, le versant de la « géographie humaine » regardant, bien entendu, vers les premières, celui de la « géographie physique » et de la géologie aérienne vers les secondes.
- Mais des remarques semblables ne valent-elles pas, aussi bien, pour les sciences économiques où, de plus en plus, interviennent les mesures quantitatives, à ce point que MM. Perroux, Gruson et Closon (celui-ci dirigeant l’Institut -national de la statistique) ont pu inscrire au fronton de leurs panneaux, pour
- p.254 - vue 258/527
-
-
-
- 255
- ftg. 9. — La façade et la flèche du Pavillon français.
- L’Alomium illuminé se profile derrière le Pavillon finlandais, construit en bois.
- (Photo Sado).
- en résumer le sens, cette simple phrase : « Compter, c’est créer ». Et voilà pourquoi, dans notre dessein, les sciences économiques constituent, face à la géographie, une autre zone de contact entre le domaine de l’homme et celui des mesures exactes où nous abordons maintenant.
- * *
- \ ;,f - " * #
- A l’intérieur du champ illimité des sciences mathématiques, physiques, chimiques, biologiques, etc., le problème du choix fût resté pour nous sans véritable solution, si le Commissariat belge de l’Exposition n’avait organisé d’autre part, au Palais international des Sciences, une passionnante confrontation entre lés recherches poursuivies aux divers coins du monde sous quatre chefs principaux l’Atome, la Molécule, le Cristal, la Cellule vivante.
- Dans ces conditions, il revenait en quelque sorte à l’étage culturel de notre pavillon d’accueillir sinon le trop-plein de la participation accordée au palais international, du moins une sélection restreinte de découvertes complémentaires, choisies chaque fois pour leur caractère, jugé spécifiquement français, d’ingéniosité ou d’élégance ou d’audace, et, là encore, logiquement disposées et classées.
- Contentons-nous de citer les principales lignes de force de ce réseau qu’on a tôt fait de parcourir, mais d’autant plus impressionnant qu’il accumule les trouvailles sur de faibles distances ! Comme il a déjà été dit, les sciences « humaines » tendent à leurs sœurs « exactes » deux fds conducteurs : d’une part, celui des sciences économiques qui mène à l’économélrie ; d’autre part, celui de la géographie physique acheminant aux sciences de la terre. Celles-ci à leur tour voisinent avec l’astronomie, tandis qu’à peu de distance se développent deux couples de taille : optique et acoustique; aérodynamique et hydrodynamique. Plus loin encore s’ordonnent des séries que l’on nous excusera de condenser à l’extrême : chimie, électrochimie, élec-
- tricité, électrostatique, magnétisme; électronique, rayons X, biologie.
- A son tour et pour finir, la biologie débouche sur les recherches médicales disposées autour de plusieurs pôles de rayonnement qu’il est à peine besoin de nommer, tant ils sont à l’ordre du jour : ici la microscopie électronique et l’endoscopie; là les plus récentes acquisitions de la cardiologie, de la pathologie rénale .— cœur, cœur-poumon, rein artificiels — et de la cancérologie.
- * *
- A force de fuir la description' d’inventaire, nous voilà sur le point de verser dans le laconisme énumératif ! Celui-ci a du moins l’avantage de faire embrasser d’un seul coup d’œil tout l’éventail de la recherche fondamentale, tel qu’on a désiré l’ouvrir aux curiosités du public. La leçon qui devrait en découler n’est pas mince. C’est celle de l’unité et de la continuité du savoir. Il est en effet assez remarquable que, plus les diverses disciplines approfondissent leur propre terrain et plus elles découvrent le besoin qu’elles ont de leurs voisines : à mesure que chacune se particularise, en même temps elle se solidarise. En a-t-on bien toutefois une conscience suffisamment claire en ces temps où l’on débaptise une à une nos Facultés ? Hier c’étaient celles de Droit cpii se muaient en Facultés de Droit et des .Sciences économiques; aujourd’hui, ce sont celles de Lettres que l’on voudrait nommer Facultés de Lettres et des Sciences humaines... au risque de provoquer un assez beau télescopage : car enfin, que sont en particulier les sciences économiques, sinon des disciplines au premier chef « humaines » ? Le vrai, c’est ce qu’essaie de montrer et, par le fait, de démontrer la structure de notre section : toute frontière est illusoire, tout cloisonnement est dangereux entre les multiples aspects de la connaissance.
- 11 est même devenu à demi vain et fallacieux de distinguer
- p.255 - vue 259/527
-
-
-
- 256
- entre « sciences exactes » et-« sciences de l’homme » : celles-ci éprouvent un extraordinaire appétit de rigueur statistique juste au moment où une certaine mathématique aime à se qualifier de « plausible », où certaine physique se meut dans le « probable ». Quant à dire laquelle de toutes ces sciences est la plus « humaine »... Toutes, hélas! sont perpétuellement prises entre deux possibles : ou bien être de mieux en mieux au service de l’humain, ou bien servir à nous projeter dans la moins humaine des destinées.
- Mais il y a plus. Voilà bientôt vingt ans déjà, Louis de Bro-glie notait. « un rapprochement de la science et de la philosophie ». Robert Oppenheimer a, depuis, étendu l’affirmation, analysant par exemple les rapports entre la science, l’humanisme intellectuel et artistique, et la technique. « Une grande découverte — écrivait-il naguère — est une oeuvre d’art... Elle est aussi un instrument pour la technique, pour les arts pratiques et les affaires humaines. »
- Telle est la plus juste perspective qui doit se dégager, selon notre but et notre vœu, de l'étage de l’Esprit qu’il nous a été donné, grâce à la confiance de M. Pierre de Gaulle, de présenter au pavillon français de l’Exposition de Bruxelles. « Humanisme et Technique », proclament nos amis belges. Sans doute,
- Psychologie
- D’abord considérée comme une branche de la philosophie, la psychologie a conquis peu à peu son indépendance et s’est diversifiée au point de couvrir un secteur important des sciences humaines. Aussi est-il naturel qu’une place lui ait été réservée dans le cadre du Pavillon de la Pensée française à l’Exposition internationale de Bruxelles. 11 ne pouvait cependant être question de faire une présentation exhaustive de son actuel développement, tant pour des raisons purement matérielles, telles que la surface réduite de présentation, que pour des raisons d’adaptation à un public international très hétérogène et dans l’ensemble peu initié à ces problèmes. De plus, le thème général de l’Exposition portant plus particulièrement l’accent sur ce que chaque pays avait réalisé en vue de l’amé-
- Fig. 10. — Détermination du niveau de développement d’un enfant : utilisation de l’échelle Brunet-Lézine.
- Test de coordination oculo-motrice : à quinze mois, l’enfant commence à construire une tour avec des cubes (Photo P. Genest).
- mais défions-nous un peu de cet et si prompt à prendre une figure équivoque. Voici en tout cas l’interprétation que nous aimerions en retenir à notre usage, et qui pourrait assez bien résumer le sens de notre démonstration : la Science, comme l’Art, comme la Technique (or, la Science et l’Art sont bien, dans une large mesure, des techniques!) est faite pour le service de l’homme, qui lui-même, ainsi que le rappelait ces jours-ci M. G. Berger, est fait pour le bonheur.
- G. Antoine,
- Professeur à la Sorbonne, chargé de la section « Pensée française » à l’Exposition de Bruxelles 1958.
- I
- Nous donnons dans les pages qui suivent une série d’exposés sur quelques présentations du Pavillon français, avant de passer à celles du Palais de la Science et des sections étrangères. Nous ne pouvons être complets et on nous excusera si l’on ne trouve pas mention ici de présentations également intéressantes, qui ne pouvaient trouver place par leur étendue même. L’intérêt de certains sujets dépasse l'actualité immédiate et nous leur ferons place dans nos prochains numéros.
- française
- /
- Fig. 11. — Test du double chariot.
- L’appareil permet d’apprécier les capacités de coordination et de dissociation des mouvements. L’épreuve consiste à conduire le pointeau sur le tracé au moyen des deux manivelles. Lorsque le pointeau s’écarte du tracé, des compteurs enregistrent le nombre et la durée des erreurs. (Laboratoire de Recherches psychotechniques de la Prévention routière).
- lioration des conditions de vie de son peuple, il a paru préférable de sacrifier l’enseignement et la recherche pour ne retenir que certaines applications de la psychologie.
- Deux thèmes ont été retenus, l’un axé sur le psychologue ou service de l’enfance, l’autre sur le psychologue au service du monde du travail.
- Quatre panneaux illustrent le premier thème. Le premier montre l’intérêt que porte le psychologue au développement du très jeune enfant. L’observation des mouvements et des postures, du développement verbal, de la coordination motrice et
- p.256 - vue 260/527
-
-
-
- 257
- Fig. 12. — Adaptation de la machine à l’homme.
- Construit au Laboratoire du Centre d’études et recherches psychotechniques, ce poste permet de préciser les principaux défauts dépistés dans une pelle mécanique : levier, pédale, groupement des commandes, forme et position du siège. Les différents dispositifs sont testés en fonction de trois critères : physiologiques (à droite, la mesure de la fréquence cardiaque évalue la fatigue), psychologiques (l’opinion du sujet est notée sur une échelle de jugement), et de rendement, le sujet effectuant une tâche semblable à un travail réel.
- {Photo P. Genest).
- des relations sociales du bébé permet au psychologue de déterminer un âge de développement et d’apporter ainsi au médecin un complément d’information indispensable pour le dépistage d’un retard ou l’explication d’une anomalie. Cette meilleure connaissance de l’enfant lui permet également de conseiller utilement les parents et les puéricultrices dans les crèches ou les consultations de nourrissons.
- Le second panneau illustre le rôle du psychologue scolaire. Celui-ci examine à l’aide de tests le comportement intellectuel, sensori-moteur et caractériel de l’enfant. Cette observation continue est consignée sur un livret psychologique qui accompagne l’enfant durant toute sa scolarité. En collaboration étroite avec les maîtres et les parents d’élèves, le psychologue prépare l’orientation scolaire, dépiste à temps les retardés et les inadaptés et les dirige vers des classes de rattrapage, des classes de perfectionnement ou des centres psycho-pédagogiques. Indépendamment de ce rôle très important, il étudie les problèmes psychologiques que posent les méthodes et les matières d’enseignement ainsi que les goûts des écoliers.
- Le troisième panneau est consacré à la contribution que le psychologue apporte au dépistage et à la rééducation des enfants qui s’adaptent mal à leur milieu scolaire ou à leur milieu social. Cette action s’exerce dans des organismes très divers, tels que consultations de prophylaxie mentale, centres psychopédagogiques, instituts médicaux-pédagogiques, centres d’observation pour mineurs délinquants, centres d’orientation éducative.
- Le quatrième panneau présente le rôle du conseiller des Services d’orientation du ministère de l’Education nationale. Ce rôle est triple. Le conseiller fournit de l’information sur les différentes professions au cours d’exposés collectifs, de causeries avec les parents ou de visites organisées sur les lieux de travail. Il examine l’adolescent et assure la synthèse de ses propres observations avec celles de l’instituteur et du médecin. Enfin, il conseille les parents et leur enfant au cours d’entretiens privés.
- Le deuxième thème est illustré par quatre panneaux qui mettent en relief les deux aspects des rapports du psychologue avec le monde du travail : l’adaptation de l’homme au travail et l’adaptation du travail à l’homme.
- En vue d’une meilleure adaptation de l’homme à son métier, le psychotechnicien utilise des méthodes de sélection en complément des méthodes d’orientation. Lorsqu’il s’agit d’améliorer les conditions de sécurité, ce rôle devient essentiel. Le
- premier panneau est consacré uniquement à ce problème. Les documents photographiques établis par la S.N.C.F., la R.A.T.P. et la Prévention Routière sont destinés à présenter des épreuves telles que le test d’attention diffusée, le test du traçage, utilisées pour détecter les insuffisances éventuelles des candidats à un poste de conduite de véhicule. Certaines épreuves mimétiques de la tâche permettent d’examiner en cours de carrière des sujets précédemment sélectionnés. 'Les statistiques d’accidents régulièrement établies montrent l’efficacité de telles méthodes.
- Le deuxième panneau présente l’action du psychologue au cours de la formation professionnelle, autre aspect important de l’adaptation de l’homme à son travail.' Dans ce domaine, le rôle du psychologue est d’élaborer des méthodes de formation en recherchant, au cours de l’analyse du travail, les indices ou les repères dont la connaissance et l’utilisation faciliteront l’apprentissage, de donner des conseils d’ordre psychologique aux moniteurs et d’examiner avec eux le cas des sujets dont la formation présente quelque difficulté.
- Le troisième panneau est plus particulièrement réservé à la formation du personnel d’encadrement : ingénieurs, cadres et agents de maîtrise. Le psychologue s’efforce de développer les capacités psychiques de commandement et d’améliorer les relations humaines au sein de l’entreprise. Une des méthodes les plus usitées consiste à réunir des. groupes de huit à dix personnes pour discuter ou mimer des problèmes réels de la vie de l’entreprise et en dégager des principes d’action.
- Le quatrième et dernier panneau concerne l’adaptation du travail à l’homme. Il apparaît, en effet, autant souhaitable d’adapter le travail à l’homme que l’homme au travail. Le simple bon sens ne suffit plus pour aménager certains postes. Le psychologue, en utilisant ses méthodes d’analyse du travail, dépiste les anomalies et évalue leur importance. Il collabore ensuite avec le technicien pour rechercher la meilleure solution. L’intérêt de cette adaptation se traduit par une amélioration de la sécurité, de la qualité du travail, de la productivité, du recrutement et de la formation du personnel. Elle assure une diminution de la fatigue humaine.
- Bien que ce tour d’horizon ne laisse entrevoir qu’un nombre restreint d’applications, il permet cependant de montrer que la psychologie contribue dans des domaines de plus en plus variés à assurer un meilleur épanouissement de l’homme.
- Roger Lambert,
- Attaché de recherches au C.N.R.S.
- p.257 - vue 261/527
-
-
-
- 258
- LA PHOTOGÉOLOGIE
- En présentant Varticle sur la Photogéologie, discipline à laquelle un stand a été consacré dans le cadre du Pavillon français à Bruxelles, nous devons souligner que son auteur, M. J. Gandillot, est titulaire depuis 1951-1952 du cours de Photogéologie à la Faculté des Sciences de Paris, cours auquel il n’est connu d’équivalent dans aucune université française ou étrangère. La conséquence en est que les jeunes géologues et géographes formés à cette discipline y ont. acquis une compétence toute spéciale qui les situe au premier rang de la Photogéologie
- mondiale.
- Pratiquant l'aviation depuis le début de 1918, j’avais eu déjà l’attention attirée, dès cette époque, par les ensembles ou au contraire les contrastes que présentaient les paysages
- survolés. Au cours des périodes que je fis pendant l’cntre-deux-guerres, je pus utiliser mes heures de vol à analyser les régions survolées ainsi qu’à prendre, en entraînement, des photographies d’intérêt géologique.
- Je constatai ainsi que certaines émulsions donnaient des détails que l’œil ne voyait pas. J’y reviendrai ultérieurement. Cela m’amena automatiquement à faire des études systématiques, sur photos aériennes, des régions que j’avais mainLes fois parcourues au sol et à reconstituer ainsi, sur les épreuves, les cartes géologiques d’après les différences de grisés et de morphologies.
- Je constatai alors que les vues zénithales mieux encore que les obliques donnaient de précieux renseignements dans nos diverses disciplines. Mais, pour avoir l’impression du relief réel, il faut que l’ombre produite par une bosse ou par un creux se trouve, sur la photo, entre ladite bosse ou ledit creux et l’observateur, du moins dans notre hémisphère. Il n’y a donc qu’à regarder la direction des ombres portées pour orienter exactement les photographies prises en début ou en fin de journée ou plus simplement qu’à mettre le nord vers l’observateur. Dans l’hémisphère sud, ce serait évidemment le contraire. C’est d’ailleurs pour nos régions une difficulté car, si l’on veut comparer les photographies aériennes et les cartes topographiques ou géologiques, il faut retourner également ces dernières et s’habituer à lire à l’envers...
- Voici maintenant quelques exemples pris dans les diverses disciplines de la géodynamique et qui montreront ce que le pho-togéologue peut tirer de l’étude d’un cliché.
- La figure i3 représente une vue du Pays de Bray dans la région au nord d’Auneuil (W-SW de Beauvais). On voit successivement de haut en bas : les grands champs des plateaux, la zone boisée de la corniche trop abrupte pour être cultivée. On remarquera d’ailleurs le chemin de fer qui s’enfonce en tunnel dans le ressaut du versant. Puis, en contrebas, les assises encore perméables du Crétacé. Mais dès que les terrains plus anciens, et de nature imperméable, affleurent, vers le centre de l’anticlinal, immédiatement le damier des champs fait place au grisé plus soutenu des prairies et du bocage. On retrouverait ,sur le flanc droit de l’anticlinal, mais en dehors de cette photo, les assises du Crétacé supérieur perméable, et aussitôt les champs
- Figf. 13. — Dans le Pays de Bray, au nord d’Auneuil.
- (Photo Institut Géographique National).
- p.258 - vue 262/527
-
-
-
- 259
- Fig. 14. — Une zone de forêt vierge en Nouvelle-Guinée hollandaise.
- (Collection J. Gandillot).
- réapparaîtraient. Toutefois, la largeur de l’affleurement est alors plus petite, soulignant la dissymétrie du pli et le plongement plus rapide des couches à l’est qu’à l’ouest.
- La figure i4 représente une zone de forêt vierge en Nouvelle-Guinée hollandaise. On ne voit que des arbres, en dehors du mince filet clair qui représente le lit d’un torrent.
- Et cependant les contrastes des morphologies sous la végétation et inhérentes au sol sont frappants. En allant de gauche à droite, on voit d’abord une bande de terrains durs presque plats, se continuant de l’autre côté du torrent, puis une roche très attaquée par l’érosion et dont l’affleurement se termine en pointe vers le bas, une troisième zone d’une nature également résistante et rappelant la première; enfin la moitié droite du cliché est caractérisée par des reliefs et des creux qui rappellent les régions calcaires ou gypseuses où régnent les phénomènes de dissolution.
- Ainsi, malgré la forêt vierge aux arbres jointifs qui ne permettent pas de voir le sol, les morphologies sont suffisamment contrastées pour que les limites géologiques apparaissent cependant.
- La figure i5 se situe dans la plaine du Rhône à l’est de Lyon, entre le fleuve et la « côtière des Dombes » dont on aperçoit les premiers reliefs dans le bas de la photographie. Notre regard est tout de suite attiré par une demi-circonférence foncée et si nous analysons avec attention cette partie de la photo, nous constatons : i° que les champs s’allongent perpendiculairement à la courbe ; 2° que ces champs sont d’un grisé plus soutenu près de la courbe que plus loin; et au stéréo, nous voyons que la zone la plus foncée est légèrement plus basse que les régions avoisinantes.
- Cette demi-circonférence est un ancien méandre du Rhône recoupé au cours.de son évolution. La zone boisée correspond au lit occupé jadis par le fleuve et la zone foncée matérialise l’ancien lit avec ses cailloutis, zone que l’on ne peut cultiver et qui, laissée en friche, est couverte d’arbustes. Enfin, si les champs sont d’un grisé plus soutenu au voisinage de l’ancien lit, c’est parce que, à cet endroit, ils sont plus humides et, de ce fait, viennent sur la photo en plus foncé, comme nous le verrons plus loin. D’autres méandres anciens, moins apparents, se reconnaissent sans différence de teinte aussi notable par la
- disposition en éventail des champs. Plus près du fleuve, dans le lit majeur, un autre méandre est bien visible, au milieu des cailloutis; il n’est fonctionnel que lors des crues d’une certaine importance.
- La figure 16 représente l’ancien cours du Grand Morin asséché depuis que celui-ci a été capté, à quelques kilomètres en amont, par la Marne. On distingue parfaitement la berge concave érodée et abrupte et la berge convexe alluvionnée et plate. Le pédoncule que l’on voit, à gauche de la photographie, séparait le méandre à sec du Grand Morin et un autre méandre de la Marne qui coule sous la tache sombre des arbres de ses rives, en bordure du cliché. De sorte que si la capture n’avait pas eu lieu en amont, elle se serait produite tôt ou tard par la dissection du pédoncule sous lequel passent le chemin de fer de l’Est et le canal.
- 'La vision zénithale rend également de grands services dans l’étude des régions volcaniques; c’est pourquoi d’ailleurs, depuis 1960, j’emmène mes étudiants de Sorbonne au-dessus des volcans d’Auvergne pour comparer les formes des appareils individuels (acides ou basiques), ou au contraire des complexes volcaniques.
- Mais Ja photographie nous permet la même étude, moins vivante certes, que le survol direct.
- La figure 17 nous montre : au-sud le Puy de Dôme, volcan
- Fig. 15. — Dans la plaine du Rhône, à l’est de Lyon.
- (Photo I.G.N.).
- p.259 - vue 263/527
-
-
-
- 260
- Fig. 16. — La vallée abandonnée du Grand Morin après sa capture par la Marne.
- Vue oblique prise à 150 m d’altitude le 2 avril 1930.
- (Photo J. Gandili.ot).
- acide, sans cratère et au nord le Pariou avec ses deux cônes emboîtés : le premier, le plus septentrional, juste dans l’angle de la photographie, ayant été « égueulé » lors de la formation du second. Entre les deux, du nord au sud, on voit la grande masse du « Traversin », et sur les flancs nord du Puy de Dôme, le petit cratère du « Nid de la Poule » dont les formes sont si bien conservées. Pas loin de ceux-ci, mais hors de la photographie, on aperçoit de i ooo m les cratères égueulés de la Vache et de Lassolas avec leurs coulées coalescentes emprun-
- Fig. 17. — Le Puy de Dôme et ses environs Nord.
- L’orientation Kord est celle du bas de cette photographie.
- CPhoto I.G.N., 1946).
- Fig. 18. — Traces de cassures dans les terrains anciens de la région de Largentière.
- (Collection J. Gandii.lot).
- p.260 - vue 264/527
-
-
-
- 261
- t;int une vallée déjà légèrement creusée et le lac de Barrage d’Àydat. Plus au sud s’étale le complexe volcanique du Mont-Dore : Sancy, Banne d’Ordanche, Aiguiller, qui accumule laves et produits de projection que dissèquent les torrents. Mais il offre, encore bien conservée, son activité volcanique finale, périphérique, par les manifestations, isolées, de Tuilière, Sana-doire, du Tartaret et du Lac Chambon, du Lac Pavin et du Lac de Montcineyre. Deux heures de survol vous réjouissent les yeux autant qu’elles vous noui'rissent l’esprit.
- Si nous indiquons maintenant ce que la photographie aérienne peut indiquer en tectonique, nous avons l’exemple cher aux pétroliers des synclinaux et des anticlinaux. Ces derniers, grâce à la courbure des affleurements et au pendage des couches, permettent de reconstituer la forme des plissements et de localiser ainsi les « zones pièges » du pétrole. Mais les phénomènes tectoniques de fractures sont aussi faciles à discerner que les plis, ces fractures par lesquelles le pétrole « futile » a souvent fui.
- La figure 18 (dans les terrains anciens du vieux socle de la région de Largentière) permet de voir un nombre considérable de petites lignes noires qui semblent avoir été tracées avec un tire-ligne plus ou moins ébréché; ce sont également les traces de cassures du vieux socle. Elles matérialisent les directions des failles hercyniennes (armoricaines SE-NW et varisques SW-NE), mais également les failles alpines (NS). Dans le haut du cliché, on voit plusieurs points où ces trois directions se recoupent, donnant un étoilement typique.
- Ces failles se voient malgré leur ancienneté, parce que la mylonite, résultant du frottement des deux compartiments l’un contre l’autre, a broyé la roche. Celle-ci s’est décomposée plus rapidement puisque, d’une part, l’eau pouvait circuler facilement per ascensum ou per descensum dans la zone broyée, et que, d’autre part, la surface d’attaque y était beaucoup plus grande.
- Inversement, là figure 19 nous donne un exemple très récent (18 mai 1940) d’une cassure de cisaillement avec composante horizontale. Vous y verrez que de droite à gauche les sillons ne sont plus en face les uns des autres, que les berges de la rivière sont également décalées et que les quinconces d’arbres fruitiers sont eux-mèmes déplacés. Le tout suivant une ligne presque parallèle au bord inférieur de la photographie et situant l’axe de cisaillement.
- En Glaciologie, les différentes parties d’un glacier sont également aisées à discerner, comme le prouve cette photographie
- prise à la confluence du glacier de Leschaux avec la Mer de Glace (fig. ao). La zone amont où les courbes du glacier sont concaves vers l’aval, les séracs, la zone où les courbes sont convexes vers l’aval, les confluences où les moraines latérales deviennent médianes, etc., tout est fort visible et facile à analyser.
- (Photo I.G.N.).
- p.261 - vue 265/527
-
-
-
- 262
- Fig. 21. — Vue aérienne de la Pointe de Grave
- Le Nord est vers le bas (Photo J. Ganjiili.ot).
- En Océanographie même, du moins en Océanographie côtière, la photo aérienne peut rendre de nombreux services, mais il faut être fort circonspect, car l’on pourrait écrire un véritable roman sur chaque cliché, les causes d’erreur étant nombreuses. Il faut en effet des eaux limpides, calmes, peu profondes pour que la lumière éclaire suffisamment les fonds. Si ces conditions sont réalisées, s’il n’y a pas d’herbier trop envahissant, ni de courants côtiers plus ou moins boueux, la valeur du grisé augmentera avec la profondeur, c’est-à-dire avec la diminution de l’éclairage.
- Sur la photo de la figure 21, prise à la pointe de Grave, on voit du côté atlantique deux ou trois grisés différents suivant que l’on regarde au sud ou au nord du cliché. Ces teintes correspondent d’ailleurs avec les cotes des cartes bathymétriques de la marine et sont parallèles aux isobathes.
- •
- • •
- Au début de cet article, j’ai signalé le rôle que jouait l’humidité du sol, donnant des taches d’autant plus sombres qne la proportion d’eau dans la terre était plus grande.
- J’ai fait des essais en vol (25 avril itj5i) avec des émulsions et des écrans colorés différents, grâce à l’obligeance de camarades du C.E.V. de Brétigny. Pour l’instant, c’est l’émulsion infrarouge avec filtre rouge de Wratten qui m’a donné les meilleurs résultats. Les prises de vues ont été faites dans le Pays de Bray, perpendiculairement à l’axe tectonique.
- Sur les photogi'aphies 22 et 23, la même partie du terrain a été fdmée simultanément avec deux caméras chargées différemment : l’une, celle de gauche (fig. 22), était équipée d’une pellicule panchro avec écran rouge de Wratten n° 25; l’autre (fig. 23) avec un film infrarouge et le même écran. On voit dans cette dernière combinaison que les marbrures dues à l’humidité du sol sont beaucoup plus nettes que sur la précédente.
- Ces différents exemples pris dans nos diverses disciplines prouvent, s’il en était nécessaire, combien la photographie
- p.262 - vue 266/527
-
-
-
- 263
- aérienne peut aider le géologue en précision et en rapidité avant et après ses courses sur le terrain.
- Voilà dix ans qu’en conclusion de mon cours de photogéologie je termine par ces phrases :
- La Photographie aérienne appliquée à la Géologie devrait être utilisée à deux fins par tous les géologues :
- D’abord pour analyser sur assemblages et montages stéréoscopiques la région qu’ils ont à étudier sur le terrain; par ce travail préliminaire, ils auraient déjà une idée de sa structure, ils sauraient ainsi prévoir les itinéraires intéressants et ne risqueraient pas de passer à côté de points importants sans les voir.
- Ensuite, les courses sur le terrain étant terminées, la minute géologique devrait être tracée non seulement d’après les carnets de route et les croquis, mais aussi en confrontant les levés avec les photographies aériennes.
- Mais, depuis trois ans, j’ajoute... cc et dans bien des cas sur les photographies aériennes elles-mêmes, ce que l’on appelle maintenant la carte photogéologique ».
- Une expérience, fort concluante, vient d’être faite par l’Institut français du Pétrole dans le Hoggar, sur une région située au sud de la ligne Tamanrasset-Djanet et représentant une surface qui correspond à un rectangle d’environ 4oo km d’est en ouest et 33o km du nord au sud, soit, grosso modo, i32 ooo km2, c’est-à-dire le quart de la France.
- Les photogéologues de l’I.F.P. (plusieurs d’ailleurs sont mes anciens élèves) ont analysé les 6 5oo clichés de la mission et ont dressé la carte photogéologique directement sur les photographies (cartes stratïgraphique et tectonique). À cet effet ils ont tracé, par l’analyse méthodique des couples stéréoscopiques, d’une part les limites géologiques apparentes des terrains en fonction de la valeur des grisés et des différences de morphologie, mais aussi d’autre part les pendages des couches, leurs ruptures et tous les contacts anormaux.
- L’étude a été faite en équipe, mais elle représenterait, pour un photogéologue seul, i4 mois de travail, qui se décomposeraient comme suit : 7 mois d’interprétation photogéologique,
- 5 mois de vérification sur le terrain, 2 mois de reports sur carte des contours géologiques et des accidents tectoniques vérifiés sur le terrain.
- C’est pour moi une agréable confirmation de ce que j’enseigne depuis des années dans un cours de Photogéologie à la Faculté des Sciences et, depuis neuf ans, dans les vols que je fais avec mes élèves, à bord d’un avion « sonorisé » de 4o places, ce que les étudiants ont appelé « les classes volantes » et les Canadiens « l’enseignement aéroporté de la Sorbonne ».
- Enfin je suis devenu archéologue « par raccroc », ayant trouvé des ouvrages fortifiés en analysant des photographies pour des fins géologiques. C’était, au début de l’année, un oppidum qui se trouvî»*à environ 1 km d’Igon, au sud de Pau, sur la colline, point trigonométrique de 4oa m. J’ai signalé son existence, au début de iq58, à la Société Préhistorique de France, mais je ne sais encore si cette fortification était connue ou non.
- En Limousin, à 7 km au NE de Saint-Yrieix-la-Perche, j’ai trouvé également, il y a cinq ans, un ouvrage, gallo-romain sans cloute, qui ceint le sommet de la cote 496 (également point géodésique) et dans les mêmes conditions que le précédent, mais celui-là n’était pas encore connu.
- Ces quelques exemples pris dans des disciplines différentes prouvent, je pense, l’intérêt qu’a le géologue non seulement à préparer son travail sur photo avant d’aller sur le terrain, mais également à le finir sur photos pour la mise en place des limites des différents terrains et des accidents tectoniques.
- J. Gandillot,
- Chargé d’un cours à la Sorbonne.
- p.263 - vue 267/527
-
-
-
- Prise d'eau avec
- Nos recherches sur la suppression des décollements par aspiration de la couche limite nous ont conduit à des résultats intéressant directement la technique des grands ouvrages hydrauliques. Nous nous limiterons, dans cet exposé, à l’application que nous en avons faite à la technique des prises d’eau.
- Considérons une prise d’eau située sur un fleuve, en amont d’un barrage mobile (fig. 24). Il est relativement facile de tracer une forme de prise d’eau, de dimensions restreintes, assurant un entonnement normal de l’eau dans la prise et dans le canal d’amenée, en l’absence de crues, lorsque les vannes du bari’age sont complètement fermées et quand tout le débit est absorbé par l’usine.
- Par contre, lors des crues, les vannes sont levées et la majeure partie du débit du cours d’eau traverse le barrage. La vitesse d’appel qui en résulte provoque, à l’extrémité amont de la prise d’eau, un décollement et la formation d’une zone tourbillonnaire souvent très étendue (fig. 25). Pour éviter cet inconvénient, on est obligé de prévoir, en général, un raccordement très progressif à l’extrémité amont de la prise d’eau à la berge correspondante et cela entraîne une grande extension des ouvrages vers l’amont.
- Nous avons pensé qu’on pouvait éviter cet inconvénient, en supprimant le décollement au moyen d’une fente aspiratrice, convenablement placée (fig. 26). On sait, en effet, que lorsqu’un fluide de faible viscosité s’écoule le long d’une paroi solide, les phénomènes de frottement se localisent au contact de cette paroi dans une couche très mince qu’on appelle la couche limite. C’est à l’intérieur de cette couche que prennent naissance les courants de retour qui provoquent le décollement du courant direct et la formation de la zone tourbillonnaire. Si l’on supprime la couche limite, par exemple en aspirant celle-ci par une fente convenablement placée, on élimine, de ce fait, les courants de retour, le décollement de la veine et la zone tourbillonnaire.
- Dans le cas de la prise d’eau, la fente aspiratrice communique avec un puits, relié lui-même au bief aval par une conduite souterraine passant au-dessous du radier de la prise (fig. 27).
- En l’absence de crues, une vanne placée sur la conduite empêche toute déperdition d’eau. Au contraire, au moment des crues, la vanne est ouverte, et le système fonctionne sous l’ac-
- Fig. 24. — Modèle réduit d’une prise d’eau au droit d’un barrage mobile.
- fente aspiratrice
- !i!!i!!!!!TOl!!i|!il*!!l!i
- Barrage : vannes partiellement levées
- Fig. 25. — Zone tourbillonnaire provoquée dans la partie amont de la prise par l’appel de l’eau s’écoulant sous les vannes du barrage.
- Fente F
- Barrage: vannes partiellement levées
- Fig. 26. — Suppression de la zone tourbillonnaire sous l’action de la fente aspiratrice F.
- Vannes partiellement levées
- / 1
- Fi,g. 27. — Schéma du dispositif créant l’aspiration de la fente F en utilisant la dénivellation entre l’amont et l’aval du barrage.
- tion de la pesanteur, sans intervention de source d’énergie extérieure, en absorbant une faible partie des eaux excédentaires : la fente aspire la couche limite et supprime, de ce fait, le décollement.
- La photographie de la figure 28 montre l’écoulement obtenu pendant une crue, à l’entrée d’une prise d’eau, lorsqu’on obture la fente d’aspiration : on voit l’étendue de la zone tourbillonnaire qui a un double inconvénient; d’une part, elle crée une perte de charge anormale à la prise, d’autre part, elle provoque la formation de dépôts, les eaux étant particulièrement chargées de matériaux solides, au moment des crues.
- p.264 - vue 268/527
-
-
-
- 265
- Fig. 28. — Photographie de la zone tourbillonnaire existant quand la fente est fermée.
- Lorsque la fente fonctionne, la zone tourbillonnaire disparaît et les filets liquides épousent la forme de la paroi, comme le montre la photographie de la figure 29.
- Donnons quelques chiffres correspondant à l’exemple étudié sur un modèle à l’échelle i/4o :
- Débit de la prise........ 120 m3/s
- Débit de la crue......... 2 000 m3/s
- Débit de ia fente........ 12 m3/s
- Signalons que deux prises d’eau ont déjà été réalisées en utilisant ce dispositif :
- — La prise d’irrigation de l’oued Massa au Maroc;
- — La prise d’eau de l’usine de Soueix dans les Pyrénées, pour un débit dérivé de 25 m3/s (fig. 3o).
- Pr L. Escande,
- Membre de l’Institut,
- Directeur de l’École nationale supérieure d’Ëlectrotechnique, d’Ëlectronique et d’Hydraulique de Toulouse.
- Fig. 29. — Photographie de l’écoulement quand la fente est ouverte : la zone tourbillonnaire a disparu.
- Fig. 30. — Fente aspiratrice en fonctionnement au barrage de Soueix.
- EXPÉRIENCES D’OPTIQUE ÉLECTRONIQUE
- Le Laboratoire d’Optique électronique du C.N.R.S., à l’Université de Toulouse, présente à l’Exposition de Bruxelles un appareil de démonstration pour l’optique électronique qui permet de réaliser devant un vaste auditoire les expériences fondamentales d’optique électronique : images électroniques, rotation du faisceau d’électrons à la traversée des lentilles magnétiques, aberrations, diffraction des électrons par un film mince cristallin, etc.
- Tous les éléments du tube cathodique utilisé à cet effet sont démontables et interchangeables (fig. 3i). 'Le canon à électrons à filament de tungstène est prévu pour des tensions d’accélération de 25 à 3o kV. Le pinceau électronique passe d’abord dans une lentille magnétique qui sert de condenseur avant d’arriver
- sur l’objet dont on veut obtenir l’image. Cet objet peut être choisi pai'mi un certain nombre qui sont placés sur un porte-objet rotatif, et l’on peut changer d’objet à volonté pendant que le tube reste sous vide. Enfin, une autre lentille magnétique (que l’on peut remplacer par un objectif plus puissant de grandissement 800 environ) forme l’image sur un écran luminescent de 3o cm de diamètre.
- Cet appareil, dont les possibilités sont assez vastes, permet à l’étudiant d’aborder simultanément la technique du vide et l’optique électronique, dont la connaissance lui sera utile s’il se sert de microscopes électroniques, de spectrograph.es de masse, etc. D’autres accessoires viendront étendre ultérieurement le champ des expériences qu’il permet de réaliser. Men-
- p.265 - vue 269/527
-
-
-
- 266
- Fig. 31. — Appareil de démonstration pour l’optique électronique.
- 1, canon à électrons ; 2, condenseur ; 3, porte-objet ; 4, objectif ; 5, écran luminescent. Le bâti contient les alimentations et la pompe à vide (dessinateur : R. Fabre).
- tionnons qu’il existe depuis plusieurs années une version simplifiée de cet appareil de démonstration, qui avait notamment été présenté à l’Exposition de la Société française de Physique.
- Pour les recherches d’optique électronique, un appareil comme celui qui vient d’être décrit a des possibilités limitées. Un montage plus important, connu sous le nom de banc d’optique électronique, a été étudié à cet effet. C’est, en particulier, avec un appareil de ce type qu’ont été réalisées certaines expériences d’optique physique des particules.
- Un certain nombre de photographies disposées sur un panneau à l’Exposition de Bruxelles illustrent ces expériences assez spectaculaires, qui vérifient de manière très directe les principes de la mécanique ondulatoire, imaginée vers 1923 par M. Louis de Broglie. On sait que cette théorie attribue à toute particule une longueur d’onde associée qui vaut, par exemple, o,o5 Â pour des électrons accélérés sous 5o 000 V. On peut s'attendre à observer des phénomènes liés à la nature ondula-
- / JH
- j biprisme
- V77777777777777?
- 777777?y///y/^////
- Expérience du biprisme de Fresnel
- en optique lumineuse (A) et en optique électronique (B).
- Explications dans le texte.
- toire des particules, qui présenteront des analogies complètes avec ceux de l’optique physique classique. Mais les ordres de grandeur en sont très différents : la longueur d’onde que nous donnions en exemple est environ 100 000 fois plus petite que celle de la lumière jaune, et les expériences d’optique physique des particules sont très délicates. On peut cependant réaliser avec des électrons des expériences très voisines de celles qui sont classiques avec les ondes lumineuses.
- La figure 32 montre, par exemple, un montage qui représente l’équivalent du biprisme de Fresnel. En optique, le biprisme fait de la source S deux images virtuelles Sj et S2 cohérentes qui donnent lieu à des phénomènes d’interférence visibles sur l’écran E sous forme de franges alternativement sombres et brillantes. En optique électronique, les images virtuelles proviennent de la déviation du pinceau d’électrons émis par la source S, provoquée par le champ électrique qui règne au voisinage d’un fil d’araignée métallisé porté à un potentiel positif de quelques volts. La source S est en fait l’image électronique 100 fois plus petite d’une fente de 5 p, de large : sa largeur n’est que de o,o5 p..
- Dans la partie commune aux faisceaux issus des images virtuelles S1 et S2, on aperçoit des franges d’interférences tout à fait analogues aux franges optiques, mais bien plus serrées.
- Fig. 33. — Franges d’interférences obtenues avec le montage électronique de la figure 32.
- On observe dans la partie inférieure le déplacement des franges lorsqu'une lame très fine d’oxvde de molybdène est introduite sur le trajet de l’un des faisceaux d’clectrons.
- La figure 33 est une des photographies de ce phénomène. On a placé sur le trajet d’un des faisceaux électroniques une très fine lame d’oxyde de molybdène qui introduit une faible différence de marche, donc provoque le décalage des franges qui est visible sur cette figure.
- De telles expériences ne présentent pas seulement un intérêt théorique : elles ouvrent la voie à l’optique physique électronique et à de nouvelles méthodes d’exploration de la matière.
- J. Faget, J. Ferré, Ch. Fert,
- Laboratoire d'Optique électronique, Toulouse.
- p.266 - vue 270/527
-
-
-
- 267
- L’examen microscopique aux basses températures
- Depuis de très nombreuses années déjà, beaucoup de biologistes se sont intéressés aux problèmes liés à l’exposition de tissus ou d’organismes entiers aux basses températures. L’examen des lésions provoquées par la congélation et le dégel des cellules vivantes a permis, dans une certaine mesure, de connaître les mécanismes d’altération dus au froid. Toutefois, il était nécessaire, pour avoir une bonne compréhension de l’ensemble des phénomènes, de pouvoir suivre directement le refroidissement et le réchauffement des tissus à l’aide du microscope.
- Diverses solutions ont été proposées à ce problème et des dispositifs ont été décrits par Smith et Smiles, et également par Taylor. L’ensemble cependant de ces instruments ne permettait pas d’obtenir des vitesses de réfrigération élevées. C’est pour-quoi nous avons conçu un appareil assurant des AÙtesses de refroidissement variables, rapides ou lentes, ainsi qu’une obser-\ration à température constante suivie de dégel contrôlé. Ce dispositif a été réalisé en 1954, à l’École normale supérieure, et a fait l’objet d’une description détaillée en 1957 (Rey). Il est présenté au Pavillon français de l’Exposition de Bruxelles.
- L’objet à examiner est porté par une glace de quartz mince représentant la face supérieure d’une cellule d’examen où peut circuler un fluide réfrigérant. Une chambre étanche, contenant du desséchant, entoure l’objectif d’une part, et surmonte le condenseur d’autre part, pour éviter tout givrage à la surface des glaces qui limitent la cellule d’examen.
- Deux montages différents sont possibles selon que l’on désire effectuer des refroidissements rapides ou des refroidissements lents.
- Réfrigération rapide. — Un liquide réfrigérant, contenu dans l’une des cuves plongées dans l’enceinte de refroidissement, circule dans les canalisations sous pression de gaz. Il s’accumule alors dans la deuxième cuve, tandis que la pression s’élève dans Je réservoir de compensation. Lorsque la pression maximale est atteinte, le liquide, qui a presque complètement rempli la deuxième cuve, circule en sens inverse grâce à un dispositif pneumatique automatique. Tous les problèmes mécaniques de graissage, d’étanchéité, de corps de pompe se trou-Arenl ainsi évités et, de cette manière, l’appareil peut fonctionner à n’importe quelle température. Selon les températures extrêmes que l’on désire obtenir, on peut utiliser divers liquides de circulation associés à des bains réfrigérants et à des gaz de compression différents. Le tableau suivant rassemble les diverses possibilités :
- Gamme usuelle de températures Tempé- rature extrême atteinte Liquide de circulation Bain réfrigérant. Gaz de compression
- o-6o° — 70° C alcool glace carboni-quc-acétone air sec
- 0-100° — 110° C isopentane essence A refroidie par un piège à azote liquide air sec
- O L"» 1 0 O O — 18o° C propane liquide azote liquide hydrogène sec
- Des températures aussi basses que — 1800 C sont donc réalisables avec cet appareillage lorsque l’on utilise propane liquide et azote liquide. 'L’hydrogène doit être très sec pour éviter toute condensation interne qui produirait un bouchon de glace et l’arrêt de la circulation. Pour cela il traverse une colonne de desséchant (P2Os) suivie par un piège à azote liquide.
- Fig. 34. — Montage utilisé pour les réfrigérations lentes.
- La chambre de dessiccation, entourant l’objectif, est bien visible ainsi que le joint annulaire étanche et souple par lequel elle appuie sur la préparation. Au premier plan, on peut voir le départ de la thermo-sonde. Noter les canalisations de réchauffement en arrière du bloc métallique portant quatre robinets.
- Réfrigération lente. — Le spécimen est refroidi par une circulation de gaz froid. L’objet est également porté par la glace supérieure de la cellule d’examen. Celle-ci est, toutefois, plus simple. En effet, un prérefroidissement des conduites n’étant plus nécessaire, le bloc métallique portant les robinets de contrôle est supprimé et la cellule directement reliée à la pièce intermédiaire.
- Une seule cuve est utilisée; elle reçoit directement le gaz de la bouteille qui s’échappe à la sortie de la cellule d’examen dans une conduite d’é\'acuation.
- On règle aisément la vitesse de refroidissement en agissant sur la pression de charge du gaz ainsi que sur le débit. Tous les gradients sont réalisables, de quelques degrés par heure jusqu’à plusieurs dizaines de degrés par minute. Le tableau suivant groupe les principales possibilités d’utilisation :
- Gamme de températures Température extrême Bain réfrigérant Gaz utilisé
- o-4o° — 5o° G glace carbonique- air sec
- acétone
- o-8o° — 100° G azote liquide hydrogène sec
- p.267 - vue 271/527
-
-
-
- 268
- Fig. 35. — Deux images successives de la congélation d’une cellule vivante.
- Cellules provenant de la souche L d’Earle, cultivée in vitro directement sur la surface de verre du porte-prépara-t i o n. Contraste de phase.... Grossissement : x 560.
- (.Laboratoire de Zoologie de l’École Normale Supérieure) .
- Au-dessous de — ioo° C, il est nécessaire de poursuivre la réfrigération .par une /circulation de propane liquide. Cela est très facile si, au départ, on rassemble le propane dans la cuve n° i et que l’on utilise la cuve n° 2 pour refroidir l’hydrogène. Il est alors facile de passer d’un montage à l’autre en moins de 20 s.
- Tous les dispositifs optiques classiques sont adaptables sur cet appareil : contraste de phase, polarisation, etc. De nom-
- breuses recherches en biologie expérimentale ont déjà été réalisées avec cet appareil. La figure 35 donne un exemple de cellule isolée, congelée à basse température. Il faut signaler, en outre, que ce dispositif peut être appliqué aisément à la microscopie métallographique et à la physico-chimie.
- Louis Rey,
- Laboratoire de Zoologie-Physiologie, École Normale Supérieure.
- Enregistreur multipiste sur microfilm en couleurs
- L’enregistrement photographique est encore actuellement le procédé le plus couramment employé en présence des phénomènes rapides. Lorsque le phénomène étudié est de longue durée, l’inscription de l’amplitude réelle des déplacements des spots nécessite une quantité de papier dont le prix de revient n’est plus négligeable; en outre, la conservation d’un grand nombre de documents pose un problème de place.
- La caméra Larex 435-C présentée par le C.N.R.S. au stand des Sciences exactes du Pavillon français, obvie à ces deux inconvénients : la surface sensible nécessaire est très réduite grâce à la diminution homothétique des amplitudes du phénomène et du temps. La finesse des enregistrements est telle que la reproduction par agrandissement ou projection restitue un tracé sur lequel il est aussi facile de travailler que sur un enregistrement classique. Cet appareil utilise du film standard de 35 mm en couleurs; les différentes pistes enregistrées simultanément sont de couleurs différentes, ce qui permet leur discrimination immédiate; comme elles sont en outre superposées, il est très facile de déterminer les phases des phénomènes étudiés.
- Le principe d’enregistrement sur microfilm consiste en une réduction homothétique des coordonnées. La réduction de l’échelle du temps est réalisée par une simple diminution de la vitesse de défilement du film; quant à la réduction des amplitudes, elle est obtenue par deux artifices simultanés :
- A. Réduction optique. — Le spot à enregistrer est matérialisé par l’intersection d’un trait lumineux et d’une fente fine, mais au lieu de se former sur la surface sensible du film, l’image nette de la source est réelle dans un plan situé en avant de cette surface sensible. Un objectif de qualité reprend cette image nette et en reforme une image réelle réduite sur le film.
- B. Réduction géométrique. — Théoriquement, ce procédé
- optique devrait suffire en soi pour obtenir des réductions considérables d’amplitude, mais il nécessiterait des objectifs dont la lentille frontale serait assez grande pour recevoir le faisceau dans la totalité de son déplacement, et l’importance d’une telle pièce optique rendrait l’ensemble de l’appareil quasi absurde.
- C’est donc grâce à un deuxième artifice qu’est obtenue une réduction globale d’amplitude de 5o en dimension, avec un objectif standard. Ce procédé, imaginé par A. Godefroy et breveté par le C.N.R.S., est le suivant (fig. 36) :
- La source qui éclaire le miroir du galvanomètre et sert d’objet au système optique, est constituée par un trait lumineux parfaitement homogène; le miroir du galvanomètre donne de de ce trait une image nette dans le plan objet de l’objectif de
- Axe de ta fente
- Axe du trait lumineux
- Fig. 36. — Schéma du dispositif de réduction géométrique des amplitudes de l’enregistreur Larex.
- Lorsque le miroir du galvanomètre oscille de part et d’autre de sa position de zéro, le point d’intersection du trait lumineux et de la fente se déplace le long de la fente. Le rapport a/A. — C*° représente le coefficient de réduction géométrique.
- p.268 - vue 272/527
-
-
-
- 269
- la caméra, comme il vient d’être indiqué § A. L’objectif voit donc un point lumineux à l’intersection de la fente et du trait. La longueur de la fente est telle que son image sur le film corresponde au maximum d’amplitude à enregistrer sur le film; en outre, l’objectif doit pouvoir « couvrir » la totalité de cette fente. Par ailleurs, la longueur du trait lumineux donné par le galvanomètre est égale à celle du plus grand déplacement prévu pour le spot, c’est-à-dire à l’amplitude réelle du phénomène à enregistrer. Enfin, la fente objet (projecteur de spot) qui donne le trait lumineux, est légèrement inclinée par rapport au trajet du spot : dans l’enregistrement classique, ce trait lumineux est perpendiculaire au déplacement du spot alors que dans le cas présent, il lui est presque parallèle.
- Il résulte de cette disposition qu’en fonction du déplacement du miroir du galvanomètre, le point d’intersection du trait lumineux et de la fente placée devant l’objectif de la caméra se déplace perpendiculairement au mouvement du spot, et avec une amplitude d’autant plus petite que le trait lumineux est plus voisin de la trace du spot. L’inclinaison du trait lumineux est réglable, ce qui permet d’ajuster le coefficient de réduction. A la limite, si le trait est parallèle au déplacement, il se déplace sur lui-même, et le coefficient de réduction est infini. Pratiquement, le coefficient de réduction globale (optique x géométrique) de 5o est très facile à obtenir sans apparition de distorsion du fait des imperfections optiques ou mécaniques.
- Pour pouvoir enregistrer plusieurs spots simultanément, il faut d’abord qu’ils soient tous constitués suivant le principe qui vient d’être décrit, et ensuite qu’ils soient tous sur le même axe moyen (axe de l’objectif). Pour obtenir cette superposition à partir des divers miroirs de galvanomètres, les différents faisceaux sont groupés dans un bloc de prismes à faces semi-réfléchissantes; le schéma optique général est donné par la figure 37.
- Chaque spot est en outre filtré par un filtre monochromatique; il est traduit, sur le film développé, par sa couleur complémentaire.
- Le film standard de 35 mm est placé sur un tambour qui peut avoir deux sortes de mouvements suivant le mode d’enregistrement choisi :
- i° Un mouvement de rotation continue à vitesse constante autour de son axe, associé à un mouvement lent de translation
- Galvanomètres
- z&t
- Source
- Miroirs semi-transparents
- Objectif
- Fente
- Jf Marqueur
- Filtre
- coloré
- Objectif
- 1 ^ Fente V / / /
- Bloc optique de mélange
- Fig. 37. — Schéma du système optique de l’enregistreur Larex.
- Fig. 38. — L’enregistreur Larex.
- Fig. 39. — Schéma de l’enregistrement transversal.
- Un seul tracé a été figuré pour faciliter la compréhension. Le temps de retour est d’environ 1/200 du temps d’aller.
- suivant son axe; dans ces conditions, le spot à enregistrer a sa ligne de base qui décrit une spirale sur le film placé sur le tambour, spirale qui se traduit une fois le film mis à plat, par une succession de droites parallèles.
- 20 Un mouvement de translation suivant l’axe du tambour, à vitesse constante, avec retour rapide à la position initiale associé à une légère rotation ; la ligne de base est alors constituée par une série de lignes transversales au film ; les temps de retour sont perdus, mais ils sont relativement très courts, et l’inconvénient est nul pour un grand nombre d’applications.
- Ce dernier mode d’enregistrement dû au docteur M. Marchai fait aussi l’objet d’un brevet C.N.R.S. 11 a l’avantage de concentrer chaque essai sur une surface restreinte qu’il est facile d’isoler en fractionnant le film (fig. 39).
- Cet enregistreur est particulièrement intéressant lorsque des enregistrements de longue durée doivent être faits sans interruption, par exemple lors de longues opérations chirurgicales, où il est nécessaire d’enregistrer en permanence l’électrocardiogramme du patient : en enregistrement classique, la longueur du diagramme peut atteindre plusieurs dizaines de mètres et le dépouillement d’un tel document est très pénible; à l’aide de l’enregistrement sur microfilm tel que le réalise la caméra Larex, tous les phénomènes seront groupés sur une bande de 80 cm de longueur, et le repérage des points intéressants est extrêmement rapide.
- Lorsque certains contrôles industriels exigent des enregistrements systématiques, là encore, l’enregistrement sur microfilm permettra une économie considérable de temps et de film sensible. Les mêmes avantages se retrouvent lors de la constitution des dossiers médicaux des collectivités : surveillance cardiologique par exemple.
- Les observatoires qui enregistrent en permanence les mouvements sismiques ou les variations du magnétisme terrestre ont aussi grand intérêt à utiliser l’enregistrement sur microfilm en couleurs, les trois couleurs correspondant aux trois composantes du phénomène.
- Alain Godefroy,
- Ingénieur E.S.E., ancien attaché .au C.N.R.S.
- p.269 - vue 273/527
-
-
-
- 270
- Liquéfacteur mixte d’hydrogène et d’hélium
- Fig. 40 (à gauche). —
- Vue intérieure du liquéfacteur T. B. T. ouvert.
- On aperçoit la cave en laiton à l’intérieur de laquelle se trouvent les échangeurs de chaleur. La partie inférieure de la cuve a été enlevée, ce qui rend visibles les tubes de purification des gaz à charbon actif. A droite et à gauche, les siphons d’évacuation de l’hydrogène et de l’hélium liquides.
- Fig. 41 (à droite). — Les échangeurs de chaleur du liquéfacteur T.B.T.
- En haut, l’étage liqué-facteur d’hydrogène et en bas, l’étage liquéfacteur d’hélium. Ces gaz sont recueillis à l’état liquide dans les cuves centrales visibles sur la photographie. L’ensemble est placé dans la cuve de la figure 40.
- Le liquéfacteur d’hydrogène et d’hélium présenté à l’Exposition internationale de Bruxelles a été étudié à l’Université de Grenoble sous notre direction, avec la collaboration de M. Lacaze, ingénieur au C.N.R.S. ; il est construit industriellement par la Société d'Étude et de Construction d’appareillages pour très basses températures (T.B.T.) à Grenoble.
- Bien que tout à fait classique dans son principe, cet appareil, dont un certain nombre d’exemplaires sont actuellement en service, tant au Commissariat à l’Énergie Atomique à Saclay que dans plusieurs Facultés des Sciences, a nécessité des études très poussées, concernant principalement le choix des matériaux et la forme et les dimensions des échangeurs de température. Ce dernier point est particulièrement important, car la rapidité de mise en route de l’appareil en dépend étroitement : ici, on peut commencer à recueillir l’hydrogène liquide 25 mn après la mise en marche, tandis que la liquéfaction de l’hélium survient après 55 mn.
- Le liquéfacteur comprend essentiellement un étage pour la liquéfaction de l’hydrogène et un autre pour l’hélium. L’ensemble des opérations est réalisé dans un dispositif assez complexe qui apparaît sur les figures 4o et 4i. L’hydrogène, préalablement comprimé sous une pression de i3o à i5o atm à l’aide d’un compresseur auxiliaire, est porté à la température de l’azote liquide sous pression réduite dans un échangeur de chaleur. On ne peut cependant songer à liquéfier ce gaz par détente adiabatique ordinaire, car sa température critique est plus basse encore, vers 33° K. Mais il diffère tellement d’un gaz parfait que la détente adiabatique sans travail extérieur (détente dite de Joule-Thomson) est très efficace et suffit à le liquéfier. On peut donc obtenir dans un seul étage de liquéfaction de l’hydrogène liquide à 20° K, sous la pression atmosphérique : la machine T.B.T. en fournit i3 à i4 1 par heure, moyennant
- une consommation de i,5 1 d’air liquide par litre d’hydrogène liquide : il faut donc posséder de l’air liquide industriel, ou produit par un liquéfacteur auxiliaire.
- De son côté l’hélium est comprimé sous 45 ou 3o atm et refroidi dans un échangeur, d’abord à la température d’ébullition de l’azote, puis à la température de l’hydrogène liquide fourni par l’appareil lui-même et placé sous une pression réduite de 4 cm de mercure : cette dernière température est de i4° K seulement. La liquéfaction de l’hélium s’effectue finalement par détente Joule-Thomson dans un échangeur (bas de la figure 4i) où l’on atteint 4,4° K sous la pression atmosphérique. Sous pression réduite, l’hélium liquide donne des températures plus basses encore (i,6° K sous 3 mm de mercure).
- Tous les échangeurs de chaleur (fig. 4i), dans lesquels se produit le refroidissement puis la liquéfaction de l’hydrogène et de l’hélium, sont enfermés dans une cuve en laiton isolée par le vide et qui contient l’air liquide (fig. 4o). Dans cette enceinte se fait aussi la purification des gaz dans des tubes à charbon actif que l’on a rendus visibles sur la photographie en ôtant la partie inférieure de la cuve. Celle-ci est elle-même placée dans une cuve en acier vidée d’air en permanence, qui n’est représentée sur aucune de nos figures. En définitive, le corps du liquéfacteur tient dans une armoire de dimensions assez réduites, d’où sortent par des siphons isolés par le vide, bien visibles sur la figure 4o, les gaz liquéfiés. Mais l’installation comprend aussi des pompes à vide de grande puissance qui abaissent la pression de l’air liquide et de l’hydrogène liquide, sans parler des pompes destinées à réaliser l’isolement thermique de l’ensemble du liquéfacteur.
- L’hydrogène et l’hélium gazeux sont contenus dans deux gazomètres de 5 m3 que l’on peut mettre en communication avec les compresseurs qui introduisent les gaz dans le liquéfac-
- p.270 - vue 274/527
-
-
-
- 271
- leur ou avec les bouteilles d’hydrogène ou d’hélium comprimés. D’autre part, les gaz utilisés (qui proviennent de l’ébullition des liquides) sont réintroduits dans les gazomètres : l’appareil fonctionne donc en circuit fermé, ce qui est indispensable, au moins dans le cas de l’hélium qui est importé des U.S.A. et dont le prix est très élevé.
- Le liquéfacteur T.B.T. produit environ 7 1 d’hélium liquide par heure : la production de chaque litre exige la consommation de 2,6 1 d’air liquide. Pour les cas où l’on n’envisage pas l’utilisation de l’hélium liquide, mais seulement de l’hydrogène, il existe une version simplifiée de cette machine qui donne i5 1 d’hydrogène liquide par heure avec une mise en route très
- rapide qui ne dépasse pas un quart d’heure. Cette variante est précieuse pour un certain nombre d’applications en physique nucléaire, où l’on n’a pas en vue des mesures systématiques aux basses températures.
- L’apparition sur le marché du liquéfacteur d’hydrogène et d’hélium de la Société T.B.T. ouvre à la recherche scientifique française des perspectives remarquables. Il sera possible à de nombreux laboratoires français et européens d’entreprendre dans d’excellentes conditions de sécurité et d’économie des recherches dans le domaine nouveau et d’importance sans cesse croissante de la physique des très basses températures.
- Professeur 'L. Weil.
- TRAINEAU D'EXPLORATION SOUS-MARINE
- Le traîneau d’exploration sous-marine a été étudié par le Groupe d’Études et de Recherches sous-marines de la Marine nationale, pour faciliter en certains cas le travail des équipes de plongeurs-démineurs. De nombreux plans d’eau d’importance vitale sont trop étroits pour permettre le déploiement des bâtiments dragueurs et de leurs dispositifs anti-mines souvent très encombrants. C’est pourquoi, pendant le dernier conflit et les années qui ont suivi, de nombreux plongeurs ont dû examiner mètre par mètre le fond des rades et de leurs accès. Revêtus de vêlements protecteurs et munis d’appareils respiratoires autonomes, ils se tenaient accrochés pendant de longues heures à un câble lesté d’une lourde gueuse suspendue à l’arrière d’une vedette. Parfois la visibilité était tellement mauvaise que l’exploration devait être faite par le plongeur livré à ses propres moyens et tâtonnant dans la vase. Parfois les eaux d’une pureté cristalline faisaient rêver d’un engin rapide qui aurait décuplé le rendement.
- Le traîneau d’exploration répond à ce souhait. Le plongeur est étendu dans une sorte de berceau, sa tête est protégée des filets d’eau par une demi-sphère de plexiglas permettant une veille aisée malgré la vitesse. D’une main, il tient le levier de commande des ailerons horizontaux dont l’orientation fait rapidement varier l’immersion de l’engin. Sous ses yeux, un petit tableau de bord porte une montre, une boussole étudiée pour fonctionner même aux grandes inclinaisons de son habitacle et un manomètre de profondeur. Un levier permet de libérer successivement les trois bouées de marquage fixées sous le traîneau. 'Le câble de traction sert également à relier par téléphone le plongeur à la vedette qui l’entraîne. La jonction à circuit coupé peut s’effectuer dans l’eau sans précaution spéciale. Enfin, s’il le faut, la remorque peut être larguée instantanément.
- Bien que robuste, le traîneau d’exploration est assez léger pour remonter seul en surface. Il est stable à l’arrêt comme en
- Fig. 42., — Le traîneau d'exploration sous-marine.
- Fig. 43. — Une bouée de marquage est larguée du traîneau à proximité d’une mine.
- marche, en montée comme en descente et sa conduite n’offre aucune difficulté. On peut s’étonner de l’absence de toute commande en direction. Le problème de déminage ne consiste pas à repérer des mines pour en avoir la plus belle collection, mais à s’assurer que dans un périmètre donné, il n’y a pas de mine qui n’ait été repérée. Ce périmètre étant défini en surface sur la carte, est découpé en bandes dont la largeur est fonction de la visibilité de l’eau. Ces bandes sont alors matérialisées par des bouées à orin. Il appartient à la vedette de remorquage de suivre une route précise entre les lignes de bouées.
- Cette nécessité de précision absolue interdit l’emploi d’un engin à propulsion autonome pour ce genre de recherche. On ne peut pas, en effet, espérer avec un engin de ce type faire route sur le fond avec assez de précision pour être certain que la zone a été explorée en totalité.
- Le traîneau d’exploration sous-marine, né d’une nécessité militaire, peut-il avoir des applications civiles P Oui, très probablement, chaque fois que le problème à résoudre sera analogue et qu’il faudra examiner dans des eaux assez claires un fond sous-marin en connaissant exactement la route suivie. Les constructeurs de digues maritimes, d’usines marémotrices, les géologues et les prospecteurs divers pourront y trouver un instrument utile. Capitaine de Corvette G. Duhay,
- Commandant le G.E.R.S.
- p.271 - vue 275/527
-
-
-
- 272
- Les champignons des termitières
- L’Entomologie et la Mycologie sont solidairement représentées au Pavillon français de Bruxelles par l’exposé d’un des plus curieux problèmes de la Biologie, celui des rapports entre les Termites et certains champignons dont on a cru longtemps que ces insectes les cultivaient pour s’en nourrir. Les travaux de M. Boger Heim, membre de l’Institut, directeur du Muséum d'Histoire naturelle de Paris, ont apporté, semble-t-il, une clarté définitive sur cette question.
- On sait qu’à l’intérieur de certaines termitières des pays tropicaux, dans les chambres qui entourent la cellule royale, on trouve des sortes de pelotes globuleuses, creusées d’alvéoles et de canaux qui sont formées de débris de bois mastiqués par les ouvriers termites. Sur ces pelotes, que l’on désigne du nom de meules, on découvrit, dès le xvme siècle, de petites protubérances charnues, brillantes et souvent très nombreuses, que l’on nomma sphères, puis mycotêtes quand l’on reconnut que c’étaient des champignons. Dès ce temps, on supposa que ces champignons étaient destinés à la nourriture des jeunes termites. On déclara même que les termites en ensemençaient leurs meules volontairement, pratiquant une véritable culture. Le cas des fourmis Atta, qui se livrent incontestablement à une culture de ce genre (voir La Nature, août 1957, p. 319) confirma plus tard de nombreux savants dans cette façon de voir.
- Il y a un peu plus de cent ans, l’attention fut attirée sur d’autres champignons des termitières, d’un aspect bien différent. C’étaient des Agarics, c’est-à-dire des espèces comportant un pied et un chapeau avec des lamelles, qui .se développent sur le sommet des termitières dans la profondeur desquelles ils prennent naissance. Ce sont souvent de grandes espèces dont le chapeau peut avoir un diamètre de i5 à 20 cm. On en trouva sur les nids de différentes espèces de termites, en Asie et en Afrique. Leur position taxinomique fut controversée et on les classait, selon les caractères sur lesquels l’attention se portait, dans des genres bien différents : Lépiotes, Collybies, Tricho-lomes, Pholiotes, etc.
- C’est en 1906 seulement que le mycologue anglais Petch pressentit les rapports qui unissaient ces Agarics avec les mycotêtes des meules, dont il supposa qu’ils étaient issus, traversant toute l’épaisseur de la termitière grâce au mamelon pointu et dur qui existe au sommet de leur chapeau. Petch supposait aussi que, sans cultiver à proprement parler le champignon, les termites opéraient sur les meules un « sarclage » approprié, pour éliminer les autres espèces de champignons qui pouvaient s’y développer au détriment de l’espèce utile, notamment un Pyré-nomyeète du genre Xylaria. On constate en effet que les termites sectionnent des portions de meules et de mycélium qu’ils expulsent des chambres habitées.
- Cependant, le mycologue français Bathellier montrait, il y a quelques années, en Indochine, que les termites n’éliminent pas en réalité le Xylaria. Tout au contraire, lorsque la prolifération des champignons se fait gênante, ils expulsent des portions de mycélium qui appartiennent à l’Agaric prétendument utile. M. Roger Heim pense qu’ils ne distinguent pas entre les deux espèces. Les chambres spéciales dans lesquelles on retrouve un entassement de mycotêtes sectionnées ne sont pas des magasins à vivres, mais des dépotoirs.
- C’est M. Roger Heim qui a apporté la preuve que les mycotêtes sont bien les « primordiums » (en quelque sorte les embryons) des Agarics qui vont s’épanouir au sommet de la termitière. Il a pu d’abord, en Guinée, suivre la croissance de l’Agaric chez plusieurs espèces, depuis le mycélium des meules jusqu’à l’épanouissement du carpophore. La mycotête est un état juvénile du champignon ; elle prolifère en un long cordonnet (pseudorhize) qui s’élève verticalement, perforant le ciment de la termitière grâce au mucron conique ou cylindrique
- Fig-, 44. — Meule de Termitomyces entolomoides (Congo).
- Grossissement : 2 fois environ.
- qui la surmonte (perforatorium) et dont la structure est compacte et dure (fig. 46 et 47). Rappelons qu’on possède d’autres exemples de la force extraordinaire qui est développée dans la croissance de certains champignons. D’ailleurs toutes les pseu-dorhizes ne parviennent pas à donner un chapeau à l’air libre; beaucoup sont arrêtées sur ce long chemin et n’arrivent donc pas à disséminer des spores.
- Complétant ces observations par l’expérience au laboratoire, le professeur -Heim a réussi à cultiver un Agaric des termitières, celui du termite Pseuducant ho termes militaris de Guinée. Il a pu même, à partir des spores recueillies sur les lamelles du chapeau de l’Agaric, reproduire sur milieu artificiel le mycélium et les mycotêtes, identiques à celles prélevées dans les termitières. Et il a pu, par la suite, renouveler cette démonstration sur d’autres espèces, du Cameroun, de Guinée et du Congo.
- Abordant l’étude systématique de ces espèces, M. Roger Heim a jugé qu’elles pouvaient être réunies dans un même genre, le genre Termitomyces. Il a pu môme réunir à ce genre un
- Fig. 45. — Primordiums de Termitomyces médius sur meule ( Oubangui).
- Fig. 46. — Jeune carpophore de Termitomyces Le Testui ( Cameroun) montrant le perforatorium.
- (Photos Ren<>e HACCAnn).
- p.272 - vue 276/527
-
-
-
- 273
- espece StriatUS
- reliques da voile général
- espèce Lfi TeStUi
- perforatorium
- cylindrique
- espèce
- microcarpus
- e r fo r a t o r i u m
- jeune
- mycotétë
- meules
- mycotêtes vk|! ^ l ou spàeres ' *
- Fig. 47- —* Figures schématisées représentant le développement de Termitomyces striatus» T, Le Testui et T. microcarpus.
- Les deux premiers croissent à partir des mycotêtes des meules souterraines, situées dans des chambres de la termitière. On voit les longues pseudorhizes terminées par un perforalorium, conique dans Termitomyces striatus, cylindrique dans T. Le Testai, que l’on retrouve au centre du chapeau de ces espèces. Le Termitomyces microcarpus se développe entièrement à l’air libre, à partir des mycotêtes expulsées hors du nid par les ouvriers termites. (Figure extraite de la Revue Scientifique, février 1942).
- Fig-, 48. — Culture pure de Termitomyces sur mousse stérile.
- On distingue la floraison des mycotêtes.
- (Illustrations aimablement communiquées par le professeur Roger Heim).
- champignon qui, de prime abord, paraissait bien différent, un petit Agaric qu’on rattachait au genre Mycena. Ce champignon donne des mycotêtes assez volumineuses. Les termites prélèvent des débris de meules qui les supportent et ils les répandent hors du nid. A l’air libre, le champignon se développe sous forme de petits Agarics, avec chapeau portant des lamelles, et bien entendu, il ne possède ni pseudorhize, ni appareil perforateur. Cependant, une étude approfondie a permis à M. Heim de ranger également cette espèce dans le même genre : c’est le Termitomyces microcarpus (fig. 47).
- Selon le savant mycologue, c’est l’alimentation limitée, mais aussi l’absence de résistance et d’obstacle qui confèrent à cette espèce ses dimensions chétives. La fructification des champignons (comme celle de bien d’autres végétaux peut-être) est liée à un état de souffrance physiologique ou mécanique, et on en trouve, en effet, bien des exemples, comme celui du champignon de couche qui fructifie d’autant plus abondamment que la terre ou la meule sont plus compactes et tassées à leur surface. Les grandes espèces de Termitomyces ont des fructifications dont la luxuriance est liée aux difficultés qui leur sont opposées pour arriver à l’air libre. Cette façon de voir est corroborée par le fait qu’à Madagascar, où les termitières, peu profondes, ne présentent pas les mêmes obstacles à la croissance des Termitomyces, ceux-ci ne développent plus de pseudorhizes ni par conséquent de chapeau, et se reproduisent uniquement par des conidies, spores spéciales sans processus sexuel. De même, il est impossible d’obtenir des Agarics complets au laboratoire.
- Enfin M. Roger Heim a achevé de détruire la légende qui faisait des termites les cultivateurs de ces champignons. Reprenant les observations de Bathellier, M. Pierre Grassé, en 1987, a précisé la façon dont les termites édifient leurs meules. Les mycotêtes ne seraient tout au plus qu’un aliment d’appoint; elles sont rarement broutées et on n’en retrouve qu’une très petite trace dans le tube digestif des termites. Selon M. Heim, dont les études sur cette question se sont poursuivies au cours de plusieurs missions, entre 1927 et 1948, l’Agaric serait plutôt une gêne pour les termites, qui les propagent comme on propage un parasite, involontairement, et qui cherchent plutôt à s’en débarrasser dans beaucoup de cas. Les meules édifiées par les termites se sont trouvées être un substratum favorable pour ces champignons et les termites ont dû simplement s’accommoder de leur présence.
- M. Roger Heim présente également au Pavillon français les fameux champignons hallucinogènes du Mexique dont il continue actuellement l’étude (voir La Nature, décembre ï957, p. 483).
- P. O.
- p.273 - vue 277/527
-
-
-
- 274
- Dilatomètre absolu enregistreur à haute température
- en atmosphère contrôlée
- 220V
- L’intérêt des études dilalométriques est défini par le professeur Chevenard, dans son livre L'analyse düatométrique des matériaux, par la phrase suivante : « Cette méthode, d’un emploi très général, est sensible, commode, précise et ses résultats peuvent s’interpréter avec sécurité. » Cette incontestable affirmation, faite il y a plus de trente ans, reçoit, à notre époque, une justification éclatante du fait que les moindres progrès dans les domaines de la production de l’énergie, dans les communications ou dans l’industrie lourde, ont nécessité l’utilisation de matériaux résistant à des températures toujours plus élevées.
- Parmi les caractéristiques qui permettent d’établir dans quelle mesure un matériau conviendra pour une application déterminée, la courbe de dilatation thermique de celui-ci est une des plus importantes et elle donne au bureau d’études de nombreux éléments qui lui permettent d’établir les projets reflétant aussi réellement que possible ce qui se passera dans la pratique.
- L’importance de ces problèmes est telle que, dès 1953, le Centre national d’Études et Recherches céramiques étudiait un nouveau dispositif de dilatomètre qui était présenté au Congrès technique céramique de 1955. L’appareil réalisé était le premier jusqu’à ce jour permettant d’obtenir l’enregistrement simultané de la température et de la dilatation thermique absolue d’une éprouvette située dans un four électrique pouvant atteindre une température de 1 700° dans l’air. Depuis, il est apparu comme à peu près indispensable, pour permettre l’utilisation du dispositif dans de nombreux domaines, d’adapter celui-ci au fonctionnement en atmosphère contrôlée.
- 'L’utilisation du premier appareil fonctionnant dans l’air,
- Figr. 50. — Le dilatomètre associé au four électrique.
- Fig. 49. — Schéma du dilatomètre de la Société française de Céramique.
- Explications dans le texte.
- pour l'établissement de plus de a5o courbes de dilatation jusqu’à des températures variant de 1 5oo° à 1 700°, a permis de réaliser l’appareil devant fonctionner en atmosphère contrôlée avec un certain nombre de dispositifs qui améliorent son automaticité et sa sécurité d'emploi.
- Le dilatomètre exposé à Bruxelles permet d’établir la courbe de dilatation thermique de divers matériaux réfractaires, tels que produits réfractaires classiques, produits réfractaires spéciaux, cermets, etc., jusqu’à une température de 1 65o° dans une atmosphère d’air ou de différents gaz : argon, azote, hydrogène, etc. La figure 49 schématise le principe du dilatomètre. L’éprouvette, échancrée aux deux extrémités, repose aux extrémités de deux barreaux d’alumine frittée; le barreau A est fixe; le barreau B mobile autour d’un axe transmet les variations de dimensions de l’éprouvette à un capteur inductif D. Ce dispositif permet une mesure absolue de la dilatation. Jusqu’alors les seuls appareils enregistreurs à haute température étaient du type à poussoir et le résultat fourni égal à la différence de dilatation entre l’éprouvette et son support.
- Un couple thermo-électrique en alliage platine-rhodium pour haute température est disposé de telle façon que sa soudure chaude se trouve à proximité du centre de l’éprouvette. L’ensemble est disposé dans une enceinte étanche comportant, pour la partie chaude, un tube en mullite étanche fermé à une extrémité et raccordé à l’autre extrémité à une tête métallique contenant le capteur et différents dispositifs de sécurité. La tête métallique est visible au centre de la figure 5o, ainsi que l’extrémité du tube en réfractaire étanche qui pénètre à l’intérieur du four électrique.
- Le four est un four électrique monophasé d’une puissance de 4,5 kW. Les éléments chauffants P sont au nombre de 4 et sont constitués d’épingles à base de molybdène, alimentées en série, fonctionnant jusqu’à une température de 1 65o° à 1 700° dans l’air.
- L’isolement du four N est réalisé par du réfractaire isolant à haute température, à haute teneur en alumine, et du réfractaire à moyenne température à faible densité. Le raccordement électrique des têtes des épingles de chauffe est réalisé à la partie supérieure du four sous un capot qui permet la ventilation et le refroidissement de ces têtes.
- Un bâti, que l’on voit sur la partie gauche de la figure 5o, supporte l’appareillage proprement dit du dilatomètre et permet sa sortie du four ou sa mise en place à l’aide d’un dispositif mécanique automatique. Ce même bâti porte les dispositifs de réglage d’atmosphère et de refroidissement de la tête par un courant d’eau.
- La figure 5i est une photographie du modèle du dilatomètre proprement dit, avec coupes arrachées permettant de mieux comprendre le principe de l’appareil et de se rendre compte de la disposition des différents éléments.
- Le dilatomètre, le four et les dispositifs annexes sont raccor-
- p.274 - vue 278/527
-
-
-
- 275
- dés à un tableau d’alimentation, de régulation, de contrôle et d’enregistrement (fig. 49). Le four fonctionne sous basse tension avec une intensité de courant de l’ordre de i5o A. Suivant la zone de température, la tension d’alimentation est de 6, 12, 18 ou 3o V. Ces différentes tensions sont obtenues par branchement automatique des secondaires de deux transformateurs : en opposition, un à un ou en série, l’un des transformateurs four-nissant'une tension de 18 V et l’autre de 12 V. En outre, dans chaque zone, il est possible d’utiliser à volonté une régulation par tout ou peu, ou tout ou rien, en utilisant des tensions qui sont dans le rapport 1/0,8.
- Les deux transformateurs K (fig. 49) sont branchés de ces différentes façons, grâce aux relais J et au commutateur I dont la position est commandée par le régulateur à programme horaire H que l’on distingue en bas à droite de la partie supérieure du tableau. Le couple thermo-électrique de régulation O, qui commande le régulateur, a sa soudure chaude dans l’enceinte du four à proximité des éléments chauffants. Ce régulateur, associé à une horloge électrique, permet de réaliser des cycles de température imposés, comportant ou non un palier d’une durée déterminée. On distingue également sur le tableau, dans la partie en haut à droite, le pont extensométrique E permettant la transformation de l’information donnée par le capteur en courant pouvant être enregistré sur l’une des directions du potentiomètre électronique enregistreur F, situé en haut à gauche du tableau. Une autre direction de cet appareil assure l’enregistrement simultané des températures.
- L’atmosphère de l’enceinte étanche est réalisée au moyen d’un dispositif situé à l’intérieur de la table supportant le dilatomètre. Ce dispositif comporte : une pompe à vide, une réserve de vide avec jauge, un raccordement au générateur ou à la réserve de gaz épuré.
- Le dilatomètre est en outre équipé de différents dispositifs de sécurité :
- — 'La tète du dilatomètre est refroidie par un courant d’eau M
- Fig. 51. — Le dilatomètre proprement dit, avec coupes arrachées.
- (fig. 49); un bilame situé à l’intérieur de la tête étanche commande, par l’intermédiaire d’un relais électronique, l’alarme en cas d’élévation excessive de la température dans la tète.
- — Un manostat équipe le circuit de gaz et commande également l’alarme par l’intermédiaire d’un relais électronique dans le cas où la pression de gaz dans l’enceinte tombe en dessous de 5 mm d’eau par rapport à la pression atmosphérique.
- Ces dispositifs sont tels qu’une panne des organes de sécurité entraîne automatiquement le fonctionnement du dispositif d’alarme.
- Conçu et réalisé par la Société française de Céramique, l’appareil est destiné à la recherche et l’étude des produits réfractaires nouveaux ayant une application dans différentes industries : sidérurgie, verrerie, énergie atomique, aviation, armement, etc.
- A. A. Baudran.
- Un spectrographe à ultraviolet lointain utilisant les « étincelles glissantes »
- 'Les méthodes usuelles de l’analyse spectrale permettent de •déceler environ 70 éléments chimiques. Parmi les 20 éléments qui échappent à ces méthodes figurent les halogènes, les gaz rares et certains métalloïdes, comme le soufre, le phosphore et le carbone. Ces trois derniers revêtent un intérêt considérable, car ils existent à titre d’impureté dans un grand nombre de composés, principalement dans les métaux; leur rôle, dans les aciers par exemple, est particulièrement important. La difficulté pour ces éléments provient de ce que leurs raies sensibles se trouvent à des longueurs d’onde inférieures à 2 000 Â (ultraviolet lointain), c’est-à-dire en dehors des limites d’utilisation de l’appareillage classique.
- Jusqu’à présent, cette région spectrale n’était pas utilisée pour l’analyse par suite des difficultés expérimentales dont la principale provient du fonctionnement instable de l’étincelle dans le vide (il ne saurait être question en effet d’opérer dans l’air ou dans un gaz, ceux-ci étant fortement absorbants aux faibles longueurs d’onde). On peut tourner cette difficulté en utilisant une étincelle ordinaire éclatant dans une atmosphère transparente pour la région spectrale étudiée (azote, argon). On doit alors interposer une lame transparente, en fluorine par exemple, entre la chambre à étincelles et le spectrographe dans lequel on maintient le vide. Mais cette méthode présente des inconvénients : il faut utiliser un gaz très pur et de plus la région spectrale explorée est limitée du côté des courtes longueurs d’onde.
- Le Laboratoire des Hautes Pressions du C.N.R.S. (Bellevue) présente à l’Exposition de Bruxelles une deuxième méthode, qui a été mise au point par MUe G. Ballaffet et MM. J. Romand et B. Vodar. Elle consiste à utiliser le spectre émis par les étincelles glissantes dont le fonctionnement est plus stable que celui des étincelles ordinaires dans le vide. On sait depuis longtemps que l’on peut produire dans une atmosphère gazeuse des étincelles très longues avec des potentiels pas trop élevés, si elles se produisent à la surface d’un solide isolant ou peu conducteur : on parle alors d’étincelles glissantes. Plus récemment, M110 Astoin et M. Vodar ont étudié la production de telles étincelles dans le vide. La tension était appliquée entre deux bagues métalliques montées sur une baguette de carbone. Sous une tension de 3o kV, on obtient une décharge même avec un espacement des électrodes de quelques centimètres. L’aspect est différent de celui observé dans un gaz : on observe seulement une étincelle brillante et de petite dimension à la pointe de chaque électrode, mais on peut vérifier que la zone médiane, bien que l’on n’y observe pratiquement pas de lumière visible, émet une fraction importante du rayonnement ultraviolet.
- 'La méthode de production des étincelles glissantes a été modifiée par la suite ; on a adopté un support plus avantageux que le carbone aggloméré qui présente divers inconvénients : usure, dégazage, raies intenses du carbone dans le spectre. On utilise actuellement un support d’alumine; le spectre est alors presque exclusivement celui des électrodes métalliques avec
- p.275 - vue 279/527
-
-
-
- 276
- seulement quelques raies de l’oxygène et de l’aluminium. Différents montages ont été utilisés : par exemple, les électrodes sont maintenues dans une gorge longitudinale creusée dans un bâtonnet d’alumine, au moyen de colliers qui leur assurent un bon contact avec le support (fig. 52).
- Alors que l’étincelle dans le vide ordinaire (étincelle de Millikan et Sawyer) comme source de lumière pour l’ultraviolet lointain nécessite des champs d’amorçage très intenses, donc pour des potentiels usuels un espacement très faible des électrodes (d’où des collages fréquents de ces dernières et la néces-
- Electrodes métalliques
- Collier
- Bâtonnet d'alumine
- Colliers
- Fig. 52. — Exemple de montage d’électrodes pour la production d’étincelles glissantes.
- sité de régler continuellement leur espacement du fait de l’usure), le fonctionnement de l’étincelle glissante est beaucoup plus stable et reproductible. L’alimentation est faite en impulsions, par décharge d’une capacité de l’ordre de i p.F chargée sous une tension de 20 à 4o kV. L’énergie d’excitation est importante et le spectre obtenu est celui d’atomes fortement ionisés. Parmi les ions formés, ceux qui ne possèdent plus que
- 1 ou 2 électrons sur la couche externe émettent dans l’ultraviolet lointain des raies sensibles qui peuvent être utilisées pour la détection et le dosage. Ces ions ont une configuration de la couche périphérique analogue à celle des atomes alcalins ou alcalino-terreux et cette analogie est peut-être la raison de la sensibilité de la méthode.
- C’est donc sur ces principes que les auteurs ont conçu et mis au point l’appareil qui fait l’objet de cette description. Celui-ci comporte une chambre à étincelles associée au spectrographe ; il offre la possibilité d’utiliser à volonté un dispositif de réception photographique ou un dispositif de réception photoélectrique. Ce dernier est, en effet, indispensable lorsque la rapidité des opérations est un facteur primordial imposé par les conditions de production des matériaux étudiés et, en particulier, par l’évolution rapide de leur composition en cours d’élaboration. Disposition des éléments du montage optique : comme dans la région des courtes longueurs d’onde utilisées il n’existe pas de matériau transparent sous une épaisseur notable et que, d’autre part, les pouvoirs réflecteurs y sont médiocres, l’appareil ne comporte ni prisme, ni lentille, ni fenêtre, ni miroir. 'L’étincelle est simplement disposée devant la fente à 4 cm et l’élément dispersif est un réseau concave de 1 m de rayon de courbure et à 1 200 traits/mn. Il est possible dans ces conditions de séparer deux raies distantes de o,25 Â. Du côté des grandes longueurs d’onde, le spectre a été étendu jusqu’à
- 2 900 Â afin de pouvoir observer commodément l’ensemble d’un spectre. L’ensemble du spectre est de 4o cm environ.
- La réalisation pratique de l’appareil a été particulièrement soignée. Le spectrographe se compose d’une cuve cylindrique sur la paroi latérale de laquelle sont rapportées 3 brides : une première sert à raccorder le couvercle qui obture l’orifice d’accès aux organes de réglage du réseau. Une deuxième sert à raccorder la chambre à étincelle. Tous les organes de réglage de la largeur de la fente et de son orientation sont commandés de l’extérieur au moyen de passages étanches. De plus, derrière la fente se trouve une petite vanne à vide qui permet d’isoler la chambre de la cuve, afin de 11e faire rentrer l’air que dans la chambre lors du changement des électrodes. La troisième
- Fig. 53. — Le spectrographe dans le vide du Laboratoire des Hautes Pressions de Bellevue.
- bride permet de raccorder le dispositif d’observation du spectre. Comme précédemment, ce dispositif peut être isolé de la cuve au moyen d’une vanne.
- La mise au point du dispositif de réception photoélectrique est actuellement en cours; il permettra l’utilisation des récepteurs commerciaux qui ne sont pas directement sensibles aux courtes longueurs d’onde. Les raies de diffraction sont reçues par des écrans fluorescents placés dans le vide. La lumière de fluorescence traverse ensuite une fenêtre en verre et parvient à la cellule qui est placée dans l’air.
- L’ensemble du spectrographe est équipé d’un dispositif de pompage qui a été conçu de façon à assurer des opérations aussi rapides que possible. Il comprend deux circuits de pompage différents pour la cuve et pour la chambre à étincelle. Chacun des circuits est équipé d’une pompe primaire et d’une pompe secondaire à diffusion associée à un piège refroidi, destiné à éviter toute x-emontée de vapeur d’huile, en particulier dans la cuve, ce qui risquerait de polluer le . réseau. Les temps de pompage sont de l’ordre de 3 mn pour la chambre photographique et de 2 mn pour la chambre à étincelle. Le réglage optique est assez simple, toutes les opérations de mise au point optique pouvant être faites dans l’air. La durée de ces réglages est de l’ordre de x h environ, ce qui est peu pour un spectrographe dans l’ultraviolet lointain.
- Du point de vue des dosages, les conceixtrations limites détectables sont de o,oo5 pour 100 pour le soufre et le phosphore et de 0,01 pour 100 pour le carbone.
- En conclusion, il semble que cet appareil présente des performances assez remarquables ; il aura certainement un développement important aussi bien pour la recherche que dans le contrôle industriel. D’ailleurs trois prototypes ont déjà été construits et leur nombre va croître dans les années à venir.
- R. Rosset.
- p.276 - vue 280/527
-
-
-
- Analyseur pour substances paramagnétiques
- Les sables, roches ou minerais sont souvent composés de particules qui se distinguent les unes des autres par leurs propriétés minéralogiques, chimiques et, dans beaucoup de cas, aussi magnétiques. Cette dernière différence est utilisée dans les trieurs magnétiques industriels qui, par coupure, permettent par exemple d’enrichir un minerai voulu.
- Mais l’étude sommaire de la composition naturelle des sables, ou le contrôle rapide d’une préparation d'un minerai par broyage par exemple, mettaient en œuvre un ensemble d’opérations assez complexes et de longue durée.
- L’appareil élaboré au Laboratoire Pierre Weiss de la Faculté des Sciences de Strasbourg permet d’effectuer d’une façon simple et rapide, avec une bonne précision, et sur de petites quantités de matière, une analyse magnétique au moyen d’une espèce de « spectre » pour des substances paramagnétiques dont les coefficients d’aimantation s’étendent de o à ioo.io-6 C.G.S. environ.
- Le principe du fonctionnement est très simple : les grains,
- Fig. 54. — Schéma de l’analyseur.
- 0, gradient nul ; 1, gradient vertical faible ; 2, distributeur ; 3, départ des grains; 4, attraction horizontale faible ; 5, forte attraction ; 7, carton encollé.
- ® (s
- J
- sans vitesse initiale appréciable, sont soumis à la fois à l’accélération de la pesanteur et à l’attraction horizontale créée par un fort champ magnétique non uniforme. Après leur déviation dans l’entrefer, les grains tombent en chute libre. Leur trajectoire parabolique amplifie la séparation. Les grains sont ensuite recueillis dans une couche de vernis visqueux à séchage rapide étalé sur un carton blanc.
- L’appareil, construit par les établissements Electrona, à Strasbourg-Lingolsheim, est constitué essentiellement par un électro-aimant dont le circuit magnétique est à double fermeture. Son poids est d’environ i5o kg. La section des noyaux est de io x 8 cm ; ceux-ci portent à la fois le bobinage, les flasques de refroidissement à eau et les pièces polaires.
- La forme des pièces polaires entre lesquelles les grains sont déviés est d’une grande importance. Dans la zone supérieure d’introduclion i, le gradient magnétique est atténué pour ne pas retenir les grains dans le distributeur 2. Le départ des grains se fait sans contrainte en 3 dans une zone de champ fort mais uniforme. Ils tombent ensuite dans une zone de fort
- Fig. 55. — L’analyseur de R. Forrer.
- gradient horizontal où s’opère une sélection : les grains pas ou faiblement déviés A entrent dans une zone 4 de gradient faible et ceux fortement déviés C continuent à parcourir un champ de fort gradient 5.
- Les grains sont séchés (les ferromagnétiques soigneusement éliminés) et grossièrement calibrés (o,i à o,6 mm). La fente du distributeur est réglée de façon à obtenir une couche monogranulaire au départ. Pendant la chute, le carton blanc portant la couche de vernis est déplacé lentement pour éviter un rebondissement de grains sur des grains déjà posés. L’excitation de l’électro doit être adaptée au magnétisme des grains pour ne pas dépasser l’amplitude limite de déviation donnée par la forme géométrique des pièces polaires. L’amplitude maximum de déviation est de 8 cm sur le carton.
- .Si les constituants de la substance à étudier ont des coefficients différents, on obtient un véritable spectre magnétique sur le carton 7. Des grains de composition mixte s’étalent sur une certaine largeur. L’étalonnage est assuré par des substances à coefficient bien défini.
- D’après la disposition des différentes tranches sur le spectre, on peut placer des godets aux endroits correspondants pour recueillir les tranches voulues. On peut procéder ainsi à une analyse magnétique quantitative, et par la suite à une analyse chimique et minéralogique de chaque tranche.
- R. Forrer,
- Maître de recherches au C.N.R.S., Directeur du Laboratoire de Ferromagnétisme.
- p.277 - vue 281/527
-
-
-
- 278
- Le Microradar
- Les performances exigées des pièces mécaniques par l’industrie moderne rendent indispensable un contrôle non destructif soigné de celles-ci, tant au cours de leur élaboration que de leur utilisation. De nombreux procédés peuvent être utilisés à cet effet : radiographie, gammagraphie, magnétoscopie, ultrasons. Ces derniers, notamment ceux qui utilisent la technique de réflexion d'impulsions, sont particulièrement intéressants par leur facilité de mise en oeuvre et l’étendue des renseignements fournis sur la pièce contrôlée. Rappelons brièvement le principe de fonctionnement de ce type d’appareillage, qui présente beaucoup d’analogie avec les radars classiques.
- Un émetteur électro-acoustique, généralement constitué par un disque piézoélectrique, appliqué sur la pièce à contrôler, envoie dans celle-ci des impulsions ultrasonores brèves (quelques p.s). Ces impulsions se propagent en ligne droite et subissent des réflexions totales ou partielles sur chaque discontinuité rencontrée. Ces impulsions réfléchies reviennent sur le disque piézoélectrique qui les transforme en impulsions électriques, lesquelles, après amplification, sont appliquées aux plaques verticales d’un tube cathodique. Le balayage horizontal de ce dernier est assuré par une base de temps linéaire étalonnée, synchronisée par les impulsions d’émission. On a ainsi sur l’écran du tube une vue d’ensemble des impulsions réfléchies permettant de mesurer avec précision la distance de chaque obstacle à l’émetteur et d’évaluer son importance.
- Dans les appareils classiques, l’impulsion acoustique se présente sous forme d’une oscillation amortie, comprenant au minimum 4 à 5 alternances. Les fréquences les plus couramment employées sont comprises entre i et 5 Mc/s. Ce choix n’est pas arbitraire, il est le résultat d’un compromis assez strict entre la portée de l’appareil et son pouvoir de résolution.
- La portée maximum décroît très vite quand la fréquence s’élève; ce phénomène a pour origine, d’une part l’augmentation rapide de l'absorption et, d’autre part, de multiples réflexions parasites sur la structure cristalline des matériaux sondés, qui apparaissent lorsque l’onde acoustique utilisée est trop courte. Dans les matériaux ferreux, par exemple, cette limitation est déjà sensible à 3 Mc/s.
- Le pouvoir de résolution, c’est-à-dire l'aptitude de l’appareil à distinguer deux échos provenant d’obstacles très voisins, et dont dépend la finesse d’analyse, est lié à la longueur de l’impulsion acoustique utilisée. Pour fixer les idées, précisons qu’une durée d’impulsion de 3 p.s correspond à un pouvoir de résolution de l’ordre de i cm.
- La fréquence maximum utilisable étant fixée pour maintenir l’absorption et les réflexions parasites à une valeur minimum compatible à la portée désirée, une seule possibilité subsiste pour réduire la durée de l’impulsion : diminuer le nombre d’alternances qui la composent. Et c’est justement là que se pose l’un des problèmes les plus ardus de la technique électroacoustique : obtenir, avec une puissance acceptable, une impulsion acoustique composée d’un nombre d’alternances aussi réduit que possible; l’idéal étant représenté par une impulsion réduite à une demi-alternance.
- Si des impulsions électriques présentant de telles caractéristiques sont relativement faciles à obtenir, il n’en est pas de même sur le «plan acoustique. En effet, les disques piézoélectriques utilisés se comportent comme des résonateurs qu’il est pratiquement impossible d’amortir d’une façon parfaite de sorte que, même excité par une impulsion électrique aussi brève que possible, l’émetteur piézoélectrique restitue toujours cette impulsion affectée d’une traînée parasite comprenant quelques oscillations supplémentaires, pratiquement au moins 5 à 6. C’est ainsi que, dans le cas d’une fréquence de 3 Mc/s,
- l’impulsion acoustique aura une durée minimum de l’ordre de 2 jjls correspondant à un pouvoir de résolution de l’ordre de 6 mm. Cette limitation du pouvoir de résolution, peu gênante pour les pièces de dimension importante, devient par contre prohibitive lorsque l’on veut sonder des éléments de dimension réduite, de l’ordre du centimètre, distance au-dessous de laquelle les appareils classiques ne donnent plus que des résultats très limités.
- Le besoin d’un dispositif qui permette de compléter la gamme de distance couverte par ces derniers se faisait donc vivement sentir.
- Le problème ainsi posé vient de recevoir en France une solution remarquablement simple : on a vu que les appareils usuels étaient limités inférieurement par la longueur de la traînée parasite due à l’élément piézoélectrique; au lieu de tenter de réduire la durée de cette traînée, les réalisateurs du nouvel appareil ont attaqué le problème à l’envers; la traînée parasite de l’émetteur piézoélectrique utilisé est très longue, mais composée d’impulsions brèves très espacées, et le sondage s’effectue pendant le temps qui sépare l’impulsion d’émission de la première impulsion parasite. On est limité cette fois à une distance maximum, mais qui recouvre largement la distance minimum des appareils classiques.
- Comment est-on arrivé à un tel résultat ? Pour le comprendre, il est nécessaire d’approfondir un peu le fonctionnement d’un émetteur électro-acoustique.
- Considérons un cylindre piézoélectrique terminé par deux faces planes A et B recouvertes d’électrodes métalliques, et dont l’axe électrique est parallèle à celui du cylindre (fig. 56).
- Si l’on applique une tension électrique V entre A et B, chaque élément de volume est soumis à une tension mécanique T parallèle au champ électrique, tension mécanique qui va entraî-
- Fig. 56. — Fonctionnement d’un émetteur électro-acoustique.
- Explication dans le texte.
- ner une déformation du cylindre, contraction ou dilatation, suivant le sens du champ appliqué. Si la tension électrique est appliquée progressivement, on peut admettre que pratiquement le cylindre se déforme d’un bloc, tous les éléments de volume se contractant simultanément.
- Mais il n’en est plus de même si la tension est appliquée sous forme d’une impulsion très brève, d’une durée nettement inférieure au temps mis par une onde acoustique pour parcourir la longueur du cylindre. En effet, à l’instant précis où la tension électrique s’établit, chaque élément intérieur au volume du cylindre est soumis à la même tension mécanique; par conséquent, chaque point intérieur à ce volume, soumis à deux forces égales et opposées, reste immobile. Seuls, les points situés sur chaque face, soumis à des forces dissymétriques, vont se déplacer pendant la durée de l’impulsion électrique appliquée, et c’est ce déplacement qui va se propager à la vitesse du son à l’intérieur du cylindre, se réfléchir sur la face opposée et faire ainsi un certain nombre d’allers et retours.
- p.278 - vue 282/527
-
-
-
- 279
- Fig. 57. — Le Microradar de la Société Réalisations Ultrasoniques.
- Nous allons essayer d’éclairer ce raisonnement d’une façon plus intuitive.
- Imaginons que les deux faces A et B soient scellées sur un support qui les maintienne rigoureusement immobiles. Il est évident que, dans ce cas, quelle que soit la tension électrique appliquée, le cylindre ne subira aucune déformation. Or, si l’impulsion est appliquée très rapidement, un point situé par exemple au centre du cylindre « ignore », si l’on peut dire, ce qui se passe sur les faces A et B à ce moment précis; les « informations » qui peuvent lui parvenir ne le font qu’à une vitesse limitée (celle du son). Si les faces A et B sont
- fixées, aucun ébranlement n’est transmis; par contre si A et B peuvent se mouvoir, le centre en sera « informé » par un « message » qui lui parviendra avec le retard dû à la propagation sous forme d’un ébranlement égal à celui subi par les faces A et B.
- Réciproquement, on peut montrer que si une impulsion acoustique brève se déplace à l’intérieur du cylindre, un courant s’établit dans un circuit relié aux électrodes A et B à l’instant où cette impulsion vient frapper l’une des faces, et pendant cet instant seulement.
- On a donc ainsi réalisé un émetteur qui possède la précieuse propriété de fournir des impulsions acoustiques rigoureusement identiques aux impulsions électriques d’excitation, sous réserve que celles-ci soient assez brèves. Ces impulsions acoustiques étant suivies d’impulsions parasites pouvant être espacées de façon à permettre un sondage à une distance maximum suffisante (cette distance est à peu près égale à la longueur de l’élément piézoélectrique, de l’ordre de quelques centimètres, ce qui est largement suffisant dans la majorité des cas).
- En réalité, les phénomènes sont moins simples et viennent compliquer sérieusement la réalisation pratique de tels émetteurs et des circuits électriques associés.
- Ces difficultés ont été surmontées dans le « Microradar » qui exploite le principe décrit ci-dessus, et qui a été présenté au Pavillon français de l’Exposition de Bruxelles. L’impulsion acoustique produite a la forme approximative d’une demi-sinusoïde de 0,2 p.s de durée, correspondant, à une demi-alternance d’un signal à 2,5 Mc/s, ce qui permet de sonder tous les matériaux usuels avec un pouvoir de résolution de l’ordre de o,5 à o,6 mm.
- Un champ d’application immense s’offre à cet appareil sans équivalent dans le monde à l’heure actuelle, en particulier les mesures d’épaisseurs précises et tous les contrôles fins où jusqu’à présent les méthodes classiques étaient en défaut. La possibilité de produire des impiilsions acoustiques de forme quelconque ouvre enfin à la technique ultrasonore des perspectives nouvelles, mais nous entrons là dans le secret des laboratoires...
- J. D.
- L'aluminium le plus pur du monde
- C’est en iS54, donc il y a io4 ans, que l’illustre chimiste français Henri Sainte-Claire Deville présentait à l’Académie des Sciences le premier lingot d’aluminium qui était déjà d’une très grande pureté (99 pour 100).
- Un tableau a été présenté dans le hall du Pavillon français de l’Exposition de Bruxelles, sur lequel on voit que les grands progrès obtenus depuis un siècle dans cette purification ont été effectués par des chercheurs français. En 1886, Paul Héroult, par voie électrolytique, obtenait l’aluminium à 99,5 pour 100. En 1934, Robert Gadeau, par la double électrolyse, dépassait 99,99 pour 100. Enfin, en tout dernier lieu, l’ultime purification a été réalisée par les laboratoires de Chimie de Vitry du Centre national de la Recherche scientifique par les chercheurs que dirige M. Georges Chaudron, membre de l’Institut, professeur à la Sorbonne. Il s’agit d’un métal dont le titre est supérieur à 99,999 pour 100; l’analyse a été effectuée par la méthode des radioéléments qui permet pour ainsi dii’e de compter les atomes étrangers.
- Dans ce tableau, on souligne qu’à chaque stade de la purification de l’aluminium, il est apparu de nouvelles propriétés et de nouvelles applications. Le nouvel aluminium a une conductibilité à basse température beaucoup plus élevée que les aluminiums les plus purs qui avaient été obtenus jusqu’à présent.
- Les chercheurs français ont montré comment ils avaient obtenu ce métal de haute pureté : dans un tube, un barreau
- d’aluminium sc déplace par rapport à un solénoïde dans lequel passe un courant de haute fréquence. Il en résulte un chauffage jusqu’au point de fusion d’une petite zone du barreau. Cette petite zone fondue se déplace donc d’un bout à l’autre du barreau et elle entraîne les impuretés plus solubles dans le métal fondu que dans le métal solide. Il en résulte une sorte de ratissage du barreau, tous les atomes étrangers se trouvent entraînés de la tète jusqu’à la queue du barreau.
- Les visiteurs peuvent se rendre compte de cette purification, car on introduit un isotope radioactif dans l’aluminium et l’on peut dédecter la place occupée dans le barreau par cet atome étranger au moyen d’un compteur de Geiger. On peut même effectuer l’analyse, c’est-à-dire indiquer le nombre d’atomes étrangers dans les différentes parties du barreau d’aluminium. L’analyse est sensible à une fraction de partie par million, c’est-à-dire que la méthode d’analyse est capable de compter un atome étranger dans plusieurs millions d’atomes d’aluminium. Par suite, la méthode de purification est capable d’effectuer une séparation meilleure que io~6.
- On a souvent dit que chaque progrès dans la purification d’un métal indiquait une nouvelle étape de la métallurgie. Dans le tableau que nous donnons ici, la recherche française doit être Hère d’avoir apporté les chiffres décimaux du titre de l’aluminium, et des alliages aux propriétés exceptionnelles ont pris naissance à partir de ces métaux.
- p.279 - vue 283/527
-
-
-
- 280
- Les activités du Laboratoire souterrain du C.N.R.S. à Moulis
- Les lecteurs de La Nature connaissent le Laboratoire souterrain créé par le Centre national de la Recherche scientifique à Moulis (Ariège), par l’article qui lui a été consacré dans un précédent numéro (1). Il paraît inutile de rappeler les raisons pour lesquelles ce Laboratoire fut institué, et de donner à nouveau une description des installations du Laboratoire de surface èt des aménagements de la Grotte-Laboratoire. Par contre, il convient d’évoquer brièvement les recherches qui y sont actuellement poursuivies et les résultats déjà acquis, qui sont exposés au Pavillon français de l’Exposition de Bruxelles.
- Le Laboratoire souterrain du C.N.R.S. a été inauguré le 26 juin 1954. Cette date marque le début de recherches répondant à des programmes soigneusement élaborés et réclamant la coopération de chercheurs appartenant à des disciplines différentes.
- Les recherches poursuivies au cours de ces dernières années ont porté sur quatre thèmes principaux : le développement des cavernicoles; la physiologie comparée des animaux souterrains; la composition des argiles de grottes et leur signification biologique; la formation des concrétions. MM. Jobert et Blum, attachés à l’Institut de Physique du Globe, ont entrepris l’installation, dans la grotte de Moulis, d’une Station de Gravimétrie et de Clinométrie ; mais il est trop tôt pour faire état des résultats obtenus en ce dernier domaine.
- L’une des premières tâches du Laboratoire souterrain a été de combler l’une des lacunes les plus graves de la Biospéologie : l’ignorance à peu près totale où nous nous trouvions quant aux premiers états des cavernicoles. Il y a longtemps que le professeur Jeannel (1911, 1920, 1922, 1926, 1943) avait attiré l’attention des entomologistes sur l’absence, ou l’extrême rareté, des larves de Coléoptères cavernicoles. Si l’on connaissait la larve de quelques formes peu évoluées appartenant aux genres Speono-mus et Speotrechus, on ignorait tout des premiers états des types hautement spécialisés, tels que les Aphænops, les Anlrocharis, les Leptodirus, etc. Notre ignorance était à peu près aussi complète en ce qui concerne le développement d’autres Arthropodes cavernicoles : Myriapodes (Brôlemann, 1928), Isopodes terrestres (Vandel, 1947), etc.
- Le professeur Jeannel cherchait la raison de ces singulières défections dans la claustration des femelles ovigères et des stades larvaires au sein de fentes inaccessibles. Cette interprétation est certainement exacte, mais elle n’est que partielle. La solution complète du problème n’a pu être fournie qu’à la suite d’élevages systématiquement poursuivis. Les résultats obtenus en ce domaine constituent une justification éclatante de l’utilité du Laboratoire souterrain.
- Le problème peut être tenu aujourd’hui pour complètement résolu en ce qui concerne l’un des groupes les plus importants de Coléoptères cavernicoles, les Silphides, constituant la sous-famille des Bathysciinæ. Nous en devons la solution aux remarquables recherches de Mlle Sylvie Glaçon (Mme Deleurance). Cette biologiste a reconnu l’existence de plusieurs types de développement chez les Bathysciinæ, d’autant plus spécialisés que l’insecte est plus étroitement lié au milieu souterrain.
- Celui qui est propre aux Bathysciinæ les plus nettement cavernicoles (Speonomus longicornis, pyrenæus, piochardi, stygius, diecki, hydrophilus, abeillei; Antrocharis querilhaci; Diaprysus serullazi ; Troglodromus bucheti ; Isereus serullazi) a paru si extraordinaire qu’il fut pris tout d’abord pour le résultat de quelque anomalie découlant des conditions de culture. Cepen-
- 1. Le Laboratoire souterrain du C.N.R.S. à Moulis (Axiège), par A.. Vandel : La Nature, décembre 1953, p. 353.
- Figr. 58. — Au Laboratoire de Moulis : mosaïque du hall d’entrée.
- L’insecte représenté est un Aphænops, coléoptère cavernicole.
- (Photo C.N.R.S.).
- dant, les premiers résultats ne tardèrent point à être confirmés, et l’on ne saurait douter aujourd’hui que le cycle observé corresponde bien aux conditions normales.
- Chez ces formes, la femelle ne pond qu’un seul œuf à la fois; cet œuf est énorme et bourré de vitellus. Il donne naissance à une larve dont la vie libre est extrêmement brève : quelques heures ou quelques jours. C’est pourquoi les larves qui répondent à ce type n’ont jamais été récoltées dans les grottes. Très rapidement, la larve se confectionne une logette en argile dans laquelle elle s’enferme et se nymphose. Au cours de sa brève vie larvaire, l’insecte ne se nourrit pas, ne s’accroît pas et ne mue pas; il ne possède donc qu’au seul stade larvaire alors que, normalement, les Coléoptères passent par trois stades larvaires successifs.
- Le second type est propre à des espèces moins spécialisées (Speonomus delarouzei, infernus, oberthüri, mazarredoi, bour-goini, sioberi). Les œufs sont plus petits que ceux des espèces du premier type, plus nombreux aussi, quoique pondus un à un. La vie larvaire comprend une première phase de vie libre et active, au cours de laquelle la larve se nourrit et s’accroît; elle mue une fois, généralement à l’intérieur d’une logette de mue (logettes que l’on ne connaît que chez les formes cavernicoles). Pendant la seconde phase de la vie larvaire, la larve ne se nourrit pas; au terme de cette seconde période, elle s’enferme dans une logette de nymphose. Ainsi, la vie larvaire comprend deux stades successifs, séparés par une mue.
- Un type intermédiaire est offert par Diaprizus serrullazi dont la larve, à l’exemple de celle des espèces précédentes, passe par deux stades successifs; mais cette larve ne s’alimente à aucun moment de son existence, comme il est de règle chez les larves du premier type.
- Enfin, chez le Bathysciiné muscicole, Bathysciola schiôdtei, la femelle pond des œufs petits, oligolécithes, au rythme de 8 à 10 par mois. La larve subit deux mues et passe par trois stades successifs. Elle s’alimente pendant toute la vie larvaire, sauf pendant la dernière période du troisième stade. Ce mode de développement correspond en somme au type normal.
- p.280 - vue 284/527
-
-
-
- 281
- Nous sommes beaucoup moins avancés en ce qui concerne les Carabiques cavernicoles, c’est-à-dire les Trechinæ. On connaît la larve de Geotrechus orpheus (Coiffait, 1961). Mais nous ne possédons encore que des données fragmentaires snr le cycle des Carabiques cavernicoles les plus hautement spécialisés, les Aphænops. On sait seulement que ces insectes pondent un seul œuf à la fois, œuf de très grande taille et riche en vitel-ius. Il est probable que le cycle de développement des Aphænops ressemble à celui des Bathysciinæ spécialisés et que la vie larvaire est fort brève. Si ce fait était définitivement établi, il prouverait que le milieu souterrain a entraîné des modifications similaires dans le développement d’insectes aussi différents que les Carabiques et les Silphides.
- La physiologie comparée des formes cavernicoles et des espèces épigées dont elles se rapprochent le plus était inscrite au programme dressé lors de la création du Laboratoire souterrain. Cette tâche a été confiée à Mn° Louise Derouet (Mme Dresco). Celle-ci a tout d’abord comparé la consommation d’oxygène chez les Amphipodes épigés du genre Gammarus et chez les cavernicoles du genre Niphargus (Derouet, 19/19, 1963). Elle a constaté que la consommation d’oxygène est dix fois supérieure chez les premiers à celle que l’on observe chez les seconds. Ultérieurement, le même auteur (Derouet, igo3) a examiné de façon comparative, le métabolisme respiratoire d’Araignées de surface et d’Araignées troglophiles. Le travail définitif, qui sera présenté comme thèse de doctorat, doit paraître prochainement.
- D’une façon générale, on doit reconnaître que le métabolisme des cavernicoles est considérablement plus bas que celui des formes de surface. Il en résulte que les réactions des cavernicoles sont plus lentes que celles des espèces épigées ; leur développement est beaucoup plus long; leur longévité est accrue.
- Les biospéologistes soupçonnaient depuis longtemps le rôle important que l’argile des grottes devait jouer dans la vie des cavernicoles. Les élevages de troglobies, aquatiques ou terrestres, ont mis en évidence le rôle joué par l’argile dans la protection, la nutrition, la reproduction et le développement des cavernicoles. En voici quelques exemples.
- On sait que tous les cavernicoles aquatiques (Niphargus, Stenasellus, Protées) aussi bien que terrestres (Coléoptères des genres Aphænops et Speonomus; Myriapodes du genre Typhlo-blaniulus; Isopodes du genre Scotonisc.us\ creusent l’argile. Ce
- comportement correspond à des activités diverses dont quelques-unes peuvent être aujourd’hui correctement interprétées. Les Niphargus sont des animaux fouisseurs ; ils établissent des terriers à deux ou plusieurs ouvertures qui leur servent d’abris. Par ailleurs, lorsque le niveau de l’eau s’abaisse, ils s’enferment dans une logette à l’intérieur de laquelle ils passent la saison sèche (estivation) (Ginet, 1956). Il a été dit plus haut
- Fig. 61. — Chercheur au travail : aspiration des insectes.
- (Photo C.N.R.S.).
- p.281 - vue 285/527
-
-
-
- 282
- Fig. 62. — Chercheur au travail dans la salle des terrariums.
- (Photo C.N.R.S.).
- que les Bathysciinæ cavernicoles s’enferment, au moment de la mue ou de la nymphose, dans une logette d’argile; les loget-tes de mue sont inconnues chez les formes épigées. Les femelles de Scotoniscus s’enferment également dans une logette d’argile, lorsqu’elles deviennent ovigères. Enfin, les très belles expériences de R. Ginet (1956) ont établi le rôle essentiel joué par l’argile des grottes dans la nutrition des Niphargus. De jeunes Niphargus sont capables de se développer dans des bacs renfermant de l’argile de grottes, sans adjonction d’aucune nourriture extérieure; tandis que de jeunes Niphargus, bien nourris, mais privés d’argile, meurent sans exception à l’époque de la seconde mue.
- Ces observations suffisaient à montrer l’importance de l’ar-
- gile en tant qu’élément indispensable à la vie des cavernicoles. C’est pourquoi il fut dressé en ig56 un programme d’une étude d’ensemble des argiles de grottes envisagées sous leurs aspects chimiques, minéralogiques, pétrographiques, géologiques et bactériologiques. Ce programme a pu être abordé grâce au concours de MM. Orliac, Renault, Caumartin et Manant.
- M. Caumartin (1967) a mis en évidence la présence, dans les argiles de grottes et dans certaines roches poreuses, comme la dolomie, d’une bactérie inconnue jusqu’alors et qu’il a nommée Perabacterium spelæi. Cette bactérie est anaérobie dans son milieu naturel et parfaitement autotrophe. Elle fixe l’azote de l’air. Elle tire son carbone du carbonate de fer et son énergie vitale de la décomposition du carbonate ferreux et de l’oxydation de l’oxyde ferreux qui en résulte. L’épuisement de l’argile en sels ferreux fait disparaître la bactérie et ramène l’argile à un état purement minéral. La bactérie est capable d’engendrer des matières organiques à partir d’éléments entièrement minéraux.
- La découverte de cette remarquable espèce bactérienne fait apparaître l’argile des grottes sous un jour tout nouveau. L’argile n’est pas seulement un composé minéral; c’est aussi un milieu vivant, producteur de substances organiques et susceptible de jouer un rôle nutritif pour les cavernicoles, tout spécialement les cavernicoles aquatiques. Les observations de Caumartin corroborent ainsi les résultats obtenus par Ginet. Cette découverte établit, par ailleurs, la possibilité d’un cycle purement endogène se déroulant dans les profondeurs de la terre, en l’absence de tout apport exogène. C’est un cycle fermé.
- Il convient d’ajouter que Perabacterium spelæi joue un rôle antibiotique vis-à-vis des Champignons, en particulier des Muco-rales, et que les argiles mortes se couvrent rapidement de moisissures, dès que celles-ci ont à leur disposition quelque matière organique.
- L’élargissement d’un siphon qui rétrécissait la galerie principale a permis enfin de rendre accessible la région profonde de la grotte de Moulis et de porter la longueur de la partie connue de 3oo m à plus de 700 m. Les parties profondes de la grotte renferment plusieurs salles magnifiquement concrétion-nées (Galerie des Fleurs, Salle de Minuit, Jardin suspendu). Ces concrétions composées de calcite et d’aragonite ont fait l’objet d’études détaillées de la part de MM. Gèze et Renault et de M11® Pobeguin. M. Gèze (19&7) a publié sur les concrétions de Moulis un ouvrage auquel nous renvoyons ceux qui s’intéressent à la formation des concrétions et à leurs aspects singuliers (excentriques).
- A. Vandel,
- Membre de l’Institut.
- FILTRAGE DE FRÉQUENCES SPATIALES EN OPTIQUE
- Depuis de nombreuses années, on utilise des filtres électriques dans les techniques de transmission de la parole. Une chaîne électroacoustique est d’autant meilleure qu’elle transmet plus uniformément les fréquences. D’autre part, les filtres peuvent modifier la transmission de certaines bandes de fréquences en vue de l’obtention d’effets spéciaux. M. Maréchal a proposé d’appliquer ces méthodes au filtrage des images optiques. On sait qu’un objectif photographique ne donne pas toujours une image conforme à l’objet. Cela provient du fait qu’il se comporte comme un filtre de fréquences spatiales. Il ne résout pas toutes les fréquences, c’est-à-dire qu’il ne les transmet pas uniformément. Précisons tout d’abord la notion de fréquence spatiale : considérons un objet périodique comme par exemple une série de traits parallèles et équidistants. On appelle fréquence spatiale l’inverse i/p de l’équidistance, ou pas, p de l’objet. Plus les traits sont rapprochés, plus la fréquence est
- élevée et inversement plus ils sont distants les uns des autres et plus la fréquence est basse.
- Pour un objectif parfait la courbe de transmission des fréquences est une fonction décroissante de la fréquence. En fait, pour les objectifs réels, cette courbe dépend de la forme de la pupille et des aberrations du système optique mais, quoiqu’il en soit, un objectif effectue toujours un filtrage du type « passe bas », c’est-à-dire qu’il laisse passer les basses fréquences et arrête au contraire les fréquences élevées. Cette notion de fréquence spatiale d’un objet périodique peut être en fait étendue à un objet quelconque en le considérant comme la superposition d’une infinité d’objets sinusoïdaux. Un objet est alors caractérisé non plus par une fréquence unique, comme dans le cas d’un réseau de traits, mais par une infinité de fréquences qui forment ce que l’on appelle un spectre de fréquences, en général continu.
- p.282 - vue 286/527
-
-
-
- 283
- Fig. 63 et 64. — Exemple de photographie aérienne filtrée en vue de l’augmentation du contraste.
- A gauche, la photographie initiale. A droite, la photographie filtrée.
- En première approximation, on voit donc que la loi de filtrage d’un objectif, énoncée plus haut, a la signification suivante : sur une photographie les petits détails qui correspondent à des fréquences élevées ne sont pratiquement pas transmis; les détails importants par contre, qui ont une fréquence spatiale faible, sont, transmis intégralement.
- Cette loi de filtrage donne en général d’assez bons résultats pour la photographie mais la présence de défauts (aberrations, défaut de mise au point...) affecte principalement les fréquences moyennes qui sont les plus intéressantes. Si l’on n’est pas satisfait de la loi de filtrage, par exemple s’il y a une trop grande importance des basses fréquences qui diminuent le contraste de l’image, il est possible de la changer au moyen de filtres ayant une loi convenable de transmission des fréquences.
- Supposons qu’un objectif avec un défaut donne une loi de transmission des fréquences spatiales de la forme de la
- Transmission Transmission
- Fig. 65. — Exemple de loi de distribution des fréquences spatiales d’un objectif (a) et d’un filtre correcteur (b).
- figure 65 a. Le filtre devra diminuer l’importance des basses fréquences et au contraire accentuer les fréquences élevées. Il devra donc avoir une forme telle que sa loi de filtrage ait sensiblement l’aspect de la figure 65 b. On obtiendra comme résultat définitif une transmission uniforme des fréquences. Sa loi de filtrage devra être différente si l’on désire au contraire obtenir des effets spéciaux, etc.
- Le dispositif expérimental est le suivant. On forme l’image de la photographie dont on veut modifier la loi de filtrage sur un filtre de transparence variable. Mais, alors que la prise de vue a été faite en éclairage incohérent, on ne peut effectuer un filtrage arbitraire que sur la transmission de l’amplitude d’un point lumineux objet. Pour que les amplitudes s’additionnent, comme les intensités dans la prise de vue, il faut que les différents points objets soient des sources cohérentes et que les points correspondants des taches-images gardent la même phase dans le plan de l’objet. Le moyen le plus simple de satisfaire à ces conditions est d’enregistrer l’image « à filtrer » sous forme de cliché et d’utili-
- ser ce dernier éclairé en transparence par un faisceau issu d'un point. Le dispositif de double diffraction de la figure 66 permet d’agir sur le spectre de la photo obtenue en éclairage cohérent. Ainsi un objet sinusoïdal appartenant à P diffracte de part et d’autre de l’image centrale dans les directions + X/p. Le spectre des fréquences est représenté dans le plan de F par deux « raies » symétriques par rapport à l’image centrale et le filtre F, qui est une lame de densité variable, module le spectre de fréquence et modifie ainsi l’image P' de P.
- Fig. 66. — Schéma de dispositif expérimental.
- O, objectif d’éclairage ; O', objectif de prise de vue ; P, photo dont on veut modifier la loi de filtrage ; F, filtre de transparence variable placé dans la pupille ; P', image filtrée.
- Les premiers filtres ont été obtenus par évaporation d’un métal sous vide, une variation de l’épaisseur du dépôt métallique provoquant une variation de transparence. On dispose une série de chicanes entre le creuset où le métal est porté à l’incandescence et la lame de verre de telle sorte que le dépôt ait un profil déterminé.
- Malheureusement à la variation d’épaisseur correspond aussi une variation de phase ; donc sur l’image restituée venait s’ajouter au filtrage des fréquences un phénomène de contraste de phase introduisant de nouvelles variations d’amplitude. Par suite, il est nécessaire d’immerger d’une part le cliché à filtrer, d’autre part le filtre entre deux lames de verre bien polies à l’aide d’un liquide ou d’une colle d’indice voisin de celui de la gélatine.
- Actuellement, les filtres sont réalisés par une méthode photographique. On éclaire une plaque photographique et on place devant l’objectif une pupille de forme convenable de manière à modifier la répartition de l’éclairement sur la plaque lui conférant ainsi une transparence variable.
- A titre d’exemple, nous montrons une photographie aérienne filtrée en vue de l’augmentation du contraste (fig. 63 et 64).
- J. Poule au, Ingénieur-Docteur.
- p.283 - vue 287/527
-
-
-
- 284
- Commande de machines-outils par magnétophone
- Secte u p 50Wz
- g C o
- Manivelles de la machine-outil
- O SC. F,
- Magnétophone
- Le Centre de Recherches scientifiques, industrielles et maritimes de Marseille présente à Bruxelles un ensemble de réalisations assez intéressant. Il s’agit principalement d’un appareillage servant à commander un four à l’aide d’un programme enregistré sur une bande magnétique, l’enregistrement et la lecture se faisant à l'aide d’un magnétophone ordinaire.
- L’ensemble peut fonctionner de deux façons différentes :
- — On peut faire exécuter à un ouvrier un modèle de la pièce à usiner; les mouvements que l’ouvrier imprime aux différentes commandes du tour sont alors enregistrés sur la bande magnétique. Dans un deuxième stade, on fera défiler la bande devant la tète de lecture qui, en sens inverse, actionnera en temps voulu chacune des commandes utilisées par l’ouvrier. La machine fera ainsi toute seule exactement le même travail que l’ouvrier.
- Fis. 67. — Schéma du système
- d’enregistrement ,
- Les manivelles de la maeliine-outil entraînant les selsyns, ceux-ci fournissent des courants alternatifs dont la fréquence f dépend de la vitesse de rotation imposée. Le nombre d’alternances du courant de fréquence / sera exactement égal au nombre de tours effectués par la manivelle. Le courant de fréquence F délivré par l’oscillateur et modulé par le courant de fréquence / (/ étant très inférieur à F), le courant de fréquence F ainsi modulé est équivalent à la somme de deux courants de fréquences F + / et F — /.
- — Au lieu de faire exécuter la première pièce par un ouvrier, on peut, disposant simplement d’un croquis coté, décider à l’avance des divers mouvements que doit effectuer l’outil. Pour cela, on compose sur un cadran téléphonique un chiffre correspondant à la longueur que doit parcourir l’outil lors de chaque déplacement, puis on commande ce déplacement qui s’arrêtera lorsque la distance choisie aura effectivement été parcourue. Ainsi, en composant successivement les coordonnées des divers mouvements et en mettant en marche les organes correspondants du tour, on fait exécuter à l’outil une série de passes permettant l’usinage complet. Pendant ce temps les diverses commandes sont enregistrées, ainsi que nous le verrons plus loin. En faisant défiler la bande magnétique devant la tête de lecture, on reproduit les mouvements enregistrés de même que précédemment.
- Enregistrement. — Pendant que l’ouvrier fabrique une première pièce sur une machine-outil, les mouvements des divers organes sont enregistrés à l’aide de petits « selsyns » qu’ils entraînent. Rappelons qu’un « selsyn » est une petite dynamo qui délivre une tension sinusoïdale strictement synchrone du mouvement rotatif qui l’engendre ; cette tension peut servir à entraîner un moteur semblable à la dynamo et dont la rotation suivra exactement celle du selsyn de commande.
- La tension alternative délivrée par le selsyn sert ici à moduler un courant alternatif dont la fréquence est caractéristique de l’organe commandé. On enregistre ce courant modulé sur la bande
- Fig. 68. •— Schéma du système de reproduction.
- Les filtres passe-bande ne laissent passer chacun qu’une bande de fréquences autour de la fréquence F, permettant de séparer ainsi les fréquences F + / enregistrées. Los détecteurs éliminent la composante de fréquence F, ne laissant subsister que la fréquence / qui était celle initialement fournie par le selsyn. Le courant, après avoir été amplifié, fait tourner un selsyn qui reproduira donc exactement les mouvements initiaux.
- p.284 - vue 288/527
-
-
-
- 285
- magnétique. Une fréquence différente est attribuée à chaque commande de la machine.
- Les mises en marche automatiques et les arrêts de la machine, le changement d’outil, l’alimentation en pièces brutes et l’évacuation des pièces usinées nécessitent un certain nombre de commandes supplémentaires. Ces commandes sont enregistrées par le même magnétophone, en même temps que les commandes principales. On les enregistre sous la forme d’impulsions musicales émises par un pupitre de commande.
- Le magnétophone enregistre ainsi un sifflement complexe qui est produit au fur et à mesure que l’on façonne la pièce modèle. Dans la phase de reproduction, ce sifflement sera « lu » par le magnétophone et servira à commander la machine.
- Reproduction. — Le processus de reproduction est presque exactement l’inverse de celui qui permet l’enregistrement. On fait maintenant défiler la bande magnétique devant la tête de lecture. Le sifflement enregistré est séparé par des filtres convenables en ses différentes composantes qui sont dirigées vers les organes correspondants ; les courants alternatifs ainsi obtenus font tourner des selsyns qui peuvent être les mêmes que ceux utilisés à l’enregistrement. Les selsyns ne pouvant pas fournir un couple suffisant pour actionner efficacement les commandes, on utilise pour cela des moteurs électriques d’un type nouveau (brevet du C.R.S.I.M. de Marseille), les « moteurs à collecteur fixe » qui amplifient le couple mécanique délivré par le selsyn tout en tournant en synchronisme exact avec lui. Le gros avantage de ce système c’est d’être alimenté sur le secteur et non pas à l’aide d’un appareillage électronique. Les systèmes électroniques capables de fournir des puissances élevées sont, en effet, d’une construction assez difficile et sont plus fréquemment sujets à des pannes que les systèmes électrodynamiques classiques.
- Deuxième mode de fonctionnement. — Nous avons vu qu’il n’était pas nécessaire de faire exécuter la° première pièce par un ouvrier, mais que l’on pouvait commander les mouvements de la machine-outil à l’aide d’un cadran téléphonique. En effet, les organes de commande du tour (manivelle, vis-mère, barre de chariotage) sont reliés mécaniquement à des compte-tours ; ceux-ci indiquent donc à chaque instant les coordonnées de l’outil, par exemple, en dixièmes de millimètre. Or, ces compte-tours compor-
- tent des contacts électriques ; en actionnant le cadran téléphonique, on met en circuit un certain nombre de contacts : ceux relatifs respectivement aux chiffres des milliers, des centaines, des dizaines et des unités ; ceci fait, on enclenche la vis-mère ou la barre de chariotage en appuyant sur un bouton; l’outil se met en marche et lorsqu’il arrive à la position prédéterminée, les contacts sélectionnés à l’aide du cadran font passer un courant électrique qui, agissant sur un relais, arrête le mouvement.
- Enregistrement. — Simultanément avec les commandes précédentes (numérotage, mise en marche, arrêt, etc.), des impulsions musicales de deux fréquences sont envoyées dans le magnétophone. Elles sont de deux types : 1° des interruptions d’un courant permanent de fréquence /, servant à la sélection des organes à commander ; 2° des impulsions de fréquence /, correspondant au numérotage et à l’exécution des différentes commandes.
- Reproduction. — Le magnétophone étant mis en marche, les deux fréquences étant séparées par des filtres, les impulsions agissent sur deux relais. La première provoque la sélection des organes, la deuxième détermine le réglage des compte-tours et commande les différentes opérations auxiliaires des organes sélectionnés à l’aide de la fréquence /,.
- Pour des profils relativement simples, cette dernière méthode peut être plus commode que la précédente qui, par contre, permet en principe les usinages les plus compliqués. Mais il faut bien remarquer qu’aucune de ces méthodes n’est « cybernétique », c'est-à-dire qu’elles ne comportent aucun système d’autorégula-iion. La précision est donc limitée par la fidélité des selsyns et par la constance plus ou moins grande des temps de réponse des différents organes. Les machines ainsi automatisées se rangent dans la classe des « machines à programme », dont les premières furent probablement les boîtes à musique et les automates du xviie siècle ; par opposition aux machines dites « asservies », qui comparent elles-mêmes les résultats obtenus à un modèle fixe et qui modifient leur réglage en conséquence.
- Il n’en reste pas moins que ce système constitue une méthode extrêmement souple de programmation qui est de ce fait, dans bon nombre d’applications, d'un emploi plus commode que le système usuel de cartes perforées. F. R.
- Le séparateur électromagnétique d'isotopes de la Faculté des Sciences de Paris
- La séparation des isotopes d’un même corps représente un problème qui a été souvent affronté ces dernières années, La difficulté de base à laquelle se heurte cette opération est que les traitements chimiques qui rendent possible la séparation de deux corps différents sont en ce cas inopérants. On a donc
- Fig'. 69. — Vue partielle du séparateur électromagnétique.
- La source d’ions est contenue dans le cylindre en T, situé à gauche de la photo. Cet organe se raccorde à un électro-aimant auxiliaire suivi,, vers la droite, par une section isolante (cylindre transparent) où sont placés les supports de l’électrode accélératrice.
- recours à des procédés physiques, tels que la diffusion gazeuse (appliquée industriellement à la séparation isotopique de l’ura-nium), la centrifugation et la séparation électromagnétique.
- C’est ce dernier procédé qui a été adopté par le Laboratoire de physique nucléaire de la Faculté des Sciences de Paris, installé à Orsay et un appareil conçu en collaboration par le C.E.A. et le C.N.R.S. a été récemment mis en service dans ce laboratoire.
- Construit par la société Gamma Industrie, cet appareil est une réalisation entièrement française et ne possède d’homologue dans aucun laboratoire de l’étranger. Les premiers essais dont il a fait l’objet ont démontré qu’il offre la possibilité, à partir d’une vaste gamme d’éléments, de séparer une quantité appréciable d’isotopes. On a par exemple obtenu, par centaines de milligrammes, certains isotopes séparés des métaux lourds.
- Les physiciens ont ainsi à leur disposition un appareil qui-se prête à d’assez nombreuses manipulations, telles que la recherche de nouveaux isotopes, la mesure de sections efficaces, la préparation de cibles composées d’isotopes radioactifs de pureté nucléaire.
- Les organes essentiels sont : i° un électro-aimant de grande puissance, dont le poids atteint 5 t et dont l’entrefer a été réalisé avec une précision de i/ioo de millimètre; 2° une source d’ions; 3° un collecteur; 4° un système de production du vide. L’ensemble de ces organes permet de faire circuler un courant ionique de densité très élevée (de l’ordre de io mÀ par centimètre carré), avec une stabilisation rigoureuse de la tension d’accélération et du champ magnétique déflecteur des ions.
- Le séparateur électromagnétique est présenté, sous la forme d’une maquette, à l’Exposition internationale de Bruxelles, Pavillon français, Section de la Pensée française. G. C.
- p.285 - vue 289/527
-
-
-
- Micro-débitmètre et débitmètre thermique différentiel
- Les très nombreux appareils qui s’offrent sur le marché témoignent des difficultés que présentent les mesures de débits. En particulier, la mesure précise des débits très faibles, dont une application fondamentale est l’analyse des gaz, a toujours soulevé de délicats problèmes. Il nous a semblé intéressant de montrer comment ils avaient été résolus tout récemment dans les appareils présentés à Bruxelles par la Société D. A. M. La pièce essentielle du micro-débitmètre est un tube métallique rectiligne à travers lequel circule le fluide dont on veut mesurer le débit. Le tube est chauffé en son centre par un enroulement situé sur sa surface externe; les extrémités du tube sont, au contraire, maintenues à la température ambiante. En l’absence de fluide, la répartition des températures le long du tube est symétrique par rapport au centre; par contre, le passage d’un fluide produit dans cette répartition une dissymétrie qui est fonction de la capacité calorifique du fluide et, par conséquent, de son débit en masse et de sa chaleur spécifique. Le repérage de cette dissymétrie est effectué au moyen de deux enroulements de platine bobinés sur le tube de part et d’autre de l’enroulement de chauffage; ces résistances électriques forment avec deux résistances de référence un pont dont on mesure le déséquilibre. Le résultat de la mesure se présente donc sous la forme d’une différence de potentiel et il suffit d’avoir tracé une courbe d’étalonnage pour obtenir immédiatement le débit du fluide. L’expérience montre que cette diffé-
- Standard inox
- Débits en litres/heure
- Fig. 70. — Variation de la différence de potentiel en fonction du débit (cas d’un mélange d’hydrogène et d’oxygène).
- rence de potentiel croît en fonction du débit d’une façon absolument linéaire jusqu’à une valeur de l’ordre de 4 1 par heure sous la pression atmosphérique avec les tubes standard 'employés; ensuite cette variation cesse d’être linéaire; la tension augmente moins vite, passe par un maximum puis décroît (fig. 70).
- La partie rectiligne de la courbe constitue la plage de grande précision; au contraire, au voisinage du maximum, une grande variation de débit n’entraîne qu’une faible variation de la tension, c’est-à-dire que la précision devient mauvaise. Le constructeur indique une précision de 1 p. 100 entre 5oo cm3/h et 4 l/h. L’appareil fonctionne quel que soit le sens de circulation du fluide avec indication de ce sens par la polarité de la force électromotrice obtenue. La limite de température du fluide se situe vers 6o° C. Enfin, la tension de déséquilibre ne dépendant que du débit en masse du fluide et de sa capacité calorifique, l’indication de débit ne dépend pas en première approximation de la pression ni de la température du fluide.
- Un des intérêts de cet appareil est qu’il présente une excel-
- Fig. 71. — Le micro-débitmètre Ugine SS de la Société D.A.M.
- . (Photo A.. Gamet, Lyon).
- lente résistance à la corrosion puisque ses éléments actifs sont situés hors de tout contact avec le fluide. Il existe actuellement deux modèles standard construits l’un avec un tube en nickel, l’autre avec un tube en acier inoxydable 18/8; des modèles à tube central en cuivre, argent, aluminium, alliage monel, etc., peuvent être livrés par le constructeur.
- Le débitmètre thermique différentiel est constitué par deux tubes de mesures identiques à ceux du micro-débitmètre, fixés dans une même masse de cuivre servant de court-circuit thermique. Son application de base est la détermination de la différence qui existe entre deux débits, mais en fait il permet de mesurer également la somme, le quotient ou le multiplicateur de deux débits gazeux en modifiant le montage électrique. En fonctionnement différentiel, l’appareil convient particulièrement pour des différences de débits de o à 10 pour 100 avec un débit général de l’ordre de 8 l/h. Le fait essentiel est que, pour une différence de débits donnée, l’indication de l’appareil passe par un maximum lorsque le débit général varie. Par exemple pour une différence de débits de 3 pour 100, le maximum s’étend entre 6 et 9,5 l/h; or, ce maximum correspond au fonctionnement optimal de l’appareil; en effet, il signifie que pour Un débit général compris entre 6 et 9,5 l/h, l’indication de l’appareil reste constante pour une différence de débit déterminée. Ceci est extrêmement important, car l’appareil permet d’avoir un circuit de débit de gaz sommaire, sans régulation compliquée.
- Cet appareil permet le dosage des gaz en continu; l’idée générale est la suivante : si un débit de gaz complexe traverse le premier tube du débitmètre, puis un dispositif réagissant avec l’un des composants du gaz avec changement de volume, puis le second tube du débitmètre, la différence de débit indiquée par l’appareil mesure la teneur du composant qui a réagi. Donnons des exemples d’applications :
- Absorbeur.
- Débitmètre thermique différentiel
- Combustion
- . du méthane
- Fig. 72. — Schéma du dosage du méthane dans l’air.
- p.286 - vue 290/527
-
-
-
- — Dosage du méthane dans l’air : après passage du mélange chlore est arrêté dans une colonne d’absorption arrosée par une
- dans le premier tube, on le fait passer sur un fil de platine solution d’iodure de potassium en milieu acide, mise en circu-
- chauffé qui brûle le méthane en donnant du gaz carbonique lation par une pompe auxiliaire et régénérée sur charbon actif,
- et de l’eau; on fait ensuite passer le gaz brûlé sur de la soude En conclusion, nous voyons que chaque fois que l’on saura caustique qui fixe à la fois le gaz carbonique et l’eau, puis dans séparer par voies physiques ou chimiques un composant du le second tube de l’appareil. La différence entre les deux débits gaz à analyser, une mesure de la différence des débits avant et correspond au méthane. On obtient une force électro-motrice après traitement permettra d’évaluer la composition du gaz
- de l’ordre du millivolt, pour une teneur de x pour ioo en étudié. Le fait qu’un réglage minutieux du débit général ne
- méthane (fîg. 72). soit pas nécessaire fait que cet appareil permet d’effectuer avec
- — Dosage du bioxyde de chlore dans l’air : le bioxyde de précision les dosages de gaz en continu. R. R.
- Diffractographe à rayons X pour examens à haute température
- Les développements industriels de la méthode d’examen aux rayons X, dite « méthode des poudres » ou de Debye et Sherrer ont montré qu’il était utile de caractériser le système cristallin du matériau à des températures différentes de l’ambiance et d’étudier les modifications de la maille cristalline en fonction de la température. La réalisation d’appareils permettant de porter un échantillon à une température élevée présente certaines difficultés techniques et un certain nombre de dispositifs qui ont été employés ont présenté, soit une limite assez basse à la température atteinte (1 5oo°) dans la plupart des cas, soit des appareils accessoires complexes. La nécessité de placer l’échantillon dans le vide ou un gaz inerte, n’était pas faite pour simplifier le problème.
- Les fours ou microfours utilisés pour le chauffage occupent dans l’enceinte un volume important; les matériaux utilisés provoquent des dégagements de gaz assez considérables ; l’inertie calorifique est très grande.
- Au Laboratoire de Verville, par Nesles-la-Vallée (Seine-et-Oise), nous avons réalisé un diffractographe (brevet C.N.R.S.) qui semble apporter une solution simple à ce problème. Les progrès de la métallurgie des métaux rares nous ont permis de réaliser une pièce en béryllium qui donne au système sous vide une robustesse très grande et une étanchéité totale tout en laissant passer les rayons X diffractés de grande longueur d’onde avec une absorption très faible.
- Pour obtenir des températures élevées, le volume de la partie chauffée a été réduit au minimum. Les pertes par rayonnement et par conductibilité thermiques ont été très diminuées. Il a été possible, dans ce cas, d’obtenir la température de 3 ooo° en moins d’une minute, grâce à l’emploi d’une pastille porte-échantillon bombardée par des électrons émis par une cathode spéciale. L’appareil se compose de pièces cylindriques munies de joints d’étanchéité. Le premier élément fixé sur les vannes à vide et sur la pompe porte à l’intérieur et sur l’axe du cylindre la cathode, le moteur d’entraînement assurant la rotation de l’échantillon. Le second élément sert de support au dispositif assurant l’étanchéité au vide et le passage des rayons X directs et diffractés. Ce dispositif est constitué par un cylindre de béryllium monté sur des anneaux de bronze. Le couvercle permet de fermer ou ouvrir la partie sous vide pour remplacer au centre l’échantillon; un regard muni d'un système optique permet l’observation sous vide et la mesure des températures.
- L’échantillon est un petit bâtonnet de la matière à examiner d’environ 1 mm de diamètre et de 7 à 9 mm de longueur; il est fixé au centre d’une pastille réfractaire servant d’anode. Cette pastille est bombardée par un canon à électrons placé sous l’échantillon et dans un système protecteur en tantale; un générateur accélère les électrons qui frappent la pastille et la portent à la température désirée.
- Le canon à électrons, la pastille et tous les accessoh’es de fixation sont d’un volume très réduit, ce qui permet d’atteindre des températures très élevées avec une puissance d’alimentation très faible, 5oo W environ.
- Un porte-film placé dans un protecteur métallique et exté-
- rieur à la partie sous vide est facile à porter dans la chambre noire pour le chargement, sans aucun démontage. Une circulation d’eau maintient la partie sous vide à la température du laboratoire.
- Il semble que grâce à un système électronique de dimension
- Fig. 73. — Le diffractographe pour hautes températures.
- L’appareil (1) est monté sur le groupe à vide (2) ; le porte-film (3) est placé
- sur la table.
- réduite (5 mm), à un porte-échantillon dont la partie chauffée est aussi un volume réduit (20 mm2 environ), en diminuant par des réflecteurs convenablement disposés les pertes par rayonnement de la pièce sous température, il a été possible d’atteindre d’une façon commode, sans appareillage complexe, de très hautes températures.
- Le C.N.R.S. a bien voulu subventionner ce travail. La construction mécanique a été exécutée par notre mécanicien, M. Roger Laumonnier, à Nesles-la-Vallée. La mise au point a été exécutée dans le Laboratoire de Recherches au moyen des rayons X de l’auteur qui remercie tous ceux qui lui ont apporté leur concours pour réaliser cet appareil dans un délai record, permettant sa présentation à l’Exposition internationale de Bruxelles.
- Fernand Fournier,
- Maître de recherches au C.N.R.S.
- p.287 - vue 291/527
-
-
-
- 288
- Médecine et Biologie au Pavillon français
- Le présent article qu’a bien voulu rédiger pour La Nature le docteur Francis Pette, chargé de Vorganisation de la présentation médicale française à l’Exposition de Bruxelles, fournit un aperçu de l’apport considérable de notre pays dans la recherche médicale. Plusieurs des branches évoquées dans cet article feront l’objet d’études rédigées pour notre revue par différentes personnalités de la Médecine et de la Biologie. Étant donné leur importance, ces études n’ont pu être incluses dans ce numéro. Elles paraîtront dans nos prochaines livraisons.
- Une place privilégiée a été réservée à la Médecine et. à la Biologie au Pavillon français. Ces deux sciences, appliquées à l’étude de la vie, ne jouent-elles pas un rôle important dans le monde moderne par leur contribution à l’amélioration de la condition humaine ? De nombreux travaux de recherche biologique et cellulaire sont par ailleurs exposés au Palais international de la Science. Le visiteur ne doit pas les ignorer.
- L’influence profonde de la Médecine et de la Biologie marque de nombreuses expositions : rôle et métabolisme du potassium au stand de la Société des Potasses d’Alsace, rôle collectif et social de la médecine dans les sections de l’Algérie et de la France d’Outre-mer... La Section « La vie collective » offre la surprise d’une reconstitution d’une salle d’opération de l’Hôpital Marie-Lannelongue, parfaitement équipée avec un matériel de grande classe. Autour, se groupent les activités de l’Institut Pasteur, celles du Centre national de Transfusion sanguine, de la Sécurité Sociale, etc.
- Mais c’est à l’étage de la « Pensée Française » que la Médecine et la Biologie révèlent quelques-uns des travaux français les plus originaux. Sous l’autorité du professeur G. Antoine, de la Sorbonne, les activités intellectuelles et scientifiques françaises sont réunies en un immense panorama d’un impressionnant intérêt. Médecine et Biologie trouvent tout naturellement leur place aux côtés des sciences humaines et des sciences exactes.
- Sans doute, le choix a-t-il été trop limitatif ? Il n’était pas dans l’intention des organisateurs de présenter toute la médecine ni toute la biologie, mais bien de choisir certains sujets où la contribution française est la plus remarquable. Parmi les thèmes principaux, citons : la cardiologie expérimentale et chirurgicale, la microscopie électronique, l’endoscopie, l’étude expérimentale de la détermination du sexe, la pathologie rénale, l’activité scientifique de l’Institut Pasteur, l’endocrinologie, l’audition... On a cherché à rendre accessible au visiteur une des caractéristiques essentielles de la médecine française : son respect de l’homme, souci de liberté qui n’entrave nullement les progrès et les découvertes. Placées sous le signe de Laënnec, de Claude Bernard et de Louis Pasteur, la biologie et la pathologie expérimentale offrent leur vrai sens : atteindre une compréhension approfondie de la physiologie et de la pathologie humaines et aussi de la vie sous toutes ses formes.
- Contrairement à ce que d’aucuns pensent, l’ceuvre novatrice de la France apparaît réelle aux yeux des visiteurs étrangers. Quelques exemples en feront mieux saisir les raisons.
- Le cœur-poumon à membrane pulmonaire artificielle du professeur André Thomas, utilisé par le docteur Jean Vaysse et le docteur Claude de Gaudart d’Allaines dans le service du professeur de Gaudart d’Allaines à l’Hôpital Broussais, n’est-il pas le meilleur instrument mondial pour la chirurgie à cœur ouvert ?
- Le micromanomètre endocardiaque de Laurens et Allard qui enregistre simultanément sons et pression dans les cavités
- cardiaques, les travaux expérimentaux des Écoles d'Alger (pro-. fesseur Malméjac), de Lyon (professeur P. Santy et professeur agrégé P. Marion), de Marie-Lannelongue, mettent aussi la cardiologie française à l’honneur.
- De même le rein artificiel du professeur J. Hamburger et du docteur J. Richet, le Rénographe (appareil d’analyse isotopique des reins) du professeur agrégé Milliez représentent des appareils de grande classe.
- Combien de Français ignorent que l’École d’Endoscopie française est la meilleure du monde par la qualité de ses appareils qui réduisent au minimum les inconvénients tout en permettant photographie et cinéma. Les promoteurs de ces succès nous pardonneront de les citer prochainement dans un article consacré à l’Endoscopie.
- En Ëlectrophysiologie, les travaux du professeur Djourno, de la Faculté de Médecine de Paris, ouvrent des perspectives nouvelles en prothèse sensorielle et nerveuse.
- En Radiologie, la technique française se compare aux meilleures réalisations étrangères. Les travaux sur le radiocinéma (docteurs Porcher et Chérigié), la cinédensigraphie et la strati-densigraphie sont souvent plus connus à l’étranger que dans notre pays.
- La conception originale d’un accélérateur linéaire de particules (Massiot) est à la hauteur des travaux analogues étrangers et permettra d’équiper nos centres avec du matériel français de classe internationale.
- On sait trop peu que par ses travaux le professeur Jost a prévu expérimentalement les différents syndromes pathologiques liés aux troubles du sexe gonadique et somatique.
- De même, les mathématiques permettent à A. et B. Pullman de calculer l’activité cancérigène des corps auxquels l’homme est exposé.
- Dans le domaine de la Thérapeutique, l’apport de la France est aussi considérable : sulfamides et sulfones (professeur Tré-fouël), sulfonamides hypoglycémiantes et antidiabétiques (professeur Loubatières), antihistaminiques, phénothiazine et dérivés, en particulier chlorpromazine, et nouveaux antibiotiques...
- Enfin, l’Institut Pasteur apparaît comme un grand institut de recherche dans tous les domaines de la biologie humaine, animale ou cellulaire.
- Souhaitons que les Français qui visitent leur pavillon national comprennent que les quelques aspects de la médecine et de la biologie françaises présentés à l’Exposition de Bruxelles signifient un renouveau qui ne renie aucune de nos traditions séculaires et n’ignore aucune des techniques modernes.
- Docteur Francis Pette.
- Réaction du verre sur le sang
- Selon des observations faites par le docteur J. Margolis, de l’École de Médecine de Londres, le sang, en présence du verre, subit une réaction qui produit une substance chimique ayant des effets douloureux et qui active le processus de coagulation. Les analyses ont démontré que cette substance se forme en plusieurs étapes, à partir d’un facteur cle contact dont l’activité passe par un maximum au bout de 2 minutes de contact. Après 20 ou 30 minutes, la production de substance douloureuse devient très faible.
- Cette curieuse réaction a été surtout observée chez les personnes qui souffrent d’hémophilie ou d’autres affections où la coagulation sanguine est réduite. Les agents responsables seraient un gel de silice et l’alumine qui sont présents dans le verre et d’autres matériaux.
- p.288 - vue 292/527
-
-
-
- ^ 280
- AU PALAIS INTERNATIONAL DE LA SCIENCE La présentation française dans le département « Atome »
- Fig. 74. — Vue prise du haut de VAtomium, avant Vouverture de l’Exposition.
- Au premier plan, les sobres volumes de la Section belge et l’Avenue de Belgique barrée de son portique. A l’arrière-plan, les anciens Grands Palais, dont une aile abrite le Palais International de la Science, ont reçu une décoration nouvelle.
- (Photo R. Kayaert, Bruxelles).
- Le Palais cle la Science, à la Section internationale de l’Exposition de Bruxelles, comprend un département « Atome » auquel la participation française a naturellement été réalisée sous la direction de M. Francis Perrin, de l’Académie des Sciences, Haut-Commissaire à VÉnergie atomique. M. Francis Perrin a bien voulu exposer pour nos lecteurs la portée de cette participation, dans l’article que nous sommes heureux de publier ci-après.
- Lorsque le gouvernement belge définit les caractéristiques de l’Exposition universelle de 1968, il souhaite la placer sous le signe de cette Science dont l’accélération extraordinaire constitue l’élément essentiel de notre époque. Il décida donc que le « clou » de l’Exposition serait 1’ « Atomium », bâtiment spectaculaire dont l’architecture reproduit la symétrie du cube : c’est en quelque sorte un cristal élémentaire de diamant qui, sous un grossissement énorme, est présenté aux visiteurs. Plus sagement encore, le gouvernement belge décida l’érection d’un « Palais international de la Science ». Dans ses salles d’une surface totale de 10 000 m2, chaque nation a été invitée à présenter sous une forme vivante, autant que possible par des
- expériences en marche, les découvertes auxquelles ses savants avaient plus spécialement contribué. Ainsi le visiteur qui parcourt les salles, tout en suivant le développement historique ou logique de la science contemporaine dans le monde, voit la contribution apportée par chaque pays dans une noble compétition où les succès de chacun profitent à tous et préparent les succès futurs.
- Les présentations sont groupées en quatre « classes » : Atome, Molécule, Cristal, Cellule vivante. Pour chaque classe, un Conseil international a choisi parmi les propositions de toutes les nations celles qui méritaient d’être retenues.
- Dans la classe Atome, la présentation française, que j’avais été chargé d’organiser, part de la découverte de la radioactivité en 1896 par Henri Becquerel. La science nucléaire a pris naissance en effet avec cette découverte fondamentale et les documents originaux, véritables reliques consei’vées par le Muséum d'Histoire Naturelle, permettent d’admirer la méthode d’un grand physicien qui, justifiant le propos de Fontenelle, partit d’une idée fausse et fit faire à la physique un des, plus grands progrès de son histoire, non parce que l’idée était fausse, mais bien qu’elle fût fausse, parce qu’il avait le don de l’observation scientifique.
- La découverte du polonium et du radium par Pierre et Marie
- p.289 - vue 293/527
-
-
-
- 290
- Fig. 75. — Vue générale de la chambre à bulles à propane liquide de 16 litres, en fonctionnement à Saclay.
- La structure ramassée de cet appareil de construction française a permis de réduire l’entrefer de l’électro-aimant, augmentant ainsi l’intensité du
- champ magnétique (16 000 gauss).
- Curie est ensuite évoquée par un document singulièrement émouvant : une fiche de carton couverte de notes écrites par les deux savants et prêtée par leur gendre Frédéric Joliot, porte des taches brunâtres devant lesquelles le compteur de Geiger
- Fig. 76. — Corps de la chambre à propane liquide, présenté par le C.E.A. à l’Exposition de Bruxelles.
- Le modèle est similaire à celui qui fonctionne à Saclay.
- réagit-. Pierre et Marie Curie avaient pollué cette fiche de leurs propres mains, pendant leurs manipulations, car, ne soupçonnant pas encore le danger des r-adiations, ils prenaient les précautions des chimistes, mais ignoraient celles des radioclii-mistes.
- MUe M. Perev, professeur à Strasbourg, évoque ensuite la découverte de l’actinium par André Debierne en 1899. Après avoir mis au point, à la demande de son maître P. Curie, une méthode de traitement industriel qui reste encore la base de l’industrie du radium, Debierne trouva dans les résidus de pechblende un nouveau corps, l’actinium, qui donna son nom à celle des trois familles radioactives dont le premier terme est l'uranium a85.
- Poursuivant ces travaux, MUe Perey découvrit en 1989 le francium, dernier élément naturel venant occuper une case vide, la case 87, de la classification de Mendeleev.
- Auparavant, en 1929, M. Rosenblum, en étudiant la structure fine du spectre des rayons x, avait montré la suite des niveaux énergétiques dans le nouveau noyau formé par le départ de ces particules. Il présente à Bruxelles un spectrograplie magnétique qui sépare des groupes de particules a de vitesses différentes : ses éludes permettent d’espérer une théorie cohérente de la structure nucléaire.
- La présentation française évoque encore l’expérience par laquelle F. et I. Joliot mirent en évidence en 1982 la projection des protons par le rayonnement très pénétrant qu’émet le béryllium bombardé par les particules a du polonium. Cet effet devait conduire peu après à la découverte du neutron.
- p.290 - vue 294/527
-
-
-
- 291
- Fig. 77 et 78. — Photos prises à Saclay dans la chambre à, propane liquide.
- A gauche : Parmi une série de trajectoires de photo-électrons, on observe la composante mobe d’un rayonnement cosmique (en haut et à dioitej.
- — A droite : La trace rectiligne est due à un rayon cosmique d’assez grande énergie.
- L’expérience suivante reproduit une partie des travaux qui, en iq14, permirent à F. et- I. Joliot de provoquer artificiellement la radioactivité ou plus exactement de produire par transmutation provoquée de nouveaux coips radioactifs, isotopes d’éléments chimiques stables divers : une feuille mince d’aluminium inactive placée quelques minutes au-dessus d’une source de polonium devient radioactive et agit sur le compteur de Geiger. 'Les rayons a du polonium ont transformé des atomes d’aluminium en atomes de « radio-phosphore » qu’on peut séparer chimiquement et qui présentent un nouveau type de radioactivité se manifestant par l’émission d’électrons positifs ou positons (radioactivité (}+). Cette découverte très importante valut à ses auteurs le prix Nobel.
- La radioactivité [3+ et l’annihilation des positons sont mises en évidence. En courbant par un champ magnétique intense les trajectoires des rayons p+ ou émis par diverses sources, on montre la différence entre les positons ({3+) et les électrons ((3~). Les positons qui rencontrent les électrons d’un écran de plomb s’annihilent en émettant des photons y rendus visibles sur l’écran d’un oscillographe, grâce à un cristal d’iodure de sodium et un photomulliplicateur.
- En ig38, Pierre Auger, utilisant de nouveaux dispositifs d’électronique rapide mis au point par R. Maze, découvrit que les rayons cosmiques arrivent parfois au sol en grandes gerbes qui couvrent au même instant des centaines ou des milliers de mètres carrés, avec une densité moyenne d’un millier de rayons au mètre carré. Ces grandes gerbes d’Auger sont produites par une cascade d’interactions multipliant à travers l’atmosphère les rayonnements secondaires provoqués par la pénétration dans la haute atmosphère d’un corpuscule cosmique primaire dont l’énergie peut atteindre cent millions de milliards d’électron-
- volts (io17 eV). A Bruxelles, un appareil actionne un signal sonore chaque fois qu’une gerbe couvre une centaine de mètres carrés avec une densité de plus de 10 rayons par mètre carré; les spectateurs savent alors que leur corps vient d’être traversé par une grande gerbe.
- M. Savel présente son compteur à étincelles pour la détection des neutrons thermiques et montre le pouvoir absorbant du cadmium pour les neutrons lents.
- I. Joliot-Curie et Savitch, en 1938, bombardant de l’uranium par des neutrons lents, montrèrent que certains des éléments radioactifs formés avaient des propriétés chimiques très voisines de celles du lanthane. La fission était encore inconnue. Cette expérience, évoquée à Bruxelles, signalait avec force que le bombardement de l’uranium par des neutrons donnait des éléments qui ne semblaient pas être des transuraniens, et qui n’étaient pas non plus des éléments voisins un peu plus légers, comme l’actinium.
- Après ce préliminaire, en iqSq Hahn et Strassmann donnaient la preuve chimique de la fission et F. Joliot la preuve physique. On voit à Bruxelles cette dernière expérience : une mince couche de U,0;t est irradiée par des neutrons lents. Certains noyaux d’uranium explosent en noyaux plus légers qui, projetés hors de la couche d’oxyde d’uranium et recueillis sur une lame de bakélite, sont aisément décelés par un compteur de Geiger.
- La fin de notre présentation évoque les découvertes françaises de 1909 :
- — Mesure du nombre et de l’énergie des neutrons émis pendant la fission (Joliot, llalban, Kovarski) ;
- — Existence des conditions critiques pour le développement des réactions nucléaires en chaînes, et calcul du rayon critique
- p.291 - vue 295/527
-
-
-
- 292
- pour une masse uranifère sphérique; étude des moyens capables de réduire la masse critique (F. Peri'in) ;
- — Étude sur les conditions de construction d’une chaîne divergente de fission (réacteur nucléaire) et sur l’intérêt du milieu hétérogène.
- Puis les découvertes d’après-guerre :
- —• Application de la méthode photographique à la physique corpusculaire et à la biologie (professeur Cuer) ;
- — Expériences sur les phénomènes nucléaires de grande énergie et notamment sur les particules étranges (mésons lourds et hypérons) par le professeur Leprince-Ringuet et son groupe de physiciens. Les chambres de Wilson géantes du Pic du Midi ont permis la mise en évidence en iq54 d’un méson lourd positif Kp. se désintégrant en un méson p, et un neutrino ;
- — Enfin la chambre à bulles de propane, forme moderne de la chambre de Wilson, construite par M. Rogozynski, montrera aux visiteurs les traces des particules qui traversent sans cesse l’atmosphère. Des champs magnétiques, en incurvant les trajectoires, permettent de distinguer la nature des particules.
- En même temps, au Pavillon français, un département de l’énergie atomique exposera les réalisations industrielles françaises et nos possibilités d’exportation. Depuis la prospection et l’équipement minier jusqu’au réacteur atomique, en passant par les matériaux nucléaires et les recherches de laboratoire, tout l’effort atomique français sera présenté. La France, para-
- lysée pendant cinq ans, a fait depuis 19.45 un gros effort pour combler son retard : elle se place maintenant au quatrième rang dans le monde.
- La science atomique jusqu’à la guerre a été, comme toutes les sciences de tout temps, le résultat d’une collaboration internationale. Toutes les nations ont apporté leur contribution; celle de la France a été très honorable et l’Exposition de Bruxelles l’illustre bien puisque, sur 90 expériences présentées au total par les pays du monde entier, 16 montées par nous illustrent des découvertes françaises. Après la guerre, à cause des applications militaires, le secret a pesé sur les travaux nucléaires. Mais nous espérons, et cette espérance semble devenir réalité, qu’un jour prochain la science à nouveau ne connaîtra plus de frontière et que tous les hommes travailleront ensemble, mettront en commun leurs connaissances pour accélérer encore le rythme du progrès.
- FnANcis Perbin,
- Membre de l’Institut, Haut-Commissaire à l’Energie atomique.
- Lire dans notre prochain numéro la suite de nos informations sur la Science à l'Exposition de Bruxelles
- Le travail du cœur chez les petits oiseaux
- La fréquence des pulsations du cœur est d’autant plus grande que les animaux sont plus petits. Elle est extrêmement élevée chez les petits oiseaux, dont le métabolisme est aussi particulièrement intense. A ce sujet, B. F. Sergueew et T. A. Skvort-sova, dans la revue soviétique Priroda, ont donné le tableau suivant, établi à l’aide d’électrocardiogrammes :
- Espèces
- Poids du corps en grammes
- Nombre de pulsations par minute
- Bouvreuil ..........
- Chardonneret .......
- Grosse mésange .....
- Linotte ............
- Mésange bleue ......
- Mésange des bois
- 23,1 729
- 12,6 754
- 15,8 798
- 12,9 831
- 9,9 963
- V 1 037
- Ces valeurs ne sont que des valeurs moyennes, la fréquence des pulsations atteignant, au repos, jusqu’à x 200 chez certai-
- nes mésanges des bois, c’est-à-dire 17 fois le pouls moyen de l’homme.
- On pourrait se demander comment le cœur peut fournir un tel travail sans aucun repos apparent durant des heures et des heures, et sans que se manifeste la moindre fatigue. L’étude des électrocardiogrammes fournit une réponse à cette question. A l’image du cœur humain, celui d’un oiseau se repose durant une fraction importante de chaque pulsation. En 'effet, à chaque contraction succède la phase diastolique, c’est-à-dire la phase de repos. Chaque contraction dure, chez l’homme, o,49 s et chez l’oiseau (mésange bleue) o,o38 s (pour un pouls de 1 000 par minute); quant à la phase de repos complet, elle est de o,3i s chez l’homme et de 0,022 s chez la mésange bleue. Compte tenu de la fréquence des pulsations, le cœur de l’homme se repose ainsi quotidiennement pendant 9 h 18 s, et le cœur de l’oiseau durant 8 h 48 s. On voit que la différence n’est pas considérable. C. M.
- Photométrie de certaines régions de Mars
- En août 1956, la planète Mars se trouvait, comme on le sait, aussi près de la Terre qu’elle puisse jamais l’être, la prochaine opposition ne devant se produire qu’en 1971. Aussi, à l’instar des astronomes du monde entier, les astronomes soviétiques en profitèrent-ils pour se livrer à des observations de la planète voisine. Sous la conduite du Pr Fessenkov, ils mesurèrent, par exemple, l’éclat et l’albédo de Mars. Mais leurs recherches se portèrent aussi sur l’étendue du contraste entre les « mers » et les « continents » dans certaines régions, particulièrement dans la région centralë ou équatoriale de la planète. Ce contraste fut trouvé assez faible. Il ne dépasse généralement pas 0,1 m pour Xe — 5 45o A; il est, le plus souvent, de l’ordre de quelques centièmes. En lumière bleue, le contraste est plus faible,
- les « mers » paraissant légèrement plus « bleues » que les « continents ». Le contraste entre les zones claires et les zones sombres paraît changer sensiblement avec le temps, par exemple, d’une opposition à l’opposition suivante. La zone qui intéressa particulièrement les astronomes soviétiques fut la zone au sud du Noa-chis et de Mare Erytreurn, où apparut, à la fin d’août 1966, un nuage vivement illuminé. Ils mesurèrent le contraste entre ce nuage et la zone voisine non perturbée. Ce contraste fut trouvé égal à 0,08 m en rayons photovisuels et à 0,01 m en rayons photographiques.
- Il est également intéressant de relever que Mars, pris dans son ensemble, parut, aux observateurs soviétiques, plus « bleu » que les zones centrales qui ont fait l’objet de leurs observations.
- p.292 - vue 296/527
-
-
-
- Actualités astronautiques
- Deux événements ont marqué le mois dernier dans le domaine de l’astronautique. En premier lieu, le i5 mai, les services d’information de l’U.R.S.S. annonçaient le lancement d’un troisième « Spoutnik », nettement plus gros que les deux premiers, puisqu’il pèse i 327 kg y compris 968 kg d’instruments de mesure et autres appareillages scientifiques.
- Il présente une forme conique, se terminant par une tète hémisphérique; le diamètre à la base est de 1,57 m et sa longueur atteint 3,67 m. Son orbite est plus grande que celles de ses prédécesseurs, puisque l’apogée de l’ellipse est à quelque 1 900 km de la Terre, contre 1 100 km pour le Spoutnik II, et 600 km seulement pour le Spoutnik I ; le périgée n’est pas connu avec précision mais, selon certains astronauticiens américains, il serait voisin de a4o km. 'La période de révolution autour de la Terre est de 106 mn. L’essentiel des instruments scientifiques est destiné à l’étude des micrométéorites et des dangers qu’ils seraient susceptibles de faire courir aux futurs satellites et astronefs habités. Il ne semble pas, en dépit du poids, qu’un quelconque être vivant ait été installé à bord.
- Ce nouveau lancement confirme donc bien les hypothèses que nous avions eu l’occasion de rapporter dans le numéro de décembre 1967 de La Natu-re, à savoir la mise au. point par les savants soviétiques de propulseurs beaucoup plus puissants que ceux adoptés jusqu’à ce jour. Il était déjà prévisible lors du lancement de son prédécesseur, et il n’implique aucunement que de nouvelles découvertes aient été effectuées depuis. Bien au contraire, on peut penser que les Russes sont dès maintenant en mesure d’envoyer un petit astronef sur la Lune (disons d’un poids de quelques dizaines de kilogrammes), puisque comme l’ont montré certains calculs d’astronautiques, il aurait suffi d’augmenter la vitesse de Spoutnik II sur son orbite de 1 km/s pour lui permettre d’atteindre la vitesse de libération.
- *
- # #
- Au même moment à peu près, les Américains annonçaient de leur côté la récupération du nez d’un engin balistique en fin de trajectoire. Ce problème de la récupération d’un corps à travers les couches denses de l’atmosphère est en effet essentiel tant pour le retour au sol des satellites que pour la mise au point des engins balistiques à long rayon d’action. L’un
- comme l’autre doivent effectivement traverser l’atmosphère terrestre à très grande vitesse et, ce faisant, d’énormes quantités de chaleur sont produites par frottement et par transformation de l’énergie cinétique. Ces quantités de chaleur étaient telles jusqu’à présent qu’elles provoquaient la fusion de l’engin qui était alors complètement dispersé dans l’atmosphère.
- Depuis plusieurs années déjà, les laboratoires de recherche ont essayé de remédier à ces difficultés, soit par le choix de nouvelles formes aérodynamiques, soit par la mise au point de matériaux thermiquement plus résistants.
- Dans un prochain article, nous étudierons les formes aérodynamiques qui conviennent à ces très grandes vitesses; disons seulement maintenant que le nez doit avoir une forme arrondie et non en pointe effilée, comme c’est le cas des avions qui se bornent à voler aux vitesses transsoniques et aux basses vitesses supersoniques.
- Du point de vue des matériaux, deux solutions peuvent être envisagées : emploi de matériaux à haut point de fusion et à conductibilité thermique élevée (c’est ce qu’on appelle l’absorption thermique), ou emploi de matériaux à haute chaleur latente de fusion (ablation thermique).
- La première méthode semble actuellement la plus développée : elle consiste à faire appel à des matériaux à base de cuivre et à une surface extérieure ayant un degré de poli élevé, afin que la quantité de chaleur rayonnée soit la plus élevée possible. Il semble cependant que ce soit la seconde qui ait été adoptée pour le nez de l’engin Ju-piter qui vient d’être récupéré. Le matériau utilisé serait un matériau céramique, dont la composition exacte n’a pas été révélée, et qui possède un avantage appréciable en ce que son poids spécifique est plus faible que celui de la plupart des métaux, en particulier du cuivre. On a utilisé également des matières plastiques constituées d’assemblages de résines organiques et de libres telles que du verre ou du nylon.
- Les Américains affirment que la récupération d’un nez d’engin est plus importante que l’accrochage sur son orbite d’un satellite artificiel. Sans aller jusque-là, il faut toutefois admettre que la mise au point des engins balistiques intercontinentaux, qui jusque-là étaient volatilisés avant d’arriver sur leur objectif, va s’en trouver facilitée.
- Jacques Spincourt.
- LE CIEL EN
- SOLEIL : du 1er août au 1er septembre (à 0h) sa déclinaison décroît de + 18° 13' à + 8°33' et son diamètre app. passe de 31'34",1 à 31'44",9 ; la durée du jour varie de loh4m le 1er à 13h29m le 31.
- — LUNE : Phases : D. Q. le 7 à 17H9m, N. L. le 15 à P. Q.
- le 21 à 19'Mom, P. L. le 29 à 5h53m ; apogée 1e- 5 à 18h, diamètre app. 29'33" ; périgée : le 17 à 1511, diamètre app. 32'50". Principales conjonctions : avec Mars le 7 à 10h, à 1°5' N. ; avec Vénus le 13 à llh, à 5°20' S. ; avec Uranus le 14 à 15h, à o°37' S. ; avec Mercure le 16 à 2h, à 0°55' N. ; avec Jupiter le 19 à 1331, à 0°ol' S. ; avec Neptune le 20 à 0h, à 1°1' S. ; avec Saturne le 23 à 8h, à 2°58' N. Principale occultation : le 5, de 147 B Poissons (mag. 5,8) émersion à 0h29m,2. — PLANÈTES : Mercure, est invisible en conj. infér. tivec le Soleil le 23 ; Vénus, toujours belle étoile du matin, se levant le 17 à 2h41m, soit 2h6m avant le Soleil ; Mars, dans le Bélier, bel astre rouge se montrant dès la fin de la soirée ; le 15, diamètre app. 11",2, mag. — 0,3 ; Jupiter, dans la Vierge se voit encore un peu le soir, se couche le 17 à 21h9m, soit 2h7m après le Soleil ; Saturne, dans Ophiuchus est encore observable toute la première moitié de la nuit ; le 17, coucher à 23h36m, diamètre app. 17",2, axes de l’anneau : 39",2 et + 17",7 ; Uranus, est inobservable en conjonction avec le Soleil le 4 ; Neptune, dans la Vierge devient peu visible le soir, suit Jupiter de plus en plus près à l’E.
- — ÉTOILES VARIABLES : minima de [3 Lyre (3m,4-4m,3 le 2
- AOUT 1958
- à 22h,3, le 15 à 20h,6, le 28 à 19h,0 ; maxima de r, Aigle (3m,7-4m,4) le 5 à 9h,l, le 12 à 13h,4, le 19 à 17h,6, le 26 à 21h,9 ; maxima de 8 Ccphée (3m,8-4m,6) le 3 à 9h,l, le 8 à 17h,9, le 14 à 2h,7, le 19 à llh,o, le 24 à 20h,3, le 30 à 5h,l ; maxima de y Cygne (2m,3-14m,3) le 1er, de BR Sagittaire (5jn,5-14m,0) le 11, de T Grande Ourse (6m,4-13m,5) le 16. — TEMPS SIDÉRAL : au méridien de Paris à 0h (T. U.) : le l«r : le 11 : 21h2om93, le 24 : 22^4m3os, le 31 :
- 22M4m0s.
- Phénomènes intéressants. — Surveiller la surface tachée du Soleil. — Du 10 au 13, lumière cendrée de la Lune, le matin. — On observera facilement dans la soirée, les anneaux de Saturne, très ouverts côté face nord. — Du 2 au 17, étoiles filantes : Perséides (radiant r, Persée), maximum le 12, on surveillera avec attention ce très bel essaim, le plus riche de l’année. — Par les soirées sans lune, observer la Voie lactée dans les constellations où elle est la plus intense : Scorpion, Ophiuchus, Sagittaire, Ecu, Aigle, Flèche, Renard, Cygne, Cassiopée.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- p.293 - vue 297/527
-
-
-
- 294
- LES LIVRES NOUVEAUX
- Introduction à l'étude de l'analyse symbolique, par Maurice Paropi (vol. A 111 du Traité de Physique théorique et de Physique mathématique). 1 vol. 15,5x24, 246 p., 49 flg, Gauthier-Villars, Paris, 1957. Prix : 3 500 F.
- L'analyse symbolique est la forme mathématiquement rigoureuse du calcul opérationnel inventé à la lin du siècle dernier par Olivier Heaviside. Ce dernier, par une intuition brillante, avait trouvé, sans en chercher la démonstration, une méthode permettant de résoudre par un calcul algébrique certaines équations différentielles de la physique. Des travaux ultérieurs ont montré que les méthodes de Heaviside pouvaient se déduire en toute rigueur des propriétés d'une transformation déjà connue à l’époque : la transformation de Laplace, L’ouvrage contient presque tout ce que le physicien moderne doit connaître à ce sujet. A ceux qui auront fait l’effort de l’assimiler, il rendra de grands services dans de nombreux domaines : électronique, télécommunications, servomécanismes, etc.
- Guide théorique et pratique de la recherche expérimentale, par René Leclercq. 1 vol. 16x25, 136 p. Gauthier-Villars, Paris, 1958. Prix : 1 400 F ; franco : 1 500 F.
- L’auteur a réuni dans cette publication toutes les données utiles à la recherche scientifique ; il considère d’abord le facteur humain : formation du chercheur, qualités que doit posséder celui-ci, puis le facteur laboratoire et enfin le facteur méthode. Il est bien certain que l’on s’initie à la recherche par la pratique de celle-ci, mais le futur chercheur ou le jeune chercheur trouveront dans cet ouvrage des idées ainsi que certaines indications pratiques intéressantes.. Les questions mathématiques abordées, erreurs, représentation graphique, etc., sont, par contre, trop succinctement traitées pour être profitables.
- Constantes sélectionnées. IST0 7 : Diamagnétisme et paramagnétisme. Relaxation paramagnétique, par G. Foëx, G.-J. Gortefl et L.-J. Smits. 1 vol. 21x27, 325 p. Masson, Paris, 1957. Prix, broché : 8 800 F ; cartonné toile : 9 700 F.
- Cette table, éditée par de grands spécialistes, est un instrument de travail fondamental pour un très grand nombre de chimistes et de physiciens. Ils y trouveront la valeur de la susceptibilité magnétique spécifique, atomique et moléculaire de tous les corps simples, alliages et composés pour lesquels ces quantités ont été mesurées, ainsi que les moments magnétiques et les points de Curie des corps simples et composés paramagnétiques. Le dernier chapitre est consacré h la relaxation paramagnétique dont l’intérêt théorique et pratique s’est révélé ces dernières années.
- Précis d'énergie nucléaire, par Gilbert Catien et Pierre Treille. Préface de Francis Perrln. 2e édition. 1 vol. 16x25, xxiv-356 p., 93 fig. Dunod, Paris, 1958. Prix, broché : 2 800 F ; relié : 3 100 F.
- Ce Précis d'énergie nucléaire, dont la première édition a été épuisée en l’espace d’un an, est déjà entre les mains de nombreux scientifiques et ingénieurs. Comme, en outre, il condense l’ensemble des notions indispensables
- concernant la physique nucléaire et ses applications industrielles, il a intéressé et continuera à intéresser le public cultivé qui désire être rapidement mais complètement informé sur ce grand sujet d’actualité. Notons que le domaine de l’énergie nucléaire évolue avec une extrême rapidité et, c’est pourquoi la deuxième édition de l’ouvrage a été notablement enrichie par rapport à la première. On y trouvera en particulier des éléments nouveaux concernant la cinétique des réacteurs à fission, la comparaison entre les divers types de réacteurs, l'absorption des rayonnements et la protection, les appareils de mesures, les applications à l’électricité et la propulsion, les recherches dans le sens de l’énergie thermonucléaire.
- L’ionosphère et l'optique géométrique des ondes courtes, par R. Dumont. 1 vol.
- 11x16,5, 100 p., 33 fig. Monographies
- Dunod, Paris, 1958. Prix, relié ; 580 F.
- La librairie Dunod nous présente la troisième de ses petites monographies qui comblent une lacune de l’édition française : il n’existait guère dans notre langue d’ouvrages présentant sous un format réduit l’essentiel des connaissances sur un sujet limité, ce qui n’exclut ni une présentation agréable ni des calculs détaillés si le besoin s’en fait sentir. L’ionosphère, dont on sait l'importance théorique et pratique, fait i’objet de ce petit livre. Après un rappel des conditions physico-chimiques qui y régnent et des causes de l’ionisation de la haute atmosphère, on aborde la propagation des ondes radio dans l’ionosphère, puis les méthodes d’investigation de cet. ensemble de couches : sondages ionosphériques, mesures de la recombinaison au cours des éclipses de soleil, de l’absorption, des fluctuations du champ magnétique terrestre, mesures optiques et exploration directe au moyen de fusées. Les variations d’aspect- des couches ionosphériques, en dépendance étroite avec l’influence solaire, sont traitées dans un autre chapitre. Enfin, l’on voit
- ----- A NOS LECTEURS ----------------j
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- comment la propagation des ondes radio est liée à l’Ionosphère.
- Mécanique des fluides. Théorique, par Maurice Giqueaux. 2e éd. revue et augmentée avec la collaboration d’Àdalbert Oudart.
- I vol. 16x25, 426 p., 134 fig. Ch. Béranger, Paris, 1957. Prix, relié ; 8 800 F.
- Depuis l’avènement de l’aviation, la mécanique des fluides a pris une importance qui ne s’est jamais arrêtée de croître. Les auteurs présentent les résultats désormais classiques dans ce domaine: Par rapport à la lre édition, on remarquera particulièrement les paragraphes consacrés à la couche limite. Ce livre, qui se place au niveau de la licence, traite plus spécialement les problèmes d’aérodynamique et sc présente .comme une excellente introduction à certaines questions plus particulières (écoulement autour d’un aile, théorie de l’hélice, etc.).
- Nouveau Traité de Chimie minérale, publié sous la direction de Paul Pascal, membre de l’Institut, professeur honoraire à la Sorbonne. Tome lit. Groupe I a (suite) : Rubidium, Césium, Francium ; Groupe l b : Généralités, Cuivre, Argent, Or, par MM. R. Gollongues,
- L. il ACKSPILL, P. HaGENMULLER, A. IlÉROLTT, J. Isably, P. Pascal, M. Perey. 1 vol. 17x25,5, 838 p., 73 fig. Masson, Paris, 1957. Prix, broché : 6 000 F ; cartonné toile : 6 900 F.
- On trouve d’abord dans ce volume la suite des cléments du sous-groupe I a (rubidium, césium, francium) dont les premiers (lithium, sodium, potassium) font le sujet du tome 11, non encore paru. Le rubidium et, le césium se trouvant réunis dans les minerais, leur état naturel, leur extraction, leur préparation et leurs alliages ont été traités en un même chapitre ; leurs propriétés et leurs sels sont étudiés séparément. 130 pages leur sont consacrées. 10 pages suffisent pour le francium, élément « artificiel » ici étudié par MIle M. Perey, qui fut la première à le mettre en évidence au cours de recherches sur l’actinium. La majeure partie du volume est remplie par l'étude des trois éléments du sous-groupe I b, cuivre, argent or, qui contrastent remarquablement avec ceux du sous-groupe a, au point que leur rapprochement fut une difficulté pour l’adoption du système périodique. Gomme dans les autres volumes, la description des procédés industriels a été allégée, au profit des notions plus purement chimiques. Une bibliographie considérable, classée avec méthode, achève de faire de ce Nouveau Traité un instrument indispensable pour tous les chimistes. Notons qu’il est annoncé que le tome AI contiendra seulement l’arsenic, l'antimoine et le bismuth, le nouveau tome AÏI accueillant le vanadium, le niobium, le tantale et le protoactinium. Le Traité comprendra donc 19 volumes.
- A guide to the literature of Chemistry, par
- E. J. Crâne, Austin M. Patterson et Eleanor IL Marr. 2° édition, 1 vol. 15x24, xvi-397 p. John Wiley and Sons, New York, 1957. Prix, relié : 9,50 dollars.
- II est extrêmement rare qu’on puisse entreprendre des recherches en chimie comme en toute autre discipline sans avoir à procéder à une documentation plus ou moins complète ;
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- [Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7*
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d'Etat.
- Brevet de Technicien d'Analyses Biologiques, Biochimistes, Biologistes.
- Court du |our — Cours du soir
- Section d'enseignement " à domicile " f Joindre timbre pour notice)
- §
- VIENT DE PARAITRE
- Cours de Botanique générale de D. Bach
- Tome III
- PHYSIOLOGIE ET BIOLOGIE DES PLANTES VASCULAIRES
- lrc partie : NUTRITION ET MÉTABOLISME par M. MASCRÉ
- Professeur à la Facullé de Pharmacie de Paris
- Un volume in-8° raisin, 318 pages, 32 figures................ 1 750 F'
- Déjà parus :
- Tome I. — Organisation et reproduction des plantes vasculaires.
- Un volume in-8° raisin, 428 pages, 209 figures............... 1 750 F
- Tome II. — Classification des plantes vascplaires.
- Un volume in-8° raisin, 439 pages, 126 planches.............. 1 750 F
- société d’édition d’enseignement supérieur
- 5, Place de la Sorbonne, PARIS-5*
- p.294 - vue 298/527
-
-
-
- 295
- la technique de la documentation s’acquiert, comme la recherche elle-même, par la pratique, mais cet apprentissage peut être considérablement facilité et accéléré par d’utiles conseils ou par la consultation d’un ouvrage tel que celui-ci, qui a précisément rassemblé tous les renseignements indispensables à celui qui veut rapidement s’initier à l’utilisation rationnelle des traités, périodiques, recueils d’extraits, brevets, etc., qu’il trouvera dans les bibliothèques.
- Technique of Organic Chemistry. Vol. X : Fundamentals of Chromatography, par
- Harold Gomes Gassidy. 1 vol. 15,5x23,5, xvni-447 p-, fig. Interscience Publishers, New York, 1957. Prix, relié : 9,75 dollars.
- Ce volume, qui fait partie d’une série d’ouvrages consacrés aux diverses techniques utilisées en chimie organique, traite d*e la chromatographie, méthode qui depuis quelques années a connu un très grand développement et à laquelle la chimie organique est redevable de belles découvertes. Après un exposé général de la théorie de la chromatographie, on trouve la description des diverses mélhodes cliromuto-graphiques el l’indication de certaines applications. Ouvrage très bien présenté et très documenté.
- Cahiers de synthèse organique, par Jean Matiuisu et André Alla:s, avec la collaboration de MM. J. Vam.s et P. Poirier. La série complète comprendra environ dix volumes 15,7x22,5, nombreux tableaux. Masson, Paris, 1957. 3 volumes parus : Volume I. 232 p. Prix, broché : 3 800 F ; cartonné toile : 4 200 F. Volume TT. 322 p. Prix, broché : 4 000 F; cartonné toile : 4 400 F. Volume III. 266 p. Prix, broché : 4 200 F ; cartonné toile : 4 600 F.
- Lors de la présentation de l’ouvrage Principes de synthèse organique, nous avions annoncé la parution de ces Cahiers de synthèse organique dont le but est de préciser de façon systématique les réactions qu’effectue couramment le chimiste organicien. La collection, qui comprendra une dizaine de tomes d’environ 300 pages chacun, constituera un véritable traité de synthèse organique comportant quatre parties principales : élaboration, dégradation el
- transposition des structures, cyclisations. Chacune de ces parties est divisée en plusieurs chapitres homogènes traitant d’une transformation déterminée, par exemple : Fixation d’un carbone fonctionnel, arylation, etc. Les differents chapitres débutent par un tableau synoptique des schémas réactionnels ; on trouve ensuite une introduction dégageant les principes généraux, un aperçu du mécanisme probable, des méthodes indirectes el des applications possibles. Chaque réaction comporte une analyse des conditions expérimentales, des réactions secondaires, du domaine d’application et de l'influence de la structure et des substitutions. Enfin, après chaque chapitre, figure un tableau réunissant de nombreux exemples ; H en résulte une abondanle bibliographie, à jour jusqu’en 1955, qui évitera le plus souvent des recherches fastidieuses.
- Ce mode de présentation logique et original a permis de réaliser un ouvrage particulièrement aisé à consulter et ce n’est pas le moindre mérite (les ailleurs car les réactions de la chimie organique sont si nombreuses que sans une méthode de classification rigoureuse le traité serait devenu un labyrinthe dont il aurait été bien difficile de sortir. Le fait que chaque chapitre comporte une partie proprement didactique et une partie expérimentale (d’ailleurs beaucoup plus importante) confère à ce traité un double intérêt : il est à la fois le document à consulter lorsque se pose un problème pratique de synthèsee, et l’exposé suivant un plan nouveau et original des réactions et des méthodes de la chimie organique. II présente par suite un intérêt pédagogique certain. Vous pensons que celte collection remportera le succès qu’elle mérite, ce qui sera pour leurs auteurs un encouragement à maintenir l’actualité de leur publication par une mise au point périodique.
- The chemistry of organometallic compounds,
- par E. G. Rocnow, D. T. Hurï> et K. N. Lewis.
- 1 vol. 15,5x23,5, vin-344 p., 9 fig. John
- Wiley and Sons, New York, 1957. Prix,
- relié : 8,50 dollars.
- Ou connaît l’importance fondamentale des composés organométalliques dans la synthèse des substances organiques ; aussi cette publication
- qui fait le point des connaissances actuelles sur ces composés sera-t-elle bien accueillie par les chimistes. Les auteurs n’ont supposé chez le lecteur aucune connaissance particulière du sujet et cet ouvrage commence par un chapitre très général sur les propriétés physiques et chimiques des composés organométalliques. Dans le second chapitre les différents types de liaisons métal-carbone sont décrits d’une manière très complète, le troisième étant consacré aux méthodes générales de préparation des organo-métàlliques. Le reste de l’ouvrage constitue une étude systématique des composés organo-métalliques rangés d’après la classification périodique des éléments. Les propriétés physiques des différents composés sont très clairement rassemblées en tableaux à la fin de chaque étude, ainsi que les références bibliographiques très complètes et «à jour jusqu’en 1956. Un chapitre sur t’utilisation des composés organo-métalliques en synthèse organique, et un chapitre sur les composés organométalliques de types spéciaux tels que ceux contenant du fluor, les métaux carbonyles, les complexes formés par carbures éthyléniques avec certains métaux, les hydrures, complètent ce livre qui se termine par un bref exposé des techniques particulières nécessitées par la préparation des organomé talliques.
- Steric Effects in Organic Chemistry, par
- Melvin S. Newman. 1 vol. 15,5x24, vm-710 p.,
- fig. John Wiley and Sons, New York, 1956.
- Prix, relié toile : 12,50 dollars.
- La question de l’empêchement stérique a été Fune des premières manifestations de l’importance de la structure en chimie mais le champ des phénomène? stériques s’est considérablement étendu avec les questions de polarité et d’effets de résonance ; ce sont ces divers aspects que passe en revue, en treize monographies dues à la plume de quatorze spécialistes, cet ouvrage qui constitue une excellente mise au point sur l’effet stérique dans les diverses réactions de la chimie organique.
- Kohlechemie, par Heinz Nedelmann. 1 vol.
- 19x24, 62 p., ill. West-Verlag, Essen, 1956.
- Prix, relié : 10 DM.
- Exposé succinct, agrémenté d’illustrations, de
- LES NOUVEAUX
- GUIDES du NATURALISTE
- Des guides pratiques dont les illustrations reproduisent fidèlement les couleurs de la nature. Ils rassemblent une documentation abondante et exacte qui sera précieuse aux amateurs.
- Chaque volume, format 12 x 18, est présenté sous couverture souple, plastifiée, en couleurs.
- LES OISEAUX
- S. Durango et Dorst Prix : 990 F
- FLEURS DE JARDIN
- P. et S. Jovet et R.. Lowenmo Prix : 990 F
- LES INSECTES
- B. O. Landin Prix : 885 F
- LES POISSONS
- H. Hvass et J. Guibé Prix : 885 F
- Catalogue illustré sur simple demande
- FERNAND NATHAN
- /
- I8, Rue Monsieur-le-Prince PARIS VIe
- p.295 - vue 299/527
-
-
-
- 296
- schémas et de tableaux, sur les industries dérivées de la houille : cokéfaction, carbonisation à basse température, gazéification, synthèse de l'essence par hydrogénation ou par le procédé Fischer, synthèse de l’alcool méthylique.
- Pire protection for Chemicals, par Charles W. Bahme. 1 vol. 14x22, 147 p. National Fire Protection Association, Boston, 1956. Prix, relié : 3 dollars.
- Le développement considérable de l’industrie chimique, et le nombre croissant de produits dangereux fabriqués, transportés et utilisés exigent qu’on connaisse exactement les dangers qu’ils peuvent engendrer et les précautions que nécessitent leur préparation, leur stockage, leur transport et leur emploi. On trouvera d’utiles indications sur ce sujet dans cet ouvrage où les principaux produits chimiques dangereux, toxiques ou inflammables sont examinés.
- Les Océans, par Jules Rouen. 1 vol. 11x17, 216 p., 14 fi g. Armand Colin, Paris, 1957. Prix : 360 F.
- Cette courte monographie, qui fait partie de la collection Armand Colin, apporte un résumé des méthodes océanographiques et des notions essentielles sur les profondeurs, la nature des fonds, la température, la composition chimique et les mouvements de la mer. Écrit par un des principaux ' représentants de l'océanographie française, il sera utilement consulté par tous ceux qui s’intéressent à cette science.
- Vents, nuages et tempêtes, par Jean Besse-moulin et Roger Glausse. 1 vol. 14x19, 342 p., 77 fig., 21 photos hors texte. Plon, Paris, 1957. Prix : 1 500 F.
- La Météorologie se présente à la fois comme une science et comme un art. La prévision du temps, avec tous ses aléas, est un art dans la mesure où elle fait encore appel à l’appréciation individuelle, à l’intuition. Ces aléas tiennent à la nature des choses et, à lire cet excellent livre de deux spécialistes, on comprend que ce qui est réclamé des météorologistes est à la limite de la gageure. Cependant, les services rendus journellement à une foule d’utilisateurs, aux exigences très diverses, sont indéniables et aisément chiffrés. Ce livre donne une idée très utile de la science, du talent et de l’énorme travail que cela représente.
- Fleurs de jardin, par Runo Lowenmo, Paul Jovet et S. Jovet-Ast (Coll. Guides du Naturaliste) 1 vol. 12x18, 206 p., 511 illustrations en couleurs de Yerner Hanche, en 128 planches. Couverture plastifiée en couleurs. Fernand Nathan, Paris, 1957. Prix : 990 F.
- Utile répertoire des fleurs usuelles, finement représentées et définies par des notices donnant brièvement les indications pratiques pour leur culture.
- Les Oiseaux, par S. Dürago et J. Dorst (Coll. Guides du Naturaliste). 1 vol. 12x18, 206 p., 257 illustrations en couleurs de Karl Aage Tinggaard, en 128 planches. Couverture plastifiée en couleurs. Fernand Nathan, Paris, 1957. Prix : 990 F.
- 257 espèces d’oiseaux, les plus communes parmi notre faune, sont représentées avec la plus grande précision. La notice qui concerne chacune d’elles a été établie avec non moins de précision par l’artiste et M. Dorst, sous-directeur au Muséum d’Histoire naturelle.
- La race humaine, de la préhistoire à la civilisation gréco-romaine, par W. Howells, professeur à l’Université Harvard. 1 vol. 14x23, 384 p., 58 fig. et cartes. Payot, Paris, 1957. Prix : 3 300 F.
- L’éminent anthropologiste américain nous présente un résumé très vivant du développement de l’humanité depuis ses origines, prenant pour point de comparaison les Êtres qui sont les plus proches de nous, les singes. Sans négliger révolution anatomique, c’est surtout l’évolution des structures sociales et des cultures qu’il a voulu faire revivre, cherchant constamment à définir ce qui caractérise l’homme dans ses stades successifs, ce qui. l’a fait émerger de l’animalité d’abord, ce qui a été pour lui condition ou occasion de progrès. Quelrmes tableaux d’anciennes cultures, les derniers chasseurs, les premiers agriculteurs, les pasteurs et agriculteurs africains, les premiers Américains, les berceaux de la civilisation en Asie, sont brossés vigoureusement.
- Nordiskatlas, par H. Ahlmann, T. Lagerstedt, S. Garland, G. Lundqvtst et G. Mannerbelt. 1 vol. 22x32. 64 p. de cartes en couleurs, index de 8 300 noms. Svenska Bokforlaaret, Stockholm, 1957. Prix, cartonné : 12,5 krone.
- Atlas scolaire destiné aux étudiants suédois. Sans atteindre à la qualité de présentation des atlas Weslermann allemands, cette réalisation Scandinave se. place au niveau des meilleurs atlas français (elle ne manque pas d'an;.logie avec VA lias Gourou). Les couleurs sont fines et agréablement réparties, l’ensemble est fort clair et lisible (le relief en particulier est très bien dessiné). Excellentes cartes sur les pays Scandinaves, comme il est naturel.
- Les grandes puissances économiques, par J. Chardonnet. T. I. : L’Europe. 1 vol. 13,5 x 20, 618 p. Dalloz, Paris, 1957 (nouvelle édition augmentée). Prix, broché : 2 000 F.
- Édition considérablement revue et augmentée d’un ouvrage destiné aux étudiants de Sciences Politiques, mais qui intéresse aussi tous les économistes, hommes d’affaires, professeurs, etc., préoccupes de l’évolution de la situation européenne et désireux de se documenter sur des problèmes d’apparence parfois complexe. Après un inventaire des forces et des faiblesses économiques de l’Europe, l’auteur dresse un bilan des ressources propres à chaque pays. Les statistiques sont de 1955, une imposante bibliographie termine l’ouvrage. D’excellents passages concernent la Sarre, la D.D.R., le Benelux, l’Italie, la Grande-Bretagne. Le tome II (Le Monde) doit paraître ultérieurement.
- PETITES ANNONCES
- (190 F la ligne, taxes comprises. Supplément de 100 F pour domiciliation aux bureaux de la revue).
- RECHERCHE, comme co-auteur, écrivain connaissant biologie pour traduire en français et élargir ouvrage de 40 000 mots anglais : Critical Notes on Evolution (voir La Nature, mars 1958, p. 120), en vue d’en faire une édition populaire.
- Prière s’adresser à l’auteur : William
- L. FISCHER, München 2 (Allemagne), Gabel-bergerstrasse 30.
- AIDE-MEMOIRE DUNOD MÉTROLOGIE GÉNÉRALE
- PAR
- M. DENIS-PAPIN J. VALLOT
- Tome I. — 367 pages 10x15, avec 49 figures.
- 3e édition. 1955. Relié............. 580 F
- Tome IL — 320 pages 10x15, avec 5 figures. 3° édition. 1955. Rélié ................ 580 F
- AIDE-MÉMOIRE DUNOD MÉTROLOGIE APPLIQUÉE
- PAR
- M- DENIS-PAPIN J. VALLOT
- Avec la collaboration de A. FOUILLÉ.
- 424 pages 10x15, avec 236 fig. 29 édition. 1954. Relié ................................... 580 F
- En librairie et chez
- DUMOD 92, r. Bonaparte, Paris. CCP Paris 75-45
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 3e trimestre iq58, n° 3i5ô. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 3785. — 7-1958.
- p.296 - vue 300/527
-
-
-
- N° 3280
- Août 1958
- A NATURE
- A L’EXPOSITION DE BRUXELLES (suite) (l>
- QUELQUES PRÉSENTATIONS DU PALAIS INTERNATIONAL DE LA SCIENCE
- LE CYCLE DU FER DANS L'ORGANISME RÉVÉLÉ PAR LE MICROSCOPE ÉLECTRONIQUE
- Fi®. 1- — Digestion d’un globule rouge, au microscope électronique.
- On voit les molécules de ferrltine apparaître autour du'globule, puis se
- grouper en amas.
- Les travaux du laboratoire de cytologie du Centre national de Transfusion sanguine et de l’Ecole pratique des Hautes Éludes ont porté principalement depuis deux ans sur la molécule de territine.
- On sait que les microscopes électroniques à haute résolution permettent actuellement de voir avec une relative facilité des objets qui n’ont que i5 A de diamètre. Avec ce pouvoir de résolution, presque toutes les molécules organiques sont théoriquement visibles ; un pouvoir de résolution plus grand n’intéresseïait plus la biologie, mais la chimie proprement dite. Le microscope électronique permet donc d’établir le lien qui manquait jusqu’à présent entre la morphologie et la biochimie : au niveau de io A, la .morphologie, la biochimie et la physiologie se rencontrent. Toutefois, il faut bien avouer que nous ne pouvons
- 1. Nous avons publié en juillel un ensemble d’articles intéressant la science à l’Éxposilion de Bruxelles et quelques-unes des présentations les plus remarquables du Pavillon français, ainsi qu’un exposé de M. Francis Perrin, haut-commissaire à l’Énergie atomique, sur la présentation française au département « Atome » du Palais international de la Science. Nous donnons ici quelques présentations du Palais international de la Science et des sections nationales, nous réservant de publier ultérieurement les exposés qui n’auront pu trouver place dans ces deux numéros.
- pas encore voir toutes les molécules que l’on devrait voir, si l’on ne tenait compte que du pouvoir de résolution du microscope. Nos techniques de préparation ne permettent pas encore d’arriver à ce résultat.
- Il est cependant un cas où, grâce à une heureuse disposition naturelle, on peut voir une molécule dans les tissus : il s’agit de la molécule de ferritine. C’est la molécule la plus riche en un métal de toute la biochimie; elle contient 23 pour ioo environ de fer. Or, le fer est opaque aux rayons électroniques. On a donc une image très contrastée; mais ceci n’est pas tout : le fer est disposé dans la molécule de ferritine d’une manière caractéristique : il est réparti en quatre amas situés aux quatre coins d’un petit carré de 5o À de côté (fig. x et 2). La molécule est donc facile à identifier, les chimistes l’ont montré. Or,
- Fig-, 2. — Les molécules de ferritine au grossissement de 638 OOO diamètres.
- p.297 - vue 301/527
-
-
-
- 298
- Fig. 3. — Schéma de la digestion des globules rouges après phagocytose.
- En A, différents stades de la digestion d’un globule rouge par une cellule réticulaire macrophage. L’érythrocyte est capté (à gauche) par la cellule, puis progressivement digéré. Ceci se traduit par l’apparition de vacuoles de plus en plus grandes dans le globule, puis par l’hémolyse el la fragmentation des stromas. En meme temps, des granules ferrugineux apparaissent et se concentrent en petites masses noires.
- En 11, cellule réticulaire chargée de fer de réserve (hémosidérine-ferriline). La cellule contient des granules ferrugineux groupés en amas dont certains sont cristallisés. Le cytoplasme contient de nombreux granules ferrugineux dispersés.
- Fie. 4. — Hémosidérine et ferritine.
- En A., agrandissement de la figure précédente. En haut, un amas d'hémosidérine, en bas un cristal de ferritine. On distingue l’alignement des molécules dont l’ultra-structure est montrée sur le schéma B. En B, ultra-structure de la ferritine. Chaque grain de ferritine présente quatre amas ferrugineux.
- Fig. 5. — Distribution du fer aux jeunes globules rouges.
- En A, îlot érylhroblastique : cellule réticulaire entourée d’érythroblastes. La cellule réticulaire, bourrée de granules ferrugineux, se trouve au centre de l’îlot d’érythroblastes, qui l’entoure de toutes parts. En B, agrandissement de la figure précédente : pénétration des molécules de ferri-line. Fer dans les mitochondries. On voit les molécules de ferritine provenant de la cellule réticulaire pénétrer dans le cytoplasme de l'érythroblasle (par pinocytose) puis dans les mitochondries. Dans la mitochondrie de droite, le fer n’est plus sous forme i'erritinique, mais sous une forme dispersée. Elle se désagrège et libère ce fer dans le cytoplasme.
- on retrouve cette molécule avec son aspect si particulier dans les cellules. On peut la suivre dans le. cytoplasme cellulaire, on peut voir sa morphologie se modifier. On peut, pour la première fois, faire de la cyloehimie à l’échelle moléculaire.
- Digestion des érythrocytes, apparition. de ferritine et d’hémo-sidérine. — Sur des coupes de moelle osseuse, on peut suivre avec une grande facilité la phagocytose des globules rouges par les cellules réticulaires, puis leur digestion. Au cours de cette digestion apparaissent de petites granulations de 5o  de diamètre environ, qui diffractent fortement les électrons et apparaissent donc en noir. Ces granulations augmentent en nombre au cours de la digestion et se dispersent dans le cytoplasme de la cellule réticulaire. Un fort grossissement montre que ces granules ferrugineux sont des molécules de ferritine (Jig. 3 et 4).
- Incorporation du fer par les érythroblastes. — Dans d’autres
- champs de la préparation de la moelle osseuse, on voit d’autres cellules réticulaires, remplies de ces granulations ferrugineuses, s’entourer d’une couronne de jeunes érythroblastes. Les granulations ferrugineuses passent de la cellule réticulaire dans les jeunes érythroblastes, et participent à la synthèse de l’hémoglobine (fîg. 5).
- Dans certaines anémies, on voit une grande quantilé de granules ferrugineux dans les globules rouges du sang circulant : ces globules rouges ont une charge normale de fer, mais ils restent à l’état non hémoglobinique. Le fer rentre bien dans le globule rouge, mais il est incapable de participer à la synthèse de l’hémoglobine.
- Marcel Bessis,
- Directeur du Laboratoire de Cytologie du Centre National de Transfusion Sanguine.
- p.298 - vue 302/527
-
-
-
- 299
- La Radiobiologie
- Comme son nom l’indique, la radiobiologie étudie les effets produits dans les cellules vivantes exposées aux irradiations. Ces effets dus aux réactions chimiques très diverses provoquées par le passage des radiations à travers les cellules vivantes (ionisation, formation de radicaux libres, etc.) sont de deux ordres : certains sont décelables peu après l’irradiation; d’autres, qui sont des transformations héréditaires, n’apparaisssent que beaucoup plus tard; ils sont dus à des modifications permanentes des chromosomes : ce sont des mutations.
- De. nombreuses expériences montrant les effets des radiations sur les cellules vivantes sont présentées au Palais international de la Science; certaines sont assez classiques comme les mutations de la mouche Drosophila melanogasler; sur d’autres plus récentes, nous donnerons quelques détails.
- Un exemple assez spectaculaire est le changement de coloration de fleurs par irradiation. 'Les expériences ont utilisé des œillets blancs. Après avoir été soumises à une irradiation, quelques branches ont subi des modifications profondes et produisent des fleurs rouges. C’est ainsi qu’on peut voir des plantes qui portent à lu fois des fleurs blanches et rouges. A partir de ces branches rouges, on obtient ensuite des fleurs rouges indéfiniment.
- L’irradiation est utilisée pour l’obtention de mutants en agriculture. La maladie de la « rouille de Victoria », par exemple, attaque et tue toutes les jeunes plantes d’avoine. Des expériences ont été entreprises afin de produire des semences qui résistent à cette maladie. Pour cela, on soumet des graines à une irradiation, puis on les repique et on les infecte. La plupart des plantes meurent, mais quelques-unes subsistent. Ces survivantes sont cultivées jusqu’à maturité. On .collecte les semences, on les plante et on les infecte à nouveau. Toutes les plantes obtenues de cette façon résistent à la maladie. L’irradiation a donc produit des mutants doués d’une résistance totale à la maladie, résistance qui sera transmise à toutes les semences provenant de ces mutants. Bien qu’une mutation sur mille environ soit bénéfique, cette méthode est assez rapide et permet dans bien des cas d’obtenir à coup sùr la variété désirée; elle connaîtra certainement un développement important en agriculture au cours des années à venir.
- Des recherches récentes ont été entreprises afin d’étudier l’influence de l’oxygène sur les dommages causés aux cellules vivantes par les radiations ionisantes. On a constaté que la présence d’oxygène augmentait considérablement les effets des
- radiations X et y. C’est ainsi qu’on peut voir deux boîtes de Pétri contenant le même nombre de bactéries initialement et qui furent exposées à la même irradiation. L’une contenait de l’oxygène, l’autre non. On constate que le nombre de bactéries détruites est beaucoup plus grand en présence d’oxygène. Pour avoir dans les deux boîtes le même nombre de bactéries détruites, il a fallu tripler la dose de radiation pour celles qui étaient privées d’oxygène. Le mécanisme de cette sensibilisation par l’oxygène n’a pas encore été élucidé. Cependant on a montré que l’oxyde nitrique avait la même action que l’oxygène. Ce phénomène aura des conséquences médicales certaines. C’est ainsi que des cellules cancéreuses déficientes en oxygène peuvent être détruites plus facilement par irradiation grâce à l’apport de cet élément.
- *
- * #
- La .protection contre les radiations est un des problèmes majeurs de notre époque. De nombreuses études ont été effectuées dans ce sens et on a constaté que les cellules pouvaient être protégées contre l’action des radiations ionisantes éparses telles que les rayons X si l’irradiation est effectuée en présence de certaines substances chimiques telles que la cystéamine N1I2 — CH2 — CII2 — SH. Dans la plupart des cas, les effets des radiations sont réduits de moitié environ. Ce fait se retrouve aussi bien chez les bactéries et les plantes que chez les animaux supérieurs. Les effets sont cependant meilleurs sur les bactéries. La protection est moins bonne avec les neutrons et elle est presque nulle avec les autres particules.
- Le mécanisme de la protection n’est pas encore tout à fait connu, mais on pense que ces substances interviennent lors d’un des premiers stades de l’action des radiations, probablement par la captation des radicaux réactifs produits par ionisation. En effet, les agents protecteurs n’agissent que s’ils sont appliqués avant l’irradiation; s’ils sont appliqués ne serait-ce que quelques secondes après, ils n’ont plus aucune action. D’autre part, l’action est plus efficace si l’application est effectuée immédiatement avant l’irradiation. Or, on sait que le temps qui s’écoule entre l’irradiation et la formation d’un radical libre est d’environ io-6 seconde. Si l’agent protecteur fonctionne par enlèvement de ces radicaux, il ne sert évidemment à rien de les appliquer même quelques secondes seulement après l’iiTadiation.
- R. R.
- Déminéralisation de l'eau de mer par électrodialyse
- La production d’eau douce à partir d’eaux plus ou moins chargées en sels minéraux a toujours été un problème très important et on a vu apparaître ces dernières années de nombreux appareils permettant la déminéralisation de l’eau (voir La Nature, mars 1958, p. 108). Le procédé par électrodialyse est basé sur le principe suivant : on connaît des membranes constituées de très fines feuilles de matière plastique dont certaines laissent passer les cations, tels que l’ion sodium Na+, tandis que d’autres ne laissent passer que les anions, tels que l’ion chlorure Cl-, ceci sous l’influence d’un champ électrique. Le schéma de la figure montre le principe du procédé. Lorsqu’on fait passer le courant entre les deux électrodes, les ions passent à travers les membranes et l’eau entre les deux feuilles de plastique devient douce. Au contraire, entre les électrodes et les membranes, l’eau se charge en sels. Un appareil présenté au Palais de la Science,' appelé « Aquamite Demineralizer » produit en état de régime une eau douce contenant moins de
- Fig. 6. — Principe
- de la déminéralisation par électrodialyse.
- o,o5 pour 100 de sel à partir d’une eau qui en contient 0,8 pour 100, c’est-à-dire une eau 4 fois moins concentrée que l’eau de mer. R. R.
- p.299 - vue 303/527
-
-
-
- 300
- Micro manipulation
- Ces dix dernières années ont vu, dans les recherches microscopiques en général et peut-être plus particulièrement en biologie, s’imposer les techniques de micromanipulation. 'La physiologie cellulaire, la neurologie, la microbiologie, l’ophtalmologie, la cristallographie, des recherches sur les alliages, sur le givrage, sur la turbulence de l’air aux grandes vitesses, par exemple, ont bénéficié de la micromanipulation. Ces recherches aboutissent parfois à d'importantes applications pratiques. A ce dernier point de vue, il convient de faire une place à part au Teneclron, sans doute appelé à remplacer le transistor. Cet étonnant amplificateur aux allures microscopiques, conçu par M. T ’cszner, aurait été réalisé avec le secours de la micromani-pulalion (Pierre Devaux, Le Figaro, g janvier 1968).
- Deux appareils complémentaires l’un de l’autre, le micromanipulateur pneumatique et la microforge, en mettant à la portée de tous une technique réputée difficile sont, semble-t-il, à l’origine de ce remarquable essor.
- Un micromanipulaleur est l’indispensable relais de mouvements qui permet d’utiliser avec précision et commodité de minuscules outils ou micro-instruments dans les préparations microscopiques. Les types les plus divers de transmissions ont été ou sont encore utilisés : mécaniques, hydrauliques, électriques, plastiques, pneumatiques... Leur description demanderait un volume. Tous réalisent, avec plus ou moins de bonheur, des mouvements démultipliés dans les trois directions de l’espace.
- Le micromanipulateur pneumatique, toujours particulièrement bien adapté à sa fonction, est utilisable dans toutes sortes d’interventions : sur la cellule (Bacilles, Protozoaires, cultures de tissus, œufs, etc.), aussi bien que sur des particules de matières inertes (cristaux, poudres, poussières) ou encore pour réaliser de minuscules montages. Nous n’entrerons pas ici dans le détail de son mécanisme. Disons seulement qu’il est essentiellement constitué par une association de trois pompes à simple effet reliées, de manière souple et étanche, à trois capsules obturées par des membranes métalliques déformables selon les modifications de la pression de l’air enfermé dans chaque système. Les mouvements des membranes (une par direction de l’espace)
- i /Jjrf
- sont directement enregistrés par le micro-instrument. Les pompes sont mues par l’intermédiaire d’un levier oscillant autour de sa base. Les mouvements de la main qui agit sur cet unique levier de commande sont automatiquement reproduits, mais à très petite échelle, par le micro-instrument travaillant dans la préparation microscopique (fig. 7).
- Et comme à volonté, ces mouvements sont rendus de même sens ou inversés (donc adaptables aux divers systèmes optiques) comme, d’autre part, l’opérateur peut les réduire en amplitude proportionnellement aux grossissements choisis pour leur contrôle, le micro-instrument, vu dans le microscope, répond apparemment avec même amplitude et même direction que la main qui le sollicite. Sans donc modifier ses gestes habituels, presque sans apprentissage, une personne non initiée est d’emblée capable de « micromanipuler » fort adroitement.
- Mais il ne suffît pas de pouvoir manœuvrer avec sûreté des micro-instruments. Encore faut-il à tout moment être à même de se procurer ces microscopiques et fragiles outils. Ils doivent répondre à de rigoureuses caractéristiques, d’avance déterminées par l’opérateur et qui, du reste, varient largement avec l’échelle des sujets étudiés. C’est à ces nécessités capitales que s’efforce de répondre la microforge.
- Cet instrument (fig. 8) est en quelque sorte un micromanipulateur auxiliaire spécialement adapté au travail du verre (et autres substances) à l’échelle microscopique. Avec la plus grande précision, sous le contrôle permanent d’un microscope, partie constituante de la microforge, il permet de réaliser tout le minuscule outillage utile aux micro-opérations : aiguilles de formes très diverses, scalpels, pipettes calibrées, crochets, anses, etc.
- Les divers mouvements sont obtenus au moyen de vis et de crémaillères : mobilisation de l’objet en façonnage ou de la source chauffante, mise au point du microscope. Un mince fil de platine iridié, traversé par un courant électrique dosé par rhéostat, constitue la source chauffante, le foyer de la microforge. C’est en déplaçant ce dernier dans le champ que l’on agit sur les minces tiges de verre, choisies pleines ou creuses, d’après l’objet à réaliser. Cette action peut alors s’opérer soit
- Fig. 7 (à gauche). — Micromanipulateur de Fonbrune en action. La main droite de l’opérateur dirige les micro-instruments situés sous le microscope, à l’intérieur de la chambre à huile ; l’autre main actionne la pompe à micro-injections. — Fig. 8 (à droite). — Microforge de Fonbrune. Cet appareil permet de réaliser avec de minces tiges de verre, par fusion et étirage, par ruptures dirigées, par pintrage, etç., les
- divers mipro-instruments utilisés avec le micromanipulateur (Photos Y. Duhand),
- p.300 - vue 304/527
-
-
-
- 301
- Fig. 9 (en haut à gauche). — Séparation de microbes au moyen d’une micropipette. La pipette (diamètre 2 p.) a déjà servi à prélever deux
- microbes avec un peu de liquide et à les déposer hors de la goutte de culture. Autre germe sur le point d’être aspiré dans l’instrument. —
- Fig. 10 (en haut à droite). — Étude d’une amibe. La cellule est immobilisée à l’aide d’une fourchette de verre. Un petit crochet est utilisé pour extraire le noyau (grand diamètre 35 u). — Fig. 11 (en bas à gauche). — Greffe nucléaire sur Amœba sphæronucleus. Deux Amibes sont maintenues l’une contre l’autre. Au moyen d'une tige de verre, le noyau d’une cellule est poussé vers l’autre où il pénétrera par rupture simultanée des surfaces cellulaires distendues. — Fig. 12 (en bas à droite). — Micro-injection de colchicine contre le noyau d’une amibe en voie
- de division. Blocage de la migration des chromosomes. Obtention de variétés géantes (Photos Y. DunANn).
- à distance, par rayonnement du ûl incandescent, soit en amenant celui-ci au contact même du verre. La température du foyer et le mouvement qui lui est imprimé étant à la discrétion de l’opérateur, il est déjà presque évident, que les formes susceptibles d’être obtenues sont infiniment variées. Ce ne sont d’ailleurs pas les sevds éléments dont dispose l’opérateur au cours de ses minuscules fabrications.
- En effet, selon les formes à obtenir et le degré de finesse à atteindre, on recourt à divers artifices ou tours de main très simples; par exemple : emploi d’un jet d’air froid dirigé sur la pièce en chantier pour restreindre considérablement la portion fondue; utilisation de la rétraction du filament, par interruption du courant de chauffage, afin de réaliser une micro-cisaille capable de sectionner un tube ou une tige pleine en un point précis; emploi de la pesanteur pour étirer les tubes jusqu’à des diamètres déterminés d’avance (pipettes); emploi de la tension superficielle du verre fondu (microboules) ; modifications en plus ou en moins de la surface chauffante; modification de la pression d’air dans les tubes de verre (microsoufflage) au moyen d’une seringue d’un modèle particulier sur laquelle nous revenons un peu plus loin, etc.
- C’est en forgeant qu’on devient forgeron. Mais, paradoxe, l’art du microforgeron se révèle autrement prompt à posséder. Après seulement quelques heures d'apprentissage ( le novice est tout surpris de pouvoir réaliser une micro-aiguille,' une micropipette, un microscalpel et parfois beaucoup d’autres formes parfaites en tous points. Le travail à la microforge est loin d’être fastidieux. Il a même quelque chose de fascinant; il
- montre la matière sous des aspects assez insolites et pose de nouveaux problèmes.
- Revenons à la pompe utilisée pour le microsoufflage du verre, car elle n’est pas limitée à cet unique usage. Cette petite pompe à double effet, servant indifféremment à comprimer ou à détendre des volumes d’air variables, à les maintenir ou à les libérer plus ou moins progressivement, sert encore, reliée à une micropipette, à manipuler les liquides, notamment pour réaliser des micro-injections intracellulaires simples ou quantitatives.
- Enfin, l’auteur a proposé une chambre spéciale, la chambre à huile, dans laquelle sont réalisées- des cultures de micro-organismes. La fermeture de celte chambre étant assurée par une simple couche d’huile de paijjaffine, l’intérieur demeure constamment accessible aux micro-instruments cependant que l’évaporation y est pratiquement supprimée. Des liquides même en très faibles quantités ou des cellules isolées peuvent par conséquent y séjourner et être manipulés à l’abri de la dessiccation qui, à l’air libre, est quasi instantanée.
- Ces divers appareils et dispositifs, simple palette offerte à l’artiste, recèlent à n’en pas douter d’innombrables et intarissables possibilités.
- En collaboration avec le professeur Comandon, dans son laboratoire de l’Institut Pasteur, ont été réalisées quelques microcinëmatographies avec l’aide de la micromanipulation. Ces films sont également présentés à l’Exposition de Bruxelles. C’est d’eux que sont extraites les figures qui illustrent, du reste bien imparfaitement, ce qui précède.
- P. de Fonbrune.
- p.301 - vue 305/527
-
-
-
- 302
- Noyau bactérien et structure des acides nucléiques
- Fig-, 13 à 16. — Mise en évidence des organites nucléaires chez la bactérie Proteus vulgaris.
- A gauche, bacilles témoins, colorés au Giemsa : coloration totale. — An milieu à gauche, bacilles colorés au Giemsa après hydrolyse chlorhydrique (méthode de Robinow) : les corps nucléaires sont bien visibles, le R.1V.A. cytoplasmique étant éliminé. — Au milieu à droite, bacilles colorés au Giemsa après action de la ribonucléase qui détruit le R.N.A. (méthode de Tulasne-Vendrely) ; même résultat que pour la figure précédente. — A droite, bacilles colorés au Giemsa après action de la désoxyribonucléase : le D.1WA. des corps nucléaires est éliminé.
- Pendant longtemps, on a douté de l’existence d’un noyau chez les bactéries. Pour certains biologistes comme Fischer, les bactéries ne possédaient pas de noyaux; pour d’autres comme Rusziscka, les bactéries étaient au contraire des noyaux sans cytoplasme. A côté de ces théories que l’on peut qualifier d’extrémistes, figurait l’hypothèse classique du noyau diffus suivant laquelle la chromatine est diffuse dans le cytoplasme, mais peut parfois s’agglomérer en granules visibles au microscope ordinaire. A l’heure actuelle il ne fait plus aucun doute que les bactéries aient un organite nucléaire qui, pour n’être pas morphologiquement identique au noyau des cellules des êtres supérieurs (raisons pour lesquelles on ne l’appelle pas
- noyau, mais élément ou organite nucléaire), n'en assure pas moins toutes les fonctions. Ce résultat est dû en grande partie aux recherches entreprises par des méthodes microchimiques. On sait en effet que si l’adage des anciens auteurs fondateurs de la théorie cellulaire était : « Il n’y a pas de cellules sans noyau », on peut maintenant substituer à cette notion de morphologiste la notion biochimique suivante : « Il n’y a pas de cellule sans acides nucléiques. »
- C’est à Miescher que l’on doit la découverte et l’isolement de la substance nucléaire à laquelle il donnait le nom de « nucléine ». Ces travaux furent suivis de beaucoup d’autres et Ivossel démontra ensuite qu’il existait non pas un, mais deux
- Fig. 17 à 19. — Corps nucléaires bactériens mis en évidence par la méthode de Tulasne et Vendrely.
- De gauche à droite ; Neisseria gonorrhoeae, Bacillus mégathérium, Bacillus atithracis.
- p.302 - vue 306/527
-
-
-
- 303
- Fig. 20 à 22. A.DN. de thymus de veau au microscope électronique.
- En haut à gauche, forme filamenteuse ; grossissement : x 68 000. En haut à droite, forme globulaire : x 37 500. Ci-contre, amas de globules dont on a provoqué le dépelotonnement par hydratation ménagée en présence de sel, et passage à la forme filamenteuse.
- (Photos R. VENnnET.Y, Centre de Recherches sur les Macromolécules, Strasbourg).
- acides nucléiques dont il définit la composition : l’acide désoxyribonucléique ou D.N.A. et l’acide ribonucléique ou R.N.A. Rappelons qu’on considère actuellement que ces acides sont formés de deux longues chaînes parallèles constituées par un sucre, le désoxyribose pour le D.N.A., et le d-ribose pour le R.N.A., ce sucre alternant avec une molécule d’acide phos-phorique, et cette alternance se répétant tout au long des deux chaînes. Ces deux chaînes tout en étant parallèles sont enroulées en hélice et forment ainsi comme les deux montants d’un escalier hélicoïdal. Chaque sucre d’une hélice est relié à celui qui lui fait face dans l’autre hélice par deux bases azotées, l’une purique, l’autre pyrimidique, qui ont une disposition alternée d’un « barreau » à l’autre de l’hélice (Voir : La Nature, février 1958, p. 46).
- On a d’abord pensé que le D.N.A. se trouvait dans les noyaux des cellules animales et le R.N.A. dans les noyaux des cellules végétales. On sait maintenant qu’il n’en est rien : les deux types d’acides nucléiques sont présents également dans les cellules animales et végétales mais, tandis que le D.N.A. est localisé uniquement dans le noyau, le R.N.A. a une localisation essentiellement cytoplasmique.
- Quelles sont donc les méthodes qui ont permis de localiser les deux acides nucléiques dans la cellule et par suite de préciser la notion de noyau chez les bactéries, c’est ce que nous allons examiner maintenant, d’après la présentation faite par M. R. Vendrely au Palais international des Sciences de l’Exposition de Bruxelles. Une première méthode est celle mise au point par le biologiste suédois Casperson, basée sur l’absorption spécifique de l’ultraviolet dans la bande de 2 65o  par les acides nucléiques; elle lui a permis de montrer la localisation cytoplasmique du R.N.A. opposée à la localisation nucléaire du D.N.A., et cette méthode a été appliquée aux bactéries par de nombreux auteurs. Les résultats obtenus ont été discordants, certains auteurs mettant en évidence des régions opaques, d’autres non. Les résultats les plus probables semblent
- cependant être ceux de Piekarsky en ig38 qui trouva des corpuscules qui pourraient être le noyau.
- Mais ce sont surtout les recherches microchimiques qui ont donné les résultats les plus satisfaisants. Une première technique utilisée par Feulgen et Rossenbeck, en 1924, permet en effet de colorer spécifiquement le D.N.A. Elle consiste à faire une hydrolyse acide par l’acide chlorhydrique qui libère le pentose, ribose ou désoxyribose suivant qu’il s’agit de R.N.A. ou de D.N.A. On fait ensuite agir le réactif de Schiff constitué par de la fuchsine décolorée par le gaz sulfureux. Ce réactif donne une coloration rouge pourpre avec les fonctions aldéhydes et il se trouve que seuls les lieux où l’hydrolyse a libéré du désoxyribose donnent la coloration rouge pourpre. On obtient donc une coloration du D.N.A. et non du R.N.A,
- Cette méthode appliquée aux bactéries a démontré d’une manière indiscutable l’existence de D.N.A. chez les bactéries,
- p.303 - vue 307/527
-
-
-
- 304
- mais là encore on obtenait suivant les cas, soit une coloration diffuse, soit des granules. Ce n’est que plus récemment qu’on a montré l’existence d’un corps central qui représente le noyau de la cellule bactérienne, et la répartition des acides nucléiques chez les bactéries. Lés photographies i3 à 16 illustrent la méthode utilisée.
- Si l’on colore des bacilles (Proteus vulgaris) au Giemsa, on obtient une coloration uniforme. C’est un « témoin » banal connu depuis longtemps (fig. i3). On traite ensuite les bactéries par l’acide chlorhydrique chaud suivant la méthode de Robinow et on colore au Ciemsa. On constate alors que les corps nucléaires sont bien visibles, l’acide ribonucléique cytoplasmique ayant été éliminé (fig. i4). Enfin, la méthode de Tuslane-Vendrely, par l’emploi d’enzymes spécifiques, ribonucléase et désoxyribonucléase, achève la démonstration de la localisation des deux acides nucléiques dans la cellule bactérienne. Après traitement par la ribonucléase qui détruit l’acide ribonucléique du cytoplasme et coloration au Giemsa, on voit apparaître le noyau sur un cytoplasme clair, ce qui justifie la méthode de Robinow (fig. i5). Après traitement par la désoxyribonucléase qui élimine le D.N.A. des corps nucléaires, on obtient une coloration violette représentant le cytoplasme et' des régions plus claires correspondant aux noyaux du bacille (fig. 16). La méthode de Tulasnc-Vendrely a été appliquée à de nombreux germes et elle a démontré l’existence universelle d’un corps nucléaire chez les bactéries. C’est ce que montrent les photographies 17 à 19 où figurent en noir les noyaux des différentes espèces bactériennes étudiées.
- On peut alors se demander pourquoi cet élément nucléaire qui apparaît constamment, n’est pas visible aussi nettement par la méthode de Feulgen. Il semble que ce soit dû à la nature du colorant, le Giemsa, qui empâte les structures nucléaires, les rendant ainsi plus grosses et par suite plus visibles. On
- Les mutatio
- Le 29 avril 1967, MM. Jacques Renoît, Pierre Leroy, Mm0 Colette Vendrély et M. Roger Vendrély, présentaient à l’Académie des Sciences une note qui lit sensation. Sous la direction de M. Jacques Benoît, professeur au Collège de France, cette équipe de chercheurs avait réalisé ce qu’ils ont appelé des « mutations somatiques dirigées ».
- On sait que les bactéries peuvent échanger, lorsqu’elles sont mélangées dans une culture, leurs acides désoxyribonucléiques (D.N.A.), dont on s’accorde à penser qu’ils forment la substance môme des gènes, ces particules longtemps hypothétiques qui gouvernent la réalisation clgs caractères héréditaires. Le professeur J. Benoît s’est propose de rechercher si un phénomène du même ordre ne pourrait •affecter les organismes supérieurs, si en injectant à un animal en voie de développement le D.N.A. d’une autre race de la même espèce, on ne pourrait lui conférer certains des caractères de cet animal. Nous avons déjà relaté l’essentiel des premières expériences (La Nature, juillet 1957, p. 2C2). Elles ont porté sur deux races de canard, le canard Khaki et le canard Pékin.
- Mmo et M. Vendrély ayant extrait le D.N.A. de noyaux isolés de testicules ou de noyaux d’éryllirocytes de canard Khaki, 19 injections de ce D.N.A. furent faites pendant 19 semaines réparties sur C mois, dans le péritoine de 9 femelles de la race Pékin, à partir de l’âge de 8 jours; 3 mâles reçurent 5 injections similaires. Dix mois plus lard, 8 femelles sur 9 et l’un des mâles présentaient des modifications importantes qui les faisaient différer de leurs parents et les rapprochaient de la race Khaki. Chez la plupart des sujets le bec, au lieu d’être entièrement jaune-orangé, montrait des plages foncées (fig. 24). La tête avait perdu les joues saillantes de la race Pékin, le front était plus bas. Le plumage, blanc soufré chez le Pékin et
- remarquera également dans certaines bactéries l’existence de deux ou plusieurs éléments nucléaires, Ceci est dû à une division des noyaux pendant la phase de latence, c’est-à-dire la phase qui s’étend du moment de l’ensemencement des germes jusqu’au déclenchement de la division. Les cellules sont en quelque sorte en retard sur les noyaux pour se diviser. La structure typique à un seul corpuscule nucléaire est troublée par le non-synchronisme entre les divisions cellulaires et les divisions du noyau.
- Les deux types d’acides nucléiques sont donc représentés dans la cellule bactérienne et il faut remarquer que les bactéries représentent certainement les cellules les plus riches en acides nucléiques du monde vivant, avec i5 à 20 pour 100 du poids sec des germes, soit environ une proportion dix fois plus élevée que celle que l’on trouve dans une cellule hépatique, par exemple. Ceci est certainement en rapport avec l’intense pouvoir de multiplication des bactéries.
- Revenons maintenant aux cellules des animaux supérieurs. La structure de l’acide désoxyribonucléique dans le noyau a été étudiée au microscope électronique par M. Vendrely sur du D.N.A. de thymus de veau (le thymus a été choisi, car c’est l’organe qui présente la plus foi’te concentration en D.N.A. : 2,5 pour 100). Le D.N.A. se présente, suivant les auteurs, soit sous forme de filaments plus ou moins ramifiés, ainsi que le montre la photographie 20, Je diamètre limite de la fibre étant de 20 A, soit sous l’aspect de globules (photo 21). Des études récentes ont montré que le passage de la forme condensée à la forme filamenteuse est conditionné par la forme ionique du milieu, c’est-à-dire par sa concentration en sels minéraux (chlorure de sodium en particulier). La photographie 22 montre le dépelotonnement des amas de globules et le passage à la forme filamenteuse par hydratation ménagée en présence de sels.
- R. R.
- ns dirigées
- brun chez le Khaki, était ici d’un blanc pur, ce qui fit baptiser ces sujets a Blanche-Neige ». Mais plusieurs caractères de forme rapprochent ce plumage de celui du Khaki. Enfin la taille, plus petite, est celle du Khaki et surtout l’allule générale de l’animal, sa démarche, sont celles du donneur de D.N.A., et non de la race parentale. Ainsi l’introduction de D.N.A. étranger a profondément modifié les caractères de la plupart des sujets, pour en faire de véritables hybrides.
- Figr. 23. — Mutations dirigées réalisées sur des canards.
- Vu premier plan, trois canards « Blanche-Neige »: Au deuxième plan, à gauche, un canard mâle Pékin. À l’arrièrc-plan, deux canards Khaki, foncés, partiellement cachés. Remarquer les différences de taille, de corpulence, de forme de la tête et de maintien entre le Pékin et les Blanche-Neige. Parmi ceux-ci, le sujet de gauche, à bec clair, est un mâle ; les deux sujets de droite, femelles, ont un bec partiellement foncé.
- p.304 - vue 308/527
-
-
-
- 305
- Ayant isolé quatre femelles et un mâle qui avaient subi ainsi de profondes modifications, M. Jacques Benoît et ses collaborateurs les ont fait reproduire et ont obtenu de nombreux descendants dont ils ont donné la description dans une nouvelle note à l’Académie des Sciences (22 juillet 1907) et dans la Presse Médicale (9 octobre 1967) : « 26 canetons éclorent, dont 7 seulement possédaient un bec jaune de type Pékin, 5 avaient un bec entièrement rose et i4 un bec jaune-rose, attestant ainsi une diminution plus ou moins accentuée du pigment jaune du Pékin. Comme les canetons Pékin présentent toujours à l’éclosion un bec nettement jaune, nous sommes en droit de dire que l’aspect normal des becs de 19 de nos sujets de première génération correspond à un aspect analogue observé chez certaines femelles-mères à la suite des injections de D.N.A. de Rhaki. » Avec l’âge, les caractères de plusieurs de ces canetons s’écartèrent plus nettement du type Pékin, notamment par la taille, la forme du corps, de la tête et du bec, qui rappelaient les caractères observés chez leurs parents. En résumé, la première génération montrait, de façon quelque peu atténuée, les modifications induites chez leurs parents par l’injection de D.N.A. de Khaki.
- L’eksentiel de ces expériences, avec des photographies, est présenté au Palais des Sciences: de l’Exposition de Bruxelles.
- Gomment le D.N.A. étranger a-t-il agi ? Pour voir s’il ne s’agirait pas d’une action non spécifique, d’autres expériences sont en cours avec des D.N.A. très différents (de thymus de veau par exemple). Si les modifications sont bien dues spécifiquement au D.N.A. de canard Khaki, comme c’est probable, le D.N.A. n’a-t-il agi que sur les tissus corporels en voie de développement ? S’est-il accumulé dans les œufs et a-t-il été ainsi transféré à la progéniture ? M. Jacques Benoît pense plutôt que le D.N.A. s’est bien incorporé au patrimoine génétique, c’est-à-dire aux chromosomes des sujets injectés. C’est ce que seule l’étude des générations successives pourra établir.
- • J. G.
- Fig. 24. — Têtes de trois Khaki mâles (à droite), de trois canes Pékin témoins (au centre) et de trois canes Blanche-Neige (à droite). Remarquer les homologies entre les têtes des Khaki et des Blanche-Neige, leurs différences avec celles des Pékin.
- (Photos obligeamment communiquées par M. Jacques Benoît).
- L'Électroluminescence
- Parmi les nouveautés exposées au Palais des Sciences de l’Exposition de Bruxelles, figurent ce qu’on appelle des condensateurs électroluminescents. Il s’agit d’une invention française, étudiée dans les laboratoires de nombreux pays, qui doit révolutionner l’éclairage des locaux d’habitation et des routes, le balisage des aires d’atterrissage et même la fabrication des écrans radios.
- Le phénomène de base, appelé maintenant électroluminescence, fut découvert en 1936 par un Français, M. G. Destriau, ingénieur de l’École Centrale, professeur à la Faculté des Sciences de Paris (voir La Nature, février 1954, p. 73).
- Un composé luminescent approprié, le plus souvent un oxyde, silicate, sulfure ou séléniure de zinc ou de cadmium, contenant des traces d’un métal étranger, dit activateur, tel que le cuivre, le plomb ou le manganèse, est enrobé dans un isolant; maintenant cet isolant est souvent un chlorure de polyvinyle, produit qui est à la base de nombreuses matières plastiques. Une fine pellicule du composé luminescent, enrobé dans son isolant, est étendue sur une lame à la fois transparente et conductrice, généralement une plaque de verre sur laquelle on a projeté une couche invisible de chlorure d’étain et de chlorure d’antimoine. Enfin, sur la deuxième face de la pellicule, on dépose une mince couche d’aluminium.
- La « cellule électroluminescente » ainsi fabriquée, comprenant comme l’indique la figure 25, une couche isolante entre deux lames conductrices, constitue un condensateur. Si nous relions les deux lames conductrices de ce condensateur à une tension périodique, nous voyons, à travers la lame de verre, bril-
- fensioe f appliquée L.
- lumière emi je
- électrode en -erre conducteur.
- produit luminescent ...—1 et isolant.
- r ele
- L a
- electrode en luminium.
- Fig. 25. — Schéma du condensateur électroluminescent.
- 1er le composé luminescent. Sa brillance croît à la fois avec la valeur de la tension et avec sa fréquence. La lumière émise est bleue, verte, jaune ou rouge suivant les natures du produit et de l’activateur. 'L’émission lumineuse peut changer de coloration avec la fréquence. Ainsi une cellule émettant dans le vert pour une fréquence de 5o cycles par seconde peut émettre dans le bleu pour une fréquence de 2 000 c/s. On peut produire ce phénomène simplement en mélangeant dans le même condensateur deux composés différents émettant dans deux régions spectrales différentes. Il y a là naturellement de nombreuses possibilités pour la signalisation lumineuse, la télévision en couleurs ou même pour nuancer les éclairages par simple manœuvre d’un bouton, faisant varier la fréquence de la tension périodique produite par un circuit à transistors, par exemple.
- Un nouvel effet, découvert en ig53 au laboratoire de M. Destriau est en voie d’utilisation en radioscopie et radiographie. Certains produits qui sont luminescents sous l’action des
- p.305 - vue 309/527
-
-
-
- 306
- Fig. 26. -— Schéma du renforçateur électroluminescent d’images.
- G, et G„, glaces transparenles conductrices ; PP', couche photoconductrice ; AB, couche opaque neutre ; EE', couche électroluminescente.
- rayons X, ont une sensibilité accrue, c’est-à-dire deviennent beaucoup plus lumineux quand ils sont soumis simultanément à l’action des rayons X et à celle d’un champ électrique alternatif produit par une tension périodique appliquée entre les armatures du condensateur. Le champ seul dans ce cas ne produit aucune luminescence du produit. Il suffit donc de réaliser avec celui-ci un condensateur analogue à ceux que nous avons décrits; les rayons X traversent la couche d’aluminium et viennent exciter le produit luminescent; ils sont arrêtés par la glace conductrice si celle-ci contient du plomb. On fabrique ainsi des écrans radioscopiques pour lesquels la brillance et le contraste peuvent être l’un et l’autre meilleurs que ceux des écrans usuels. On peut encore utiliser dans le même but les condensateurs électroluminescents habituels, mais en leur adjoignant une couche pholocohductrice de sulfure de cadmium qui devient plus conductrice sous l’action du rayonnement X, ce qui a pour effet de faire croître le champ dans le condensateur et par conséquent la brillance, en face des régions qui reçoivent le plus de rayonnement (fig. 26).
- Après avoir travaillé pratiquement seul pendant dix ans, sans que ses travaux aient éveillé en France autre chose que l’inté-
- Fig. 27. — Petite cellule montée sur oscillateur à transistors, 2 000 c/s, sous la tension indiquée par le voltmètre.
- Fig. 28. — Cellule sous tension de 180 V à la fréquence de 500 c/s.
- rêl des scientifiques, le professeur Destriau publia en 1947 une première mise au point détaillée en anglais, dans le Philoso-phical Magazine (Sér. 7, vol. 38, p. 700, 774 et 880). C’est principalement ce mémoire qui fit connaître l’électroluminescence aux industriels étrangers, notamment américains. La Compagnie américaine Sylvania fit l’une des premières des recherches techniques en vue de réalisations pratiques. Elle fut suivie peu après par la General Electric Company, puis par la Westinghouse, cette dernière travaillant en collaboration avec les savants français. En 1955, le rendement lumineux des condensateurs électroluminescents était de 9 lumens par watt; quoique encore assez faible, il se rapprochait de celui des lampes à incandescence. En 1957, il atteignait i5 lumens par watt. La brillance passait elle-même progressivement de 100 footlambert en 1952 à 2 000 en 1956 pour atteindre maintenant 3 000 footlambert, soit environ 25 pour 100 de plus que la brillance des tubes luminescents. D’autres compagnies s’intéressèrent successivement à l’électroluminescence : en Amérique, la R.C.A. et en Europe, Philips en Hollande, Thomson en Angleterre et Osram en Allemagne.
- Pour donner une idée plus précise de l’état des réalisations pratiques, nous donnons dans le tableau ci-dessous les rendements comparés des condensateurs électroluminescents, des lampes à incandescence et des tubes fluorescents, avec les valeurs atteintes maintenant et les valeurs maxima théoriquement possibles.
- Rendement en lumens par watt
- présent possible
- Condensateur i5 24o
- Lampe à incandescence... 16 22
- Tube luminescent 60 IOO
- Il est facile de voir que, si le rendement des condensateurs est encore inférieur à celui des tubes, du moins il peut être beaucoup amélioré. De plus, leurs propriétés sont assez intéressantes par elles-mêmes. Aussi leur fabrication en série a-t-elle commencé dès le milieu de l’année à la Sylvania, à Westinghouse et à la General Electric Company. M. D.
- p.306 - vue 310/527
-
-
-
- 307
- Le polyéthylène basse pression en continu
- Le polyéthylène u été obtenu pour la première fois à la suite de recherches entreprises par les Impérial Chemical Industries dans le but de déterminer l’action des très hautes pressions sur certaines réactions chimiques. Les pressions expérimentées variaient entre i ooo et 2 000 atm et, en 1933, au cours d’essais effectués sur l’éthylène, on trouva de petites quantités d’un produit blanc dans le récipient de réaction. Ce solide analysé se révéla être un produit de polymérisation de l’éthylène comportant plus de 5oo molécules de monomère; la réaction avait été effectuée en présence de catalyseurs sous très forte pression et à température très élevée.
- 'La production industrielle débuta d’abord en Grande-Bretagne puis aux États-Unis en 1943 et à l’heure actuelle des usines produisent du polyéthylène un peu partout dans le monde. La production américaine atteint 200 000 t par an et elle augmente chaque année. Devant le succès remporté par ce produit, de nombreuses recherches ont été entreprises, tant dans le domaine de sa structure et de ses propriétés que dans celui de sa préparation. Alors que jusqu’à ces dernières années, le polyéthylène ne pouvait être fabriqué que par des méthodes mettant en jeu de très fortes pressions, les travaux poursuivis par les professeurs Ziegler et Natta et la Phillips Petroleum Company ont permis de mettre au point des procédés par lesquels on peut préparer des polyéthylènes à basse température et sous basse pression. Le procédé Ziegler a fait l’objet d’une présentation dans laquelle du polyéthylène est préparé à une température de 6o° C et à pression normale à partir du gaz éthylène, en continu sous les yeux des visiteurs. Le fonctionnement de l’appareil est le suivant. Le gaz éthylène provenant d’une bouteille est détendu à la pression atmosphérique et vient en contact avec le catalyseur en 3 (fîg. 29). Celui-ci est vraisemblablement un complexe organométallique obtenu à partir de tr'iéthyl-alu-minium et d’un chlorure métallique comme le tétrachlorure de titane ou le chlorure de vanadium, de zirconium, etc. Il se présente sous la forme d’une poudre brune en suspension dans un solvant hydrocarboné.. Lors du contact entre le catalyseur et l’éthylène, il y a polymérisation et l’ensemble est dirigé en 4 où le catalyseur est séparé par dissolution dans l’alcool méthy-iique; le polyéthylène, au contraire, précipite sous forme d’une masse blanche qui est ensuite filtrée en 5, séparée du solvant par distillation dans une colonne (6), séchée par un courant d’air chaud, puis recueillie dans un cyclone.
- On voit donc sortir de l’appareil en continu une poudre blanche qui est du polyéthylène basse pression. Les propriétés du polyéthylène basse pression diffèrent notablement de celles des produits obtenus sous des pressions élevées, ceci en rapport avec la structure de la chaîne. En effet, alors que théoriquement les chaînes du polyéthylène sont constituées par un assemblage de groupes méthylé-niques :
- les chaînes des polymères industriels ne sont pas strictement linéaires; elles comportent plus ou moins de ramifications de chaînes méthyléniques, en général plus courtes et le mode de polymérisation joue, à ce point de vue, un grand rôle. Le polyéthylène haute pression comporte 20 à 5o ramifications pour 1 000 liaisons simples. La polymérisation du type Ziegler fournit au contraire des chaînes presque linéaires, où l’on ne détecte pas plus de 1 à 3 ramifications pour x 000 liaisons simples. Il y a donc une régularité beaucoup plus grande qui se traduit par un degré de .cristallinité de 85 à 95 pour xoo contre 55 à 60 pour 100 dans le polyéthylène haute pression, ce qui augmente beaucoup les propriétés mécaniques et le point de fusion. Celui-ci est de l’ordre de 125° C au lieu de 90° C. De même, la tendance à la fissuration sous l’influence de certains liquides est beaucoup diminuée.
- 'Les deux types de polyéthylène diffèrent également par la masse moléculaire; alors qu’elle est de 10000 à 28000 pour les polyéthylènes haute pression courants, elle est en général supérieure à 5o 000 pour le polyéthylène basse pression et peut même atteindre le million. On ne cherche d’ailleurs pas à avoir une masse moléculaire aussi élevée, car la viscosité du produit devient alors trop grande. Mais des masses moléculaires élevées élèvent le point de fusion et améliorent les propriétés mécaniques : résistance à la traction et à la rupture.
- Signalons enfin que, du point de vue des propriétés électriques, les polyéthylènes haute pression, parfaitement purs, paraissent par contre préférables à ceux préparés à basse pression en présence de catalyseurs minéraux qui sont toujours retenus à l’état de traces par le polymère et qui peuvent diminuer les propriétés isolantes.
- Les applications du polyéthylène basse pression sont extrêmement nombreuses ; ce sont en effet toutes celles du polyéthylène courant avec, en outre, des applications qui résultent de leurs propriétés améliorées : fabrication de tuyaux résistant bien à l’eau chaude, de fibres textiles plus tenaces pour la réalisation de cordages utilisables dans l’eau de mer et en atmosphère corrosive, etc.
- Au Palais de la Science de Bruxelles, à côté de l’appareil de fabrication du polyéthylène, figure une machine à injection qui
- '• CIV
- /Civ
- -CH
- CHav
- CH,
- Fig. 29. — Appareil fabriquant,
- sous les yeux du public, du polyéthylène basse pression à partir d’éthylène gazeux.
- (Photo 1t. Rossi:r).
- p.307 - vue 311/527
-
-
-
- 308
- débite des plaques circulaires portant le symbole de l’Exposi- met en œuvre de l’oxyde de molybdène sur support d’alumine,
- tion. Elles sont caractérisées par une rigidité et une dureté bien ou du nickel sur support de charbon de bois. Dans le procédé
- plus grandes que les objets en polyéthylène courant. Phillips, la polymérisation est effectuée sous 3o à 35 atm, vers
- Déjà de nombreuses firmes européennes sont intéressées par ixo°, au moyen d’un catalyseur, constitué par de l’oxyde de
- ce procédé. Aux U.S.A., des méthodes du même genre sont chrome hexavalcnt précipité sur un support silico-alumineux.
- déjà utilisées, bien qu’elles semblent un peu moins intéressantes que le procédé Zicgler. Celui de la Standard of Indiana R. Rosset.
- Réacteur nucléaire à usage pédagogique
- Une firme américaine, l’Aerojet Company, présente un réacteur piscine destiné à la formation des étudiants. L’un des premiers réacteurs de ce type avait été présenté à Genève en xg55. Le principe en est maintenant bien connu et donne lieu à des réalisations industrielles relativement peu coûteuses : le présent réacteur, muni de tous ses accessoires, est vendu environ 5o ooo ooo F et peut donc être acheté par une université moyennement riche.
- Dans un tel réacteur, le ralentisseur est constitué purement et simplement par de l’eau distillée qui joue en même temps un rôle de protection contre les radiations. Le noyau actif est un cube d’environ 5o cm de côté, situé au fond d’une cuve de i m de diamètre et i nx de profondeur environ. L’utilisation de l’eau ordinaire comme ralentisseur diminue notablement le rendement, de l’ensemble, du fait que l’eau capture beaucoup plus facilement les neutrons que l’eau loui’de, par exemple; c’est d’ailleurs pourquoi elle peut jouer un rôle de protection en même temps que de ralentissement. Mais dans une pile de ce genre, à faible flux et à faible puissance, cela n’est pas très important et c’est largement compensé par l’économie faite en n’utilisant ni graphite ni eau lourde.
- Ce réacteur, qui est destiné à l’enseignement, devait être extrêmement souple dans son maniement; c’est pourquoi le noyau actif est constitué d’une manière un peu particulière. Il comporte en effet n barres d’uranium d’un type nouveau. L’uranium qui les constitue est sous forme d’oxyde U02, enrichi en U 235 à 20 pour 100 dispersé au sein d’une matière plastique spéciale, polythène ou matière analogue. Ce procédé assez original est très intéressant et fait actuellement dans tous les pays, sous une forme ou sous une autre, l’objet d’études poussées en vue de son application aux réacteurs de puissance.
- Du fait que l’oxyde d’uranium cristallise dans le système cubique, il est isotrope du point de vue de la dilatation, en particulier, et ne donne donc pas lieu au phénomène du cyclage thermique extrêmement gênant avec l’uranium métal, phénomène qui a provoqué il y a peu de temps l’accident de Windscale en Angleterre (il s'agit d’une dilatation non réversible des barreaux d’uranium qui provoque l’éclatement des gaines, ce qui peut amener l’emballement du réacteur). C’est pourquoi on étudie actuellement l’utilisation de composés cubiques de l’uranium, frittés, dans les réacteurs de puissance. La difficulté réside dans les problèmes d’échange de chaleur qui sont rendus difficiles par la faible conductivité calorifique de l’oxyde. Dans le cas présent, cette difficulté n’intervient pas du fait de la faible puissance du réacteur.
- Les barres sont constituées ainsi que le montre la figure 3o. Le graphite et le plomb servent à arrêter les neutrons vers le haut. 'L’ensemble du réacteur comporte 738 g d’U 235, qui ne sont pas répartis uniformément sur toutes les barres : neuf sont uniformément chargées, une dixième est de moitié moins chargée que les autres et la onzième compoi'te une source de neutrons au radium-béryllium. Cette source fournit un flux continu de neutrons qui permet à la réaction de démarrer à une vitesse contrôlée. La charge de cette barre est telle que le réacteur ne peut fonctiohiier en son abseixee.
- Si ce flux de neutrons n’existait pas au départ, on risquerait
- Barres modératrices
- Plomb
- Graphite
- U02 dispersé dans une matière plastique
- Graphite
- Fig. 30. — Disposition du noyau actif du réacteur d’étude.
- Trois des barres modératrices sont en cadmium et une est en acier inoxydable. Cette dernière, qui absorbe moins que les autres, sert à finir
- le réglage.
- de voir le réacteur démarrer très brutalement. En effet, imaginons que l’on soulève progressivement les barres de ralentissement; la réaction en chaîne risque de ne pas commencer tout de suite faute de réaction initiale. Il pourrait se produire alors qu’elle ne commence, à la suite d’une désintégration natui'elle de l’uranium, qu’au moment où les barres de contrôle sont complètement relevées. Dans ce cas la réaction, n’étant nxdlement modérée, risquerait de s’emballer avant que les servo-mécanismes qui commandent les barres modératrices aient eu le temps de fonctionner. Avec cette source de neutrons, dès que les barres de contrôle sont suffisamment relevées le réacteur démarre. Le fait que la masse critique ne puisse pas être atteinte en l’absence de cette barre élimine tout risque de fausse manœuvre.
- Les dispositifs de contrôle sont évidemment étudiés avec soin. En particulier l’eau de la « piscine » circule constamment et on mesure en permanence sa radioactivité. Si elle augmente, on la purifie sur colonne. Si l’activité de l’eau venait à dépasser un certain seuil, les barres de contrôle s’abaisseraient immédiatement. par rupture du courant dans les électro-aimants qui les soutiennent.
- Ce genre de réacteur à faible puissance et faible flux peut être utilisé soit pour faire effectuer des manipulations aux étudiants qui peuvent ainsi étudier la masse critique, la disposition la plus favorable des barres, les blindages de protection et vérifier leurs calculs concei’nant des réacteurs, soit encore pour préparer de faibles quantités d’isotopes radioactifs à vie courte.
- F. R.
- p.308 - vue 312/527
-
-
-
- 309
- L'ultrastructure de la cellule normale et cancéreuse
- Fig. 31. — Au Palais international de la Science : panneaux de l'Institut de Recherches sur le Cancer de Villejuif.
- Ces panneaux illustrent les découvertes récentes sur l’ultrastructure de la cellule normale et cancéreuse, accomplies grâce au microscope électronique. Au fond, micrographie d’une coupe d’une tumeur mammaire de souris, au grossissement de 200 000, que la figure 32 donne à un grossissement plus faible
- 'La contribution apportée à l’Exposition internationale de Bruxelles par l’Institut de Recherches sur le Cancer de Villejuif, est constituée par une série de panneaux qui retracent la structure et l’ultrastructure des cellules normales et cancéreuses. C’est en effet sur ces problèmes que le professeur Charles Ober-ling oriente les travaux de l’Institut depuis plus de dix ans.
- Les moyens modernes d’investigation et, en tout premier lieu, la microscopie électronique, ont profondément modifié la manière dont les biologistes et les médecins envisagent les problèmes cellulaires. On peut presque dire qu’il s’agit d’une véritable révolution et certains problèmes biochimiques peuvent être maintenant abordés par des techniques morphologiques descriptives qui permettent une localisation intracellulaire exacte des phénomènes étudiés : il en est ainsi d’ores et déjà pour les molécules de nucléoprotéines.
- C’est donc « la contribution de la Microscopie électronique à la connaissance de la cellule normale et cancéreuse dans les cinq dernières années » que présentent les deux premiers panneaux en entrant à droite et à gauche.
- La cellule décrite depuis la fin du xvu6 siècle (Ilooke, i665, Malpighi, 1671, Grew, 1671) grâce aux premiers microscopes, a été seulement plus tard reconnue comme l’unité fondamentale de tous les organismes vivants (Schleiden et Schwann, i838-
- 1889). La théorie cellulaire fut ensuite appliquée par Virchow à l’étude des maladies. Inspirés par la Cellularpathologie parue en i858, de nombreux savants ont par la suite créé la base la plus solide de la médecine moderne. Mais c’est seulement vers la fin du siècle dernier, grâce à la mise au point de techniques microscopiques et de microscopes perfectionnés, que la plupart des éléments constitutifs de la cellule ont été décrits.
- L’ère de la microscopie électronique représente un nouveau tournant dans l’histoire de la cytologie. Les grossissements, qui étaient de l’ordre de 1 000, ont atteint jusqu’à 100 000 et peuvent être poussés bien au-delà par agrandissement photographique (5oo 000 et plus). Aussi le microscope électronique a-t-il permis de confirmer ou d’infirmer l’existence des organites cellulaires déjà décrits, de découvrir leur structure fine à un degré qui correspond à leur constitution moléculaire et, enfin, de révéler des éléments qui échappaient à l’observation optique.
- L’organisation de la cellule dans son ensemble se présente ainsi sous un jour nouveau : on constate que presque tous les éléments connus (mitochondries et grains de sécrétion exceptés) sont en continuité les uns avec les autres, formant un vaste système (endoplasmic réticulum, de Porter) admirablement adapté aux besoins de la physiologie cellulaire.
- Parmi les contributions les plus frappantes du microscope
- p.309 - vue 313/527
-
-
-
- 310
- Figr. 32. — Coupe de tumeur mammaire de souris au microscope électronique, montrant des corps d’inclusion à virus.
- Grossissement : x 12 300. (Laboratoire de microscopie électronique de l’Institut de Recherches sur le Cancer, Villejuif).
- électronique a la si rue turc üne des organites cellulaires prennent place :
- — la découverte de l'organisation jilamenteu.se et pelotonnée du nucléole et sa composition granulaire : chaque granule correspond sans doute à une molécule de nucléoprotéine spécifique ;
- —- la mise en évidence de la structure double de la membrane nucléaire et l’existence, dans celle-ci, de formations annulaires au niveau desquelles se produisent probablement certains des échanges nucléocytoplasmiques ;
- — la révélation d’une structure interne lamelleuse dans les mitochondries, permettant une augmentation considérable des surfaces au niveau desquelles se produisent des réactions enzymatiques ;
- — la description de la structure fine de l'ergastoplasme et la découverte de l’universalité de ce système qui joue un grand rôle dans l’élaboration des protéines;
- — la démonstration de la réalité de l'appareil de Golgi dont l’existence était ardemment controversée, et la description de sa constitution;
- — enfin, la découverte de la composition tubulaire du cen-
- triole et de l’ordonnance régulière et constante de ses éléments constitutifs.
- Pour illustrer ces connaissances, une grande vitrine éclairée, due à J. Benoît, J. Martin, S. Ilalpern, montre une reconstitution dans l’espace des principaux éléments cellulaires. C’est ainsi que des maquettes colorées montrent comment l’on peut actuellement se représenter un appareil de Golgi, un fragment de la membrane nucléaire, une mitochondrie et sa structure interne, un centriole et enfin le réseau ergastoplasmique.
- Le panneau 3, à la suile des précédents, illustre l’ultra-structure de la cellule cancéreuse à l’aide de remarquables micrographies électroniques dues à W. Bernhard.
- Le cancer, on le sait, n’est pas une maladie exclusivement humaine ; on la trouve très répandue dans le règne animal. Les tumeurs malignes apparaissent spontanément ou peuvent être expérimentalement provoquées, en particulier chez les oiseaux et chez les rongeurs. L’expérimentateur s’en sert pour étudier avec plus de facilité que chez l’homme le phénomène ce cancer » qui est essentiellement lié aux structures cellulaires. C’est en effet une maladie qui peut être transmise par une seule cellule. La connaissance approfondie du chimisme et de
- p.310 - vue 314/527
-
-
-
- 311
- l'ultrastructure des cellules malades est donc d’une importance capitale pour déceler le mécanisme de la cancérisation.
- Au microscope optique, le tissu cancéreux frappe l’observateur par son manque d’organisation. Sa croissance est anarchique, il infiltre et détruit le tissu avoisinant. Ses cellules se multiplient à un rythme accéléré et anormal. Les cellules cancéreuses se distinguent des cellules normales par leur polymorphisme dû à une variabilité plus grande de la taille, de la forme et souvent de la quantité de certains organites cellulaires. On découvre fréquemment des anomalies nucléaires : gigantisme du noyau, mitoses anormales, nombre des chromosomes inconstant et augmenté, nucléole hypertrophié, membrane nucléaire irrégulièrement plissée.
- Le cytoplasme est souvent plus basophile et renferme des mitochondries qui montrent fréquemment des signes de souffrance ou des phénomènes dégénératifs. Le développement de l’ergastoplasme et de l’appareil de Golgi est beaucoup plus variable.
- En outre, les cellules cancéreuses ont tendance à se dédifférencier (an-aplasie). Elles prennent ainsi un aspect plus embryonnaire et deviennent incapables de remplir leur rôle de cellules adultes. Les micrographies électroniques montrent quelques organites de cellules cancéreuses vues à un très fort grossissement.
- Formant le fond du stand, un montage photographique de plusieurs micrographies électroniques représente une cellule cancéreuse d’une tumeur mammaire de souris grossie 200 ooo fois. Le panneau mesure au total 2,4o m sur 1,80 m et il est éclairé en transparence. Tous les organites cellulaires tels qu’ils se présentent sur l’écran du microscope électronique sont visibles : noyau, nucléoles, globules lipidiques, mitochondries, ergastoplasme et appareil de Golgi; un corps d’inclusion renferme de nombreux corpuscules élémentaires de virus. Nous reproduisons à un faible grossissement ce remarquable document (flg. 82). Ce panneau fait la transition avec le suivant, qui montre, grâce à une série de micrographies, des exemples de virus cancérigènes des animaux déjà mis en évidence au microscope électronique (panneau n° 4).
- Dans les sarcomes et les leucémies de poulet, il a été possible de montrer les particules-virus de 70 à 80 mp. de diamètre, cer-
- Appareils de mesure des
- Le laboratoire de Chimie-Physique de la Faculté des Sciences de Bordeaux présente, à l’Exposition de Bruxelles, avec le concours du C.N.B.S., plusieurs appareils destinés à mesurer les susceptibilités magnétiques des solides ou des liquides. On sait que la plupart des matériaux placés dans un champ magnétique acquièrent un moment magnétique opposé au champ inducteur et dont la grandeur lui est proportionnelle; Langevin a donné en 1905 une théorie classique de ce phénomène nommé diamagnétisme, qu’il interprète comme provenant d’un effet d’induction dans les orbites électroniques qui s’oppose au champ magnétique inducteur, comme le prévoit la loi de Lenz. Presque toutes les molécules sont diamagné tiques, mais certains atomes, ions ou radicaux libres qui ont un nombre impair d’électrons montrent un autre phénomène appelé paramagnétisme, qui masque leur diamagnétisme normal. La théorie, également due à Langevin, imagine que le paramagnétisme résulte de l’existence d’un moment magnétique permanent de l’atome ou de la molécule, moment que le champ magnétique appliqué tend à orienter dans sa direction propre. Cette fois, le matériau paramagnétique acquiert un moment global dirigé dans le même sens que le champ extérieur, moment généralement bien plus grand que celui des corps diamagnétiques.
- Dans un cas comme dans l’autre, l’échantillon tend, lors-
- nées d’une membrane qui renferme un nucléoïde central probablement formé par des acides nucléiques. Ces virus sont présents dans le sarcome de Rous, l’endothélium de Murray-Begg, les tumeurs lymphoïdes, et dans la rate, la moelle osseuse et le sang des poulets souffrant de leucémies érythro- et myéloblastiques. Us peuvent même être trouvés de temps à autre dans des tissus normaux où ils existent probablement sous une forme inoffensive.
- L’agent infectieux du fibrome de Shope du lapin est un gros virus (220 mjx de diamètre) et ressemble de très près à celui de la variole humaine. Il se multiplie à l’intérieur du cytoplasme suivant un cycle évolutif complexe.
- Dans les cancers mammaires spontanés de la souris, le microscope électronique a révélé des corps d’inclusions cytoplasmiques formés par des milliers de particules-virus d’un diamètre de 70 mu, répondant probablement à un stade évolutif du facteur lacté de Bittner. Ces virus, en traversant la membrane cellulaire, se transforment en particules plus complexes (io5 mp, de diamètre) que l’on retrouve mêlées aux globules de caséine dans les canaux excréteurs de la glande. On peut admettre que c’est par ces particules que les jeunes souriceaux s’infectent, en suçant le lait de leur mèi’e.
- Enfin le dernier panneau (n° 5) présente, sous une forme schématique, l’ensemble des connaissances modernes les plus importantes résultant de l’étude expérimentale de ces cancers à virus des animaux. Des photographies en couleur montrent les animaux porteurs de tumeurs, des micrographies, l’aspect de certains tissus malades. Ces tumeurs sont toutes étudiées en ce moment à l’Institut de Recherches sur le Cancer et représentent un matériel considérable.
- On le voit, cette contribution de l’Institut de Recherches sur le Cancer met l’accent sur l’aspect cellulaire et biologique des recherches modernes sur le cancer. Le problème passionnant du rôle de certains virus dans les cancers expérimentaux se trouve exposé avec clarté : c’est un champ d’investigation fructueux qui ne cesse de s’élargir d’année en année.
- Docteur Henri Febvre,
- Chef de Laboratoire de Cytobiologie, Institut de Recherches sur le Cancer.
- susceptibilités magnétiques
- qu’il est placé dans un champ magnétique non uniforme, à se diriger vers la direction de l’espace où son énergie potentielle est minimale. On peut aisément prévoir qu’un matériau paramagnétique se déplace vers la région où le champ est le plus grand; c’est l’inverse pour une substance diamagnétique. Une force F s’exerce donc sur le matériau de masse m placé dans le champ magnétique H : on montre que l’expression de sa composante Fx selon un axe Oæ est donnée par la formule :
- où ^ est la susceptibilité magnétique spécifique de la substance, c’est-à-dire le rapport du moment magnétique pris par la masse unité du corps à la grandeur du champ magnétique inducteur;
- est positif pour un matériau paramagnétique, et négatif pour une substance diamagnétique.
- On peut songer à utiliser la mesure de celte force pour déterminer les susceptibilités magnétiques des corps. Mais sa gran. deur est toujours très faible : elle ne dépasse guère 1 dyne pour une masse de 1 dg de substance diamagnétique avec un électroaimant puissant donnant 20 000 œrsled. Aussi doit-on employer des montages très sensibles, si l’on désire obtenir une précision du millième par exemple.
- p.311 - vue 315/527
-
-
-
- 312
- Fig. 33. — Schéma de l’appareil de mesure des susceptibilités magnétiques à pendule de translation (Weiss-Foëx-Forrer).
- Explications dans le texte.
- 'L’un des appareils les plus simples qui permettent d’effectuer une telle mesure est la balance de Gowy-Pascal présentée par le laboratoire de Chimie-Physique de la Faculté des Sciences de Bordeaux. L’échantillon est placé dans un long tube cylindrique suspendu au plateau d’une balance de précision. Une des extrémités du tube plonge dans le champ uniforme d’un électroaimant, alors que l’autre extrémité reste dans une région de champ négligeable. Dans ces conditions, la mesure de la force compensée au moyen de poids et de la masse du liquide permet de connaître sa susceptibilité spécifique.
- Un autre appareil (fig. 33 et 34), dont le principe est dû à MM. Weiss, Foëx et Forrer, et qui a été réalisé sur les plans de M. Pointeau, est destiné à la mesure des susceptibilités magnétiques moyennes. L'échantillon introduit dans la coupelle C est placé dans un champ magnétique inhomogène. Cette coupelle fait partie d’un équipage mobile suspendu par des fils d’argent (pendule de translation) qui comporte en outre un micromètre m et une bobine b qui se déplace dans l’entrefer annulaire d’un petit aimant permanent. Le principe de la mesure consiste à compenser la force subie par l’échantillon, qui tend à déplacer l’équipage, par une force électromagnétique due à un courant continu que l’on fait passer dans la bobine b. La position du pendule est repérée par projection sur un verre dépoli de l’image du micromètre m. La mesure de l’intensité du courant permet de connaître d’une manière rapide et pré-
- Fig. 34. — L’appareil Weiss-Foëx-Forrer à l’Exposition de Bruxelles.
- {Photo J.-M. Duterme, Mont-sur-Marchienne).
- Fig. 35. — Appareil de mesure des anisotropies magnétiques par la méthode de Krishnan.
- L’électro-aimant qui entoure normalement le centre de l’appareil a été enlevé pour montrer l’équipement de mesure proprement dit.
- (Photo J.-M. Duterme).
- cise la susceptibilité d’une substance, diamagnétique ; il n’est pas nécessaire d’opérer sur des poids supérieurs au décigramme.
- Ces méthodes s’appliquent à la mesure de la susceptibilité moyenne d’une substance. Mais dans le cas des cristaux, le moment magnétique induit n’est généralement pas colinéaire au champ magnétique et la susceptibilité n’est pas isotrope : la connaissance des propriétés magnétiques du cristal nécessite la mesure des trois susceptibilités principales ylt y2, selon les trois axes principaux d’aimantation, que ne permettent pas de déterminer les méthodes dont nous venons de parler. Le laboratoire de Chimie-Physique de Bordeaux se sert à cet effet d’un appareil construit selon le principe indiqué par Krishnan : le monocristal est suspendu suivant un de ses axes principaux d’aimantation dans un champ magnétique uniforme, par un fil de torsion en quartz très fin. Le cristal tend à tourner jusqu’à ce que son énergie potentielle soit minimale, ce qui est réalisé, dans le cas du paramagnétisme par exemple, quand l’axe d’aimantation auquel correspond la plus grande des deux susceptibilités principales et y2 dans le plan horizontal se trouve la direction du champ. La présence du champ magnétique exerce donc un couple sur le cristal dont on montre qu’il est maximal quand les axes d’aimantation sont à 45° du champ, et proportionnel à la quantité '— y_2. On peut aisément mesurer ce couple grâce au fil de torsion, bien qu’il soit très faible, et en déduire — y2. La quantité ^ ou y2— peut
- être déterminée de façon semblable avec une autre orientation du cristal, enfin la mesure de la susceptibilité moyenne par une autre méthode permet d’obtenir le résultat cherché. Pour réaliser ces mesures délicates, il faut opérer dans un tube de
- p.312 - vue 316/527
-
-
-
- 313
- verre étanche (condition indispensable si l’on désire connaître les susceptibilités à basse température), et à l’abri des vibrations mécaniques (fig. 35).
- Il nous faut mentionner pour terminer que MM. Pacault, Lemanceau et Joussol-Dubien ont mis au point une méthode de mesure des susceptibilités magnétiques qui diffère totalement des précédentes par son principe. L’appareil, construit par la société Verre et Technique, est appelé y-mètre électronique. Sa réalisation est fondée sur la variation de la self d’une bobine lorsqu’on y introduit une substance : cette bobine fait partie d’un circuit oscillant self-capacité dont on mesure la fréquence propre quand la substance est en place et quand elle est ôtée :
- la différence des deux fréquences est proportionnelle à la susceptibilité de la substance. Cette méthode présente sur les méthodes classiques basées sur la mesure des forces un certain nombre d’avantages, dus principalement au fait que l’on évite l’emploi d’un électro-aimant puissant qui est lourd et onéreux.
- Le nombre et la variété des appareils présentés à l’Exposition de Bruxelles témoignent de l’intérêt que les chercheurs portent de plus en plus à la connaissance des propriétés magnétiques des corps, dont on peut déduire une quantité considérable de résultats dans des domaines très divers et parfois inattendus.
- J. Hoarau.
- La sexualité chez les bactéries
- L’opinion a longtemps prévalu que les bactéries étaient asexuées : dépourvues, disait-on, de chromosomes ou de gènes, tout rapprochement sexuel entre ces micro-organismes était dénué de sens. Une constatation cependant laissait entrevoir que cette doctrine ne reposait pas sur des bases indiscutables : les bactéries, en effet, parviennent à s’adapter à des milieux choisis délibérément comme peu favorables à leur développement. Une adaptation spontanée, créant des caractères nouveaux, était difficilement compatible avec l’absence de tout matériel chromosomique, tenant compte surtout de ce que ces caractères se perpétuaient d’une génération sur l’autre.
- Plus récemment, des expériences de S. E. Luria et M. Delbruck ont établi que des bactéries, traitées aux rayons X ou soumises à l’action de produits chimiques, étaient l’objet de mutations, au même titre que des organismes plus évolués. Une autre expérience, en ip44, a permis de transmettre à une souche de pneumocoques l’aptitude à synthétiser un sucre complexe par simple injection d’acide désoxyribonucléique prélevé sur une autre souche possédant déjà cette aptitude (cette expérience de MacLeod et MacCarty a été citée au sujet de la création, l’année dernière, des canards Blanche-Neige) (voir p. 3o4).
- Il était donc vraisemblable que, contrairement à l’opinion ancienne, l’évolution des bactéries obéit aux lois qui régissent l’hérédité chez l’ensemble des êtres vivants. Et cela aurait pu difficilement s’expliquer sans la présence des gènes.
- En ig48, Lederberg et Tatum décidèrent d’opérer sur l’espèce très répandue Escherichia coli, la bactérie qui vit dans le côlon des mammifères. Deux souches différentes furent obtenues, caractérisées par leur inaptitude à opérer la synthèse de certains acides aminés : l’inaptitude de la souche A concernait les acides que nous désignerons par les lettres v et x. Celle de la souche B concernait les acides y et z. Mêlant ensuite les deux souches, les expérimentateurs constatèrent que la colonie commune avait acquis la possibilité de créer les quatre acides aminés. Il était ainsi démontré qu’une recombinaison génétique pouvait se produire chez les bactéries. De nouvelles expériences de Lederberg ont abouti à la certitude que les gènes sont disposés selon des structures linéaires, analogues à celles observées dans le noyau des cellules des animaux et des plantes.
- Ce point important étant établi, il restait à rechercher le
- — Processus de la conjugaison sexuelle df’Escherichia coli.
- Explications dans le texte.
- moyen par lequel les recombinaisons sont obtenues. C’est à la suite des travaux de Hayes, en 1952, qu’une nette différenciation a été constatée entre les bactéries, certaines d’entre elles jouant en quelque sorte le rôle de mâles, les autres de femelles. L’accouplement était cependant infiniment rare parmi les représentants habituels de l’espèce Escherichia coli et les observations décisives n’ont pu avoir lieu qu'après la découverte, par Hayes et Cavalli, de souches de « supermâles », ioo à i ooo fois plus actifs que les mâles courants.
- Ces observations, dues à E. L. Wollmann et F. Jacob, ont été faites à l’Institut Pasteur de Paris. Elles sont présentées à Bruxelles, dans le Palais international de la Science, où est exposé le tableau schématique que reproduit la figure 36.
- Lè processus est lent (les cadrans placés en haut et à droite
- ïrfé © y ^n© Xy\ \ VTh x (H ^X©)
- W^è> 1/ Y.. jCxjn4 X 8 cfryUy flrrv v
- g° ,PMfB
- Fig. 36.
- p.313 - vue 317/527
-
-
-
- 314
- Fig. 37. — Conjugaison entre deux bactéries de souches différentes.'
- La bactérie femelle est arrondie La bactérie mâle, de forme allongée, est en voie de division. Un pont cellulaire est nettement visible, réunissant les deux bactéries.
- (Documents aimablement communiqués par M. F. Jacob, Institut Pasteur de Paris).
- de chacun des rectangles qui décrivent les phases successives rendent compte de l’horaire). Le fait le plus étonnant est que les gènes du mâle pénètrent dans la bactérie femelle dans un
- ordre déterminé, spécifique de chacune des souches observées. La succession a pu être reconnue en interrompant la conjugaison à plusieurs reprises : c’est en agitant les bactéries à grande vitesse dans un « mixer » que les expérimentateurs ont réussi à les séparer et à identifier par la suite les gènes transmis avant chacune des séparations.
- Sur la première rangée de trois rectangles, on voit les deux bactéries se rapprocher, puis s’accoler : un pont cellulaire se forme par lequel une extrémité (toujours la même) du chromosome de la bactérie mâle commence à pénétrer dans la bactérie femelle.
- Cette pénétration se poursuit dans la deuxième rangée. L’horaire, à compter de la formation du pont cellulaire, est le suivant :
- Au bout de 7 mn, passage du gène A (synthèse de l’acide aminé thréonine).
- Au bout de 9 mn, passage du gène B (synthèse de la leucine).
- Au bout de 10 mn, passage du gène C (sensibilité au nitrure de sodium).
- Au bout de 11 mn, passage du gène D (sensibilité au virus
- T,)-
- Au bout de 18 mn, passage du gène E (fermentation lactique).
- Au bout de 25 mn, passage du gène F (fermentation galactique).
- On remarque que le chromosome mâle n’est qu’incomplète-ment transmis. La séparation, représentée sur le rectangle de droite, laisse subsister un segment important du chromosome.
- A la troisième rangée, le segment qui a pénétré dans la bactérie femelle s’apparie au chromosome de cette dernière et la recombinaison se produit. Le chromosome définitif comprendra une série de caractères génétiques, dont une partie « autochtone » et l’autre partie provenant de la bactérie mâle. Ainsi « fécondée », la bactérie femelle joue désormais le rôle d’un œuf (ou zygote), à partir duquel se formeront de jeunes bactéries, alliant les caractères génétiques de chacun de leurs « parents ».
- Il est bien entendu qu’avec ou sans conjugaison sexuelle, la reproduction des bactéries se fait par division cellulaire.
- G. G.
- CRISTAUX LIQUIDES
- Près de 3 000 corps organiques, solides à la température ordinaire, donnent par fusion des liquides opalescents, aussi fluides d’une part que les liquides normaux, aussi anisotropes d’autre part, aux points de vue optique, électrique et magnétique, que des cristaux. Ces deux qualités ont fait donner à cet état le nom imagé d’état « cristal liquide ». Quelques-uns de ces corps donnent par dissolution, dès la température ordinaire, des solutions qui présentent les mêmes caractères d’anisotropie.
- Intermédiaire entre l’état cristallin, caractérisé par un ordre presque parfait, et l’état liquide, caractérisé par un désordre complet, au moins à l’échelle du micron, cet état peut apporter de très précieux renseignements sur le passage de l’état solide à l’état liquide; d’où l’intérêt que présente son étude du point de vue de la recherche pure. L’intérêt pratique apparaît immédiatement quand on sait que la plupart des détergents ainsi que de nombreux produits d’importance biologique primordiale tels que les dérivés du cholestérol, les polypeptides, la myéline se comportent soit à l’état fondu, soit en solution, comme des cristaux liquides.
- L’expérience présentée à Bruxelles a simplement pour but de montrer l’anisotropie optique de l’éthoxybenzalaminocinna-mate d’éthyle a méthylé : , '
- C2H,,o/ \--CH=:N— é' \-
- CH = C - COOC*H5
- I
- . CIL
- Ce corps fond à 910 en donnant un liquide anisotrope du type nématique; il passe à l’état liquide normal à 1160. Comme pour tous les produits qui donnent naissance à des cristaux liquides, la dimension de la molécule de ce corps suivant la direction d’allongement, ou axe de la molécule, est quatre à cinq fois plus grande que les dimensions transversales. Ces longues molécules, dans la phase nématique, se déplacent tout en restant sensiblement parallèles les unes aux autres ; d’où la fluidité du milieu et son anisotropie liée directement à l’ani-sot.ropie de la molécule.
- Fondu, sans précaution, entre deux lames de verre (épaisseur du liquide : o,i5 mm), ce produit donne une préparation qui, examinée au microscope polarisant, se présente comme une association de petites plages fortement biréfringentes, d’aspect assez voisin de celui présenté par une préparation pétrogra-phique. Si, au contraire, le produit est fondu entre lames de verre très propres, grâce à un nettoyage chimique énergique, la préparation est optiquement homogène dans toute son
- p.314 - vue 318/527
-
-
-
- 315
- étendue : on a ainsi obtenu un « monocristal liquide » qui se comporte optiquement comme une lame de calcite taillée perpendiculairement à l’axe. Ceci résulte de ce que, dans ces conditions, les longues molécules d’ « éthoxybenzal » ont une forte tendance à se placer perpendiculairement aux parois, orientant de proche en proche celles qui se trouvent dans l’épaisseur de la préparation.
- Par suite de l’agitation thermique cette position n’est qu’une position moyenne, la répartition statistique des axes des molécules est telle que ce monocristal liquide, à l’échelle du micron, présente un axe d’isotropie et un seul, perpendiculaire aux lames de verre (dans le liquide normal obtenu au-dessus de n6°, le désordre s’établit et toute direction devient axe d’isotropie).
- Il résulte de cette structure que si cetle lame est observée avec le montage dit de lumière convergente, on obtient une figure (croix noire et anneaux colorés) rigoureusement semblable à celle obtenue avec une lame de calcite taillée perpendiculairement à l’axe. Mais la préparation étant liquide, il suffit de souiller très légèrement sur elle pour désorganiser le milieu et faire disparaître la figure; dès que la perturbation cesse, l’orientation homogène se rétablit lentement, la figure réapparaît. C’est cette expérience qui a été présentée au Palais international de la Science (Section Cristal).
- P. CHATELAIN,
- Professeur à la Faculté des Sciences de Montpellier.
- L'ufilisation de l'énergie solaire
- On sait que la chaleur que la terre reçoit du soleil provient des réactions nucléaires très violentes de fusion d’éléments légers dont il est le siège et nombreuses sont les réalisations de différents pays en vue de l’utilisation de cette source d’énergie. C’est le cas par exemple de l’État d’Israël qui présente au Palais de la Science une chaudière solaire à vapeur utilisant des principes assez nouveaux. Le collecteur est constitué essentiellement par une couche noire absorbant bien les radiations et de faible émissivité, donc à faibles pertes de chaleur réémise (fig. 38). D’autre part, l’appareil utilise le principe de l’inversion qui consiste à utiliser un collecteur horizontal recevant la lumière vers le haut au moyen d’un miroir, de façon à réduire les pertes de chaleur par convection. L’appareil présenté
- Isolant
- Fenêtre Tubepour de verre in chauffage du fluide
- Intervalle d'air
- Plaque réceptrice avec sa couche noire sélectrice
- Fig. 38. — Schéma du collecteur d’énergie solaire par couche noire sélective.
- l.a lumière est renvoyée vers le haut par un miroir, non figuré ici.
- à l’Exposition, réduit au tiers et éclairé par une lampe puissante, actionne une petite machine à vapeur. Dans les réalisations pratiques, le miroir a une surface de 6 m2 par unité. 5 unités permettent de faire fonctionner une petite pompe; 5oo unités représentent l’équivalent d’une consommation de 3o t de carburant par an. Malgré ses perfectionnements, on voit
- Fig. 39. — Schéma d’un appareil de distillation de l’eau de mer par la chaleur solaire.
- donc qu’un tel procédé n’a de sens que pour des pays à très faibles ressources énergétiques. Il suffit de songer qu’à Paris le chauffage d’un appartement n’exige souvent qu’une tonne de charbon par an.
- L’État d’Israël a également mis au point des installations pour la distillation de l’eau de mer. Les rayons solaires traversent un demi-cylindre horizontal de plastique mince et sont absorbés par une feuille de plastique noir recouverte d’eau salée (fig. 39). L’eau chauffe et une partie est vaporisée et recondensée sur le recouvrement en plastique d’où elle s’écoule latéralement sous forme d’eau douce. On peut ainsi obtenir 2 l d’eau par jour et par mètre carré de sol dans des conditions favorables. Là encore, le rendement est extrêmement faible si on tient compte des frais d’installation et d’entretien. Les États-Onis s’intéressent également à l’utilisation de l’énergie solaire et présentent des modèles de maison à chauffage solaire. Deux systèmes semblent avoir été retenus : la chaleur est emmagasinée soit par une couche de gravier, soit par un tank d’eau chaude.
- On trouve également dans le commerce, aux États-Unis, des cuisinières, assez imposantes d’ailleurs, qui permettent la cuisson des aliments au moyen de la chaleur solaire.
- R. R.
- L'heure à l’Exposition
- Indiquer l’heure à une seconde près à plus de trente millions de visiteurs répartis sur une surface de plus de deux millions de mètres carrés pendant une période de six mois semble une tâche presque impossible. Ce le serait en effet sans l’aide de l’électronique; mais grâce à elle, le problème a été résolu de telle sorte que personne ne pourra s’excuser d’être en retard en prétendant qu’il ne savait pas l’heure.
- Toute une série d’horloges à double cadran ont été installées à chaque point important de l’Exposition. On peut remarquer une petite antenne sur leur côté; en effet, ce ne sont pas des horloges ordinaires : elles sont synchronisées par radio. Équipées d’un récepteur spécial, elles reçoivent des « pips » périodi-
- ques, transmis par l’Institut national belge de Radiodiffusion; cet équipement est le résultat de la collaboration entre l’I.B.M. et la firme belge M.B.L.E. qui a construit les récepteurs.
- Chaque horloge reçoit ainsi deux séries de signaux correcteurs. Le premier cycle de correction est constitué par une série d’impulsions fournies chaque heure et qui corrigent les aiguilles des minutes et des secondes. Un second cycle de correction, qui fonctionne sur une fréquence différente et intervient toutes les douze heures, affecte les trois aiguilles. On obtient ainsi une précision supérieure à la seconde pendant une durée quelconque.
- F. R.
- p.315 - vue 319/527
-
-
-
- 316
- QUELQUES PRÉSENTATIONS DES SECTIONS NATIONALES
- Le nouveau contrôle aérien par radar de Bruxelles-Melsbroek
- Au pavillon de l’Aviation civile belge, nous avons pu voir ie centre de contrôle régional du trafic aérien installé pour la Régie belge des voies aériennes par trois firmes françaises (Compagnie générale de T.S.F., Société nouvelle d’Ëlectronique et Compagnie française Thomson-IIouston). Le système employé est assez nouveau, surtout dans l’aviation civile, et l’ensemble constitue une réalisation qui fait honneur à l’industrie électronique française.
- Contrairement aux installations habituellement employées, celle-ci fait appel au radar pour situer les avions. En effet, bien qu’il constitue un système de choix pour le contrôle aérien, le radar n’est pas employé pour le contrôle régional de la circulation du fait de la mauvaise adaptation du matériel existant aux tâches précises qui sont imposées au contrôle régional.
- Les avions civils sont tenus de circuler dans certains chenaux bien déterminés. Ces chenaux sont divisés en tranches d’altitudes dans lesquelles se maintiennent les avions ; le long de ces chenaux des balises radio permettent de repérer le moment où un avion passe à leur verticale. D’autre part, le contrôleur est en communication par radio avec le pilote qui lui indique quelles sont ses caractéristiques de vol. A l’aide de ces renseignements, le contrôleur peut extrapoler la route de l’avion jusqu’à la balise suivante et contrôler ainsi son vol. Dans cette procédure de contrôle qui est celle habituellement employée, le radar ne joue qu’un rôle d’appoint dans les cas difficiles ou de mauvaise visibilité.
- Pourquoi le radar n’est-il pas habituellement utilisé ? En dehors des questions financières qui ne jouent d’ailleurs pas toujours, la désaffection à l’égard du radar est due à des raisons
- Pinceau d'ondes centimétriques Aérien tridimensionnel
- Relais hertzien
- <ü
- ‘1
- c:
- O
- CJ
- 03 J S
- £
- g
- CO
- Séparation de l'information en 6 voies
- Transformateurs d'images
- V
- :: :: /rm /rm /rm ÆID /rm
- 01)1 OMI <7TT1 OTTI <T) n
- 4 chenaux fixes I chenal orientable Présentation panoramique Ecrans de Télévision
- Fig. 40. — Schéma général de l’installation.
- Fig. 41. — L’antenne tridimensionnelle.
- Le grillage constitue un réflecteur parabolique pour les ondes centimétriques. A. l’avant, la source « illuminant » le réflecteur. Ce sont les déplacements de cette source par rapport au foyer qui provoquent le balayage
- en site.
- (Photo Société nouvelle d’Électronique).
- secondaires. Par exemple : un opérateur utilisant un indicateur panoramique (c’est-à-dire un radar indiquant sur un écran circulaire la direction et la distance des avions) peut difficilement quitter l’écran des yeux pour faire des calculs ou donner des instructions, sous peine de ne plus pouvoir comprendre l’image radar faute d’avoir suivi des yeux la trace continuellement. S’il fallait généraliser l’emploi du radar tel qu’il existe actuellement, cela nécessiterait une augmentation considérable du personnel employé.
- Mais d’autre part, il est certain que les méthodes actuelles limitent considérablement le débit dans les chenaux du fait qu’il faut imposer d’assez grandes distances entre les avions pour se prémunir contre les erreurs possibles et pour tenir compte du temps nécessaire au contrôle pour réagir. De plus, l’apparition prochaine des avions à réaction long-courriers, qui volent surtout en haute altitude et qui, du fait des distances relativement courtes en Europe, sont constamment en train de changer d’altitude, obligera elle aussi à utiliser prochainement le radar dans les procédures de contrôle régional.
- Le système installé pour la Régie des voies aériennes belges apporte une solution originale à ce problème. Non loin de Bruxelles, quatre vroies aériennes se croisent. Il faut donc con-
- p.316 - vue 320/527
-
-
-
- 317
- Fig. 42. — Présentation panoramique de la situation.
- Projection sur un plan horizontal des positions et routes des avions. De fines rayures horizontales sont dues à la présentation sur écran de télévision.
- (Photo Compagnie générale de T.S.F.).
- trôler simultanément ces quatre chenaux. Le procédé employé est le suivant : une station radar est située à Denderhoutem, point de croisement exact des quatre chenaux ; elle comporte une antenne qui explore l’espace en azimut et en site, permettant ainsi de déterminer la position exacte de tout avi.on au voisinage.
- Rappelons à ce propos comment fonctionne un radar. Une station d’émission envoie dans l’antenne environ i ooo fois par seconde et pendant un millionième de seconde, un train d’ondes radio de fréquence très élevée (plusieurs milliers de mégacycles par seconde, soit une longueur d’onde de l’ordre du centimètre). Les ondes de fréquence aussi élevée se propagent en ligne droite comme la lumière et on peut avec des antennes convena-
- Fig. 43. — Représentation d'un chenal sur écran de télévision.
- En haut, projection sur un plan vertical. En bas, projection sur un plan horizontal. Les distances suivant l’axe du chenal se correspondent sur les
- deux figures
- blés obtenir des pinceaux extrêmement fins et bien dirigés. Si un obstacle se trouve dans la direction du faisceau, l’onde se réfléchit pendant le « silence » de l’émetteur et peut être captée par la même antenne. Le temps mis par l’onde pour revenir permet de mesurer la distance de l’obstacle. La direction de l’antenne détermine celle dans laquelle se trouve l’obstacle qui est donc par ces deux mesures exactement repéré dans l’espace.
- Les radars de surveillance habituels ne donnent pas de renseignement sur l’altitude des avions, l’image qui apparaît sur l’écran panoramique étant une projection sur un plan horizontal des points qui représentent les avions.
- La station radar de Denderhoutem possède un aérien dit « tridimensionnel », c’est-à-dire que l’antenne tourne lentement autour d’un axe vertical et que de plus l’axe du pinceau d’ondes se déplace assez rapidement dans un plan vertical, décrivant ainsi un secteur de i5°.
- Supposons qu’un écho arrive sur l’antenne quand celle-ci a une orientation donnée; nous avons vu que le temps de parcours des ondes donne la distance et que la direction de l’antenne donne celle de l’avion. Un très simple calcul trigonomé-trique permet donc d’obtenir alors la distance horizontale et l’altitude. Tous ces renseignements sont directement extraits des données par l’appareillage qui se trouve à proximité de l’antenne. Ces renseignements sont alors transmis par un relais hertzien au centre de contrôle. Us subissent là un remaniement complet.
- Tout d’abord, on élimine les parasites en comparant le signal reçu au signal précédent. Tous les signaux dont la fréquence de répétition n’est pas cohérente avec celle du radar peuvent ainsi être éliminés. Les signaux ainsi épurés sont ensuite transformés de façon à être présentés sur des écrans de télévision. On crée ainsi six images différentes. Tout d’abord une image circulaire représentant la projection en plan de la situation générale. Puis quatre images représentant ce qui se passe dans chaque chenal ; chacune de ces images est double, elle se présente comme une épure de géométrie descriptive. Dans la partie supérieure figure une projection de la situation sur un plan vertical passant par l’axe du chenal, cette image renseigne donc sur l’altitude de l’avion. 'La partie inférieure est une projection sur un plan horizontal, elle donne des renseignements sur la distance et
- Fig. 44. — Pupitre de contrôle.
- En haut, écran de télévision présentant un chenal. En bas, écran panoramique montrant la situation générale.
- (Photo Société nouvelle d’Électronique).
- p.317 - vue 321/527
-
-
-
- 318
- l’azimut de l’avion. La sixième image permet d’étudier de la même façon ce qui se passe dans une direction quelconque, donnant ainsi la possibilité de contrôler les avions évoluant en dehors des chenaux réglementaires.
- Transformation des images. — Les images radar habituelles sont obtenues par un balayage polaire, c’est-à-dire que le spot lumineux décrit un rayon du cercle et ce rayon tourne lentement, en synchronisme avec l’antenne. Par contre, les images de télévision sont obtenues par un balayage de lignes horizontales. Il fallait donc passer du premier type d’images au second, On a utilisé pour cela un tube à mémoire dont le principe est analogue à celui du « mémotron » dont nous avons parlé à l’occasion de l’Exposition de Physique (La Nature, juin ig58, p. 242).
- L’image type radar est formée sur une couche semi-conductrice spéciale où le faisceau électronique arrache des électrons par émission secondaire, laissant ainsi une « trace » chargée positivement. Lorsque l’image radar est complètement formée, on la « lit » à l’aide d’un deuxième pinceau d’électrons qui, lui, la balaye par lignes horizontales.
- L’antenne du radar fait un tour en vingt secondes, elle explore donc chaque chenal trois fois par minute. Donc, trois
- fois par minute, la situation est mise à jour sur la couche mémoire du tube transformateur d’images et immédiatement transmise aux récepteurs de télévision. Le tube mémoire conservant les images pendant plusieurs minutes, un avion est repéré sur les écrans par une trace en pointillé qui représente sa trajectoire pointée toutes les vingt secondes pendant les cinq minutes passées.
- On peut donc prévoir très commodément la route future d’un avion en extrapolant la trace qu’il laisse. Ce qui facilite la résolution des problèmes de croisements et de changements d’altitude.
- Le centre de contrôle est momentanément installé à l’Exposition internationale avant de l’être définitivement à l’aérodrome. Ceci est rendu possible par la liaison hertzienne établie entre l’antenne et le centre de contrôle.
- Voici donc une réalisation tout à fait remarquable et qui sera certainement suivie de près par les autorités chargées de la sécurité aérienne.
- II n’est pas douteux, en effet, que le nouveau système de radar de surveillance tridimensionnel est appelé à rendre les plus grands services au contrôle de la navigation aérienne pour renforcer la sécurité et accroître la cadence du trafic.
- F. R.
- Le polypropylène isotactique
- ouvre une voie nouvelle dans le domaine des plastiques
- Si l’on demandait à un spécialiste quels sont les mots qui ont fait le plus parler d’eux dans le domaine des matières plastiques en ces dernières années, il répondrait sans aucun doute que ce sont les termes isotactique et stéréospécifique. Ils ne sont d’ailleurs pas inconnus pour le lecteur de La Nature puisqu’un article leur a été consacré en mai 1957 (p. 186). Revenons cependant brièvement sur leur signification. On distingue dans la formation des hauts polymères synthétiques deux types principaux de réaction : d’une part les réactions par étapes successives, d’autre part les réactions de polymérisation en chaîne. L’exemple type des réactions par étapes successives est la réaction qui est à la base de la fabrication du nylon. On sait que le nylon est fabriqué par polycondensation d’un diacide, l’acide adipique GOOII — (CH2)4 — COOII, et d’une diamine, l’hexa-méthylènediamine NH2 — (CH2)6 — NII2, réaction que l’on peut représenter par le schéma suivant :
- HOOC-(CH,)4-CO PH + H NH-(CH2)g-NH
- H + HO OC-(CH,)4-COOH
- Cette polycondensation se fait par étapes dont la vitesse est analogue à celle des réactions ordinaires d’un acide sur une amine. On obtient au début un produit de bas poids moléculaire, puis celui-ci augmente progressivement lorsque la réaction se poursuit. Certains catalyseurs peuvent agir sur la vitesse de réaction, mais ils agissent à chaque étape.
- Les réactions de polymérisation en chaîne présentent des caractères extrêmement différents. L’exemple type est la polymérisation des dérivés vinyliques : éthylène, propylène, styrolène, etc. :
- CH2 = CH ... CH2 — CH — CH, — CH ...
- ch3 h ch3 h ch3
- N /' \ v
- c c
- ^CH
- H CH,
- / si ,
- 'c, y,c^
- H CH3 H
- "CHô
- \h/
- Fig. 45. — Schéma du polypropylène ordinaire.
- seur, de la lumière ou de la chaleur ; elle se poursuit par une croissance très rapide de la molécule et s’achève par des réactions de terminaisons diverses.
- Pendant longtemps on ne savait pas agir sur la réaction de propagation, c’est-à-dire sur le mode de croissance des chaînes de polymères. Avec le propylène par exemple CH3 — CII = CH2, on obtenait ce que l’on peut appeler le polypropylène ordinaire ou atactique (fig. 45) dans lequel les atomes d’hydrogène et les groupements méthyle — CII3 étaient disposés en avant et en arrière du plan de figure d’une manière absolument quelconque.
- Or, récemment, les travaux de recherches poursuivis par M. Karl Ziegler en Allemagne et Giulio Natta en Italie ont abouti à la découverte de catalyseurs spéciaux qualifiés de « stéréospécifiques », qui peuvent modifier les propriétés du polymère en agissant sur la réaction de propagation.
- On obtient alors des polymères dont tous les motifs sont disposés de la même façon; de tels polymères sont dits isotacti-
- CH3 H ch3
- V
- 'CH,'
- CHi
- Fig. 46.
- H CH, H CH, H CH, H C' 'C'' ari >vc/
- Xxch2// NNsch/'^ Nxch2-//
- Schéma du polypropylène isotactique.
- R R R
- Il s’agit d’une réaction en chaîne très rapide; les poids moléculaires des macromolécules formées au début et à la fin ne diffèrent pas notablement. Une réaction de ce type commence par une réaction dite d’initiation sous l’influence d’un cataly-
- ques. Dans le cas du polypropylène par exemple, les atomes d’hydrogène et les groupements méthyle — CH3 sont disposés d’une manière régulière (fig. 46). Il en résulte une cristallinité beaucoup plus élevée et, par suite, une augmentation du point de ramollissement et une amélioration des propriétés mécani-
- p.318 - vue 322/527
-
-
-
- 319
- ques. Pour que les réactions aboutissent à de tels polymères, il faut que les conditions suivantes soient remplies : la réaction doit être effectuée en phase catalytique hétérogène, c’est-à-dire avec un catalyseur solide, en suspension ou à l’état colloïdal, dans un milieu liquide. Il semble que le catalyseur adsorberait les molécules de monomères et les préorienterait, avant leur insertion dans les chaînes de propagation, de manière que la
- Catalyseur
- solide
- CH;
- CH---
- CH;
- Fig. 47. Schéma de la croissance du polypropylène isotactique.
- chaîne croisse comme un cheveu (fîg. 47). Enfin, il faut que le solvant où a lieu la réaction éloigne les molécules de la surface active du calahseur, permettant ainsi une reproduction du cycle.
- Dans le cas du polypropylène, le catalyseur utilisé semble être le produit obtenu en faisant réagir le tétrachlorure de titane sur le triéthylaluminium A1(C2H5)3. Il se formerait un complexe dans lequel le titane passerait à un degré d’oxydation inférieur et il apparaît, à la lumière de travaux récents, que l’aluminium-triéthyle jouerait simplement un rôle de co-catalyseur.
- Quoi qu’il en soit, d’excellents rendements ont été obtenus par Natta et une première réalisation industrielle a été entreprise avec succès par la société italienne Montecatini. Le polypropylène isotactique vendu en Europe sous le nom de « Moplen a commence à être largement utilisé.
- Caractéristiques du Moplen. — Le Moplen est une matière thermoplastique, incolore et inodore, transparente et brillante. Les propriétés physiques attribuables à la structure hautement cristalline du Moplen sont très différentes de celles des thermoplastiques connus jusqu’alors. C’est la plus légère des matières plastiques qui ait été produite; sa densité est en effet de 0,90. Il présente également une résistance particulièrement élevée à la chaleur, son point de fusion étant compris entre i64° et 1680 C. Il peut être stérilisé et utilisé à des températures allant jusqu’à i5o° C. Il a d’excellentes propriétés diélectriques même aux hautes fréquences. Le comportement vis-à-vis des réactifs chimiques est excellent. Il est insoluble à la température ordinaire dans tous les solvants et ne devient pas cassant lorsqu’il est laissé en contact pendant un temps prolongé avec des solvants ou des substances polaires. Les huiles minérales et végétales ne sont adsorbées qu’en faible quantité et elles restent sans influence notable sur les propriétés physiques du produit. 'Le Moplen est sensible comme beaucoup de plastiques à l’oxydation par l’oxygène de l’air aux températures élevées. Cette action se manifeste par une destruction de la molécule accompagnée d’une dégradation des propriétés physiques. Mais l’addition des anti-oxydants usuels permet de le travailler pendant plusieurs heures à température élevée, en présence d’oxygène. De même le Moplen, sous l’influence de la lumière solaire directe, devient cassant après quelques mois; cette altération résulte d’une oxydation fortement accélérée par les rayons ultraviolets et contre laquelle les anti-oxydants n’exercent qu’une protection limitée. Il est cependant facilement stabilisé par l’incorporation de charges susceptibles d’absorber les rayons ultraviolets, notamment de noir de fumée dans la proportion de 1 à 2 pour 100.
- Toutes ces propriétés seraient cependant d’un intérêt médiocre
- si le Moplen était difficile à fabriquer et à utiliser. En fait, l’équipement et les techniques nécessaires à l’élaboration du Moplen ne diffèrent pas de ceux nécessités par la fabrication des thermoplastiques habituels. De même il peut être travaillé par injection, extrusion au moyen des procédés classiques. Sa fluidité élevée à haute température ne nécessite pas des pressions élevées lors du moulage. La préparation des mélanges à base de Moplen ne nécessite pas l’emploi de plastifiants; il peut être facilement coloré et une large gamme de colorants est utilisable. La soudure du Moplen s’exécute facilement avec un chalumeau alimenté avec un courant d’azote ou de tout autre gaz inerte chauffé entre 200° et 220° G et en utilisant un fil de Moplen qui constitue en quelque sorte le produit d’apport. Enfin, ce produit peut être facilement travaillé sur des machines-outils, telles que tours, fraiseuses, perceuses, etc. Ces opérations ne nécessitent pas l’emploi d’un fluide de graissage et il suffit de refroidir la pièce sur laquelle on opère par une émulsion convenable. La bonne résistance du Moplen à la chaleur permet d’opérer avec une vitesse de coupe relativement élevée.
- Applications du Moplen. — Les débouchés du Moplen sont extrêmement nombreux. Il convient à l’exécution des tuyauteries pour lesquelles il est supérieur au polyéthylène quant à la résistance à la température et à la pression.
- Les pellicules de Moplen possèdent la même transparence que la cellophane et présentent en outre l’avantage d’une plus grande ténacité et d’une résistance extraordinaire au déchirement. En outre la perméabilité aux vapeurs et aux gaz est très faible. Il sera certainement largement utilisé dans les industries de l’emballage. Sa résistance à la chaleur permet de réaliser des bouteilles stérilisables sans crainte de déformation. Ses excellentes propriétés électriques et la facilité avec laquelle on peut, par extrusion, le déposer sur des fils et câbles électriques, lui assurent un débouché pour l’isolement des conducteurs électriques, en particulier lorsqu’on désire que cet isolement résiste à la chaleur.
- Le Moplen possède une haute résistance aux chocs; combinée à ses autres propriétés, ceci le rend particulièrement indiqué pour la fabrication de bacs d’accumulateurs, d’éléments de réfrigérateur, de jouets, d’articles ménagers, etc. On envisage également son utilisation sous forme de fibres; sa résistance à la chaleur et aux agents chimiques le rend apte à la réalisation des filtres destinés à l’industrie chimique. Enfin, on peut également exécuter des cuves de grandes dimensions par soudure de plaques de Moplen, ces cuves étant destinées aux industries chimiques.
- Ce produit a déjà été mis à la disposition de l’industrie européenne; quant aux U.S.A., ils ont suivi avec attention son développement et la firme Hercules Powder a déclaré récemment que la première usine nord-américaine de fabrication du polypropylène allait être mise en service à Parlin dans le New Jersey; à cet effet, la Sinclair Chetaical Inc. vient d’annoncer son intention de mettre sur le marché du propylène très pur, sous-produit du raffinage du pétrole. Le produit américain, nommé « Profax a, va faire l’objet d’une distribution de lancement au prix de 700 F/kg environ et un spécialiste des matières plastiques prétend même que le polypropylène pourrait devenir moins cher que le polyéthylène.
- Ces quelques faits montrent l’importance que va prendre dans le domaine des plastiques, la catalyse stéréospécifique. La Société Montecatini a d’ailleurs d’autres polymères isotactiques à l’étude : le polystyrolène, le polyvinylbenzène, le polybuty-lène et des copolymères d’éthylène et de propylène. Ces nouvelles matières feront certainement parler d’elles dans les années à venir et l’on peut dire que les polymères isotactiques ouvrent une voie nouvelle de l’industrie des matières plastiques.
- R. Rosset.
- p.319 - vue 323/527
-
-
-
- 320
- Le diamant
- A l’Exposition internationale de Bruxelles, la Belgique a consaci’é au Diamant un luxueux petit pavillon. Cela ne saurait étonner quand on se souvient qu’Ànvers et la Campine comptent à peu près la moitié des ouvriers diamantaires du monde (12 ooo sur 26 ooo).
- Le diamant a été connu de l’homme depuis la plus haute antiquité. Plus de 3 ooo ans avant notre ère, on cite le Koh-I-Noor, solitaire de 186 carats appartenant à un roi des Indes. Il apparaît en Europe au ive siècle de notre ère. Jusqu’en 1420, il fut interdit aux femmes de le porter; ce fut Charles VII qui leva cette interdiction en faveur d’Agnès Sorel. C’est à cette époque aussi qu’il fait son apparition à Bruges, puis à Anvers et à Amsterdam.
- Le diamant est constitué par du carbone pur cristallisé dans le système cubique, mais sa maille est très particulière. Elle est constituée de telle sorte que chaque atome soit lié à qua-
- tre autres, saturant ainsi toutes ses valences. Il a été de ce fait pendant longtemps le corps le plus dur que l’on connaisse. Le nitrure de bore vient seulement de le détrôner depuis que l’on a su le faire cristalliser dans le même système que le diamant.
- En ce qui concerne ses origines, on pense que du carbone gazeux formé dans une région volcanique fut amené à passer à travers une roche en formation : la Terre bleue. Cette roche se solidifiant à la surface, le gaz fut soumis à de fortes pressions qui provoquèrent sa cristallisation. En effet, le diamant est métastable à la température et à la pression ordinaires, la forme stable étant le graphite. Mais on a montré qu’aux très hautes pressions et aux hautes températures, c’est le diamant qui est stable.
- On distingue deux sortes de diamant, le diamant alluvionnaire et le diamant de mines. Le premier provient de la désa-
- Culasse
- Fis• 49. — Proportions optimales pour la taille d’un diamant.
- grégation des roches qui renferment le second. Les diamants entraînés alors par la course des torrents se retrouvent dans les dépôts d’alluvions, quelquefois sous la mer à quelques mètres des côtes. La recherche dans les mines demande un outillage puissant. En effet, il faut trier en moyenne plus d’un mètre cube de minerai pour obtenir un dixième de gramme de diamant. On sépare les diamants par un courant d’eau, un peu comme les pépites d’or.
- 'La forme la plus pure est l’octaèdre régulier (« quatre poin-
- et sa taille
- Fig'. 50. — Différentes phases de la taille.
- a, octaèdre initial ; b, sciage de la table ; c, cbrutage ; d, mise en croix côté table ; e, mise en croix côté culasse ; f, mise en huit de la table.
- tes ») ; on peut encore trouver des « deux pointes », des « irrégulières », des « cleavages », ces dernières provenant des précédentes par un clivage, c’est-à-dire par une cassure suivant un plan de moindre résistance du réseau cristallin, des « flats », pierres de forme très plate, des « naats », association de deux cristaux orientés différemment (macles en cristallographie), et d'autres encore.
- Moins de 5 pour ioo des pierres classées pour être taillées sont à peu près pures; les autres possèdent une petite imperfection que l’on élimine en général par clivage ou lors de la taille. Le poids d’un diamant s’exprime en carats métriques : i carat vaut un cinquième de gramme. On produit peu de pierres dépassant io carats à l’état brut.
- C’est au xve siècle que l’on a découvert l’intérêt qu’il y avait à tailler les diamants pour leur donner plus d’éclat. En effet l’indice de réfraction du diamant est relativement élevé, de sorte que les rayons lumineux subissent plusieurs réflexions totales à l’intérieur de la pierre avant de ressortir, donnant ainsi l’éclat bien connu. On attribue au Brugeois Lodewyck van Berchem la découverte, en 1/176, des proportions les plus propices pour la taille du diamant (fig. 4g).
- Dans toutes les opérations de taille, on utilise de la poudre de diamant pour user la pierre, les outils d’acier n’y arrivant pas. Pour le sciage, on utilise un disque de bronze poreux tournant à 6 ooo t/mn, le bord du disque étant imprégné de poudre de diamant. L’ébruteur arrondit ensuite la pierre en la plaçant sur une toupie tournant à 120 t/mn et en usant ce qui est nécessaire à l’aide d’un autre diamant; le résidu est récupéré et servira à la taille et au sciage.
- On taille ensuite les facettes en appliquant la pierre sur un disque de fonte tournant très rapidement et enduit de poudre de diamant. On taille d’abord la table, puis les quatre facettes juxtaposées, puis on taille quatre facettes côté culasse. Ensuite, à l’intersection des quatre premières facettes, on en taille encore quatre autres, ce qui « met la pierre en huit ». Les petits diamants ne sont pas taillés davantage. Aux brillants, on ajoute huit étoiles, seize facettes côté table et seize facettes côté culasse. On a ainsi la pierre à cinquante-huit facettes.
- Le diamant venait tout d’abord uniquement des Indes, puis il fut découvert au Brésil en 1725 et en 1867 en Afrique du Sud. Entre 1910 et 1923, la production était de 4 millions de
- p.320 - vue 324/527
-
-
-
- 321
- Fig. 51. — Les différentes tailles de diamants.
- De gauche à droite : brillant, émeraude, marquise, en poire, baguette.
- carats par an. Elle augmenta progressivement jusqu’à atteindre
- 13 millions de carats en ic)4o avec l’apport du Congo belge. Après la guerre, nouvelle montée régulière et, en ig56, on produisit 23,5 millions de carats, le Congo belge intervenant pour
- 14 millions.
- La demande en diamant industriel augmente constamment. Les besoins annuels sont maintenant de 18 millions de carats dont i5 sont broyés en poudre, de sorte qu’il y a pénurie de diamants à tailler, une plus forte proportion étant employée dans l’industrie.
- Il y a trente ans, on employait le diamant pour dresser les meules, pour étirer certains fils, lisser le papier et tailler les diamants. La consommation n’atteignait pas i ooo ooo de carats par an. Mais l’apparition des diamants du Congo belge, en général impropres à la taille, incita à rechercher un moyen d’employer le diamant à de nouveaux usages. En 1934, on mit au point un liant d’acier pour la poudre de diamant. Depuis, de nouveaux perfectionnements ont permis de généraliser l’emploi d’outils diamantés qui servent en particulier à tailler les outils en carbure de tungstène et autres matériaux extra-durs.
- F. R.
- LES ORGANOMÉTALLOSILOXANES
- Le silicium est un élément tétravalent comme le carbone; il peut non seulement se fixer sur un atome de carbone, mais aussi donner de véritables enchaînements d’atomes de silicium analogues aux enchaînements d’atomes de carbone. La chimie du silicium s’est beaucoup développée au cours des dernières années et on connaît le succès qu’ont remporté les silicones. La propriété principale des silicones est leur excellente résistance à la chaleur. Les huiles de silicones, par exemple, résistent à 2000 C. Les produits plus condensés, s’ils ont des propriétés élastiques un peu moins bonnes que celles du caoutchouc, présentent par contre une excellente résistance à la chaleur, à l’oxydation et aux agents chimiques; d’où leur emploi comme joints dans les tuyères d’avions à réaction. Quant aux résines de silicones, elles résistent en service continu à 1800 G et peuvent même supporter des pointes à 35o° C. Elles servent également dans les joints d’imprégnation pour les moteurs travaillant à haute température et pour la préparation des peintures et vernis au four.
- Les silicones sont préparées à partir de dérivés halogénés du silicium tels que le trichlorosilane :
- Or, des savants russes sont arrivés à incorporer dans une telle chaîne des atomes métalliques, en particulier d’aluminium, ce qui conduit à la formation d’organo-alumino-siloxanes dont la structure peut être représentée ainsi :
- — O — Si — Al — 0 — Si — O —
- ! I I
- RO R
- I
- _ 0 — Si — R
- I
- O
- I
- Ces produits résisteraient en régime continu à des températures de l’ordre de 5oo° G. Suivant le degré de condensation, on obtient soit des élastomères, c’est-à-dire des produits analogues au caoutchouc, soit des résines solides. En outre, la présence des groupements carbonés R conférerait à ces produits la solubilité dans les solvants organiques. Leur préparation est effectuée en traitant un silanetriol par le chlorure d’aluminium en présence de soude. Il y a élimination de 3 molécules d’acide chlorhydrique (qui sont neutralisées en présence de soude) suivant le schéma :
- R représentant un radical carboné comme le radical éthyle C3HS.
- En hydrolysant ces dérivés chlorés par l’eau, on obtient des silanols, par exemple le silanetriol :
- R
- Ceux-ci ont une grande aptitude, aussitôt formés, à se déshydrater en formant des macromélocules. Avec le silanetriol, on obtient une macromolécule tridimensionnelle dont la structure est la suivante :
- ü
- R
- I I
- Si — 0 — Si •
- R
- R
- 0
- Si — 0 — Si — 0 I I
- 0 R
- O
- I
- Si I
- R
- R
- I
- Si-
- I
- O
- R
- I
- Si
- I
- 0
- Si
- I
- R
- OH OH
- I I
- R — Si — 0 — Al — O — Si — R
- I I I
- OH 0 OH
- I
- OH — Si - OH
- I
- R
- Par déshydratation, on obtient la chaîne macromoléculaire décrite précédemment.
- En fait, il se pose certainement un problème de catalyseur, mais nous n’avons malheureusement pas pu obtenir, à l’Exposition de Bruxelles, de renseignements complémentaires. Nous espérons pouvoir nous en procurer d’ici quelque temps.
- Quoi qu’il en soit, ces produits semblent avoir des caractéristiques assez exceptionnelles et à notre connaissance, il n’y a pas eu de réalisations analogues en Europe ou aux U.S.A. pour l’instant.
- La grande stabilité à la chaleur provient certainement du fait que la structure de ces produits présente des analogies certaines avec celle des alumino-silicates qui sont connus pour leurs propriétés réfractaires (amiante, etc.).
- 3 R
- <0H
- OH + AIGU OH
- R. R.
- p.321 - vue 325/527
-
-
-
- 322
- Au Pavillon des U.S.A.
- Le pavillon des U.S.À. est extrêmement vaste, mais on n’y trouve en définitive que peu de choses. Il semble que les Américains aient voulu éviter d’accabler le visiteur sous une avalanche de produits et d’appareils. Ils ont plutôt cherché à créer une ambiance comme en fait foi la présentation permanente de mode qui a lieu sur une plate-forme au centre d’un lac artificiel bordé d’arbres que les constructeurs du Pavillon ont été tenus de respecter. C’est dans cet esprit également qu’une large place a été réservée à une présentation d’œuvres d’artistes américains. Les appareils ménagers et les cuisines automatiques avec des tableaux de bord impressionnants remportent aussi un certain succès.
- A un point de vue plus strictement scientifique, on peut remarquer la présentation d’un studio complet de télévision en couleurs. Ces appareils se généralisent aux États-Unis et il nous a semblé que la réception était très honorable. On peut constater sur les différents appareils fonctionnant simultanément que les couleurs ne sont pas les mêmes d’un poste à l’autre; ceci est probablement dû à des différences de réglages entre les récepteurs. On pouvait voir, d’autre part, des récepteurs de télévision portatifs encore qu’assez encombrants que l’on présentait avec du matériel de camping.
- En ce qui concerne l’énergie atomique, un dispositif de manipulation à distance extrêmement perfectionné, du type utilisé dans les laboratoires de haute activité, attirait une foule nombreuse, très impressionnée de voir allumer une cigarette à plusieurs mètres de distance par une opératrice se tenant derrière un épais mur de protection.
- En dehors de cela, quelques applications des radioisotopes étaient présentées, certaines très classiques, d’autres qui nous ont semblé plus nouvelles. Ils sont par exemple utilisés pour la détermination des propriétés des détergents. Un linge est imprégné de poussières radioactives puis lavé avec le détergent étudié. Un détecteur de radioactivité mesure ensuite l’activité du linge, ce qui permet de comparer et d’améliorer les propriétés des divers savons et détergents. On compare au moyen d’une méthode analogue les huiles de moteur. On rend les segments de piston radioactifs et on les place dans le moteur. Après un bref essai de celui-ci, on mesure la quantité de métal radioactif contenue dans l’huile. Ceci permet de se rendre compte de l’efficacité de l’huile dans la réduction de l’usure du moteur. On peut voir également différents aliments conservés depuis de longs mois après une irradiation par les rayons y- Cette irra-
- Au Pavillon
- Plus que toute autre, la participation suisse donne une impression d’équilibre et les organisateurs ont parfaitement réussi, sur un espace relativement restreint, à montrer aux visiteurs les principales activités de leur pays. Le plan général est formé par la juxtaposition d’un grand nombre d’éléments hexagonaux, constituant ainsi une représentation du caractère national suisse et de l’organisation de l’État. Dès son entrée, le regard du visiteur est attiré par un énorme bloc de cristaux de quartz, pesant 180 kg (le plus grand qui ait jamais été trouvé) ramené en 19/(6 du glacier de Tiefen à 3 000 m d’altitude.
- De nombreuses salles sont consacrées à l’horlogerie, industrie cl’une importance capitale pour l’économie et les échanges du pays avec l’étranger, puisque 96 pour 100 de la production horlogère suisse sont exportés. A côté de la plus petite des montres plates (i5 mm de diamètre sur i,3 mm d’épaisseur) figure une horloge atomique dont l’élément fondamental utilise une
- diation détruit les bactéries et les germes, évitant ainsi la putréfaction. Le procédé n’est cependant pas tout à fait au point, le goût et la valeur nutritive étant légèrement modifiés par le traitement.
- La firme I.B.M. présente une application assez saisissante de son système de comptabilité électronique à accessibilité totale. Il s’agit de la machine « 3o5 Ramac » qui peut donner les événements historiques allant de l’an 4 avant J.-G. à 1958, année par année et en 10 langues. La « mémoire » qui permet à celte machine de fournir instantanément l’information demandée est constituée par une pile de disques magnétiques utilisant le même principe que les bandes de magnétophone. Ces disques tournent à la vitesse de 1 200 t/mn et peuvent contenir 5 millions de caractères. 'Les faits sont sélectionnés par un bras de lecture qui déchiffre les disques où l’information est enregistrée. Ce bras de lecture commande un système de décodage et d’inscription qui délivre finalement une feuille de papier où sont tapés à la machine les renseignements demandés. Dans sa version normale utilisée pour la comptabilité de grandes sociétés, cette machine comporte en plus une calculatrice électronique qui met instantanément à jour dans la mémoire les informations qui y sont enregistrées en tenant compte des variations de la situation. Supposons par exemple qu’un client de la société vienne de passer une commande. On introduit aussitôt les données dans la machine, soit à l’aide de cartes perforées, soit par l’intermédiaire d’un clavier de machine à écrire. La machine recherche dans la mémoire le compte du client, y ajoute la dette qu’il vient de faire, inscrit le nouveau résultat dans la mémoire à la place du précédent et imprime aussitôt la note à envoyer au client. Ceci n’est évidemment qu’une des nombreuses applications de l’appareil. En sens inverse, quand il s’agit d’un achat effectué par la maison, le chèque est établi immédiatement à l’ordre du vendeur.
- On termine la visite du pavillon par une séance d’une durée de 20 mn au « Circarama ». Le spectacle cinématographique est présenté sur un écran circulaire qui entoure complètement le spectateur. Le film enregistré à l’aide de n caméras disposées de façon à tout photographier autour d’elles, est projeté à l’aide de 1 projecteurs situés à l’extérieur du cercle formé par l’écran. On peut ainsi avoir une vue panoramique des paysages et des villes les plus caractéristiques des États-Unis.
- R. R. et F. R.
- de la Suisse
- vibration interne d'extrême stabilité de la molécule d’ammoniac NI13. La fréquence de la vibration, de l’ordre d’un milliard d’oscillations par seconde, est utilisée comme étalon de fréquence. Cet étalon contrôle périodiquement la marche d’une horloge à quartz de haute précision dont l’indication est à son tour comparée aux mesures astronomiques du temps. Enfin une place jjarticulière est réservée aux créations les plus marquantes de l’horlogerie suisse. Une place importante est consacrée à l’agriculture, activité traditionnelle de la Suisse, ainsi qu’aux industries qui en dérivent.
- Les autres industries sont également largement représentées : mécanique de précision, chimie et industrie de l’aluminium qui a acquis une place importante du fait de la richesse du pays en énergie électrique. Enfin, trois salles abritent le groupe du tourisme qui constitue depuis toujours une des activités les plus importantes de ce pays.
- R, R.
- p.322 - vue 326/527
-
-
-
- 323
- Au Pavillon de TU.R.S.S.
- Contrairement à ce qui se passe au Pavillon américain, le visiteur du Pavillon soviétique est submergé par une foule d’objets et de panneaux. Visiblement, l’Union Soviétique a cherché à montrer tous les aspects ou presque de son activité, et surtout à démontrer combien elle était à la page ou même en avance dans les domaines scientifiques et techniques.
- Dès l’entrée, on peut voir des modèles grandeur nature des deux « spoutniks », de même qu’une rétrospective des recherches faites en U.R.S.S. au sujet de la propulsion par réaction. On nous explique qu’un Russe, Constantin Tsiolkovsky, fut le premier, il y a 5o ans, à imaginer les méthodes qui ont permis le lancement des satellites artificiels, en particulier le principe de la fusée à étages. Dans la salle de l’industrie, on peut voir des machines-outils à programme, un énorme tour vertical, les derniers types de voitures de tourisme qui n’ont rien à envier aux modèles de Detroit en ce qui concerne les chromes, les phares multiples, la longueur et les ailerons provocants. On peut voir également des maquettes d’avions commerciaux, y compris le TU.ii4 à réaction.
- Une série très intéressante de stands exposent le système éducatif en U.R.S.S. qu’il serait trop long de commenter; disons simplement que du point de vue scientifique, les réalisations que l’on nous présente et qui sont des projets de fins d’études supportent très bien la comparaison avec ce que nous connaissons ici.
- A la suite de ces stands sont présentés les appareils scientifiques très divers qui ressemblent à s’y méprendre aux réalisations occidentales. On voit, entre autres, de nombreux spectrogra-phes à réseau qui utilisent couramment des réseaux comptant i 200 traits par millimètre.
- On nous présente un peu plus loin le gros effort fait par les Russes dans l’étude des régions polaires. On peut voir des tentes et des équipements qui y sont utilisés, en particulier une sta-
- Fig. 52. — L’entrée du Pavillon de l’U.R.S.S.
- (Photos F. Rostas).
- Fig. 53. — Au Pavillon de l’U.R.S.S. : appareillage d’une station de météorologie arctique.
- tion météorologique qui transmet automatiquement par radio jusqu’à 6oo km des renseignements concernant la pression, la température, la vitesse du vent, la quantité de précipitations, les radiations solaires ; son autonomie de fonctionnement est d’un an (fig. 53).
- En ce qui concerne l’énergie atomique, on présente un certain nombre de réalisations assez remarquables. Tout d’abord le brise-glace atomique Lénine dont on peut voir une maquette. Ce bateau, lancé à la fin de l’armée dernière, sera bientôt terminé ; il jauge 16 ooo t, file 18 nœuds grâce à un moteur de 44 ooo ch; il a io4 m de long et 27 m de large.
- On peut voir également une maquette du synchrophasotron de 10 BeV (10 milliards d’électron-volts), probablement le plus important au monde à l’heure actuelle. Remarqué aussi une maquette de centrale atomique à eau sous pression qui doit être mise en service cette année. Celte centrale est du même genre que celle de Shippingport dont nous avons déjà parlé (La Nature, mars iq58, p. 89), mais elle a une puissance de 420 MW contre Go. Il semble que l’U.R.S.S. ait mis en chantier un grand nombre de centrales de types divers de façon à déterminer quel sera le type le plus économique. On montre en effet la maquette d’une centrale de 5o MW refroidie au sodium fondu du type breeder.
- En plus de ces réalisations avancées, on peut encore voir une foule d’objets les plus divers, allant des appareils photographiques aux tissus et aux produits alimentaires. Pavillon très intéressant donc, et qui permet aux visiteurs de satisfaire leur curiosité envers les réalisations de ce pays, comme envers sa façon de vivre et de travailler. F. R.
- p.323 - vue 327/527
-
-
-
- 324
- Rhénium et technétium
- Une très intéressante monographie de MUe S. Tribalat (*) vient d’être consacrée au rhénium et au technétium, deux métaux relativement nouveaux.
- C’est en 1925 que certaines raies nouvelles découvertes par Noddack, Tacke et Berg dans le spectre d’émission X d’un concentré provenant du traitement chimique de minerais de platine, furent attribuées à l’élément 75, auquel ces auteurs donnèrent le nom de rhénium. Ces travaux furent toutefois critiqués car on n’a depuis lors jamais retrouvé de rhénium dans les minerais de platine; ces chercheurs devaient pourtant réussir en 1927 à isoler 120 mg de ce nouvel élément à partir de différents minerais : colombite, alvite et gadolinite, dans lesquels il existe à une teneur de io~6-io~7.
- Ces mêmes auteurs, ayant cru observer certaines raies X de l’élément 43, alors inconnu, dans l’énéission d’un concentré de sulfures obtenus à partir de minerais de niobium et de platine, donnèrent à cet élément le nom de mazurium. Le Rhin et le lac Mazurie, frontières occidentale et orientale du Reich, étaient ainsi simultanément à l’honneur. Mais, contrairement à ce qui s’était passé pour le rhénium, les chercheurs allemands ne purent isoler cet élément 43 et ce n’est qu’en 1937 que Perrier et Segré décelèrent la présence d’activités bêta entraînables par les composés peu solubles du rhénium, dans du molybdène irradié pendant quelques mois par les deutons du cyclotron de Berkeley. Seaborg et Segré découvraient peu de temps après un nouvel isotope provenant du molybdène de période 67 h, résultant lui-même de l’action de neutrons lents sur le molybdène naturel.
- Les essais de Noddack n’ayant pas été confirmés et l’élément 43 ne paraissant pas exister dans la nature, Perrier et Segré le dénommèrent technétium, terme assez peu élégant (le terme de lechnétate l’est encore moins) qui prétend rappeler que c’est le premier élément inconnu préparé artificiellement. En fait, il semble maintenant démontré qu’il peut exister à l’état de traces dans certains minerais (colombites et yttrotantalites).
- Ces deux éléments, qui appartiennent à la septième colonne du tableau de Mendeleev, sont voisins du manganèse et, comme celui-ci, susceptibles de donner'des sels dç divers degrés d’oxydation.
- *
- * *
- Le rhénium est actuellement préparé à partir des minerais de molybdène. Lors du grillage des molybdénites (sulfures de molybdène) les faibles quantités de rhénium présent sont volatilisées à l’état d’oxyde : on capte donc les poussières qui proviennent de ce grillage oxydant; par épuisement par l’eau, on obtient des solutions contenant de l’acide perrhénique que l’on extrait à l’état de perrhénate de potassium KRe04 qui, par réduction par l’hydi'ogène, fournit le métal; avant ig38, on en préparait en Allemagne de l’ordre de i5o kg de métal par an.
- Lè rhénium, de poids atomique 186, cristallise dans le système hexagonal compact; sa densité est voisine de 20,5 à 21; il fond à 3 1800 ± 20°, c’est-à-dire un peu plus bas que le tungstène; il est quatre fois plus résistant que ce métal et il doit être travaillé à froid. Il présente huit degrés d’oxydation de VII à — I, parmi lesquels les degrés VII et IV sont les mieux connus et les plus stables. L’oxyde le plus stable est Re207 jaune, qui se forme notamment par oxydation du rhénium à l’air et qui correspond aux perrhénates, qui à l’opposé des permanganates sont incolores.
- 1. Rhénium et technétium, par Mlu S. Tribalat. 1 vol. 15,5x24, 172 p., Gauthier-Villars, Paris, 1957. Prix, broché : 3 000 F.
- Par fusion avec les alcalis, les perrhénates donnent les rhé-nates Me2Re04 plus solubles que les manganates et dont l’oxyde correspondant est Re03 rouge. Le fluorure ReF6 a été préparé.
- Le rhénium existe à l’état pen ta valent dans le chlorure ReCls obtenu par action d’un excès de chlore sur le rhénium en poudre. Alors que Re20. n’a pas été isolé, Re02 se forme par réduction des oxydes supérieurs et des perrhénates; on connaît également le sulfure ReS2, le fluorure ReF4, etc. L’oxyde Re20a est peu stable et le chlorure ReCl3 est le plus important des sels trivalents. Les composés bi et monovalents sont assez mal connus; on a toutefois isolé Re20.2 H20 et ReO.H20. Par contre, on a préparé différents rhénures : KRe, LiRe, qui se rapprochent des halogénures et dérivent d’un acide IIRe non isolé. Les solutions contenant Re_ sont très réductrices.
- Rare et d’un prix élevé, le rhénium n’est guère utilisé jusqu’ici; on envisage toutefois la possibilité de son emploi. Il pourrait être utilisé dans les tubes électroniques comme filament émetteur et comme filament de lampe à incandescence; en raison de son point de fusion élevé, de sa grande résistivité électrique, de sa bonne émissivité thermoionique, il serait préférable au tungstène. Il serait également intéressant pour des contacts multipolaires et comme élément de couples thermo-électriques avec le platine ou un autre métal voisin : les couples Pt et Pt-Re, Pt et Re-Pd auraient une force électromotrice trois fois plus élevée que celle des couples généralement utilisés.
- Déposé sur une surface, il constituerait des miroirs et des projecteurs très réfléchissants. Certains alliages ont trouvé des applications diverses; pointes de plume, bijouterie, etc. Le rhénium et certains de ses sels constituent enfin d’excellents catalyseurs.
- *
- * *
- Nous avons déjà indiqué que le technétium est beaucoup plus rare que le rhénium. Dans les premiers essais de bombardement du molybdène, on en obtenait de l’ordre de io~10 g. Actuellement, grâce à la fission, l’uranium des piles nucléaires est la matière première d’où sont séparées des quantités plus importantes : on en aurait produit jusqu’ici une dizaine de grammes. Il s’agit de techniques assez longues sur lesquelles on ne peut insister ici.
- On connaît actuellement 20 isotopes artificiels du technétium dont la masse est comprise entre 92 et io5 et qui, radioactifs, ont une durée de vie comprise entre quelques semaines et 9.4.io5 années. Ils résultent généralement du bombardement du molybdène. Deux isomères de masse quelconque font partie d’une des chaînes de fission de l’uranium et proviennent de ®fMo (67 h) par désintégration ^ :
- 87 p. 100 -> ^gTc (métastable)
- |y(6 h)
- 2.io5 ans
- i3 p. 100 ->• ^Tc p-*- 44RU (stable)
- Le technétium est également hexagonal, compact, de couleur gris argent; il a une densité voisine de 11,5. Il possède vraisemblablement comme le rhénium huit degrés d’oxydation, mais seuls les degrés IV et VII ont été mis en évidence jusqu’ici.
- Ni cet élément, ni ses sels n’ont encore donné lieu à des applications, mais une publication récente attire l’attention sur les propriétés inhibitrices de l’ion pertechnétate à l’égard de la corrosion, supérieures à celles des chromâtes.
- H. P.
- p.324 - vue 328/527
-
-
-
- 325
- Les bactéries marines
- et les problèmes de biologie qu'elles soulèvent
- La meilleure définition qui ait été donnée des bactéries marines est celle que McLeod, Onofrey et Norris ont publiée au laboratoire de bactériologie marine de l’Office des Pêches de Vancouver : « Celles qui nécessitent l’eau de mer comme diluant des éléments nutritifs qu’elles utilisent ». C’est dire qu’elles sont halophiles obligées. Mais en réalité la bactériologie marine est amenée à s’occuper des bactéries terrestres non halophiles obligées, entraînées dans les mers par les fleuves, les égouts, le vent, les oiseaux, etc., et qui y survivent soit temporairement, soit définitivement.
- De très nombreux laboratoires s’occupent des bactéries de la mer, soit dans un but utilitaire : hygiène des plages et des bains, surveillance des fruits de mer, étude de la corrosion et des moyens de la combattre, de la salissure des coques; étude de leur pouvoir pathogène pour les plantes et les animaux marins; retentissement sur les activités humaines, navigation, pèches; enfin source de bactéries utiles pour l’industrie (fermentation, rouissage, nutrition) ou pour la thérapeutique (souches antigéniques ou productrices d’antibiotiques); soit dans un but spéculatif : recensement de la nature, découverte d’espèces nouvelles; élude de physiologie cellulaire, de biochimie, d’écologie; spéculations sur l’origine de la vie, sur l’évolution, la génétique, les biocénoses, la constitution du plancton, etc.
- La bactériologie marine est très en honneur dans de nombreux pays étrangers. Aux États-Unis, des laboratoires très richement équipés, peuplés de travailleurs actifs, existent sur les côtes atlantique et pacifique. Les deux plus célèbres sont :
- i° « Pacifique Grove » où de prestigieux savants tels que Van Niel, Barker, etc., réalisent de belles recherches surtout physiologiques et biochimiques;
- 2° « La Jolla » où le Scripps Institute subventionne des recherches surtout orientées vers l’origine bactériologique marine des pétroles. C’est là que Zobell et ses collaborateurs ont réalisé les premières biosynthèses microbiennes d’hydrocarbures du type des pétroles, en particulier la cérésine. C’est de là qu’est sorti le premier traité de Bactériologie marine.
- Au Canada, le ministère des Pêches a créé une importante station de bactériologie marine où McLeod étudie la nutrition des bactéries marines. En Angleterre, cinq grands instituts ont des laboratoires de bactériologie marine : Burnham on Grouch (Essex) où Wood étudie la pollution des coquillages et leur surveillance; Castle Bank Comvay (North Wales) où Reynolds étudie le même sujet; Bangor Wales où Spencer fait des recherches de physiologie bactérienne; Aberdeen (Scotland) où Flood-gate et Hayes dressent l’inventaire et entretiennent une collection de bactéries marines dont ils étudient la taxonomie, où Ilodgkiss étudie la microflore des poissons et des boues marines, où Shewan est spécialisé dans la taxonomie et l’écologie des halophiles et des effets des biocénoses sur la microflore des poissons ; Ilumber Laboratory (Hall) où un autre Spencer étudie les bactériophages marins; Teddington (Middlesex) où Buttlin et Postgate étudient les vibrions marins réducteurs de sulfate.
- En Allemagne sur la Baltique, en Norvège sur la mer du Nord (à Stavanger), en Italie à Naples et à Parme, les bactéries marines sont étudiées dans les divers chapitres de leur biologie. Au Japon, ce sont surtout les bactéries pathogènes pour l’homme qui sont étudiées, en particulier Cl. bolulinum E, agent du botulisme d’origine pisciaire. En Australie, les recherches de physiologie bactérienne sont très actives. Mais c’est actuellement en U.R.S.S. que la bactériologie marine a trouvé son lieu d’élection; de nombreuses stations y ont été créées sur la Caspienne, la mer Noire, l’océan Arctique, le Pacifique. Rien que pour la fosse des Kouriles (Kamtchatka) les Soviets ont installé
- 3o stations de recherches, et il faut dire que leurs résultats sont, pour les bactériologistes du monde entier, aussi sensationnels que le fut, pour les astro-physiciens, l’annonce du lancement de leur satellite artificiel : deux savants russes, Kriss et Mitskevitch, viennent en effet de publier la découverte d’une nouvelle classe de bactéries qui vivent à 5 ooo m de profondeur. Nous en donnerons plus loin la description.
- En France, la bactériologie marine n’est pas individualisée et n’a guère dépassé le stade utilitaire : surveillance des baignades et des fruits de mer ; station d’étude de la corrosion par les sulfatoréducteurs au laboratoire du C.N.R.S. à Marseille, dirigé par J. Senez. Notons toutefois les belles recherches de J. Brisou sur les Entérobactériacées et les Pseudomonadacées marines et son remai’quable traité de Microbiologie du milieu marin (1).
- C’est d’ailleurs à ce traité que nous renvoyons le lecteur qui s’intéresserait aux données classiques de la bactériologie marine : la répartition des bactéries marines en surface et en profondeur; les cycles bactériens dans le milieu marin : cycle du carbone, de l’azote, du soufre, du phosphore, du fer; bactéries marines luminescentes et mécanisme de la luminescence; bactéries des sédiments marins et leurs l’elations avec la formation des pétroles; recensement des bactéries marines avec leur desci’iption et leur classification.
- C’est surtout dans les études modernes que nous trouverons matière à réflexion. Celles-ci s’occupent de la nutrition des bactéries marines, de leur écologie, des espèces nouvellement découvertes, de leur physiologie et de leurs actions biochimiques, pathologiques et corrosives, ainsi que leur rôle dans la fertilité des mers.
- Nutrition. — La plupart des bactéries marines exigent une source complexe d’azote. Au laboratoire, on la leur fournit sous forme de aigestat de muscle de poisson, en particulier l’hydrolysat enzymatique de flétan. Toutefois quelques espèces peuvent utiliser un milieu synthétique fait d’un ensemble d’acides aminés et de sels minéraux (Na, K, Mg, Fe et Ca) et de phosphates, les uns étant indispensables (Na, K, Po, Cl, Fe), les autres stimulants. Le rôle de chacun d’eux a bien été mis en évidence par McLeod, Onofrey et Norris : Mg est avant tout un préventif de la cytolyse et un catalyseur des oxydations; Mn peut le remplacer dans son premier rôle mais non dans le second; Br peut remplacer Cl alors que I est toxique pour les bactéries; enfin Ca peut exercer une action d’épargne vis-à-vis de Mg, de même que Sr.
- Écologie ; biocénoses. — En France, Devèze, en 1955, a observé un parallélisme étroit entre les variations numériques planctoniques et bactériennes, les maximums bactériens se manifestant avec un certain retard sur les maximums planctoniques, fait dû à l’existence de facteurs antagonistes pour les bactéries au moment des maximums planctoniques. Nikitina en U.R.S.S. (19BB) a noté que les sédiments de la zone littorale de la mer de Barentz contiennent des centaines de millions de bactéries par gramme, dont la répartition varie avec les saisons, la température, la nature et le volume de la matière organique ainsi qu’avec le caractère des associations bactériennes. Certaines ont leur maximum en mai, surtout les sulfatoréducteurs, alors que les autres ont leur maximum en juillet. Les nitrifiants et dénitrifiants disparaissent en octobre; les putrides ont un deuxième maximum en novembre-décembre après la mort de nombreux êtres supérieurs dont les cadavres tombent au fond. Kriss et ses collaborateurs ont étudié la vitesse
- 1. Microbiologie da milieu marin, par Jean Baisou, Flammarion, Paris, 1955.
- p.325 - vue 329/527
-
-
-
- 326
- de multiplication des bactéries de l’océan Arctique, qui en dépit du froid sont abondantes et très actives ; leur répartition est irrégulière: leur « biomasse » varie suivant la verticale et l’horizontale. Les plus grandes concentrations de bactéries hétérotrophes se trouvent à 2 5oo m de profondeur au point de chute terminal de la matière organique morte. Pour les bactéries photosynthétiques, il n’y a aucun rapport entre les biomasses suivant la verticale, mais au contraire suivant les zones de photosynthèse active. Ici, les courants horizontaux ont une influence plus grande que la profondeur.
- Le même phénomène a été observé par Hudleston dans la baie de Cardigan en Angleterre en 1955. La biomasse n’est pas influencée par la profondeur; par contre, les saisons la modifient ; le taux est supérieur en été ; le taux des halophiles obligés est très élevé; les bactéries pigmentées sont nombreuses; les alloclitones très variables.
- Dans son travail de ig53 sur le recensement des bactéries marines des côtes australiennes, Wood avait écrit que les bactéries anaérobies strictes en sont presque complètement absentes. Ceci est probablement dû à une technique déficiente car, en 1951, B. Callame, dans le Service des Anaérobies de l’Institut Pasteur, avait recherché les anaérobies dans les sédiments marins du Golfe de Guinée, prélevés par J. Debyzer. Ceux-ei y existent et y sont fréquents. Les espèces isolées sont celles de la microflore originelle universelle : Clostridium caproicum, Welchia perfringens, Cillobacterium multiforme en particulier. Par la suite, le même auteur a étudié la survie en eau de mer de 33 espèces anaérobies de collection; 17 d’entre elles ont été tuées par l’eau de mer; i5 y survivent plus de 6 mois : ce sont celles qui vivent naturellement dans les sols et les eaux douces.
- Dans les mers fermées où les teneurs en SII2 sont élevées, les Rhodothiobactériales dominent : dans la Caspienne et la mer Noire, Kriss a pu observer que la biomasse des bactéries autotrophes est supérieure à celle du phytoplancton : 12 à 57 milliards de cellules par gramme de sédiments (Youkova, 1955). La pérennité des bactéries emprisonnées dans les glaces éternelles de l’Arctique a été soulignée par Cass en 1966, de même que leur résistance à des pressions de 700 atm. Nous-même, en 1962, à l’occasion de la première expédition Paul-Émile Victor en Terre Adélie, avons pu étudier les anaérobies hétérotrophes des glaces antarctiques; ils sont les mêmes que ceux du Groenland, des zones septentrionales, modérées, tropicales et équatoriales, ce qui nous a permis de définir la notion nouvelle de microflore originelle (voir La Nature, mai 1962, p. x47)-
- Espèces nouvelles ; classiiication. — Il n’y a pas d’exemples plus probants de l’importance de la bactériologie marine en tant que source d’étude de bactéries anciennes mal connues ou d’espèces nouvelles que ceux de Harold et Stanier aux États-Unis en 1955 et ceux de Kriss et Mitskevitch en U.R.S.S. en 1957.
- En i844, un naturaliste danois avait décrit sommairement une sulfobactérie sous le nom de Leucothrix mucor. Celle-ci a été retrouvée en Californie par Harold et Stanier, qui l’ont bien étudiée à Berkeley. C’est une bactérie filamenteuse incolore, aérobie stricte, chimiohétérotrophe qui montre à l’apex d’une tige flexible un agrégat en rosettes de gonidies représentant un cycle de reproduetion nouveau (fig. 1 et 2).
- La description de ce cycle, l’étude de la physiologie nutritionnelle de cette bactérie les ont conduits à redéfinir le genre Leucothrix Oersted et à le différencier du genre Thiothrix Wino-gradsky 1888, ce qui a permis à Buchanan de le situer dans une famille nouvelle, Leucothrichaceæ (dont il est actuellement le genre unique) et qui constitue la famille III de l’ordre nouveau des Beggiatoales Buchanan. Ainsi l’étude moderne d’une bactérie marine fort mal connue a jeté un jour nouveau sur la morphologie, la physiologie et la systématique d’un des groupes bactériens les plus discutés. Et voici maintenant la dernière
- Fig. 1 et 2. — Deux aspects du cycle vital de la bactérie marine Leucothrix mucor.
- (Photos aimablement communiquées par le professeur R. Y. Stanier, Department of Bacteriology, University 0/ California, Berkeley).
- révélation de la bactériologie marine : en 1957, Kriss et Mitskevitch, travaillant dans les stations de la fosse Kouriles-Kamtchatka, ont pu mettre à jour une nouvelle classe de bactéries jusqu’ici non seulement inconnues, mais même insoupçonnées.
- Ils ont descendu à des profondeurs de 2 5oo à 5 000 m des lames de verre stériles et après les y avoir laissées suffisamment longtemps pour obtenir une fixation de ces bactéries, les ont remontées et étudiées. Ils ont d’abord constaté que ces microorganismes nouveaux sont fixés à la lame par une tige longue de plusieurs dizaines de microns et large de o,4 à o,5 jx, non segmentée, non ramifiée, entourée ou non d’une capsule. Cette capsule, quand elle existe, n’est pas colorable par le ferrocya-nure de potassium et ne contient donc pas d’hydroxyde de fer comme le pédoncule des Caulobacteriales. L’une des extrémités est fixée, soit sur la partie plate de la lame, soit, et de préférence, sur les parties rugueuses de ses bords. L’extrémité libre est évasée et supporte une grappe de corpuscules ronds de o,5 à 2 p. de diamètre, très réfringents et dont le nombre, assez variable, peut atteindre plusieurs dizaines.
- L’ensemble de l’organisme se colore électivement par l’éry-throsine; les corpuscules et les tiges encapsulées se colorent fortement en rouge, alors que les tiges 'fines, non encapsulées se colorent en rose pâle. Les corpuscules sont reliés à la tige évasée par un fin réseau de pédoncules, soit disposés en éventail, soit finement réticulés. Certaines grappes de corpuscules, après coloration à l’érythrosine, montrent dans leur périphérie des corpuscules colorés en vert. Ces microbes n’ont pas pu être, jusqu’ici, cultivés sur milieu artificiel, mais ils poussent bien
- p.326 - vue 330/527
-
-
-
- Fig. 3. — Divers aspects du cycle vital d’une bactérie marine du genre Krassilnikovia.
- {D’après A. E. Kriss et I. N. Mitskkvitch ; document aimablement communiqué par le professeur À. E. Kriss, Institut de Microbiologie de l’Académie des Sciences de l’U.R.S.S.).
- sur lame immergée dans l’eau de mer à température ordinaire {aquarium marin artificiel). On ne connaît donc pas encore leur physiologie nutritionnelle, ni leur métabolisme. Ils n’ont pas été retrouvés dans la mer Caspienne alors que leur présence est fréquente dans les mers polaires.
- Kriss et Mitskevitch les ont comparés aux autres classes de bactéries. Ils se distinguent des Actinomycètes par leur absence <de cloisonnement et de ramification, de spore et de gonidie. Ils se distinguent des Spirochétales puisqu’ils ne sont ni spiralés, ni libres. Les Chlamydobactériales n’ont pas de grappe terminale de corpuscules réfringents. Les Sidérobactériales sont colorées en bleu par le ferrocyanure de potassium; les Myxobac-tériales ont des microcystes, des sporanges, et des corps reproducteurs tout différents, et vivent en agrégat, au sein d’un mucus caractéristique. Il s’agit donc d’une classe nouvelle de bactéries située aux confins des Schizomycètes et des Protozoaires et pour laquelle le nom de Krassilnikoviæ a été proposé. Jusqu’ici deux espèces seulement sont connues, qui forment le genre Krassilnikovia : K. capsulata, à tige encapsulée et K. incapsulata à tige non encapsulée (fig. 3).
- Physiologie ; biochimie. — Tomlinson et McLeod (ig55) ont montré qu’une espèce marine de Mycoplana peut oxyder les propionates avec passage par un cycle tricarboxylique. Spencer n étudié en 1956 l’oxydation bactérienne de l’ammoniac dans la mer, où les Nitrosomonas et les Nilrobacter pullulent, oxydant N1I3 en N02 puis en N03. Il leur faut pour cela un milieu nutritif convenable qui peut être un extrait aqueux de diatomées; l’addition de Fe++ stimule quantitativement la nitrifica-
- tion et le phénomène peut être fort intense et aboutir à la formation d’une quantité considérable de nitrites. Par contre, la pauvreté des mers tropicales en nitrates a été expliquée par Sreenivasan et Ven Katai'aman, bactériologistes hindous travaillant sur les côtes sud de l’Inde, où ils ont constaté que les bactéries dénitrifiantes les réduisent en nitrites, toutes appartenant au genre Pseudomonas, en particulier à deux espèces marines nouvelles : Ps. marinodenitrificans et Ps. mytili isolée de la moule.
- La destruction bactérienne de la matière organique morte est intense dans la mer; Bunt l’a étudiée dans les îles Macquarie en 1955 sur l’algue géante Durvillea antarctica : ce sont des Agro-bacterium, des Achromobacter et des Alcaligenes qui opèrent cette destruction. Chester et ses collaborateurs ont étudié en 1955 la dégradation de la laminarine et des alginates par les bactéries marines; elle s’accomplit à basse température par les Achromobacter et les Corynebacterium ; à température moyenne (180 à 2o°), ce sont les Nocardia- et les Arthrobacter; à 3o° Bac-terium coagalans, B. pumilus et B. cereus; au-dessus de 3o° Bacterium megaterium, Clostridium polymyxa et les Strepto-myces.
- Pringsheim en 1956 a montré que les Fucus sont détruits par Leucoihrix mucor, la Beggiatoale étudiée plus haut.
- Nous-même, en 1967, étudiant avec IL Thouvenot et P. Kaiser la pourriture rouge des varechs de la côte normande, en avons isolé un anaérobie ubiquitaire, Clostridium corallinum, qui synthétise son pigment rouge corail à partir des décoctions de plantes aquatiques et marines. Ceci nous amène à dire un mot des pigments des bactéries marines.
- Les bactéries de la peau de la morue ont permis à Ilodgkiss en 1954 de découvrir un nouveau pigment bactérien, la cory-nexanthine, isolée de Clostridium erythrogenes, dont on en connaissait déjà deux : la néoxanthine et la sarcinaxanthine, tous deux des caroténoïdes. Ceux-ci sont d’ailleurs très fréquents dans les bactéries marines comme l’ont montré Cou-rington et Goodwin en 1955, en particulier le polyhydroxyxan-thophyle; le pigment de Serratia marinorubra est le même que celui de Serratia marcescens, la bactérie des hosties sanglantes : la prodigiosine.
- Corrosion. — La corrosion dans les mers coûte à l’humanité, en particulier à l’armement, des sommes fabuleuses. 11 est donc naturel qu’elle soit étudiée partout. Le rôle des bactéries sulfato-réductrices dissimilatrices a été mis en évidence depuis très longtemps. En U.R.S.S., Oulanovski et Nikitina ont montré en 1956 qu’elle n’est pas due seulement à ce groupe, mais en général à tous les producteurs d’SlI2, quelle qu’en soit la source. Or Duliscouet et Herpin en France avaient déjà montré le rôle de l’association de Clostridium sporogenes, gros producteur d’SII2, avec Bacillus subtilis dans la salissure des coques. C’est ainsi que les aérobies putréfiants augmentent considérablement les processus de corrosion de l’acier dans l’eau de mer; cette augmentation est fonction de l’aération et de l’abaissement du pH.
- Kalimenko et Mefedova, en 1966, ont étudié la microflore des parties submergées des navires. Dès l’immersion d’une surface enduite de peinture antisalissure (cuivre, mercure, etc.), il s’y forme un film muqueux de bactéries marines, protégeant les mollusques sessiles contre la toxicité de la peinture. Cet enrobement microbien s’incruste ensuite de calcite, de sels de magnésium et de fer libérés par le métabolisme bactérien et cette gangue devient le support des agents de la salissure : seul l’emploi d’une peinture qui empêche sa formation peut lutter efficacement contre la salissure des coques.
- Fertilité des mers. — Une vue d’ensemble de cette question nous a été apportée par Wood en 1963 grâce à ses études sur les côtes de l’Australie.
- Les bactéries marines servent d’aliments aux ciliés et aux
- p.327 - vue 331/527
-
-
-
- 328
- flagellés holozoïques, de même qu'aux invertébrés, en particulier aux moules (Mytilus) et aux huîtres (Ostrea), et aux petits vertébrés (poissons). Un travail de Bahr, réalisé en Allemagne en ig54, nous apprend que les Infusoires ciliés qui se nourrissent de bactéries savent choisir celles qui ne sont pas nocives et rejeter celles qui le sont. Parmi les premières Bacillus sub-lilis, parmi les secondes le colibacille : ainsi les Infusoires ciliés ne risquent pas de contracter une colibacillose.
- Mais les poissons peuvent aussi se nourrir de microorganismes, comme l’ont observé Kriss et Asmane en U.R.S.S. sur les côtes de l’océan Arctique; ceux-ci leur apportent, en dehors des métabolites essentiels (protéines et glucides), des vitamines et des facteurs de croissance.
- Enfin, Warne, en 1956, a montré que les larves d’huîtres sont susceptibles de se nourrir de certaines bactéries, alors que d’autres leur sont nuisibles. L’invasion des parcs à huîtres par ces dernières peut expliquer leur anéantissement, tel que celui qui a servi de thème à Roger Yercel dans son roman La caravane de Pâques.
- Bactéries marines pathogènes. — Les bactéries pathogènes pour le merlan ont été étudiées par Gianelli en 1966 sur les côtes de l’Adriatique : elles se répartissent en de nombreux genres : Miorococcus, Pseudomonas, Proteus, Escherichia, etc.
- Aaronson, en 1956, a étudié la septicémie des homards due à la bactérie marine Gaffkya homari (Sniesko et Taylor). La même année, Bang a étudié la bactériose du crabe, probablement due à une Shigella dont la toxine tue ces crustacés en quelques heures par phénomène de Shwartzman (production de phénomènes hémorragiques par injection déclenchante, faite
- après injection préparante). Il a montré, de plus, que le crabe pouvait exercer une défense naturelle contre cette bactérie.
- Nous ne reviendrons pas sur les maladies bactériennes des herbiers, en particulier la bactériose des Zoster, dont la connaissance est ancienne et regarde avant tout la phytopatholo-gie; nous ne développerons pas non plus les faits classiques de la pullulation dans certaines plages balnéaires et dans les coquillages et fruits de mer des bactéries pathogènes pour l’homme; ils relèvent de l’hygiène; la lutte contre elle est sévèrement menée depuis quelques années; ces questions ne relèvent pas à proprement parler de la bactériologie marine.
- Elles appuieraient toutefois les conclusions de cette courte étude.
- , *
- * *
- Il est absolument nécessaire et extrêmement urgent que la France fasse un effort en faveur de la bactériologie marine, en créant des stations autonomes et en dotant de laboratoires de recherches bactériologiques les stations de Biologie marine déjà existantes. Nous ne devons pas laisser aux pays étrangers l’apanage exclusif de la découverte dans ce domaine. Les bactéries marines sont susceptibles de nous apprendre des faits nouveaux, des lois nouvelles, de nous révéler des mécanismes biochimiques inconnus, des formes insoupçonnées et peut-être aussi des ferments actifs pour l'industrie et la thérapeutique.
- A.-R. Prévôt,
- Chef de Service à l’Institut Pasteur.
- Faune marine observée à bord du bathyscaphe
- Les Comptes Rendus de l'Académie des Sciences (25 novembre 1967) ont apporté d’intéressantes précisions de M. Francis Bernard au sujet de trois descentes en bathyscaphe, exécutées par lui au cours de l’été dernier. L’emplacement choisi se situait à 9 milles au sud du cap Sicié. Les profondeurs atteintes ont varié entre 2 120 et 2 290 m. Afin de pouvoir procéder à l’observation de la faune marine, la vitesse de plongée a été réglée à environ 10 m par minute. Le phare utilisé (puissance, 1 000 W) éclairait un cône dont le volume lumineux a été évalué à 5,5 m3.
- La méthode employée a été de dénombrer à vue et à intervalles réguliers les animaux qui se trouvaient dans le cône d’éclairement. Cette méthode n’a évidemment, du point de vue statistique, qu’une valeur approximative. Elle a permis cependant un sondage du plus grand intérêt, faisant connaître l’ordre de grandeur de la population marine aux différents niveaux.
- Il a été constaté que les zones les plus riches en zooplancton se trouvent entre 200 et 900 m de profondeur. Faible densité au-delà, bien qu’elle s’accroisse légèrement entre 2 000 m et
- le fond. La distribution et le nombre de couches azoïques paraissent être très variables, en fonction de l’heure de la journée et de l’état de la mer : au cours d’une des plongées, faite en septembre, l’eau était troublée par un récent coup de mistral et le plancton n’apparaissait guère qu’à 260 m de profondeur.
- Les espèces dominantes ont été (les chiffres indiquant le nombre des individus dénombrés) :
- Rhizophysa filiformis (Siphonophore grêle)... 24 à 64
- Méduses (surtout Solmissus) ................ 21 à 55
- Copépodes (d’environ 5 mm) .,........... 26 à 68
- Cyclothone (surtout microdon).............. 22 à 86
- Autres poissons (surtout Myctophidæ) ...... 18 à 42
- Le phytoplancton à Flagellés est souvent visible du bathyscaphe sous la forme de grains orangés de 0,1 à o,5 mm avec une concentration maximum entre 5o et 4oo m de profondeur.
- G. C.
- L'arabe en caractères latins ?
- Ferry-boats d'Italie en Grèce
- Certains milieux universitaires égyptiens préconisent, à l’image de la Chine, une réforme de l’écriture. Les caractères arabes traditionnels ne répondent plus aux besoins de notre époque, particulièrement dans le domaine scientifique, ce qui oblige de nombreux intellectuels et étudiants à commencer par apprendre à fond une ou plusieurs langues étrangères. La Réforme proposée par le Professeur Salama Moussa dans le journal Al Akhbar envisage l’adoption des caractères latins, comme le fit la Turquie il y a trente-cinq ans. « Cette réforme n’a aucun rapport, déclare le journal du Caire, avec nos amitiés ou inimitiés personnelles. »
- Les relations maritimes entre l’Italie et la Grèce vont prochainement se trouver considérablement améliorées par la mise en service de ferry-boats modernes sur une nouvelle ligne Brindisi-Corfou-Igouïnenitza (Ëpire) ; ces navires transporteront 1 000 passagers et 80 automobiles ; un atelier de réparations se trouvera à bord. Des travaux d’aménagement sont entrepris dans les ports grecs afin de les rendre aptes à ce nouveau trafic. Le trajet par mer se trouvera réduit de moitié par rapport au trajet actuellement utilisé Brindisi-Patras. On attend de ces décisions un accroissement sensible du tourisme.
- p.328 - vue 332/527
-
-
-
- Poldérisation en Guyane britannique
- 329
- Plus de 16 ooo ha vont être prochainement assainis et mis en culture le long de la zone littorale de Guyane britannique, dans l’espace compris entre les estuaires des rivières Canje et Courantyne. De vastes marécages saumâtres recouvrent en effet ces rivages, ainsi que ceux, Aoisins, de Suriname (Guyane hollandaise) et du Venezuela (dont le nom signifie « Petite Venise »). Les apports des fleuves tendent à réaliser le colmatage des embouchures, et l’Orcnoque comble le golfe de Paria en y déposant une épaisseur de vase estimée à i m/siècle! Ces vasières tropicales sont colonisées par des plantes halophiles (en particulier une variété de spartine appelée Spartina brasiliensis) et par les palétuviers. Celle végétation porte le nom générique de mangrove. Sur les côtes de Suriname, le botaniste Lindeman a rencontré de nauséabonds marais à Machærium, où la vase, surmontée d’une végétation de i m de haut, avait « la consistance, la couleur et l’odeur de la bouse de vache fraîche » !
- Sur les 16 ooo ha du projet, 5 ooo sont déjà cultivés irrégulièrement, et ix ooo sont totalement marécageux, au sud-est de Nieuw-Amsterdam, deuxième cité de Guyane britannique. Un contrat de 3 milliards de francs vient d’être signé avec une entreprise londonienne de travaux publics afin de réaliser les travaux de drainage et de mise en valeur, qui permettront l’installation de i 8oo familles. La culture du riz (excellent dessalant du sol) sera encouragée, une rizerie sera construite sur place, et le riz décortiqué exporté vers les Antilles qui en manquent. Chaque famille cultivera quelque G ha.
- On espère que le projet dans son ensemble pourra être achevé d’ici quatre années. L’accroissement de population est en effet rapide dans le pays; déjà une partie du plan est en cours d’achèvement, concernant la zone la plus septentrionale. L’augmenta-
- Fig-, 1. — La zone de poldérisation de la Guyane britannique.
- eorgetown
- Nieuw \ Amsterdam•
- (SkeIdon‘
- Orealaff
- 100 km
- lion du revenu national attendue est de l’ordre de 5oo millions de francs par an. Des routes et des canaux navigables sont prévus, comportant pour ces derniers un système d’écluses destinées à interdire la remontée des eaux de mer vers l’intérieur.
- Des plans similaires sont d’ores et déjà élaborés dans les mêmes parages : sur la rivière Berbice, près de Niemv-Amsterdam, une écluse vient d’entrer en service, assurant la protection de 700 ha de terre fertile. A proximité, d’autres travaux sont entrepris par une coopérative agraire.
- Paul Wagret.
- Des sables colorés au pétrole israélien
- Des expériences indiqueraient que les sables colorés du Neguev, qui ont des tons rouges, violets, dorés et bruns, pourraient devenir une source de revenus pour Israël en fournissant des matériaux décoratifs. Des matières colorantes peuvent être extraites de ces sables, et elles soutiendraient la concurrence des produits synthétiques fabriqués à l’étranger. Une nuance de pourpre brune obtenue est particulièrement rare. Ces matières colorantes peuvent servir non seulement à la peinture, mais à la céramique et aux travaux sur métaux. On étudie actuellement la possibilité d’employer aussi les sables du Neguev en architecture pour la production de matériaux de construction colorés.
- Par ailleurs, la Semaine Israélienne, éditée à Jérusalem, évoque l’état des recherches pétrolières en Israël, seule source d’énergie tant que les États arabes empêcheront la construction d’une vaste centrale hydro-électrique en Haute-Galilée, utilisant les eaux du Jourdain. Jusqu’ici, les 21 puits de Ilélets produisent environ 73 000 t de pétrole par an, c’est-à-dire près de 3 pour 100 de la consommation nationale. Mais, au sud de cette région, le pétrole
- a jailli si violemment qu’il alluma un incendie qui détruisit l’installation et qui ne put être maîtrisé qu’après quelques jours.
- La Mer Morte a été spécialement convoitée par les compagnies dès 1030 car les couches d’asphalte venant du fond de la Mer Morte et l’apparition de l’asphalte liquide dans les forages sur la rive orientale semblaient indiquer une abondance de pétrole. Les résultats furent décevants. Une compagnie a cependant récemment extrait des sables imprégnés de pétrole, ce qui n’implique pas nécessairement la présence de couches pétrolifères importantes. Il est vrai qu’à Ilélets, c’est le lla forage qui a été couronné de succès.
- Indirectement, les conséquences des forages ont pu se révéler heureuses pour un pays carencé en eau. Ainsi, en Haute-Galilée, elle a jailli sous une pression artésienne avec une telle abondance, récemment, que des projets d’irrigation importants vont être mis au point. Dans la région de la Mer Morte, des quantités d’eau douce ont été découvertes à côté des eaux les plus salées qui aient jamais été trouvées dans le monde. P. G.
- Le gisement de thorium de Travancore (Indes)
- Le plus important gisement de thorium connu dans le monde se trouve à Travancore, sur la côte occidentale de la péninsule des Indes, à 0° de latitude Nord. Sur une vaste étendue, la plage est faite de sables noirs, riches en minéraux tels que quartz, rutile, zircon et principalement ilménite. On y trouve également, à raison d’environ 3 pour 100, une terre rare phosphatique, la monazite, dont on peut tirer un hydroxyde de thorium, contenant également un faible pourcentage d’uranium.
- Les sables noirs sont dus à l’érosion intense subie par une chaîne côtière, les Ghats, où abondent les roches friables. C’est à l’époque de la mousson que les eaux de ruissellement charrient vers la mer les produits de cette érosion. Normalement, ils
- devraient, en raison de leur densité, s’accumuler au fond de la mer, mais des courants locaux les rejettent sur le rivage. C’est sur la plage elle-même que la monazite est séparée des autres minéraux par vibrage et aimantation : I 500 t sont ainsi recueillies, qui font l’objet d’un traitement chimique au bout duquel sont obtenus un phosphate trisodique et l’hydroxyde de thorium.
- La future industrie nucléaire de l’Inde sera probablement fondée sur cette matière première qui entre dans la composition des réacteurs nucléaires à surrégénération, ou breeders. Le thorium 232 y est pénétré par les neutrons qui le transforment en uranium 233, élément fissile comme l’U 235 et le plutonium.
- Y. m:
- p.329 - vue 333/527
-
-
-
- 330
- Le Grand Chat des Cavernes
- Au Pléistocène, plusieurs Chats (Felis), de tailles assez diverses, habitèrent nos régions. Tous n’ont pas disparu : le Chat sauvage (Felis sylvestris Schreb.) vit encore dans les grandes forêts d’Europe, bien qu’assez rare en France, et la Panthère (Felis pardus L.), qui quitta l’Europe avant la fin de la dernière glaciation, habite, aujourd’hui, l’Afrique et l’Asie méridionale. Le Grand Lynx (Felis (Lynx) lynx L.), devenu très rare dans nos régions, habite encore les forêts arctiques de l’Ancien Monde et les montagnes de l’Europe centrale. Le Lynx des cavernes (Felis (Lynx) pardina Temm. race spelæa Boule) semble avoir subsisté dans la péninsule ibérique : c’est .le Lynx pardina Temm. actuel. Par contre, le Grand Chat des cavernes (Felis spelæa Goldf.) et le Petit Chat des cavernes (Felis minuta Schm.) sont deux formes éteintes.
- Le Grand Chat des cavernes, qui fait l’objet de cette étude, quoique trouvé, parfois, avec des faunes chaudes (Eléphant antique et Hippopotame), en Angleterre notamment, au Pléistocène ancien, fut surtout fréquent aux périodes froides : Würmien (dernière glaciation) et Post-würmien jusque dans l’Azi-lien. Son aire de répartition, très vaste, s’étendait, au nord, du Yorkshire, en Angleterre, jusque vers la mer Baltique et, au sud, jusqu’en Espagne, en Italie et en Sicile. Dans la Péninsule des Balkans, il touchait presque le domaine historique du Lion.
- Le Grand Chat quaternaire a été mentionné pour la première fois en 1810, par Goldfuss, dans son travail intitulé « Les environs de Muggendorf ». Depuis, les paléontologistes ont souvent discuté la question de ses affinités et l’ont rapproché, tour à tour, du Lion (Felis leo L.) et du Tigre (Felis tigris L.), les deux plus grands félins actuels.
- C’est ainsi que Boyd Dawkins (1866), par l’étude du squelette tout entier, de la mandibule surtout, estime que le Felis spelæa serait une « variation extrême » du Felis leo : en somme, les différences qui existent entre ces deux Felis ne seraient pas plus importantes que celles observées chez les variétés actuelles du Felis leo. D’autre part, M. Boule (1906) considère qu’il s’agit « toujours de Lions et jamais de Tigres ». Ces Lions (Felis leo) des cavernes, il est vrai, appartiennent, en général, à une grande race, la race spelæa, mais ne diffèrent des Lions actuels que par leurs proportions, plus fortes. Tout récemment, I. Rakovec (1961) pense que d’après les « principaux caractères » de sa mandibule, le grand félin wür-mien de Poslojna, en Pologne, fut un Lion. Par contre, pour
- Fig. 1. — Jeune Grand Chat des cavernes (Felis spelæa) de la Grotte du Pech-Merle, à Cabrerets (Lot), d’âge würmien supérieur.
- Mandibule fragmentaire recouverte de dépôts calcaires, vue par sa face externe droite. 13, alvéole de l’incisive externe ; G, canine ; P3, lrc prémolaire en évolution ; P1, 2° prémolaire ; M,, molaire. Longueur réelle de la rangée dentaire (Is-Ml) : 107 mm. Par les dimensions des deux dents jugales sorties de leurs alvéoles, ce Grand Chat des cavernes se rapproche du Lion actuel et du Felis spelæa de Postojna (Pologne), d’âge würmien
- supérieur.
- H. M. de Blainville (i83g), le Felis spelæa, d’après son squelette, « était un Tigre plutôt qu’un Lion » et, pour O. Abel (1927), le célèbre dessin des Combarelles, où le Felis spelæa est représenté avec des stries, prouverait qu’il s’agit bien d’un Tigre.
- E. et IL Filhol (1871) et aussi J.-R. Bourguignat (1879) pensent que le Grand Chat des cavernes se rapproche, à la fois, du Lion actuel par certains caractères et du Tigre actuel par certains autres, tout en « se distinguant de ces deux espèces par des caractères qui lui sont propres ». L’opinion de M. Hilzheimer (1922) se rapproche de celle-ci. A son avis, le Felis spelæa diffère, à la fois, du Lion et du Tigre actuels : cette forme éteinte présente des traits morphologiques qui lui sont spéciaux. Laurillard avait, autrefois (1867), d’ailleurs, émis la même opinion.
- *
- * *
- Les fouilles pratiquées dans le gisement de Kakert, à OEtrange (Grand-Duché de Luxembourg), de 1936 à 1939, ont mis à jour une faune d’âge würmien supérieur 011 le Grand Chat des cavernes est représenté par des ossements, des extrémités seulement, d’un même animal semble-t-il. Plus longs et plus robustes que les os correspondants du Lion actuel, ces os sont même un peu plus volumineux que ceux du Grand Chat de la caverne de Lherm figurés par E. et H. Filhol (1871). Deux faits anatomiques sont intéressants à noter, comme j’ai eu occasion de le souligner avec V. Ferrant, en 1936 et en 19^0 (Bulletin de la Société des Naturalistes luxembourgeois, 1936, p. 44-46, et 1940, p. 29-3i du tiré à part).
- Extrémité antérieure. — L’extrémité antérieure du grand Félin quaternaire était adaptée à la prédation, comme celle du Tigre, mais en plus accentué, alors que, chez le Lion actuel, cette extrémité, encore prédatrice, est plus nettement adaptée à la marche.
- En effet, on voit (fig. 2) que, chez le Lion actuel (L.), les rayons 3 et 4, représentés par leurs métacarpiens, sont prédo-
- Fig. 2. — Comparaison schématique des métacarpiens du Lion, du Tigre et du Grand Chat des cavernes.
- Quatre derniers métacarpiens gauches de Felis leo (L) et de Felis tigris (T) ; 21', 3e cl 5e métacarpiens gauches de Felis spelæa (S) du würmien supérieur d’GEtrange (Luxembourg).
- minants et à peu près de même longueur, le rayon 3 dépassant très peu le rayon 4; les rayons 2 et 5 sont sensiblement égaux, mais beaucoup plus courts que les médians, le rayon 1 étant fort réduit. Il s’agit là d’une extrémité assez nettement adaptée à la marche, étant donné qu’elle est presque symétrique par rapport à un axe passant entre les rayons 3 et 4.
- p.330 - vue 334/527
-
-
-
- 331
- Chez le Tigre (T.), au contraire, si les métacarpiens 3 et 4 sont encore à peu près égaux, le métacarpien 2 est, par contre, nettement plus allongé par rapport au métacarpien 3; il y a une tendance non négligeable à l’égalisation des rayons, en même temps qu’un déplacement de l’axe morphologique du côté interne ou radial, ce qui semble indiquer des fonctions prédatrices plus accentuées, la prédation comportant un développement plus marqué de la partie interne de l’extrémité antérieure.
- Chez le Grand Chat d’OElrange (S.), l’allongement du métacarpien 2 est encore plus marqué que chez le Tigre actuel : il s’agit donc d’un Carnassier qui, non seulement se rapproche, à ce point de vue, du Tigre, mais le dépasse nettement.
- Extrémité postérieure. — Les os du tarse et du métatarse rencontrés dans les gisements d’OEtrange, le scaphoïde surtout, viennent corroborer et accentuer la ressemblance du Grand Chat quaternaire avec le Tigre. La face postérieure concave du scaphoïde, qui s’articule avec la tête de l’astragale,
- Fig. 3. — Scaphoïde droit du Grand Chat des cavernes d’Œtrange, Vu par sa face astragalienne.
- Bien qu’il soit en partie brisé (S), on peut le comparer au scaphoïde (os navicalare pedis) du Lion actuel (L) et du Tigre actuel (T).
- est intéressante : la crête transversale qui la divise et qui est plus marquée chez le Lion que chez le Tigre, est complètement effacée chez le Grand Chat d’Œtrange. Ceci marque, avec évidence, une plus grande souplesse des mouvements du scaphoïde sur l’astragale. En outre, le contour de l’os, arrondi en avant, c’est-à-dire du côté dorsal de la patte, chez le Lion, est plus carré, surtout du côté externe, chez le Tigre; cette disposition est encore exagérée chez le félin d’OEtrange (fig. 3).
- De ceci on ne peut conclure que tous les Grands Chats de6 cavernes aient été des Tigres : on en connaît de très différents, au moins par la taille. C’est ainsi que J.-R. Bourguignat décrivit le premier, en 1868, sous le nom de Felis Edwarsiana, un grand Félin provenant des environs de Vence « plus lourd et plus trapu que le Lion actuel ». Alors que LI. Filhol mentionne sous le nom de Felis leo Cloueti, une mandibule de petite taille se rapprochant, par ses dimensions et sa forme, de celle du Lion. Enfin, dans les mêmes gisements, on a rencontré, à Lunel-Viel et à Louverné (Mayenne) notamment, des Felis spelæa de très grande taille et d’autres beaucoup plus petit s.
- *
- # *
- En résumé, comme le pensait M. Hilzheimer, le Grand Chat des cavernes mérite d’être considéré comme une espèce particulière de félin et, probablement même que, parmi les Grands Chats quaternaires, il a existé des formes assez différentes les unes des autres. En ce qui concerne le Felis spelæa d’Œtrange, il s’affirme, par ce que nous en possédons (des os des extrémités), comme ayant eu un comportement général (une souplesse de mouvements, en particulier) plus voisin de celui du Tigre que de celui du Lion; ses caractères, en ce sens, dépassaient même ceux du Tigre.
- M. Friant, Docteur ès Sciences et en Médecine.
- A propos des variations climatiques : le glacier d'Aletsch
- A la suite de la parution récente de notre article consacré aux problèmes du réchauffement actuel du climat (La Nature, janvier 1968, p. 19), nous avons reçu des renseignements complémentaires de la part d’un de nos lecteurs suisses, M. P. Brun-ner, à Winterthur. Celui-ci nous a communiqué les résultats, parus dans la N eue Ziircher Zeitung du 6 décembre 1967, d’une enquête concernant le glacier d’Aletsch. Ces résultats tirent un intérêt particulier du fait que le glacier en question est le plus important de toutes les Alpes.
- Les mesures effectuées l’ont été au cours de l’été 1957, dans le cadre des travaux de l’Année géophysique internationale. Elles ont été opérées par une équipe de trente alpinistes bénévoles, sous la direction de l’ingénieur Kasser et avec la contribution des savants de la station du Jungfraujoch; le « pilote des glaciers », II. Geiger, se chargea de transporter ravitaillement et matériel. Le financement de l’entreprise fut assuré par le Service topographique fédéral, aidé du Fonds national suisse de la Recherche scientifique et de la Société suisse des Sciences naturelles. Les points repères étaient figurés par des pieux munis d’un drapeau et entourés d’un anneau de suie.
- Les relevés photogrammétriques de 1957 sont les premiers à suivre les mesures effectuées avant la guerre par une équipe de glaciologues britanniques. Ils offrent un intérêt considérable, du fait qu’ils succèdent à un siècle de distance aux premiers relevés, dus à Stengel en i85i (date de la dernière avancée glaciaire importante).
- Au Jungfraufirn (névé de la Jungfrau), c’est-à-dire dans la partie supérieure du glacier, la vitesse de la glace est inférieure à la vitesse enregistrée plus bas : 0,10 m/j à 3 35o m d’altitude, o,5o m/j à l’altitude 3 i5o, o,55 m/j plus bas encore; puis o,36 m/j près de l’extrémité inférieure du glacier. Ces différences sont dues aux variations de pente.
- La profondeur de la glace est également très variable : de i4o m au Jungfraufirn, elle passe à 800 m à Konkordiaplatz (ait. 2 700), et enfin à 55o m dans la partie inférieure du_ glacier.
- L’épaisseur de la couche annuelle de neige atteint 8 à 10 m. Cette couche de neige ne fond pas en totalité au-dessus d’une certaine altitude, en raison de la basse température moyenne' annuelle (—8° à 3 4oo m) ; la zone où s’équilibrent alimentation nivale d’hiver et fonte d’été se tient autour de 2 g5o m : elle varie naturellement avec les conditions propres à chaque été (19/17 : 3 100 m, mais 2 800 m en ig5i).
- Après la période d’avancée maximale (milieu du xixe siècle), le glacier d’Aletsch a connu une incessante régression : de 1880 à 1950, le recul atteignit 1,7 km en longueur. Depuis 1950, le recul s’est confirmé, avec cependant de brèves périodes d’extension correspondant à des hivers neigeux et froids (1939-1940, i947-i9;,i8)-
- Ces résultats apparaissent en étroite relation avec ceux notés dans l’Arctique et dans l’Antarctique, ainsi qu’en Scandinavie et au Groenland. P. W.
- p.331 - vue 335/527
-
-
-
- 332
- Nutrition et psychisme
- Dans le Bulletin de la Société scientifique d’Hygiène alimentaire (1967, nos i-2-3), Mnie Paule Aschkenasy-Lelu, maître de recherches au C.N.R.S., a donné une excellente étude sur les rapports, assez récemment entrevus, entre la nutrition et le psychisme. Comme les muscles, le système nerveux central a besoin de combustible, « base du déroulement de toute notre vie spirituelle », bien qu’ici ne soient retenus que les aspects perceptifs, moteurs, affectifs et intellectuels. Par le comportement extérieur sera mise en évidence l’action de l’assimilation cellulaire sur le caractère d’un être vivant. Problème qui chevauche des disciplines .aussi diverses que la psychologie, la science de la nutrition, l’histoire, la sociologie, l’ethnographie et la psychiatrie. Mais Mme Aschkenasy-Lelu s’en tient pour l’essentiel, d’une part à l’action des protéines et acides aminés sur le comportement, d’autre part à l’action d’une vitamine, la thiamine.
- Protéines et acide glutamique. — L’étude de l’action des protéines en général ou acides aminés autres que l’acide glutamique a été faite chez l’homme. Le « kwashiorkor », maladie qui atteint les jeunes enfants soumis dans certaines régions d’Afrique, d’Asie ou des deux Amériques, à un régime carencé en vitamines, détermine une diminution considérable de la mobilité spontanée et une apathie profonde. L’enfant répugne à l’effort et se révolte si on trouble sa somnolence. Le monde extérieur semble sans intérêt apparent pour lui. On ne sait trop pourtant si ces symptômes ne sont pas le fait de toute dénutrition en général. Quoi qu’il en soit, la thérapeutique aux acides aminés purs, administrés per os, supprime apathie et tristesse et procure une euphorie analogue à celle de la caféine.
- Ap rès traitement à la caséine, on observe une augmentation de la capacité pour le calcul, par exemple, jusqu’à un certain palier cependant. L’absorption d’acides aminés purs permet une augmentation de cette même capacité double de ce qu’elle était avec la caséine, accordée avec le traitement, cessant avec lui, reprenant si on le reprend.
- L’action de l’acide glutamique sur le métabolisme cérébral est bien connue, mais un régime carencé en cette substance est impossible à réaliser car presque toutes les protéines en renferment en assez grande quantité. En fait, les expériences ne peuvent donc porter que sur une surcharge.
- Dans le métabolisme des protéines cérébrales, l’acide glutamique occupe une position de choix. « Aucune substance, souligne l’auteur, n’est aussi riche que le cerveau en acide glutamique, qui sert de substrat à divers systèmes enzymatiques impliqués dans des réactions fondamentales du métabolisme intermédiaire. » Un peu prématurément sans doute, on l’a même considéré comme 1’ « acide aminé de l’intelligence ». Il n’en demeure pas moins qu’une surcharge en acide glutamique de 12 à 20 g par jour diminue la fréquence des crises épileptiques, réduit l’égocentrisme et améliore le travail scolaire.
- Chez des arriérés traités à l’acide glutamique (doses croissantes de 6 à a4 g) on assiste à une amélioration pour les tests verbaux et moteurs, et pour le quotient intellectuel (âge mental/âge de l’état civil). Quantitativement parlant, l’intelligence ne varie pas, mais ses potentialités sont mieux utilisées. Cependant, des expériences réalisées chez d’autres arriérés n’ont apporté aucun résultat valable. Plus favorables, au contraire, ont été les incidences dans le cas d’affaiblissement intellectuel avec symptômes dépressifs observé au cours de la période qui s’ouvre sur la vieillesse.
- L’auteur est amené ensuite à traiter de la dénaturation des protéines et des crises convulsives qui en résultent chez le chien. Des transformations chimiques intéressant un acide aminé de la protéine du régime déterminent chez le chien I’ « hystérie canine » : crises paroxystiques d’hyperexcitabilité
- (il court, aboie, hurle, présente des convulsions cloniques, de la dilatation pupillaire et un relâchement des sphincters). Or ce trouble, apparenté à l’épilepsie, se rencontre particulièrement chez les animaux nourris avec un régime contenant de la glia-dine, matière protéique du blé, ou bien avec des biscuits spéciaux pour chiens, à base de farine de blé. La maladie se manifeste d’autant, plus rapidement que le régime est plus riche en gluten. En réalité, les farines de blé incriminées a ont été traitées par un agent améliorant » qui en permet l’utilisation immédiate en même temps qu'il assure leur blanchiment. C’est le trichlorure d’azote ou « agène », convulsivant pour les chiens, lapins, chats, souris. Singes, rats et humains n’y paraissent pas sensibles, bien qu’un cas de troubles mentaux ait été observé chez l’homme.
- On pense que le trichlorure d’azote pourrait bloquer l’action de la méthionine, acide aminé de la gliadine, protéine des céréales, permettant la formation de sulphomixine de méthionine, antagoniste de la méthionine et facteur neuro-toxique qui rendrait convulsivantes les céréales « agénisées ». Cela est à rapprocher du « lathyrisme », observé fréquemment chez les peuples méditerranéens qui font une consommation exagérée d’une légumineuse, la gesse cultivée (Lathyrus sativus). On observe une faiblesse subite des jambes et une rigidité musculaire qui entrave la marche. A rapprocher également du « cicérisme », affection provoquée chez le rat par ingestion de pois chiche cuit (Cicer arietinum), caractérisée par de l’agitation, de l’irritabilité, de l’agressivité, une hyperextension des membres inférieurs avec trouble de la marche, crises convulsives et mort. Dans ces deux cas, le rôle de la méthionine est de protection. Son action paraît être neutralisée comme dans la farine de blé traitée à l’agène.
- Le comportement alimentaire lui-même est influencé par les protéines. Leur suppression dans le régime affecte sérieusement l’appctit, ce qui aggrave les conséquences de la carence protéinique. De même que l’apport de protéine à un rat carencé en protéine relève spectaculairement son appétit, de même on lutte contre l’anorexie des nourrissons par des hydrolysats protéiques. Cependant, rien d’absolu là encore. Si certains acides aminés (méthionine) provoquent l’ingestion alimentaire, d’autres (acides aminés dicarboxylés) ont une action nauséeuse.
- L’ingestion normale et le maintien positif du bilan azoté sont commandés par neuf acides aminés. L’élimination d’un seul suffit à diminuer l’ingestion. C’est à la région de l’hypothalamus, centre de la faim, que serait dévolu le rôle d’enregistreur de ces variations. « Or, il est curieux, souligne l’auteur, que toutes les théories de la faim et de la régulation de l’ingestion alimentaire ont été centrées jusqu’à présent sur le taux du glucose sanguin et ont complètement négligé l’importance de la concentration en azote aminé du sang. » D’expériences réalisées chez des obèses, il résulte que « les régimes qui contiennent la plus faible concentration en protéines sont ceux qui donnent le plus aux sujets l’impression d’être continuellement affamés entre les repas ».
- Thiamine. — Est ensuite abordée l’élude de l’action d’une vitamine, la thiamine ou vitamine Bx sur le comportement, et les facteurs qui prédisposent à l’avitaminose
- Par son action dans le métabolisme intermédiaire des glucides, reconnue comme antinévritique par excellence, la vitamine B1 permet l’utilisation du glucose, aliment de la cellule nerveuse. La thiamine peut donc être tenue comme « substance-clef » du fonctionnement nerveux.
- A ce propos, Harrell remarque « que les enfants arriérés ont eu souvent à souffrir d’une nutrition défectueuse pendant leur vie prénatale ». Elle se demande si une déficience maternelle durant leur vie intra-utérine n’a pas perturbé gravement le
- p.332 - vue 336/527
-
-
-
- 333
- développement de leur système nerveux. D’où paraît possible une modification de l’intelligence des enfants par apport supplémentaire de vitamines aux futures mères pendant les périodes de grossesse et d’allaitement. L’expérimentation a porté sur 2 ooo femmes, aux U.S.A., dont les unes vivaient en* ville (régime alimentaire pauvre) et les autres en montagne (régime alimentaire simple, mais suffisant). Un examen des enfants est pratiqué vers l’âge de 3 ou 4 ans. Or, des résultats positifs n’ont été relevés que chez les enfants de femmes vivant en milieu urbain où le risque de carences multiples était grand. Aucune réponse significative, au contraire, chez les montagnardes, que leur régime fût normal ou enrichi à des fins d’expérience. Il semble donc bien que l’action des vitamines n’a joué que là où se manifestaient de nombreuses carences.
- Une série d’expériences ont été pratiquées par Keys, Idensehel et collaborateurs sur des hommes fortement carencés en thiamine. Apparition de nombreux troubles gastro-intestinaux (anorexie), émotifs (timidité, tendances dépressives et hystériques) , troubles psychomoteurs sur lesquels se greffaient des troubles métaboliques, neurologiques, cardiovasculaires. Pas d’atteinte pourtant des capacités intellectuelles virtuelles, mais apparition d’une sorte de léthargie mentale freinant l’activité intellectuelle spontanée. A un stade ultérieur, troubles musculaires, hépatiques, sensoriels, intellectuels (maniement des nombres, notion d’espace...). Chez de tels sujets, il a suffi de l’ingestion de thiamine seule pendant io jours pour que se trouvent restaurés l’appétit et les fonctions intellectuelles, calmée l’émotivité. Un trouble de la personnalité signe donc au premier chef une carence sévère en vitamine Bj.
- Ainsi les symptômes d’ordre psychologique peuvent être les premiers à consacrer une nutrition déficiente, la sphère émotive réagissant plus violemment que la sphère intellectuelle. Plus que les épreuves biochimiques, l’observation de troubles dans la conduite devra orienter le diagnostic.
- De là s’ensuit encore que la surcharge, le doping psycholo-
- gique par thiamine est sans action dans un régime alimentaire équilibré, bon action curative n’est justifiée que dans les états de carence qui ne se produisent guère que pendant les guerres et famines, dans les pays sous-développés, ou qui peuvent résulter de la neutralisation des vitamines par consommation d’aliments ou de boissons qui jouent le rôle d’antivitamines. Ainsi, la « paralysie de Chastek » frappe les renards d’élevage nourris avec du poisson cru et à qui on interdit la coprophagie qui les ravitaillerait en thiamine. On a montré, en effet, qu’un extrait hydroalcoolique de poisson possède le pouvoir de faire disparaître la thiamine in vitro, cet extrait contenant une enzyme (thiaminase) destructrice de la thiamine. Donnée valable sans doute également pour l’homme. La thiaminase existerait aussi dans la viande crue.
- Chez l’homme, Je Bacillus thiaminolytiens du tract-us intestinal peut être un facteur de thiaminase alors même qu’un régime normal en thiamine est dispensé.
- h Des carences latentes en vitamines Bj et probablement en bien d’autres fadeurs » paraissent, être le fait de consommations prolongées et exagérées de boissons alcoolisées, compte tenu évidemment des susceptibilités individuelles. Des médicaments comme les sulfamides suppriment la synthèse des vitamines par les bactéries du tube digestif.
- *
- * *
- De tout cela, que conclure ? Les troubles intéressent de préférence l’aspect affectif. La résistance des fonctions intellectuelles est grande, sauf en cas de déchéance physiologique considérable. Dans ce cas le rétablissement de ces fonctions est difficile. Mais l’activité mentale spontanée peut être diminuée. Alimentairement parlant, s’il n’y a pas carence, le doping est inutile. Enfin, fait d’une grande importance, la carence alimentaire peut entraîner des troubles psychiques.
- Pierre Gauroy.
- LE CIEL EN SEPTEMBRE 1958
- SOLEIL : du 1er septembre au 1er octobre (à 0h) sa déclinaison décroît de + 8°33' à — 2°34' et son diamètre app. varie de 31'44",9 à 32'0",2 ; la durée du jour passe- de- 13h2om le 1er à llh43m le 30. — LUNE : Phases : D. Q. le 6 à 10h24“, N. L. le 13 à 12*2™, P. Q. le 20 à 3h17m, P. L. le 27 à 21h43m ; apogée le 2 à llh, diamètre app. 29'28" ; périgée le 14 à 17h, diamètre app. 33'15" ; apogée le 29- à 22h, diamètre app. 29'25". Principales conjonctions : avec Mars le 4 à 2-1h, à 0°31' S. ; avec Uranus le 11 à 5h, à o°40' S. ; avec Mercure le 12 à 9'h, à o°10' S. ; avec Vénus le 12 à 13h, à 3°24' S. ; avec Jupiter Je Iti à 7h, à 0°11' S. ; avec Neptune le 16 à 9h, à 0°47' S. ; avec Saturne le 19 à 13h, à 3°15' N. Principales occultations- : le 7, de 115 Taureau (mag. 5,3) émersion à lh38m,6 ; le 9, de k Gémeaux (mag. 3,6) immersion à 2h7m,2 ; le 21, de p Sagittaire (mag. 4,0) immersion à 19M4ni,6 ; le 22, de 16 B. Capricorne (rna-g. 6,2) immersion à 23h13m,3 et de (3 Capricorne (mag. 3,2)
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIETE ASTRONOMIQUE DE FRANCE
- fondée en 1887 par G. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc. Demandez les programmes au Siège Social : Hôtel des Sociétés Savantes 28, rue Serpente, PARIS-6*
- Permanence, tous les jours non fériés de 14 à 17 h
- Cotisations : Région Parisienne, 1 800 F ; France, 1 500 F ; Étranger, 2 300 F ; Étudiants, 250 F.
- Droits d’inscription, 200 F ; Étudiants, 140 F.
- Spécimen gratuit de la revue sur demande.
- immersion à 23-h20m,3. — PLANETES : Mercure, étoile du matin jusque vers le 25, plus grande élongation Ouest le- 9, se lève le 10 à SHO™, soit lAiO» avant le Soleil ; Vénus, encore belle étoile, du matin, en conj. avec Mercure le 5- et le 18 ; Mars, dans le Bélier puis le Taureau, très bel astre, rougeâtre se levant dans la soirée ; le 15 : diamètre app. 14",0 et mag. — 0,8 ; Jupiter et Neptune dans la Vierge se noient dans les lueurs crépusculaires, les 2 planètes sont en conj. le 26 ; Saturne, dans- Ophiuchus, étoile du -soir se couchant 1e- 10 à 22h2m, diamètre app. 16",4 et axes de l’anneau : 37",7 et + 17",0 ; Uranus, dans le Cancer, réapparaît le matin, se levant le 10 à 2M6m, soit 3Mm avant le Soleil. — ETOILES VARIABLES : minima de [3 Lyre (3m,4-4“,3) le 10 à 17h,3m, le 23 à 15h,6m ; maxima de U Aigle (3m,7-4m,4) le 3 à 2h,2, le 10 à 6h,4, le 17 à 10h,7, le- 24 à 14h,9 ; maxima de S Céphée (3m,8-4m,6) le 4 à 13h,9, le 9 à 22»»,7, le 15 à 7h,5, le 20 à 16»»,3, le 26 à lll,0 ; maxima de Mira Ceti (2m,0-10m,l> le 24, de S Hercule (5™,9-13m,6) le 27. — TEMPS SIDERAL : du méridien de Paris à 0h (T. U.) : le 1er : 2-2»»47»n5is, le 11 : 23h27m22*, le 21 : 0h6m48s, le 1er octobre : 0h46m14s.
- Phénomènes intéressants. — -Surveiller les groupes de taches à la surface du Soleil. — Equinoxe d’Automne le 23 à 13U — Du 8 au 11, lumière cendrée de la Lune, le matin. — Du 1er au 25, on recherchera la planète Mercure à l’œil nu le matin dans- l’aube, la planète est- en conjonction remarquable avec Régulus, le 10, à 0°1' N., ne pas manquer d’observer ce beau rapprochement. — La planète Saturne, dont les anneaux 6ont très ouverts est encore commodément observable dans la soirée. — A la jumelle, examiner les riches champs stellaires de la Voie lactée dans le Scorpion, Ophiuchus, Sagittaire, E,cu, Aigle, Cygne, Cassiopée.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur,
- L. Tartois.
- p.333 - vue 337/527
-
-
-
- 334
- LES LIVRES
- NOUVEAUX
- The Threshold of Space, édité par M. Zelikoff. 1 vol. .19x25, 342 p., figures. Pergamon Press, Londres, 1957. Prix, relié : 5 livres, 5 shillings.
- L’étude de La lumière du ciel- nocturne cl des aurores polaires conduit à penser que la haute atmosphère est le siège de phénomènes d’excitation et d’ionisation fort variés, et que de nombreuses réactions chimiques peuvent s’y produire, notamment sous l'action de la lumière. La première partie de cet ouvrage, qui est dù à la collaboration de nombreux spécialistes réunis en symposium en juin 1956, mentionne des observations et des théories relatives aux phénomènes qui peuvent avoir lieu dans l'atmosphère do la Terre et même de Vénus. On a tenté de reproduire au laboratoire certains de ces phénomènes physico-chimiques : c’est le sujet de la deuxième partie. La troisième expose les résu liais apportés par l’exploration directe de la haute atmosphère au moyen de fusées, et le livre se termine par l'étude de certains problèmes soulevés par le vol supersonique à très haute altitude. Ouvrage d’un niveau assez variable mais généralement assez élevé, et dont la présentation et la typographie habituelles à Pergamon Press sont dignes d’éloge.
- Intégral équations and their applications to certain problems in mechanics, mathe-matical physics and technology, par S. G. Mikuun. Traduit du russe par A. IL Armstrong. 1 vol. 14x22, xii-340 p., 24 fig. Pergamon Press, Londres, 1957. Prix, relié : 80 sh.
- De nombreux problèmes, aussi bien d’ordre théorique que pratique, nécessitent la résolution d’équations intégrales. L'auteur a voulu rassembler ici non seulement les méthodes de résolution de cos équations, mais également des applications à des cas concrets. La lrü partie traite des équations intégrales et de leur résolution approchée : équations de Fredholm, équations symétriques et théorie de Hilbert-Schmidt, équations intégrales singulières. L’auteur développe essentiellement les méthodes de résolution mais il donne également chaque fois (pie cela est nécessaire tes preuves de la validité des démonstrations exposées. La 2e partie, beaucoup plus étendue, est réservée aux applications pratiques. De très nombreux problèmes de la théorie de l’élaslicité et de l’hydrodynamique sont traités. Une bibliographie complète l’ouvrage mais elle a L’inconvénient, tout au moins en ce qui concerne les applications des équations intégrales, de ne comporter presque exclusivement que des travaux publiés en U.R S.S.
- Mécanique statistique des fluides, par Daniel Massignon. 1 vol. I(ix25, xiv-264 p. Dunod, Paris, 1958. Prix, relié toile sous jaquette : 3 900 F.
- Les anomalies du comportement de l’hélium au voisinage du zéro absolu ont amené les théoriciens à reconsidérer la thermodynamique et l’hydrodynamique classiques. Ils y ont clé poussés également par les problèmes que pose l’étude des systèmes quantiques de corpuscules. L’explication de ces anomalies nécessitait une théorie quantique homogène associant à l’échelle moléculaire les descriptions hydrodynamiques et thermodynamiques locales d’un fluide dans un champ de forces extérieur. L’auteur expose d’une façon originale l’hydrodynamique et la thermodynamique statistiques dans le cadre de la mécanique statistique de Gibbs dont il a quelque peu généralisé les méthodes. Cet ouvrage très dense et d’un abord assez ardu présente une imporlante contribution aux théories des systèmes matériels.
- Manuel de Pélectronique industrielle, par
- R. Kretzmann. 1 vol. 15,5x23,5, 320 p., 327 fig. Ribliolhèque technique Philips, Eind-hoven ; Dunod, Paris, 1957. Prix, relié : 3 300 F.
- Montages électroniques industriels, par
- R. Kretzmann. 1 vol. 15,5x23,5, 208 p., 206 fig.. Bibliothèque technique Philips, Eind-hoven ; Dunod, Paris, 1957. Prix, relié : 2 550 F.
- Les appareils électroniques commencent à envahir toutes les industries, que ce soit pour le contrôle et la régulation ou pour la transformation de l’énergie. De sorte qu’il n’est plus possible maintenant à un ingénieur chargé de la conception ou de la surveillance d’une instal-
- lation industrielle d’ignorer les principes de fonctionnement et les possibilités de ces appareils. Les deux ouvrages de M. Kretzmann constituent une excellente introduction à ce domaine. L’auteur traite d’abord de différents types de tubes électroniques en insistant plus particulièrement sur des tubes spéciaux : thyratrons, ignitrons, cellules photoélectriques, etc., puis il décrit un grand nombre de procédés de contrôle ou de production d’énergie employés dans l’industrie. Gîtons : les relais, les systèmes de comptage, les systèmes redresseurs, les appareils de chauffage en haute fréquence. Dans tous les cas bailleur donne des schémas détaillés et des photographies d’appareillages utilisés dans l’industrie..
- Matière et antimatière, par Maurice Duquesne, chargé de recherches au G.N.R.S. 1 vol. 11,5x17,5. 128 p., 38 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, 1958. Prix : 180 F.
- Une curieuse théorie de Dirac, prévoyant l'existence de l’électron positif, a pressenti la notion d’antiparticule. Depuis lors on a pu prévoir et prouver l’existence de l’antiproton, de l’antineutron, il apparaît que chaque particule doit avoir son antiparticule, et on a parlé d’ « antimatière ». On trouve dans ce petit livre un excellent exposé élémentaire de cette question.
- Radiodiffusion et Télévision, par Jean-Jacques Matras, ingénieur général de la R.T.F. Préface de H. Pahodi, membre de l’Institut. 1 vol. 11,5x17,5. Collection Que sais-je?, 128 p., 14 fig. P.U.F., Paris, 1958. Prix : 180 F.
- L’auteur décrit l'organisation générale de la Radiodiffusion et de la Télévision, leur structure technique, leur développement, leurs servitudes ; il explique leurs réussites et leurs difficultés, il envisage Leurs perspectives.
- Fabrication et applications industrielles du COa gazeux, liquide, solide, par M. Vol-
- iænyveider. 1 vol. 16x25, 130 p., 45 fig. Dunod, Paris, 1958. Prix, broché : 1 600 F.
- Ce livre constitue une vue d’ensemble de l’industrie et des applications du gaz carbonique. Dans une première partie l’auteur décrit d’abord systématiquement les différents procédés industriels de fabrication du gaz carbonique liquide ; à partir des gaz de foyers, par synthèse, par extraction du gaz carbonique contenu dans les sources d’eaux minérales naturelles, par traitement des gaz naturels complexes et des gaz résiduaires industriels. Puis sont étudiés le stockage, le transport, la distribution du gaz carbonique liquide. Dans une deuxième partie, les procédés de fabrication, de stockage et d’utilisation de l’anhydride carbonique solide (carlioglaco) sont passés en revue. Puis huit chapitres sont consacrés aux applications industrielles du gaz carbonique gazeux, liquide ou solide.
- Formulaire des gaz, par A. Bouhon. 1 vol. 14x22, 212 p., 37 fig., 52 tableaux.
- Ch. Béranger, Paris, 1957. Prix, relié : 1 900 F ; franco : 2 050 F.
- Ce livre réunit sous une forme simple et aisée à consulter un grand nombre de renseignements dispersés dans des ouvrages divers et assez spécialisés ; il s’agit d'abord du rappel des données théoriques essentielles concernant les gaz, puis de la présentation des divers gaz industriels, de leur contrôle, de leur manutention et de leur transport et enfin de leur utilisation. De nombreux tableaux facilitent la consultation de ce livre de haute vulgarisation, très bien présenté.
- Traité de Chimie biologique, par Louis Genevois, professeur à la Faculté des Sciences de Bordeaux. Tome 1er : Aminoacides, Protéines, Protéases, Nucléincs, Porphyrines, Enzymes respiratoires. 1 vol. 13,5x18,5, 326 p., 24 fig. Presses Universitaires de France, Paris, 1957. Prix : 1 800 F.
- Après un court résumé de l’histoire de la science qui fait l’objet de ce livre, l’auteur explique ainsi son propos : « Il résulte de ce contexte historique que l’étude de la biochimie générale doit être abordée avec des préoccupations essentiellement physiologiques ; les propriétés chimiques des corps ne nous intéressent que dans la mesure où elles expliquent leurs aptitudes à réagir dans l’organisme. La distinc-
- tion entre une statique et une dynamique chimique est pour nous la distinction entre la chimie organique et la chimie biologique. La chimie biologique est la chimie de substances constamment en train de réagir, de se former et de se détruire. Chaque substance doit être décrite en rapport avec son rôle physiologique, avec son mode de formation. Les ferments sont ainsi décrits, le plus souvent, à propos des substances qu’ils transforment. » L’auteur, qui a pu vérifier le bien-fondé de cette conception sur des générations d’étudiants, pense avec raison qu’elle vaut pour le lecteur.
- The Origin of Life on the Earth, par
- A. 1 Oparin. éd. russe traduite en anglais par Ann Syngk. 1 vol. 1.4x23, xvm-495 p. Oliver and Boyd, Edimbourg et I/ondres, 1957. Prix, cartonné : 35 sh.
- Le professeur Oparin, de l’Académie des Sciences de FU. R.S.S., est connu comme un spécialiste des problèmes de l’origine de la vie et un eollcclionneur diligent de tout ce qui s’y rapporte. Dans ce livre, il retrace d’abord l’histoire des idées a ce sujet, depuis l’Antiquité. Parmi les tenants actuels do la génération spontanée il distingue sa compatriote O. Lcpechiuskaïa qui, au temps ou Lysenko triomphait, fit beaucoup parler d’elle ; il dénonce sa pensée naïve et ses expériences sans rigueur. Après un coup de chapeau h Engels, il montre que la seule hypothèse admissible est l’hypothèse « dialectique » selon laquelle la vie est issue d’une évolution progressive de systèmes matériels et non de l’apparition, par hasard, d’une molécule hautement improbable. Notons les têtes de chapitre : formation originelle des substances organiques les plus simples ; évolution organo-ehimique abiogénique des composés carbonés ; structure et fonctions biologiques des protéines et des acides nucléiques ; développement des systèmes multimoléculaires organiques ; origine des premiers organismes et leur évolution.
- Les grands bouleversements terrestres, par I. Veukovsky. Traduit de l’américain par Collin Dki.avaui). 1 vol. 14x20, 328 p. Stock, Paris, 1957. Prix : 960 F.
- L'auteur s’est taillé aux États-Unis un considérable succès de librairie avec son livre Mondes en collision, qui entendait prouver que le globe terrestre avait subi, au cours de son histoire, des cataclysmes causés par le choc d’autres astres. Cette démonstration est ici reprise, sur un mode tout aussi sensationnel, en interprétant, de manière plus ou moins gratuite, un certain nombre de faits géologiques. Besogne sans grand risque, car les preuves à l’encontre ne sauraient être absolues et toute discussion n’aurait pour effet que de fournir matière à un troisième livre sur le même sujet, ce qui — en vérité — ne s’impose pas.
- Peuplement végétal des hautes montagnes de l’Afrique du Nord, par P. Qijkzël, maître de conférences à la Faculté des Sciences d’Alger. Préface de Louis Embkrgkr, professeur à l’Université de Montpellier. 1 vol. 16,5x25, 464 p., 4 fig., 20 graphiques,
- 7 schémas, 24 caries, 32 photos, 34 tableaux. Paul Leclievalier, Paris, 1957. Prix : 9 000 F.
- Comme le souligne M. Emberger dans sa préface, cette thèse présente le premier mémoire d'ensemble sur la haute montagne méditerranéenne, et son intérêt dépasse en réalité l'Afrique du Nord. L’auteur, en effet, s’il a exclu de son étude un massif comme le Rif, qui atteint h peine 2 500 m, Fa étendue à la Sierra Nevada et même aux Pyrénées. Son principal effort a porlé sur le Maroc. Après avoir dressé le répertoire des espèces de souche méditerranéenne, de souche euro-isibérienne dt boréalo-américaine, puis des endémiques, il distingue deux sous-domaines : alti-montain marocain et alti-montain numidien. Puis il entreprend la description des groupements : groupements rupicoles, garrigues à xérophyfces épineux et pâturages écorchés, groupements nifcrophiles, groupements hygro-philes, pelouses sèches et mésophiles acidophi-les. La dernière partie de l’ouvrage étudie la valeur historique de la flore orophile nord-africaine. En l’absence de fossiles végétaux, les données paléoclimatiques et paléontologiques sont encore imprécises, mais l’étude des fossiles animaux et des données géomorphologiques permet déjà de dresser un schéma d’ensemble de la paléoclimatologie des Atlas. Le peuplement végétal de ces hauts sommets apparaît comme essentiellement résiduel.
- p.334 - vue 338/527
-
-
-
- Traité de Microbiologie des sols ; Applications agronomiques, par J. Pocuon, chef, de service à l'Institut Pasteur, et H. de Barjac, assistante à l'Institut Pasteur. Préface de P. Giiouari), professeur à la Sorbonne. 1 vol. 16x25, 700 p., 464 fig., pl. h. t. Dunod, Paris, 1958. Prix, relié : 6 500 F.
- Les méthodes du microbiologiste des sols sont essentiellement écologiques ; elles ont pour but de révéler l’action de la microflore entière, dans la complexité de sa physiologie globale. Les prélèvements doivent donc être réalisés à partir d’échantillons aussi représentatifs que possible du milieu total. Les techniques ont fait d’asse/ grands progrès pour qu’on puisse déjà être assuré de la validité de nombre d’importants résultats et pour que le rôle des principaux types microbiens soit assez bien connu, ainsi que les conditions physico-chimiques, climatologiques, biologiques qui influent sur leur développement et leur action. Les deux cycles principaux qui intéressent l'agronome sont ceux de l’azote et du carbone. Un chapitre particulièrement nourri est consacré ici aux Rhizobium des Légumineuses, qui fixent l’azote atmosphérique. Le rôle des champignons du sol ne peut être séparé de celui des microbes ; on trouvera donc ici une étude des mycorhizes. Livre précieux jjour les agronomes, utile aux étudiants, et que tout naturaliste aussi lira avec plaisir et profit.
- La culture du peuplier, par Jean Pouhtet, ingénieur principal des Faux et Forêts. Pré-race de Ph. Guinier, de l’Institut, directeur honoraire de l'Ecole nationale des Eaux et Forêts. 1 vol. 13x19,5, 256 p., illustré.
- J.-B. Baillière, Paris, 1957. Prix : 1 000 F ; franco : 1 085 F.
- La culture des peupliers s’est beaucoup développée depuis quelques années. Elle permet d’exploiter des terrains peu propres à d’autres cultures. On trouvera dans ce livre, après une description de l’ensemble du genre Popiüus, une étude plus approfondie sur la section Aigei-ros (peupliers hoirs), la seule qui intéresse la culture en France. L’auteur expose en détail la propagation, les méthodes de culture, les soins annexes (drainage, irrigation, engrais, travail du sol, etc.), l’entretien des peupleraies, les types de peupliers cultivés, enfin la production et -l’utilisation du bois.
- Zoologie. Tome I. Invertébrés (fascicule 1), par H. Boni, professeur au Lycée Chaptal, cl; R. Chanton, professeur au Lycée Louis-ie-Grand. Préface de F. Game an, inspecteur général de l'Instruction publique. 1 vol. 15x21, 512 p,, 429 fig. G. Doin, Paris, 1957. Prix : 3 750 F.
- Dans l’excellente collection Biologie dirigée par M. Albert Obré, voici le premier tome de la Zoologie de MM. Boué et Chanton. Après une introduction qui définit le domaine de la Zoologie, donne les grandes lignes de la systématique actuelle et les grandes lignes de révolution, 160 pages sont consacrées aux Protozoaires, le reste du volume traitant les groupes suivants : Spongiaires, Cœlentérés, Plathelminthes, Némat-helminthes, Rotifères, Brachiopodes, Bryozoaires, Annélides. La description de ces groupes est faite dans un esprit moderne : à l’étude des formes se joint celle de la cytologie, de l’embryologie, de la physiologie, et même du comportement. Iæs rapports et affinités entre groupes sont soulignés de façon à préparer à l’étude de Dévolution. Mention est faite des formes fossiles quand on les connaît, comme c’est le cas pour les Brachiopodes. Ce manuel paraît répondre parfaitement aux besoins de la préparation aux grandes écoles biologiques, à l’agrégation et au C.A P.E.S.
- Précis de Biologie humaine : Les bases organiques du comportement et de la pensée, par le Dr Paul Chauchard, directeur adjoint à l’Ecole des Hautes Etudes. 1 vol. 14x23, 404 p., 59 fig. Presses Universitaires de
- France, Paris, 1957. Prix : 1 400 F.
- Tout le monde est d’accord pour dire que les sciences humaines sont fâcheusement en retard sur les autres. Un effort louable est fait pour développer une psychologie, une sociologie scientifiques. Cependant, la connaissance approfondie de la biologie humaine comprise dans son acception la plus large est la base indispensable de ces sciences. Sans prendre parti dans l’éternelle querelle des matérialistes et des spiritualistes, il n’est plus possible de négliger les bases organiques de la psychologie et de la
- sociologie. On les trouvera dans ce livre. La lre partie précise la constitution individuelle et son origine : structure de la matière vivante, de la cellule, de l’organisme, hérédité, évolution, embryogenèse. La 2e partie étudie les dispositifs intégrateurs : endocrinologie, anatomie et physiologie nerveuse. La 3e traite de l’activité nerveuse supérieure et du fonctionne-* ment cérébval ; la 4e de la physiologie du comportement, des comportements instinctifs et acquis, de l’intelligence. « Nous pourrons alors conclure, dit l’a.ileur, que la conception biologique de l’homme, sous son apparent matérialisme, arrive à saisir objectivement le spirituel sans imposer aucune obligation métaphysique, mais sans en interdire aucune. »
- Hi stoire de la vie sexuelle, par Richard Lkmtnsohn. Traduit par L. Lamori.ette. 1 vol. 14x22,5, 409 p. Pavot, Paris, 1957. Prix : 1 400 F.
- Envisagée dans une perspective sociale, la sexualité est étudiée, à travers ses manifestations diverses, aux différente? époques ; les périodes moderne et contemporaine reçoivent toutefois une place privilégiée. Sur le plan géographique, c’est; l’Europe centrale et occidentale qui occupe le premier rang. Des régions ont été négligées ; et les peuples attardés, sur lesquels il y aurait tant à dire après Malinowski, ne figurent; pas dans cette revue, déjà bien copieuse, il faut le reconnaître. La documentation est sérieuse et, en général, au courant des dernières recherches, quoique ici et là on puisse relever quelques lacunes. Coutumes, mœurs, perversions n’ont pas évincé les personnalités célèbres pour leur vie sexuelle (Casanova, Rousseau, Napoléon, Verlaine, etc.). On ne saurait assez féliciter Fauteur de la liberté de jugement, et de l’indépendance avec lesquelles il traite un sujet encore marqué de nombreux tabous ; il n’a pas reculé devant les questions d’actualité les plus brûlantes. Les tendances présentes sont dégagées avec netteté, et, rejoignant Kinsey, le Dr Lewin-sohn conclut à la divergence croissante des fonctions érotique et reproductrice, résultante du développement technique et de l'évolution psychologique concomitante. Précisons que ce livre se lit facilement et n’a rien de commun avec une certaine littérature commerciale qui, n’osant pas dire son nom, se revêt- d’oripeaux pseudo-scientifiques.
- L’enfant néanderthalien du Pech de l’Azé,
- par Etienne Patte, doyen de la Faculté des Sciences de Poitiers. 1 vol 16,5x25,5, 236 p., 8 planches hors texte. Masson, Paris, 1957. Prix : 2 500 F.
- Etude approfondie du crâne d’enfant trouvé en 1909 par Denis Peyrony dans le moustérien de la grotte du Pech de l’Azé, à Carsac (Dordogne). La limite inférieure de l’âge est 2 ans ; la limite supérieure, imprécise, 4 ans et peut-être jusqu’rà 10 ans. Comparaisons minutieuses avec les autres sujets connus. M. Patte y a ajouté une plus courte étude sur la mandibule d’enfant néanderthalien découverte en 1908, par G. Chauvet, dans la Grotte à Melon de Château-neuf-sur-Charentc
- Le mythe des cités lacustres, par Oscar Pakkt, professeur honoraire à l’Ecole des
- ----- A NOS LECTEURS --------------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-66
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- liantes études techniques de Stuttgart. Traduit et adapté par A. Potjgetoux. Préface de À. Lerol-Gouiuian, professeur à la Sorbonne.
- I vol. 15x21,5, 148 p., 71 fig. Dunod, Paris, 1958. Prix : 740 F.
- II faut se rendre à l’évidence : les fameuses cités lacustres sur pilotis n’ont jamais existé, du moins en Europe. Les planchers que l’on retrouve sur le fond des lacs ne se sont pas du tout effondrés ; ils ont toujours été dans leur position actuelle et ont toujours reposé sur le sol. Les pieux que l’on retrouve fichés dans le fond des marais n’étaient ni assez solides ni assez nombreux pour avoir pu supporter les superstructures que l’on imaginait, et on ne retrouve rien des pièces d’assemblage qui auraient dû les accompagner. Ce ne sont donc pas des pilotis, mais les montants des parois disparues. Ces habitations étaient donc à meme le sol, en un temps où les lacs étaient moins étendus, par suite de sécheresse. L’esprit critique du professeur Paret s’est également attaqué aux prétendus « fonds de cabane » qui n'étaient que des trous d’extraction de l’argile, puis des fosses a ordures ; tandis que les traces bien plus imposantes qui les avoisinent étaient bien des habitations et non des parcs à bestiaux. La reconstitution minutieuse d’un village néolithique à Ehrenstein, près d’Uhn, complète ce livre utile et passionnant.
- La personnalité, par J.-C. Fnxoux, agrégé de Philosophie. 1 vol. 11,5x17,5 de la collection Que sais-je ?, 128 p. P.U.F., Paris, 1957. Prix : 180 F.
- Comme tous les caractères individuels, ce que le psychologue englobe sous le nom de « personnalité » résulte d’un double déterminisme, l’inné et Facquis, ce que les Anglo-Saxons appellent nature et nurtare. L’auteur étudie ensuite les transformations de la conduite, puis le déterminant social, les rapports de la culture et de la personnalité, le « pour-soi » et les identifications, enfin l’aspect historique de la personnalité.
- Morpho-physiologie de l’écriture, par le
- Dr Maurice Périot, médecin des Hôpitaux de Marseille, ancien professeur à l’Ecole de Médecine, et Paul Brosson, expert près la Cour de Paris. 1 vol. 14x23, 316 p. Payot, Paris, 1957. Prix : 1 300 F.
- Ce livre présente une « méthode rationnelle de graphologie basée sur la physiologie du geste graphique et la psychologie du tempérament ». Personne ne doute que le graphologue-expert puisse identifier une écriture sur des caractéristiques que le scripteur est en grande partie, sinon totalement, incapable de modifier. On admet facilement aussi que l’écriture, comme tout le comportement, soit influencée par le caractère et le tempérament de l’individu. On doute seulement parfois de la valeur des critères qui paraissent emprunter souvent à des analogies sommaires ou à un symbolisme quelque peu simpliste. Les spécialistes qui ont écrit ce livre sont partis de bases qui paraissent solides : l’étude des gestes et de la physiologie neuromusculaire Cependant, faisons une citation au hasard : « Plus un jambage descend, plus il traduit la facilité de la vection inférieure, la prédominance du groupe cérébello-médullaire, la concentration sur soi, l’importance accordée au Moi corporel, physique, sur le terrain de l’activité générale... ». Voilà un type d’affirmation dont beaucoup contesteront la sûreté. Le sanguin enroule-t-il vraiment à l'envers son point d’interrogation ? C’est ce qu’il faudrait prouver par une statistique bien établie. Mais si l’ouvrage ne nous convainc pas entièrement de la valeur de la graphologie psychologique actuelle, il fourmille d’indications intéressantes.
- Géographie, par V. Ciiagny et J. Forez. 1 vol. 21x28, 104 p., avec de nombreuses cartes en couleurs et illustrations. Armand Colin, Paris, 1957. Prix, cart. : 820 F.
- Ce volume est destiné au cours moyen de l'enseignement primaire. Il est remarquable par sa conception entièrement nouvelle, son allure attrayante, ses cartes, ses exercices. Il y a là de quoi faire aimer la géographie par tous les enfants, et même les adultes. On souhaite que ce volume ait la plus large diffusion.
- Sahara, par S. Normand et J. Acker (Collection « Visages du Monde »). 1 vol. 18,5x23,5, 168 p., 81 photographies et 1 carte. Horizons de France, Paris, 1957. Prix : 1 375 F.
- p.335 - vue 339/527
-
-
-
- 336
- Les auteurs de La Route du pétrole -au Moyen-Orient ont choisi le Sahara pour y faire le point de l’extraordinaire aventure où, peut-être, notre avenir se fait. Ils y décrivent la double épopée des pétroliers et des chercheurs de métaux rares, de Timimoun et d’Hassi-Messaoud à Edejelé et au Hoggar. Partout, au cœur des oasis jadis somnolentes et que réveille le tumulte de la vie haletante, parmi les massifs dunaires auréolés de l’ensorcellement des aubes solitaires, ou le long de ces pistes aux admirables horizons, « où naissent les mirages de nacre et d’opale », ils retrouvent, en dépit des contrastes, les sortilèges sahariens. A deux pas des derricks, le songe et le silence de toujours demeurent préservés. De belles héliogravures illustrent ce volume pénétrant, au courant des dernières découvertes, et qui devrait inciter les Français à mieux connaître « le plus beau désert du monde », dont Salisbury disait que le coq gaulois y userait en vain ses ergots, et qui est en train de modifier toute une géographie.
- La Crète vivante, par Cl. Dervenn. 1 vol.
- 17x23, 160 p., avec 95 héliogravures et
- 1 carte, sous jaquette en couleurs. Horizons
- de France, Paris, 1957 (Coll. Visages du
- Monde). Prix : 1 375 F.
- La réputation d’écrivain de CL Dervenn n’est plus à faire. Le nouveau volume, consacre cette fois à la Crète, qu’elle nous livre, complétant la « géographie des îles » à laquelle elle semble vouer une tendresse particulière, n’est pas indigne des évocations précédentes (Açores, Madère, îles grecques). Magnifiquement illustré par l’auteur, ce livre offre de la grande île méditerranéenne une vision pleine d’amour. Sans ignorer la mythologie ni l’histoire (comment les oublier en Crète ?), il insiste sur l’aspect éternellement vivant du paysage et des habitants crétois. Par-delà trente siècles et davantage, la Crète d’aujourd’hui n’apparaît pas tellement différente de celle de Minos et des contemporains de « la Parisienne » des fresques de Gnossos. Partout, jusqu’au pied de l’Ida où vécut Zeus, l’odeur du thym et des cyprès, les prairies d’asphodèles où bondissent les agneaux,
- --------------- VIENT DE PARAITRE
- les gorges où se ruent les ruisseaux de printemps forment le cadre du plus envoûtant des sortilèges ; partout, du haut en. bas de l’ile, « et le long des grèves où le pas des dieux a dansé ».
- Voyage en Chine, par P. Schmij>t. 1 vol. 18x23, 160 p., avec 110 héliogravures et 1 carte, sous jaquette en couleurs. Horizons de France, Paris, 1957 (Coll. Visages du Monde). Prix : 1 375 F.
- Peter Schmidt est Suisse. Voyageur cultivé (docteur ès lettres), il publie son premier livre français, consacré à la Chine d’aujourd’hui. L’essentiel du pays, c’est-à-dire Pékin, Ghanghaï, Hankéou, Tchoungking et Canton, Schmidt l’a vu, détaillé, fouillé même avec lucidité et compréhension. Les remarques qu’il livre sont intéressantes, parfois sans indulgence, mais parfois aussi enveloppées d’humour ou de sympathie réelle. On regrette naturellement que l’auteur n’ait pu prolonger son enquête en parcourant la campagne chinoise, mais il a tenu à d’autres que lui qu’il n’en fût pas ainsi. Œuvre d’un esprit curieux, désireux de s’informer (et de bien s’informer), au demeurant bien écrit et fort clairement présenté, ce livre est certainement l’un des plus « directs » qu’il nous soit donné de lire sur la Chine actuelle. Les illustrations, dues à l’auteur lui-même, complètent admirablement le texte ; souvent très originales, elles constituent à elles seules un document de première valeur.
- Le remembrement rural- 1 vol. 21x28, 130 p. Prix, broché : 400 F.
- Les politiques agricoles en Europe et en Amérique du Nord. La politique des prix et des revenus. 1 vol. 15x24, 478 p. Prix, broché : 1 400 F.
- Ces deux volumes sont publiés par l’O.E.C.E (2, rue André-Pascal, Paris-16e) et constituent des études complètes. Le premier traite de l’importante question du remembrement rural, dont on sait l’importance qu’elle revêt en France, par exemple ; législation et réglemen-
- tation, amélioration des terres, construction de routes, problème de financement sont clairement exposés à travers une série de rapports dus aux plus grands experts européens. On appréciera particulièrement les chapitres relatifs au remembrement en Suisse (p. 45), en Italie (p. 61) et en Grèce (p. 33). Un résumé des enquêtes effectuées dans chacun des États membres de l’O.E.C.E. est également fort utile. Quant au second volume, il constitue surtout une suite de monographies, dont l’ensemble présente un faisceau de renseignements incontestablement précieux pour l'étude de l’évolution des prix et de la politique de chaque gouvernement à leur égard.
- L’épopée des grands travaux, par R. Poirier. 2 vol. 13x19, de 302 et 280 p., 81 illustrations, dont 36 hors texte. Plon, Paris, 1957. Prix, cartonné : 2 400 F les 2 vol.
- Le projet est intéressant de retracer 1’ « épopée » des grands travaux, de la tour de Babel à la cité atomique d’Oakridge, en passant par les voies romaines, les travaux de Versailles au xviie siècle, la construction du Métro de Londres et celle de la tour Eiffel, le percement du Simplon et l'édification des barrages géants des U.S.A. et d’U.R.S.S. Bien des détails pittoresques nous sont contés . (Grande Muraille de Chine, transcontinentaux américains) et l’amateur de petite histoire sera comblé. Le technicien, le géographe seront moins satisfaits et resteront sur leur faim au terme de cette vaste compilation : le chapitre consacré à la conquête du Zuyderzée, par exemple, est bien décevant. Quant au style, quelques négligences semblent provenir d’une rédaction un peu rapide.
- Gestion moderne de la qualité, par
- A. H. Schaafsma et F. G. Willemze. Préface de Jean Fotjrastié. 1 vol. 15,5 x 23,5, 474 p., 172 fig., 173 tableaux. Bibliothèque technique Philips, Eindhoven ; Dunod, Paris, 1957. Prix, relié : 3 500 F.
- Actuellement les entreprises industrielles s’efforcent de maintenir ou d’améliorer la qualité de leurs produits au moyen de mesures prises
- TABLES ABRÉGÉES
- DE
- PUISSANCES ENTIÈRES
- spécialement préparées pour servir d’aide à la machine à calculer PAR P. MONTAGNE PRÉFACE DE H. VILLAT
- Examinateur des Élèves à l’École Polytechnique. Membre de L’Institut.
- 488 pages 21,5 x p.7. Relié toile sous jaquette
- 5 600 F
- En vente dans toutes les bonnes librairies et chez
- 92, rue Bonaparte, Pari$-6Ô
- Editeur, C.C.P. Paris 75-45
- Le gérant : F. Dunod. — dijnod, éditeur, paris. — dépôt légal : 3e trimestre iq58, n° 3r56. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 8797. — S-UjÙS.
- p.336 - vue 340/527
-
-
-
- N° 3281
- Septembre 1958
- LA NATURE
- Le pavillon pharyngo-buccal et sa physiologie phonatoire
- Pour la sixième fois depuis le 1er janvier 1957, La Nature présente un exposé de Physiologie phonatoire dû à la plume de M. Raoul Husson, qui fut autorisé à trois reprises, en 1951-1952, 1953-195Û et 1955-1956, à professer à la Faculté des Sciences de Paris un cours libre sur ces questions, si longtemps abandonnées. Le lecteur a pu être frappé par Vextraordinaire nouveauté des synthèses qui sont apparues et par la diversité des horizons vers lesquels la recherche en ces domaines se trouve maintenant engagée : neurophysiologie, physiologie cérébrale, endocrinologie, psychophysiologie, etc. Son étonnement ne sera pas moindre en voyant combien un problème subsidiaire tel que celui qui est traité ci-après, relatif au rôle joué par la cavité pharyngo-buccale dans la phonation, se trouve rajeuni et transformé, et révèle de vues entièrement nouvelles.
- Les deux premières études parues dans cette revue sur la physiologie phonatoire (janvier 1967, p. 1; février 1967, p. 4i) se rapportaient au fonctionnement du larynx, considéré comme effecteur neuro-musculaire phonatoire. Celle parue en novembre 1957 (p. 432), relative au chant à grande puissance, revenait sur le même problème fondamental et mettait déjà en évidence l’entrée en ligne de compte de conditionnements hormonaux. La dernière étude publiée en mars ig58 (p. 90) abordait le problème nouveau du rôle des sensibilités internes dans la phonation, et mettait en lumière le rôle phonatoire des affé-rences diffuses qui viennent à tout instant converger sur le larynx. Ces quatre études portaient, en quelque sorte, sur la fabrication par le sphincter laryngien de la fourniture initiale de la voix, avant sa propagation au sein de la cavité pharyngo-buccale et son extériorisation vers les oreilles réceptrices.
- Parmi les nombreux autres problèmes posés par la physiologie phonatoire, l’étude du rôle joué par la cavité pharyngo-buccale (et accessoirement nasale) se pose en premier lieu. Ce rôle est à la fois multiforme et très complexe. Son aspect le plus simple, le plus banal peut-on dire, est celui de la fabrication des voyelles, et nous en avons dit quelques mots dans notre article de juillet 1957 (p. 249). Pendant de longues années et, en fait, jusqu’à nos jours, ce problème de la genèse pharyngo-buccale des voyelles fut l’angle unique sous lequel fut considérée la physiologie de la cavité pharyngo-buccale. On l’appelait aussi « étude des phénomènes physiques de la phonation ». De cette étude est née une immense littérature dite « phonétique », d’intérêt le plus souvent médiocre, parsemée cependant de travaux sérieux de bons acousticiens tels que Slumpf, Panconcelli-Calzia, Tarnoczy, Potter et Steinberg, Hala, Dunn, Schoot, Ochiai et Fukumura, Gemelli, et quelques autres.
- Toutefois, comme nous venons de le dire, l’élude de la genèse
- des voyelles n’est qu’une partie, et la plus banale, de la physiologie phonatoire de la cavité pharyngo-buccale. Celle-ci comporte un grand nombre d’autres problèmes, nouveaux et entièrement différents, dont nous allons dire quelques mots dans le présent article. Leur intérêt est d’ailleurs si grand que, devant eux, l’étude de la vocalité passe au second plan. Nous verrons d’abord le rôle de transmission d'énergie acoustique de la cavité, qui est sans doute le plus important. Et, ici, les développements les plus récents de l’acoustique prennent déjà place. Puis nous reviendrons un instant sur le vieux problème de la vocalité, qui apparaît comme subsidiaire du précédent. Suivront trois chapitres dans lesquels des aspects ultra-modernes de la physiologie pharyngo-buccale phonatoire seront abordés : Vactivation du tonus laryngé, la régulation impédantielle des accotements glottiques, et la constitution d’un schéma corporel vocal.
- Il l’estera encore à examiner les incidences multiples créées par Vabaissement du voile du palais, dans l’émission des voyelles nasalisées, pour avoir une vue améliorée, sinon complète, de l’ensemble de la physiologie phonatoire des cavités sus-glot-tiques.
- Rôle de lu cavité pharyngo-buccale dans la transmission de Vénergie acoustique issue du larynx. — Ni Helmholtz, ni Hermann. — Le rôle acoustique joué pendant la phonation par la cavité pharyngo-buccale n’a fait l’objet, jusqu’à ce jour, d’aucune étude expérimentale. Il n’a encore été l’objet que de deux théories explicatives, formulées
- Fig. 1. — Types de résonateurs, historiquement comparés au résonateur pharyngo-buccal.
- a, Résonateur sphérique simple, dit de Helmholtz ; le goulot effilé A se place dans le conduit auditif externe ; le goulot élargi O recueille les ondes sonores, b, Résonateur sphérique double asymétrique, étudié par Lord Rayleigh, c, Résonateur cylindrique diaphragmé de Grandali ; le volume total du cylindre est invariable ; seuls peuvent varier : la position du diaphragme D qui peut coulisser dans le cylindre, le diamètre de l’orifice O' du diaphragme, et le diamètre de l’orifice extérieur O.
- C
- p.337 - vue 341/527
-
-
-
- 338
- toutes deux il y a un siècle environ. L’une émane de Helmholtz (1857), et l’autre fut lancée onze années plus tard par Hermann (1868).
- La théorie de Helmholtz, dite de la « résonance », consiste à dire ceci : le larynx produit une fourniture périodique complexe; dans cette fourniture, la cavité pharyngo-buccale choisit les harmoniques les plus voisins de ses « sons propres » pour les renforcer; et elle éteint plus ou moins tous les autres. La figure 1 a représente le résonateur sphérique bien connu dont la théorie a été faite par Helmholtz. La figure 1 b représente le résonateur double étudié un peu plus tard par Lord Rayleigh, où les deux sphères sont censées représenter l’une le pharynx et l’autre la bouche. La figure 1 c représente le résonateur double cylindrique étudié par Crandall, coupé par une paroi incomplète : l’ensemble du cylindre représente le volume pharyngo-buccal supposé invariable, dans lequel la langue évolue au titre de sphincter intérieur mobile dont les déplacements ne modifient pas le volume total.
- La théorie de Hermann est d’une nature différente. Pour cet auteur, le larynx produit des bouffées périodiques d’énergie lancées « en vrac » dans les cavités sus-glottiques ; ces bouffées relancent les masses d’air qui y sont enfermées, et celles-ci vibrent alors librement avec leurs fréquences et leurs amortissements propres. L’air des cavités est ainsi relancé in tempo du son du larynx; et cette théorie est parfois appelée pour cette raison : théorie du « relancement in tempo » (fïg. 2). Il en résulte que chaque cavité produit un son qui existe réellement
- Fig. 2. — Décours temporel d’une oscillation dans un « relancement in tempo ».
- L’oscillateur reçoit de l’énergie au début de chaque période T ; il est alors relancé. Durant chaque période T, il oscille librement, mais avec un amortissement suffisant, avec sa période propre 0. Le fonctionnement du système suppose que la période propre 0 de l’oscillateur soit assez petite vis-à-vis de la période T du mécanisme de relancement. En abscisses, le. temps t ; en ordonnées, l’amplitude A. de l’oscillation.
- à sa hauteur propre, et que l’on appelle un formant. Pour ce fait, la même théorie est également appelée « théorie des formants ». Dès 1801, elle avait été entrevue par Willis.
- Durant un siècle, les théoriciens de la voix se bornèrent à discuter à perte de vue les mérites respectifs des deux théories, se ralliant tantôt à l’une, tantôt à l’autre. L’encre dépensée dans cette discussion suffirait pour faire flotter un cuirassé. Une note originale fut donnée en 1927 par le physicien Tren-delenburg, qui estima que les deux théories ne représentaient que deux aspects différents d’un même phénomène. En 1956, une idée non moins originale, mais beaucoup plus intelligente, comme nous le verrons plus loin, fut formulée par Hala (de Prague) : pour lui, dans les cavités sus-glottiques, il y a à la fois résonance et relancement in tempo (1).
- En fait, chacune de ces deux théories ne résulte que d’une analyse extrêmement grossière de la réalité, et elles sont aussi
- 1. Nous recommandons vivement aux spécialistes la lecture de ce récent travail de B. Hai.a sur la « Nature acoustique des voyelles », paru en langue française dans les Acta Universitatis Carolinae, Prague, V, 1956, pp. 3-119.
- insuffisantes l’une que l’autre. Leur abandon conjoint est inéluctable.
- Examinée de plus près, la réalité montre que le conduit pha-ryngo-buccal, qui fait suite au larynx, est un pavillon d'extériorisation, au sens physique strict du terme. Ce pavillon est attaqué, à son embouchure laryngée, par une fourniture de pressions produite par le larynx au cours de son fonctionnement phonatoire; à son ouverture terminale labiale, il débouche sur une impédance constituée par l’air extérieur. A l’intérieur du pavillon ont lieu, en conséquence, un ensemble de phénomènes acoustiques connus et étudiés sous le nom de propagation acoustique au sein des pavillons. Ces phénomènes, peu étudiés avant ig3o, l’ont été après cette date en raison de leur application aux haut-parleurs de radiodiffusion. L’étude la plus complète et la plus poussée conduite à leur sujet est due au physicien français Yves Rocard, professeur à la Faculté des Sciences de Paris et directeur du Laboratoire de Physique à l’Ecole normale supérieure, qui l’a exposée dans deux ouvrages fondamentaux : Propagation et absorption du son (Actual. Scient, et Industr., n° 222, Hermann, Paris, 1935), et Dynamique générale des vibrations (2e édition, Masson, Paris, 1949, pp. 363-4o5).
- Avant d’aller plus loin, il convient de rappeler en quelques lignes les phénomènes fondamentaux et nouveaux mis en évidence par Yves Rocard.
- La théorie de la propagation acoustique au sein des pavillons d'Yves Rocard. — Yves Rocard considère un pavillon de forme absolument quelconque (fig. 3 a) qui, pour des longueurs d’onde assez grandes vis-à-vis de sa dimension transversale, peut toujours être supposé redressé (fig. 3 b). Considérant une tranche d’air ARCD qui, en vibrant, vient en A'R'G'D', il forme l'équation générale de la propagation en écrivant pour cette tranche les équations dites « hydrodynamique » et de « continuité ». Cette équation générale, très complexe, est appliquée par lui à des types divers de pavillons en vue d’en exprimer les propriétés plus facilement (pavillon cylindrique, conique, exponentiel, etc.). Les ondes sont supposées d’amplitudes finies, ce qui est le cas le plus général; lorsqu’elles sont d’amplitudes infiniment petites, des simplifications sérieuses et significatives apparaissent.
- L’étude analytique est simplifiée au maximum sur le pavillon exponentiel, dans lequel la section croît en proportion géométrique lorsque l’abscisse croît en proportion arithmétique (fig. 3 c). Nous allons passer en revue les principales propriétés mises en évidence, en nous bornant à celles qui appartiennent en fait à des catégories très générales de pavillons.
- La notion de fréquence de coupure. — Lorsqu’on étudie la façon dont le pavillon se comporte vis-à-vis de sons simples de fréquences diverses qui lui sont offerts à son embouchure d’attaque, un phénomène exceptionnellement important apparaît : pour des sons de fréquences assez basses, inférieures à une certaine limite C, l’air du pavillon vibre « en bloc », sans différence de phase appréciable entre la sortie et l’entrée du pavillon. Autrement dit, aucune propagation ne naît à l’intérieur du pavillon. Pour des sons de fréquences assez élevées, supérieures à la même limite C, une propagation est au contraire amorcée à l’intérieur même du pavillon. La fréquence-limite C a reçu le nom de fréquence de coupure du pavillon (en allemand : Beschneidungsfrequenz).
- L’existence de cette fréquence de coupure comporte de très remarquables conséquences :
- i° Au-dessous de la fréquence de coupure, le pavillon extériorise mal l’énergie sonore issue du mécanisme d’attaque qui se trouve à l’entrée. L’air extérieur, à la sortie, n’est mis en vibration que par les oscillations de la tranche d’air terminale du pavillon. Au-dessus de la fréquence de coupure, la propagation née à l’intérieur du pavillon se transmet directement à
- p.338 - vue 342/527
-
-
-
- - 339
- BÇJCS^-
- Fig. 3. — Types de pavillons.
- a, Pavillon de forme (théoriquement) quelconque, b, Le même, redressé, c, Pavillon exponentiel, à ouverture rapide ; les surfaces de section croissent en progression géométrique lorsque les abscisses des sections croissent en progression arithmétique.
- l’air extérieur et, dans le pavillon, l’énergie acoustique se transmet intégralement d’une tranche à la suivante.
- a0 En dessous de la fréquence de coupure, le pavillon peut être le siège de phénomènes de résonance du type helmholtzien, c’est-à-dire dans lesquels les dimensions de la cavité sont très inférieures à la longueur d’onde du son de plus forte résonance. Pour les fréquences supérieures à la fréquence de coupure, les conditions de la résonance sont extrêmement différentes, et, lorsqu’une résonance apparaît, elle correspond à la formation d’un système de noeuds et de ventres dans telle ou telle partie élargie du pavillon, donc.nécessite que le son de résonance présente une longueur d’onde plus petite que la plus grande dimension du pavillon.
- 3° Aux grandes intensités, les amplitudes ne sauraient plus cire considérées comme infiniment petites, et l’équation de propagation perd son caractère linéaire. Dans ces conditions, des distorsions de fréquence apparaissent. Ce qui signifie que le pavillon, attaqué à son embouchure par un son sinusoïdal, restitue à la sortie une fourniture harmonique, dans laquelle bien entendu les intensités des harmoniques 2, 3, 4> etc., créés se sont constituées aux dépens de l’intensité du fondamental d’attaque. Cette distorsion de fréquence, lorsqu’elle existe, est beaucoup plus importante au-dessus de la fréquence de coupure qu’au-dessous.
- 4° L’impédance ramenée par le pavillon sur le mécanisme
- d’attaque est beaucoup plus forte au-dessus de la fréquence de coupure qu’au-dessous. Dans ce dernier cas, on dit que le pavillon charge mal son mécanisme d'attaque, ce qui limite la puissance acoustique susceptible d’être débitée par lui.
- Application de la théorie des pavillons d'Yves Rocard au pavillon pharyngo-buccal dans la phonation. — Les
- recherches théoriques et expérimentales concernant l’application de la théorie des pavillons d’Yves Rocard aux phénomènes phonatoires pharyngo-buccaux, toujours en cours, ont été commencées par nous au Laboratoire de Physiologie de la Sorbonne en septembre 1906. Les premiers résultats obtenus, déjà hautement significatifs, ont fait l’objet de deux Notes aux Comptes Rendus de l'Académie des Sciences de Paris (a5 février 1967, p. 12C1 ; i3 mai 1967, p. a55i). Nous nous bornerons ici à en relater l’essentiel.
- Le phénomène principal mis en évidence est que le pavillon pharyngo-buccal présente, lui aussi, une fréquence de coupure-, ce phénomène est dû pour une grande part à la brièveté du pavillon, dont la longueur du larynx aux lèvres varie entre i5 et 20 cm, pour atteindre 25 cm lors des grands abaissements de larynx du chant théâtral. Sans insister ici sur sa détermination expérimentale, disons qu’elle se situe en moyenne entre 2 3oo et 2 5oo c/s, avec de petites variations selon les sujets et, pour un sujet donné, avec les voyelles (c’est-à-dire avec les configurations pharyngo-buccales).
- Comme la fourniture laryngée d’une voyelle quelconque, émise sur un fondamental également quelconque, contient des harmoniques jusque 3 5oo, 4 5oo, et même 5 5oo c/s (en se bornant aux harmoniques ayant encore une intensité supérieure au vingtième du fondamental), on voit que cette fourniture est « à cheval » sur la fréquence de coupure, ceci dans tous les cas (sauf dans les sons émis pianissimo). Cette circonstance amène, dans le fonctionnement du pavillon pharyngo-buccal et dans la formation des voyelles, de redoutables complications, dont les principales conséquences sont les suivantes :
- i° La partie de la fourniture laryngée inférieure à la fréquence de coupure s’extériorise mal; celle supérieure à la fréquence de coupure s’extériorise beaucoup mieux. Le pavillon avantage les aigus.
- 20 Le pavillon impose des distorsions d'amplitude sévères à la partie de la fourniture inférieure à la fréquence de coupure, distorsions qui dépendent de sa configuration instantanée. Il 11’agit pratiquement plus sur les harmoniques ou partiels plus aigus.
- 3° L’impédance ramenée à chaque instant par le pavillon sur le larynx dépend surtout du taux d’harmoniques supérieurs à la fréquence de coupure contenus dans la fourniture laryngée. La partie de la fourniture inférieure à cette fréquence ne ramène qu’une faible impédance sur le larynx, mis à part les « pointes de résonance » accrochées dans le pavillon le cas échéant.
- 4° Les fortes intensités vont faire naître des distorsions de fréquence, qui vont avantager les intensités supérieures à la fréquence de coupure aux dépens des autres.
- 5° A chaque instant, le pavillon est le siège de régimes acoustiques multiples, différents et superposés, déterminés par chaque harmonique de la fourniture laryngée, et dont la nature varie avec la hauteur absolue de l’harmonique considéré.
- 6° Le pavillon fonctionne à chaque instant avec une énergie interne élevée, laquelle modifie pour chaque cavité le « son propre a donné par la théorie élémentaire du « résonateur de Helmholtz » (Voir par exemple : Dynamique générale des vibrations, par Yves Rocard, 2e éd., p. 26-3o).
- Timbre vocalique et timbre extra-vocalique. — Les faits précédents comportent un grand nombre de conséquences diverses, parmi lesquelles nous insisterons sur la suivante : chaque voyelle résulte de la superposition de deux timbres, l’un, vocalique, qui caractérise la voyelle émise, et l’autre, extra-voca-
- p.339 - vue 343/527
-
-
-
- 340
- lique, qui pour la même voyelle donnée par des sujets différents va surajouter des constituants acoustiques différentiels de caractère individuel.
- Le timbre vocalique résulte de l’action du pavillon sur la fourniture laryngée. Comme cette action n’est sensible que sur les harmoniques inférieurs à la fréquence de coupure, le timbre vocalique sera donc la conséquence des distorsions d’amplitude imposées par le pavillon aux harmoniques grosso modo inférieurs à i 5oo cycles. Ces distorsions se manifestent par l'apparition de deux clochers dans le spectre terminal (rarement trois, et plus rarement quatre). Nous reviendrons plus loin sur ce fait.
- Quant au timbre extra-vocalique, il est formé par tout le reste du spectre terminal, c’est-à-dire exclusion faite des « clochers » vocaliques inférieurs à la fréquence de coupure. Dans ce timbre extra-vocalique, le rôle le plus important sera joué par l’ensemble des « clochers » supérieurs à la fréquence de coupure, qui apportent à la voyelle (quelle qu’elle soit), son éclat ou mordant (fig. 4 a).
- Dans toute voyelle émise par un sujet donné, il est facile d’isoler le timbre extra-vocalique : il suffit, à l’aide d’un ampli-
- Fig. 4. — Distinction, à l’intérieur du timbre de chaque voyelle, du timbre « vocal » et du timbre « extra-vocalique ».
- Sur les deux graphiques figurent, en abscisses les fréquences (en kilocycles par seconde) et en ordonnées les amplitudes (en unités arbitraires). La zone hachurée G est la zone dite de coupure. La ligne formée de traits séparés représente (théoriquement) la courbe-enveloppe des amplitudes des harmoniques dans la fourniture laryngée initiale, pavillon supposé enlevé. En a, le pavillon est en place ; il agit sur les harmoniques inférieurs à la fréquence de coupure G ; il n’agit pas (ou presque pas) sur les harmoniques plus aigus ; les harmoniques compris dans les deux zones F, et F3 (dites « formantiques ») sont amplifiés ; ils donnent, à eux seuls, le timbre « vocalique », fourni par la partie ombrée des deux clochers (ici, voyelle Ë ouvert). En b, les deux clochers F, et Fa ont été écrôtés ; la partie ombrée qui reste représente le timbre « extra-vocalique » ; par rapport au timbre laryngé initial, il est visible que les graves ont été très "i atténués, tandis que les aigus sont intacts;
- ficateur différentiel de fréquences à filtres adaptés, de couper les bandes de fréquences correspondant aux « clochers vocaliques » (fig. 4 b). La sonorité qui subsiste présente les caractères acoustiques suivants : i° elle ne possède plus de vocalité; 2° elle recèle la totalité de l’éclat de la voyelle initiale; 3° elle ne varie plue lorsqu’on fait varier la voyelle initiale; 4° elle est pratiquement immuable pour un sujet donné, mais présente des différences considérables d’un sujet à l’autre; 5° en fait, on peut dire qu’elle caractérise assez bien la fourniture glottique de chaque sujet. Pour cette raison, nous lui avons donné le nom de « timbre extra-vocalique individuel fondamental ».
- Retour sur le rôle vocalique strict du pavillon pharyngo=buccal. — Revenons un court instant sur le rôle vocalique strict du pavillon pharyngo-buccal, abordé déjà dans notre article de juillet 1967 de La Nature, mais ici avec un point de vue très différent.
- Les configurations fondamentales du pavillon. — Nous venons de voir que le pavillon n’exerçait une action distorsive que sur la partie de la fourniture laryngée inférieure à la fréquence de coupure. Mais cette action, bien entendu, varie avec la configuration instantanée du pavillon.
- L P
- t
- L P
- Fig. 5. — Configurations pharyngo-buccales vocaliques fondamentales.
- 4 gauche : profils pharyngo-buccaux (un peu schématisés). 4 droite : les mêmes profils, légèrement redressés. L, larynx ; Pli., cavité pharyngée ; Ph. I., pharynx inférieur ; Ph. S., pharynx supérieur ; P., région des piliers ; B., cavité buccale ; B. P., cavité buccale postérieure ; B. 4., cavité buccale antérieure. La région ombrée représente la troisième cavité, lorsqu'elle existe, siège de formation du troisième formant vocalique (toujours inférieur à la fréquence de coupure), a : configuration à 2 cavités (voyelles 4 sombre, O ouvert, o fermé, et ou, différenciées surtout par l’orifice bucco-labial). b : configuration à 3 cavités, pharynx coupé en deux (voyelle 4 clair), c : configuration à 3 cavités, bouche coupée en deux (voyelles E ouvert, é fermé et i, langue très avancée ; EU ouvert, eu fermé et u, langue asssez reculée ; dans chaque groupe, les différenciations sont réalisées surtout par l’orifice bucco-labial).
- p.340 - vue 344/527
-
-
-
- 341
- Les configurations instantanées possibles sont évidemment en nombre infini. Mais on sait depuis 200 ans (Helwag, 1781) qu’elles ne donnent lieu, pratiquement, qu’à 10 colorations vocalique s fondamentales. Ces configurations sont donc elles-mêmes réductibles à des types fondamentaux. Ces types configuratifs sont au nombre de trois, suivant la position de l’arrière de la langue vis-à-vis de la région des piliers qui délimite la séparation entre le pharynx Ph et la bouche B (fig. 5).
- 1er type. — L’arrière de la langue forme sphincter avec la région des piliers ; il y a deux cavités seulement. Voyelles émises : O (ouvert), o (fermé), ou; leur différenciation provient surtout de l’ouverture bucco-labiale.
- 2e type. — L’arrière de la langue s’abaisse, et un sphincter divise le pharynx en deux; il y a trois cavités : Ph. I, Ph. S, B. Voyelle émise : A (clair).
- 3e type. — Le dôme de la langue avance dans la bouche, et un sphincter palatal divise la bouche en deux; il y a trois cavités : Ph., B. P. et B. A. Voyelles émises : EU (ouvert), eu (fermé) et u, si le dôme de la langue est assez reculé dans la bouche ; È (ouvert), é (fermé) et i, si la langue est avancée vers les lèvres. Dans chaque série, l’ouverture bucco-labiale différencie chacune des trois sonorités.
- Chacun des 10 spectres vocaliques fondamentaux contiendra donc toujours au moins deux clochers, correspondant au pharynx et à la bouche (rarement confondus, sauf parfois sur A sombre). Un troisième clocher apparaîtra parfois, correspondant, soit à la cavité Ph. S (sur A clair seulement), soit à la cavité buccale postérieure (en général). Ce troisième clocher pourra être selon le cas un peu plus grave ou un peu plus aigu que le second formant vocalique. (Dans des cas très rares, la langue divisera en deux à la fois le pharynx et la bouche, ce qui fera apparaître quatre clochers).
- Pierre Delattre a retrouvé en 1948 les 10 vocalités fondamentales par l’analyse de voyelles émises en langue française
- 2500 3000
- Fig. 6. — Triangle vocalique des voyelles françaises de Delattre
- (1948).
- En ordonnées ont été portées les fréquences du formant le plus grave, dit premier formant (qui n’est pas nécessairement produit par le pharynx). En abscisses, les fréquences du formant le plus aigu, dit second formant (qui n’est pas nécessairement produit par la cavité buccale). La figure triangulaire obtenue est un cas particulier du célèbre triangle vocalique de Hellwag (1781). Remarques : 1° Le A supérieur est un A clair, encore dit « plat » ; le A arrondi se rapproche de O, et nous l’avons, avec Stumpf (1926), désigné par A0 ; 2° 11 s’agit ici de voyelles parlées, analysées au Visible Speech ; il s’ensuit que tous les formants trouvés sont beaucoup plus aigus que ceux relatifs aux voyelles chantées correspondantes.
- (fig. 6). La figure qu’il en donne n’est évidemment qu’un cas particulier du triangle vocal de Hellwag (1781), mais elle présente l’intérêt de faire apparaître, pour chaque vocalité, les fréquences des deux cc clochers » principaux. L’idée a été très heureuse. Toutefois Stumpf, dans son travail fondamental sur les voyelles (1926), avait déjà formulé des remarques analogues.
- Il est à peine utile de faire observer que la clef de toutes ces questions réside dans les volumes relatifs des zones d’élargissement du pavillon, compte tenu, bien entendu, des couplages réciproques de ces volumes et des énergies internes qui peuvent s’y localiser pendant la phonation.
- Cas des voyelles parlées. — Tout ce qui vient d’être dit est strictement relatif aux voyelles durant l’émission desquelles la configuration du pavillon est demeurée invariable, périodes initiale et terminale exclues. C’est le cas des voyelles chantées, ou tout au moins tenues.
- Le cas des voyelles parlées est totalement différent. Une voyelle parlée dure de 10 à 20 périodes seulement, et parfois moins quand le débit élocutoire est très rapide (il peut varier de 5o à 600 mots par minute). Il s’ensuit que, au cours même de l’émission de toute voyelle parlée, le pavillon pharyngo-buccal présente .une configuration constamment variable. Cette configuration passe d’une phase contractée (consonne initiale ou état de repos) à une phase dilatée, immédiatement suivie d’une nouvelle phase contractée (consonne terminale ou état de repos). Les propriétés acoustiques du pavillon se modifient donc de façon continue durant l’émission de la voyelle. Cette particularité, source de difficultés considérables sur lesquelles nous ne pouvons insister ici, a notamment pour conséquence qu’une voyelle parlée, quelles que soient les circonstances de son émission, n’est jamais un phénomène acoustique bien défini. On montre, en particulier, que les « formants » ou « clochers » vocaliques mis en évidence par son analyse sont toujours plus aigus que ceux qui résultent de l’analyse de la voyelle chantée correspondante émise par le même sujet; de plus, ils paraissent de plus en plus aigus à mesure que l’on s’adresse à des phrases émises avec un débit plus rapide. Du chant à la parole, pour une voyelle donnée, la différence peut atteindre 900 c/s (Exemple : le formant buccal de i peut passer de 1 800 c/s dans le chant à 2 700 c/s en voix parlée). Ces différences apparaissent nettement lorsqu’on parcourt les résultats collationnés par B. Hala dans son récent travail sur les voyelles (ig56).
- Rôle d’activation du tonus laryngé. — Les pressions acoustiques (et phénomènes turbulents divers) développées au sein du pavillon pharyngo-buccal stimulent les terminaisons sensibles libres incluses dans la muqueuse et, par un arc réflexe de niveau réticulo-bulbaire, viennent contribuer à élever le tonus d’accolement, du sphincter glottique. De nombreuses expériences ont mis ce fait en évidence, et nous nous sommes suffisamment étendu sur lui dans notre dernier article (mars ig58, p. 90) pour nous dispenser d’y revenir plus longuement (voir la figure 7 dudit article, p. p4).
- Cet effet d’activation réflexe intervient pour expliquer, au moins partiellement, les modalités désagréables du chant à l’air libre, souvent signalées et toujours redoutées des chanteurs. Une expérience simple les met facilement en évidence (fig. 7);
- Fig. 7. — Expérience du rideau coulissant.
- Un studio de chant contient une petite scène S et, sur le mur en face, un grand rideau coulissant R susceptible de recouvrir entièrement une grande baie vitrée B. Le chanteur se place en A, face à la fenêtre. L’émission d’une voyelle tenue « forte », d’abord euphorique lorsque le rideau est retiré, devient progressivement désagréable à mesure que l’on développe le rideau devant la haie vitrée.
- p.341 - vue 345/527
-
-
-
- Dans un studio de chant (de io -x io x 6 m, par exemple), une petite . scène S est opposée à un mur sur lequel peut coulisser un grand rideau R recouvrant une baie vitrée. Lorsque le rideau R est entièrement retiré et démasque la fenêtre supposée fermée, la réverbération élevée de la salle (égale à 2,5 par exemple) conditionne une phonation euphorique. L’expérience consiste alors en ceci : le sujet, placé sur la scène S, émet une voyelle tenue « forté » en direction de la fenêtre, et, durant celte émission, un aide déroule rapidement le rideau R en face de la baie vitrée. A mesure que le rideau est déroulé, la réverbération s’abaisse, et le chanteur sent progressivement son euphorie phonatoire faire place à une sensation désagréable de a coton dans la bouche », tandis que sa voix « blanchit ». L’analyse du phénomène montre que l’évolution des sensibilités internes buccales et du timbre de la voix provient d’une chute progressive de la pression inlrabuccale, consécutive à la diminution de la réverbération, laquelle chute de pression diminue la stimulation intéroceptive palatale et l’activation réflexe du tonus laryngé qui en résulte (pour plus de détails sur ces curieux phénomènes, le lecteur pourra se reporter à notre étude parue dans les Annales de Télécommunications, tome VII, n° 2, février 1962, reproduite dans les Cahiers d’Acoustique, tome IV, 1952).
- Rôle dans la régulation des accotements glotti= qües et dans Vadaptation des actes respiratoires.
- — Comme l’écrit Yves Rocard, le mécanisme d’attaque d’un pavillon se charge de toutes les impédances opposées par ce dernier à la propagation en son sein. Le larynx ne saurait faire exception.
- Dans son excellente Acoustique dans les Bâtiments (Eyrolles, Paris,. 1955, p. 78-79), L. Conlurie montre que toute impédance ramenée sur le larynx y provoque, à débit constant, une élévation de la pression intragloltique. Cette élévation entraîne des effets laryngés divers, qui modifient considérablement les acco-lements glottiques, le comportement vibratoire des cordes vocales et, en un mot, le fonctionnement du mécanisme d’attaque. On a par exemple noté, à impédance ramenée croissante : a) un allongement de la durée d’ouverture de la glotte durant chaque période (Rolf Timcke, iq55) ; b) un épaississement des cordes vocales (IL Ilusson cl A. Djinn, 1952); c) une augmentation du débit glotlique. En conséquence de ces effets, la fourniture gloltique initiale tend à s’appauvrir en harmoniques supérieurs à la fréquence de coupure, à l’avantage des autres partiels.
- Fig. 8. — Rapidités comparées de mise en action des effecteurs laryngo-pharyngo-buccaux, d’après M'"‘ Jelena Krmpotic ( 19S7).
- L’éminent professeur d'Anato-mie à la Faculté de Médecine de Zagreb a mesuré sur l'homme, de 1955 à 1957, la longueur et le diamètre de tous les axones moteurs qui innervent les muscles laryngo-pharyngo-buccaux mis en œuvre par la phonation, depuis le noyau bulbaire jusqu’à la plaque motrice conjugués. Le rapjxjrt « longueur sur diamètre », qui a la dimension d’un temps de parcours, est reporté à côté de chaque effecteur musculaire. On voit que la mise en activité vibratoire dos cordes vocales est toujours précédée d’une mise en attitude phonatoire du pavillon, au moins dans le cas général.
- Une répercussion sensible sur les actes de ventilation pulmonaire liés à la phonation apparaît également presque toujours. L’accroissement du débit glottique entraîne une réaction d’adaptation des mécanismes respiratoires : inspiration plus profonde et accroissement des actions musculaires expiratrioes, tandis que la pression sous-glottique s’élève souvent. Ces faits avaient été notés autrefois, sans pouvoir recevoir d’explication à l’époque, par R. Schilling et par Rabotnov, qui avaient relié empiriquement les modalités de la respiration aux types de voyelles « ouvertes » ou « fermées », ces dernières ramenant sur le larynx une impédance notablement plus élevée que les premières.
- Ainsi donc, la configuration du pavillon règle à chaque instant l’impédance ramenée sur le larynx, et ainsi gouverne les adaptations du mécanisme glottique d’attaque. Sur ce dernier point, si important, signalons encore un travail récent, d’un très haut intérêt, de Mme Jelena Krmpotic, l’éminente anatomiste de Zagreb, déjà connue de nos lecteurs (voir La Nature, janvier 1907, p. 5, 2e col.). Dans le jeu du langage articulé, lorsque les salves d’influx moteurs issues des noyaux bulbaires commencent à se déverser sur les effecteurs musculaires laryngo-pharyngo-buccaux, celles qui atteignent les cordes vocales leur parviennent toujours en dernier lieu (fig. 8), après que le pavillon a par conséquent reçu une certaine appropriation confi-guralive phonatoire. Ce phénomème fait invinciblement penser à un rôle de protection évidemment joué par l’impédance ramenée sur les cordes vocales.
- Rôle dans la constitution dfun schéma corporel vocal et dans la selheonduite de rémission. —- Nous avons vu, dans notre précédent article (mars 1958, p. 90) que les sensibilités internes buccales déclenchées pendant la phonation ne s’arrêtaient pas au niveau réflectif bulbaire que nous venons de rappeler, mais poursuivaient leurs destinées jusqu’au cortex. Là, elles affleurent à la conscience, et sont intégrées au sein des mécanismes complexes de mémoire proprioceptive et d’associations multiples qui conduisent à la constitution d’un schéma corporel vocal (voir fig. 2 et fig. 5 de notre précédent article).
- Sur ce schéma corporel vocal, au sein duquel les efférences pharyngo-buccales sont parties prédominantes, le chanteur apprécie à chaque instant son émission. S’il juge la hauteur de sa voix, et également partiellement son timbre vocalique, par voie extéroceptive auditive, c’est par voie intéro- et proprioceptive, c’est-à-dire sur la perception de son schéma corporel vocal, qu’il juge l’intensité de son émission ainsi que son timbre extra-vocalique. De plus, l’expérience montre qu’il apprécie aussi par ce dernier processus proprioceptif la qualité de son émission, notion particulière liée au tonus affectif de l’ensemble des actions musculaires laryngo-pharyngo-buccnles (laryngées surtout).
- C’est en particulier sur ce tonus affectif, vieille connaissance des psychologues, que le chanteur apprécie qu’il « est en voix » ou qu’il « n’est pas en voix », jugements trop souvent interprétés par le laryngologiste non averti comme un signe de ce psychopathie » dont seraient affectés la plupart des artistes lyriques.
- Sur la base de ce schéma corporel vocal, notion précieuse introduite en iq55 par le Pr A. Soulairac, s’établissent peu à peu un ensemble complexe de régulations qui portent à la fois sur l’accommodation du mécanisme d’attaque (c’est-à-dire le ’jeu des accolements glottiques) et sur l’adaptation du pavillon pharyngo-buccal. Sans insister outre mesure, indiquons que ces régulations se divisent en deux catégories : les unes sont réflexes, et probablement de niveau bulbaire; les autres sont des adaptations semi-automatiques ou même volitives, et font intervenir des niveaux encéphaliques élevés, parfois corticaux. Dans l’exercice du chant théâtral, le sujet est littéralement inondé de sensibilités internes pharyngo-buccales, puissamment
- p.342 - vue 346/527
-
-
-
- 343
- ressenties, et sur celles-ci se règle à chaque instant un jeu complexe d’appropriations motrices laryngo-pharyngo-buccales qui constituent le conditionnement instantané de l'émission.
- L’intervention du pavillon accessoire nasal. —
- Dans l’émission des voyelles nasalisées, le voile du palais s’abaisse en général modérément, et un pavillon accessoire nasal vient s’ouvrir sur le pavillon principal pharyngo-buccal, se plaçant en parallèle avec ce dernier. Pendant un siècle, on a cru très fermement que le pavillon nasal apportait au spectre vocalique pharyngo-buccal des formants nasalisaleurs, résultant de « résonances nasales ». Nous avons fait justice de ces fantômes complaisants, uniquement issus de l’imagination, dans notre article relatif aux voyelles (La Nature, juillet 1967, p. 254), et nous n’y reviendrons pas. Replaçons-nous donc en face du problème repris ab ovo.
- L’énergie acoustique qui s’engouffre derrière le voile du palais y rencontre, dans l’ordre (fig. 9) : a) une self-inductance rélro-vélaire R.Y.; b) une petite cavité rhino-pharyngée R. Ph., jouant le rôle d’une capacité; c) les cavités très anfractueuses des fosses nasales F.N., jouant à la fois un rôle de self-inductance et de capacité; d) un orifice naso-narinaire N.N. de petit diamètre, donc de forte impédance. La discussion (délicate) du rôle joué par une telle succession conduit à lui reconnaître un effet de filtre enlève-bande vis-à-vis de la fourniture terminale du pavillon principal. L’expérience confirme d’ailleurs immédiatement ce résultat, et montre que ce filtrage ampute en général la fourniture pharyngo-buccale de la bande 1 200-2 000 c/s, avec des variations selon les voyelles émises et les conformations nasales des différents sujets.
- Ainsi donc, le pavillon accessoire nasal n’est nullement un « résonateur » qui ajoute quelque chose, mais essentiellement un filtre qui enlève certains éléments de la fourniture d’attaque. Il convient de rappeler ici l’excellente étude de F. Canac sur les filtres acoustiques, publiée en 1926 (Journal de Physique et Radium, série YI, t. VII, n° 6, p. 161-179, juin 1926), toujours d’actualité, d’où nous extrayons les types classiques de filtres reproduits sur la figure 10.
- L’intervention du pavillon accessoire nasal complique considérablement la physiologie phonatoire du pavillon principal et il convient de donner quelques indications sur les principales complications qui apparaissent, qui peuvent être de nature acoustique, aérodynamique, neurologique.
- Complications acoustiques. — En sus de l’amputation d’une certaine bande de fréquence imposée à la fourniture qui traverse le pavillon principal, l’abaissement du voile diminue le flux d’énergie acoustique qui transite dans la cavité buccale, et par conséquent diminue l’intensité des formants buccaux.
- Par ailleurs, l’énergie vibratoire qui s’engouffre derrière le voile est absorbée dans l’étage sus-vélaire en quasi-totalité. D’où une diminution toujours considérable de l’intensité de la voyelle et de sa portée (fort bien observées autrefois par l’abbé Rousselot).
- Enfin l’impédance ramenée sur le larynx par le pavillon nasal est énorme, et s’ajoute à celle ramenée par le pavillon pharyngo-buccal (celle-ci encore accrue par la diminution de l’isthme linguo-vélaire). Elle est alors si élevée qu’elle peut constituer, dans certains cas, une entrave au fonctionnement normal du mécanisme laryngien d’attaque.
- Complications aérodynamiques. — Le flux d’énergie vibratoire qui passe derrière le voile est accompagné d’un écoulement de caractère hydrodynamique, faible en général. Si le passage rétro-vélaire est suffisamment resserré, cet écoulemenl peut donner naissance à des sons aléatoires, très faibles mais très aigus, de caractère consonantique. Si l’oreille les perçoit rarement, les instruments d’analyse acoustique les captent plus facilement (notamment le Visible Speech), et certains auteurs
- F. N.
- jir
- Fig. 9. — Profil du pavillon pharyngo-bucco-nasal (voile abaissé).
- A gauche : profil réel (un peu schématisé). A droite : le même profil, légèrement redressé. La partie des profils recouverte de hachures curvilignes représente le pavillon secondaire nasal, qui vient s’ouvrir en dérivation du premier lorsque le voile s’abaisse modérément. P. R. Y., passage rétro-vélaire ; R. Ph., cavité rhino-pharyngée ; F. N., fosses nasales (dédoublées) ; O. N. N., orifice naso-narinaire (dédoublé). Comparer aux figures 5, a, b et c.
- a 6
- -»• --------------------------------------->-
- c d
- Fig. 10. — Types de filtres acoustiques, d’après F. Canac (1926).
- a : Filtre « passe-bas », atténuant les aigus, b : Filtre « passe-haut », atténuant les graves, c : Filtre « passe-bande », atténuant les aigus et les graves, d : Type de filtre plus complexe, susceptible de jouer le rôle de filtre « enlève-bande » ; le pavillon complexe pharyngo-bucco-nasal s’en rapproche dans une certaine mesure.
- ont pu les prendre pour des « formants nasalisateurs » (avidement recherchés durant un siècle).
- Quant aux turbulences nées sur tout le parcours vélo-nari-naire, elles constituent le mécanisme le plus efficace d’absorption de l’énergie acoustique au niveau des cavités sus-vélaires : celles-ci n’en restituent plus qu’une infime partie.
- Complications neurologiques. — Les complications neurologiques qui résultent de l’abaissement mesuré du voile pendant la phonation sont peut-être encore plus importantes que les précédentes, et tout aussi défavorables en leurs répercussions physiologiques.
- En premier lieu, l’affaiblissement de la pression intrabuccale qui en résulte diminue la stimulation intéroceptive de la plage palatale activatrice décrite dans notre dernier article (mars 1958). D’où une chute de tonus du sphincter glottique, qui se traduit par un affaiblissement du « mordant a de la voix (dont le timbre s'estompe).
- Un second effet physiologique, extrêmement grave celte fois, apparaît enfin lorsque le sujet tente de forcer son voile à
- p.343 - vue 347/527
-
-
-
- 344
- C.C....
- Fig. 11. — Systématique ( très schématique) de la répercussion laryngée d’un abaissement forcé du voile du palais sur des fréquences supérieures à la fréquence de « couverture du son » dans chaque registre.
- En bas : profil pharyngo-bucco-nasal (voir flg. 5 et 9). En haut et à droite : quelques noyaux bulbaires moteurs au niveau du 4“ ventricule. En N. A., le noyau ambigu, dont la partie supérieure contient les noyaux moteurs du glosso-pharyngien (IX), et dont la partie inférieure recèle les noyaux moteurs des muscles du larynx. En a, vers le milieu, noyaux moteurs des releveurs du voile a' ; en h, immediatemeent au-dessous, noyaux moteurs des muscles laryngés crico-thyroïdiens b' et b", dont la contraction étire ot tend les cordes vocales AB. En haut et à gauche : le larynx L, vue transversale schématique. C. A., cartilage aryténoïde ; C. C., cartilage cricoïde ; C. T., cartilage thyroïde. Répercussion expliquée
- dans le texte.
- s’abaisser en émettant des voyelles « ouvertes » sur des fréquences supérieures à celle de la « couverture des sons » (voce coperta, gedeckte Stimme, pokriven glas, cobertura de la voz, covering of open sounds). Cette fréquence, rappelons-le, est voisine de Mi 3 en premier registre et de Mi 4 en second registre. Lorsque le sujet tente de nasaliser une voyelle ouverte au-dessus de cette fréquence critique, l’expérience montre que l’émission devient extrêmement pénible, et le plus souvent n’est plus possible : le son cesse par cessation de la vibration des cordes vocales. Nous expliquons ce phénomène comme il suit : rabaissement du voile requiert Vinhibition active des noyaux
- moteurs bulbaires des releveurs du voile; ceux-ci sont, au sein du noyau ambigu, contigus aux noyaux moteurs du muscle crico-thyroïdien (flg. u), dont la contraction active constitue le mécanisme essentiel de la « couverture du son »; l’inhibition des releveurs du voile peut donc gagner, par diffusion bulbaire, les crico-thyroïdiens, et la « couverture du son » n’a plus lieu. Dans ces conditions, les cordes vocales ne reçoivent plus de supplément d’excitabilité par action tensive et cessent alors de répondre aux stimulations récurrentielles de rythmes croissants.
- Remarques conclusives. — Les phénomènes analysés ci-dessus montrent combien, dans la phonation, les phénomènes acoustiques pharyngo-buccaux réagissent puissamment sur le mécanisme d’attaque, c’est-à-dire sur le fonctionnement neuromusculaire de l’effecteur laryngien qui conditionne la fourniture acoustique initiale. Cette réaction, qui se fait en partie par l'impédance ramenée et en pai’tie par les efférences nées des sensibilités internes laryngo-pharyngo-buccales, est l’une des plus grandes conquêtes de la recherche phonatoire de ces six dernières années.
- Son importance réside en ce qu’elle offre la clef, ou du moins l’une des principales clefs, des grands problèmes posés par l’étude des techniques vocales chantées et des pédagogies appropriées. Si l’observation traditionnelle des chanteurs révèle qu’une technique vocale donnée n’est pas autre chose, pratiquement, qu’un certain mode d'utilisation du pavillon pha-ryngo-buccal, elle révèle aussi qu’en cas de mauvais usage, ce n’est jamais le pavillon qui se fatigue ou s’altère, mais toujours le larynx. Ce fait, en soi surprenant a priori, ne saurait provenir que de l’existence de liens étroits entre le mode d’utilisation du pavillon et le fonctionnement de son mécanisme d’attaque, liens que le présent article énumère et définit. La présente étude se situe donc au point de raccordement de la physiologie phonatoire stricto sensu et de l’analyse physiologique des techniques vocales, problème normatif d’un ordre de difficulté plus élevé. .
- D’un point de vue plus général, la présente étude montre combien, en physiologie phonatoire, les phénomènes dits autrefois « physiques » sont étroitement interdépendants des phénomènes communément regardés comme « physiologiques ». Mais cette remarque, qui eût été presque insolite il y a cinquante ans, n’étonnera plus le physiologiste contemporain. El Louis Lapicque ne nous disait-il pas, en iq33, à ce même propos : « Tous ces phénomènes sont, en fait, de même nature; nous ne les séparons parfois que pour la commodité de leur étude. »
- Raoul Husson,
- Ancien élève de l’Ëcole normale supérieure, Docteur ès Sciences, Lauréat de l’Institut et de l’Académie nationale de Médecine.
- Alliage magnétique amélioré
- Le Renne en Ecosse
- Un nouvel alliage magnétique (« Supermendur »), présentant une perméabilité plus élevée et des pertes d’hystérésis plus faibles qu’aucune autre matière jusqu’ici disponible, a été mis au point par les Bell Téléphoné Laboratories. Les caractéristiques améliorées de cet alliage (49 pour 100 Fe, 49 pour 100 Co, 2 pour 100 V) résultent de l’emploi de constituants de haute pureté commerciale fondus dans un four à atmosphère contrôlée et d’un laminage spécial et traitement thermique dans un champ magnétique. Ces caractéristiques sont les suivantes : perméabilité maximum, 66 000 à 20 000 gauss ; rémanence, 21 500 gauss ; champ coercitif, 0,26 œrsteds ; saturation, 24 000 gauss. La malléabilité de cet alliage permet de le laminer à froid de 2,3 mm à 8 p- sans recuits intermédiaires et sans perte de ductilité. Son emploi est indiqué dans les transformateurs de puissance et d’impulsions et les amplificateurs magnétiques.
- Voici dix ans à peu près que les premiers rennes ont été introduits en Écosse aux fins d’acclimatation. La revue britannique Nature a apporté à leur sujet d’intéressantes précisions. La genèse de l’expérience réside dans le fait que les rennes ont vécu jadis dans le pays et qu’ils trouvent en abondance sur ces plateaux les lichens nécessaires que délaissent cerfs, moutons et chèvres. La rentabilité d’une telle expérience apparaît mieux si l’on songe que la Scandinavie, par exemple, en compte 600 000 à l’état semi-apprivoisé et la Russie 2 millions. Dans la disparition du renne d’Écosse il convient de ne pas incriminer le climat, mais la chasse à laquelle se livraient les hommes de la Préhistoire, sa chair étant d’un goût plus agréable que celle du cei’f. Plus rapide que le renne, le cerf a pu se soustraire à la flèche ou au silex des chasseurs. Le troupeau de rennes amené en Écosse paraît s’accommoder au mieux des conditions qui lui sont offertes.
- p.344 - vue 348/527
-
-
-
- Le rôle des Blattes
- dans la propagation des maladies infectieuses
- Les blattes, ou cafards, sont bien connues comme hôtes indésirables des habitations, surtout dans les pays chauds. On connaît moins le rôle qu’elles peuvent jouer dans la transmission de certaines maladies. A ce point de vue, le fascicule très documenté qui a été publié dans le volume i34 des Smithsonian Miscellaneous Collections (The medical and veterinary importance of cockroaches, par Louis M. Roth et Edwin R. Willis, 19 décembre 1957) apporte des aperçus bien imprévus, et la première surprise du lecteur est de voir le nombre important de publications faites à ce sujet dans les revues spécialisées.
- Le nombre des espèces de blattes connues du monde entier est d’environ 3 5oo ; ce sont pour la plupart des insectes de forêts, vivant dans les endroits humides et qui pénètrent souvent dans les habitations humaines; mais une vingtaine seulement peuvent être considérées comme nuisibles. 'La plupart de ces dernières sont cosmopolites ou au moins cosmotropicales et ne s?éloignent guère des endroits habités par l’homme. En France, deux espèces seulement sont très abondantes et nuisibles; ce sont la Rlatte orientale (Blatta orientalis) et la Rlatte germanique (Blattella germanica) ; on peut y ajouter les deux Periplaneta (P. americana et P. australasiæ), qui se trouvent surtout dans les ports et sur les bateaux. Dans les pays tropicaux, le nombre des blattes domestiques ou semi-domestiques est infiniment plus élevé.
- Sous les climats tempérés, les blattes recherchent les bâtiments chauffés et se réunissent dans les endroits chauds et sombres qui leur apportent le microclimat favorable et des facilités pour trouver leur nourriture. Elles sont d’ailleurs peu difficiles à ce point de vue et s’attaquent à tous les produits d’origine animale ou végétale, aussi bien qu’à toutes sortes de déchets et d’immondices, même aux excréments de l’homme et des animaux. Traînant dans les magasins d’alimentation, les cuisines, les marchés, elles ont toutes occasions pour jouer un rôle dans la contamination des substances alimentaires non protégées. Elles peuvent transporter les organismes infectants sur leurs pattes et sur différentes parties du corps, ou par leurs déjections. Mais, une autre cause d'infection consiste dans le fait que certaines espèces servent d’hôtes intermédiaires à des organismes pathogènes. Pendant le jour, les blattes sont généralement invisibles; elles sont cachées derrière les meubles, dans les planchers, les crevasses des murs; mais, dès la nuit tombée, elles courent partout à la recherche de leur nourriture et on est surpris de les voir en nombre extraordinaire dans des endroits où l’on ne soupçonnait même pas leur présence. Le grand danger que représentent les blattes vient précisément de leur habitude de passer d’un endroit forcément contaminé, comme les latrines et les égouts, aux cuisines et réserves de produits alimentaires. En Mandchourie, Jettmar a vu des blattes lécher les sécrétions sur des cadavres d’individus morts de maladies pulmonaires et Antonelli relate, pendant une épidémie de typhoïde, le passage de ces insectes des latrines dans les maisons. Des marquages par les méthodes de solutions radioactives ont permis à Jackson et Marer de vérifier avec certitude la présence dans les cuisines de blattes provenant des égouts à Phoenix, dans l’Arizona.
- De nombreuses bactéries ont été trouvées dans le corps des blattes; si la plupart ne sont pas pathogènes pour les Vertébrés, il n’en est pas de même pour les bactéries causes de la dysenterie, de gastro-entérites, de la fièvre jaune, de la gangrène gazeuse, de la peste, etc. On peut donc les soupçonner d’être les vecteurs de maladies diverses, en particulier d’infections intestinales. Un cas précis a d’ailleurs été observé par Graffar et Mertens dans une salle de nourrissons à la Clinique pédiatrique de l’Hôpital Universitaire de Bruxelles. Il s’agit de la persistance
- d’une épidémie d’infection intestinale à Salmonella typhimu-rinum, malgré l’isolement rapide des malades et la suppression de tout contact infectant, direct ou indirect, entre les bébés. L’épidémie a sévi pendant près de deux mois; elle s’était déclarée après admission d’un enfant atteint d’entérite causée par Salmonella ; sur une cinquantaine d’enfants, seize ont été contaminés et la direction se disposait à fermer la salle. C’est alors qu’une infirmière attira l’attention sur des Blattes (Blattella germanica) qui se voyaient parfois la nuit sur les couvertures, les vêtements et le corps des bébés. La capture d’une blatte qui portait de nombreux germes de Salmonella apporta confirmation de cette hypothèse et l’épidémie se trouva arrêtée dès que la salle fut désinfectée.
- Les rapports des blattes avec les Helminthes sont également fort importants. Un nombre élevé de vers, 45 espèces environ, sont parasites des blattes, mais ne sont pas pathogènes pour les Vertébrés; les œufs de 7 espèces ont été trouvés dans leur tube digestif et elles servent d’hôte intermédiaire à 12 espèces de vers. C’est surtout parmi ces dernières que peuvent être rencontrées des formes qui jouent un rôle au point de vue médical ou vétérinaire. Le cas le plus typique concerne une épizootie qui s’est développée dans la singerie du Muséum de Paris en 1937-1938 et a été étudiée par Brumpt et Urbain. Il s’agissait d’une épizootie vermineuse à Acanthocéphales, dont les Lémuriens surtout ont été victimes; la plupart d’entre eux sont morts et ont montré à l’autopsie des perforations intestinales provoquées par de nombreux Acanthocéphales accumulés dans une grande partie de l’intestin. Les 'Lémuriens sont très friands des blattes toujours abondantes dans les singeries, bien chauffées et leur procurant une nourriture copieuse; or, ces blattes servent d’hôtes intermédiaires à plusieurs espèces d’Acanthocé-phales du genre Prosthenorchis, lesquels furent les agents de l’épizootie.
- On voit par ces quelques exemples que le rôle des blattes dans la transmission des maladies ne doit pas être sous-estimé, surtout dans les pays tropicaux où elles sont extrêmement nombreuses et pénètrent partout dans les habitations humaines.
- Lucien Ciiopard.
- La plasmine, solvant des caillots du sang
- l)e nombreuses maladies de l’appareil vasculaire ont, on le sait, une issue fatale, causée par la présence d’un ou plusieurs caillots de sang qui, à un certain stade, bloquent la circulation. Jusqu'ici la médecine ne pouvait mettre en œuvre contre ce phénomène de l’embolie que des traitements préventifs. Aucune substance n’avait été découverte qui pût dissoudre le caillot à partir du moment où sa présence était détectée. Or la revue Science a signalé qu’une semblable substance a fait l’objet de recherches depuis 1933 et que des résultats positifs ont été enregistrés récemment à l’Université de Yale après une expérimentation méthodique sur des animaux de laboratoire, suivie par des essais cliniques sur l’homme. Les recherches ont été dirigées par MM. D. L. Kline et J. B. Fishman. La substance solvante, qui a été baptisée plasmine, résulte de l’interaction entre une enzyme extraite du sang humain, le plasminogène, et une autre enzyme, la streptokinase. Cette dernière substance est obtenue par le traitement d’une bactérie pathogène bien connue, le streptocoque. Certains de ses effets toxiques sont d’abaisser le volume de sang admis par le cœur, d’abaisser également la pression sanguine, tout en déclenchant un état fébrile. Le problème devant lequel se sont trouvés les expérimentateurs est de réaliser une préparation de plasmine à un état de pureté tel que la toxicité du constituant streptokinase soit réduite au minimum.
- Y. M.
- p.345 - vue 349/527
-
-
-
- 346
- LES
- DANS LES CRISTAUX
- Les techniques modernes utilisent de plus en plus les propriétés intimes des corps solides dont l’étude approfondie ne remonte qu’à quelques décennies et, dans certains cas, aux dernières années seulement. La grande majorité des corps solides sont cristallisés, et c’est sur la matière cristallisée que porte surtout notre effort : son abondance et son caractère ordonné sont autant d’avantages que ne possède pas la matière amorphe.
- Depuis Haüy (1743-1822), on se représente la matière cristallisée comme un édifice formé par l’empilement d’un très grand nombre de motifs identiques (fig. 1) ; aujourd’hui, nous parlons d’un réseau cristallin formé par la répétition dans les trois directions principales d’une maille élémentaire; les sommets des mailles sont les nœuds du réseau. Ils s’alignent suivant des rangées dans les plans réticulaires. On avait autrefois une idée de la nature globale de la structure grâce aux éléments de symétrie révélés par l’étude morphologique des spécimens macroscopiques. Cette étude permettait de ranger les cristaux en diverses classes de symétrie. Mais c’est seulement depuis l’expérience fondamentale de la diffraction des rayons X par les cristaux, réalisée par von Laue en i()i3, que l’analyse intime de la structure réelle a pu véritablement commencer et apporter une solution aux problèmes posés aux savants depuis la publication en 1784 du livre d’Haüy, Essai d'une théorie sur la structure des cristaux. L’expérience de von Laue démontrait à la fois la nature ondulatoire des rayons X et la nature réticulaire des cristaux.
- Fig. 1. — Explication des formes cristallines par Haüy.
- Haüy reconstitue un cristal de calcite à partir d’un bloc élémentaire limité par les plans de clivage (rhomboèdre).
- En réalité, le réseau parfait est un idéal que la nature approche plus ou moins sans jamais l’atteindre totalement. Les défauts dans les cristaux, qui font la différence entre cristaux réels et cristaux parfaits, sont l’objet à l’heure actuelle de nombreuses études, partout dans le monde. On a reconnu, en effet, depuis une vingtaine d’années, que beaucoup de propriétés à caractère pratique des solides dépendaient pour une bonne part des défauts, et pas seulement de la structure idéale : propriétés mécaniques, pouvoir catalytique, par exemple. Leur étude est donc intéressante non seulement pour augmenter nos connaissances sur la structure réelle de la matière, mais encore pour nous permettre d’interpréter et de contrôler des propriétés empiriquement connues, voire pour en faire surgir de nouvelles.
- Définitions. —- Les défauts dans les cristaux se répartissent en deux catégories principales : défauts ponctuels et défauts linéaires.
- Dans le premier cas — défauts ponctuels — chaque défaut intéresse un atome ou une paire d’atomes seulement; un site normalement occupé par un atome est vacant : c’est une lacune; ou bien un atome est situé en position interstitielle, en dehors des sites normaux du réseau, un atome d’impureté par exemple. C’est sur des défauts de cette nature que reposent les propriétés caractéristiques des semi-conducteurs.
- Les dislocations sont les défauts linéaires les plus fréquents. Elles ont été introduites tout d’abord par les mathématiciens dans l’élasticité, au début du siècle : par Volterra en particulier, qui les appela distorsioni, un peu plus tard par l’Anglais Love qui leur donna le nom de dislocations (1927). Le concept de ce type de défaut a été introduit en physique par le physicien anglais Taylor, de Cambridge (1934) et indépendamment par Orowan et Polanyi. Il a été développé avant la guerre par Buerger, de Delft, mais c’est au cours des dernières années seulement que les études se sont multipliées, les applications devenant chaque jour plus nombreuses, et les dislocations sont maintenant un sujet à la mode : il y a en effet des modes en physique comme en haute couture ! Mode ici parfaitement justifiée, car l’existence des dislocations â été démontrée expérimentalement de nombreuses fois : introduites tout d’abord comme de simples interprétations théoriques, elles ont largement dépassé ce stade, et semblent devoir être un outil fructueux dans l’avenir (1).
- Pour bien comprendre ce qu’est une dislocation, le mieux est de suivre sa naissance dans un cristal parfait. Isolons par l’esprit un plan dans un réseau parfait, et retirons délicatement tous les atomes d’une moitié de ce plan, comme si l’on coupait une demi-page dans un livre. Recollons alors les lèvres de la coupure, refermons le livre. Le raccordement des deux lèvres est assez bon dans l’ensemble, mais le long de la ligne qui borde le demi-plan mutilé, il est très mauvais et la matière fortement déformée. C’est cette ligne qui constitue la dislocation. En recollant les lèvres de la coupure, nous avons créé un fort champ de contraintes. Il possède une discontinuité linéaire, qui est précisément cette dislocation. Dans la figure 2, qui est une coupe, les plans réticulaires sont verticaux. L’axe de la zone perturbée est vertical; la lettre D marque sa trace, c’est celle de la dislocation. Le demi-plan limité par la dislocation reste droit, mais les plans voisins sont très déformés; ils le sont de moins en moins quand on s’éloigne de la dislocation.
- Il existe plusieurs types de dislocations ; celui que nous venons de décrire est la dislocation-coin. Nous décrirons plus loin un autre type, la dislocation-vis.
- 1. On pourra consulter : Les dislocations, par J. Fhiedel, Gautliier-Villars, Paris, 1956 ; Les dislocations dans les cristaux, par W. T. Reai>, Trad. par P. Coulomb, Dunod, Paris, 1957.
- p.346 - vue 350/527
-
-
-
- 347
- n
- nrr H ,
- 1 \ DJ u
- \
- Fig. 2. — Coupe d’un cristal contenant une dislocation-coin.
- Le plan de la figure est perpendiculaire à la dislocation, sa trace est représentée par la lettre D.
- Mise en évidence des dislocations. — La démonstration de l’existence des dislocations a été faite maintes fois, soit par leur observation directe, soit indirectement par l’analyse de leurs conséquences. Décrivons tout d’abord quelques observations directes :
- — L’attaque électrolytique ou chimique d’une face fait apparaître sur celle-ci de petits cônes d’attaque. Il a été prouvé qu’ils sont chacun à l’aboutissement d’une dislocation (fig. 3).
- — Hedges et Mitchell, à Bristol, ont découvert qu’en exposant à la lumière, dans certaines conditions, un cristal de bromure d’argent, il se formait des précipités d’argent à l’intérieur du cristal. Ces précipités, visibles avec un microscope à fort grossissement, ont la forme de rangées de grains d’argent. On a pu démontrer qu’ils suivent les dislocations en se logeant dans l’espace lacunaire moins rempli de matière qui, nous l’avons vu sur la figure 2, longe les dislocations.
- — Une autre méthode, fort ingénieuse, est celle dite du marquage au cuivre. S’apparentant à la précédente, elle a permis de suivre les dislocations dans un cristal : on fait diffuser du
- Fig. 3. — Points d’aboutissement de dislocations à la surface d’un cristal.
- Us sont révélés par une attaque chimique appropriée. Il s’agit ici d’une face d’un cristal parfait de germanium contenant 6.103 dislocations par centimètre carré. Grossissement : x 180.
- cuivre dans un cristal de silicium, par exemple; il se rassemble dans les espaces lacunaires le long des dislocations. On le met en évidence par observation à l’infrarouge pour lequel le silicium est transparent, mais non le cuivre.
- — On peut également faire diffuser du sodium dans un cristal de sel gemme (travaux d’Amelynck, en Belgique).
- — D'autres observations ont été faites par Hirsch, à Cambridge, à l’aide de la microscopie électronique.
- On le voit, les observations directes ne manquent pas. Les preuves indirectes sont encore bien plus nombreuses. A titre d’exemple, voyons comment l’on peut essayer d’interpréter les propriétés structurales des cristaux réels et les propriétés mécaniques des métaux, en fonction de la théorie des dislocations.
- Rôle dans les propriétés structurales. — On s’est aperçu très vite que le modèle du réseau parfait que nous avons décrit au début n’est que rarement atteint dans la pratique. On s’en est rendu compte lorsque, après avoir établi les lois géométriques de la diffraction des rayons X par les cristaux, on a voulu calculer l’intensité des raies diffractées. Pour obtenir un accord avec l’expérience, il a fallu imaginer un modèle de cristal imparfait. C’est Darwin qui l’a fait, peu d’années après les expériences fondamentales de Sir W. H. Bragg et de von Laue : il a supposé que les cristaux réels étaient formés d’une mosaïque de petits blocs plus ou moins désorientés les uns par rapport aux autres (de quelques secondes d’arc à quelques minutes).
- On peut retrouver ce modèle à l’aide d’empilements adéquats de dislocations. Elles tendent en effet souvent à s’organiser en un réseau tri-dimensionnel (réseau de Frank) ; la forme la plus stable est en général hexagonale, ainsi que l’a observé Hirsch. Ces alignements de dislocations séparent de petits cristallites, des grains, à la manière de cette mosaïque imaginée par Darwin, ainsi qu’on peut le voir sur la figure 4. Ces alignements de dislocations entre deux grains forment des joints de grain. Deux
- Fig. 4. — Coupe d’un cristal subdivisé en grains par des alignements de dislocations formant un joint de grain.
- Les dislocations sont perpendiculaires au plan de la figure, et leurs traces sont représentées par des symboles .
- grains voisins sont d’autant plus désorientés l’un par rapport à l’autre que le nombre de dislocations dans le joint est plus grand. On peut connaître ce nombre de dislocations en observant la trace d’un joint de grain sur une figure d’attaque (voir par exemple la figure 5). A partir de ce nombre, on peut calculer l’angle a entre les deux grains. D’autre part, on peut mesurer ce même angle à l’aide des rayons X. L’accord entre cette mesure directe et le calcul basé sur les dislocations est très bon. Ces réseaux de dislocations jouent un rôle très important dans les propriétés mécaniques de la matière, et nous y reviendrons; on appelle polygonisation cet état de la matière cristallisée lorsqu’elle est subdivisée en grains par des réseaux de dislocations. La polygonisation se produit dans un métal pendant un recuit succédant à un écrouissage.
- Les dislocations ne sont pas toujours distribuées suivant un ordre donné, mais peuvent l’être au hasard (comme par exemple
- p.347 - vue 351/527
-
-
-
- 348
- Fig. 7. — Dislocation-coin vue dans l’espace.
- La dislocation est représentée par la droite DD'. La figure 6 b est une coupe du cristal perpendiculaire à DD'.
- Fig. 5. — Photographie d’un joint de grain dans le germanium.
- Les points d’aboutissement des dislocations sont révélés comme sur la figure 3. Ils sont schématisés sur la figure 4 par les symboles X CD’après F. L. Vogel, Jr.).
- sur la figure 3). Néanmoins, il y en a toujours, même dans les cristaux les plus parfaits : dans un cristal de germanium parfait, il en reste de io2 à io3 environ par centimètre carré (cela signifie qu’une surface d’un centimètre carré à l’intérieur du cristal est coupée par io2 ou io3 dislocations).
- Rôle dans les propriétés mécaniques. — Les dislocations jouent un rôle capital dans les propriétés mécaniques des cristaux. En effet, c’est pour interpréter les propriétés de ductilité des métaux que l’on a imaginé qu’ils possèdent des dislocations. Si l’on déforme légèrement un métal, la déformation est élastique et obéit à la loi de Hooke; les plans réticulaires se sont simplement courbés; lorsque l’on relâche l’effort, le métal reprend sa forme primitive. Pour un effort suffisamment grand, la déformation est permanente et, comme la structure n’est pas détruite, il faut bien qu’une partie du cristal ait glissé sur une autre. Mais il est invraisemblable que ce mouvement ait lieu tout d’une pièce : le glissement se propage dans le cristal à la façon d’une ride sur un tapis; lorsqu’elle a traversé toute la longueur du tapis, celui-ci a avancé sur le sol de la largeur de la ride. C’est la dislocation qui remplace la ride et, lorsqu’elle a traversé le cristal, le déplacement d’une moitié par rapport à l’autre est égal à une distance interatomique. Le plan qui sépare
- Direction du glissement
- -<............ .....
- Fig. 6. — Passage d’une dislocation dans un cristal.
- a, avant le passage de la dislocation ; b, pendant le passage de la dislocation ; elle est perpendiculaire au plan de la figure, sa trace est représentée par la lettre D ; c, après le passage de la dislocation.
- ces deux moitiés est celui de la figure 2. La situation qui entoure la lettre D saute d’un plan atomique au suivant et, si l’on suppose que le déplacement se fait de la droite vers la gauche, la figure 6 montre que tout se passe comme si un demhplan d’atomes avait été transporté de la droite vers la gauche. Le
- demi-plan supplémentaire de la figure 2 matérialise le cheminement fictif de ce demi-plan. La figure 7 montre la dislocation vue dans l’espace.
- Contrairement à ce qui se passe dans le cas d’un verre amolli par la chaleur, la déformation n’est pas uniforme, mais apparaît macroscopiquement sous la forme de marches : chaque fois qu’une dislocation a traversé le cristal, la marche grandit d’une distance interatomique. Il y a glissement, sans rotation; il se fait dans des plans cristallographiques simples que l’on appelle plans de glissement. Plusieurs tranches de matière glissent ainsi les unes par rapport aux autres pour former une série de marches hautes de plusieurs milliers de distances atomiques, et fort visibles. Ces marches sont appelées lignes de glissement.
- Les dislocations qui ont ainsi glissé peuvent avoir traversé le cristal d’un bord à l’autre, leurs extrémités aboutissant chacune à une surface extérieure du cristal. Mais elles ne sont pas toujours assez nombreuses pour permettre la déformation observée; il faut alors supposer que de nouvelles dislocations ont été engendrées à l’intérieur du cristal par un mécanisme quelconque. Le plus vraisemblable est celui imaginé par Frank et
- 7
- Source de Frank et Read.
- Fig. 8.
- La dislocation-mère est représentée par le segment AB (position 1). La dislocation-fille occupe successsivement les positions 2, 3, 4, 5, 6 ; lorsqu’elle arrive dans la position 7, elle se détache et évolue indépendamment dans le cristal ; le processus peut alors recommencer.
- p.348 - vue 352/527
-
-
-
- 349
- Read, les sources de Frank et Read, ou moulins; ce mécanisme est schématisé sur la figure 8. Il a été observé par Dash dans le silicium à l’aide de la méthode du marquage au cuivre.
- L’effort nécessaire pour faire glisser une dislocation parallèlement à elle-même est très faible. En effet, les réarrangements atomiques qui ont lieu lors de son passage sont peu importants. Si les dislocations n’existaient pas, les matériaux seraient beaucoup plus durs et casseraient plutôt que de subir une déformation plastique; la limite élastique est fonction des dislocations présentes. Pour ces raisons, la dureté d’un métal dépend de la mobilité de ses dislocations; s’il est pur, rien n’entrave leur mouvement, et les métaux purs sont en général mous. La dureté est souvent liée à un blocage des dislocations par différentes causes, en particulier par des impuretés ; nous avons déjà parlé de cette tendance des atomes étrangers à se loger dans l’espace lacunaire qui accompagne la dislocation. On a pu montrer que c’est le cas du carbone dans l’acier (Cottrell à Birmingham). Les dislocations dans lesquelles des impuretés sont venues se loger ne peuvent plus bouger. Des gaz dissous peuvent aussi jouer ce rôle.
- Dans le cas de corps parfaits, comme le diamant, qui possède peu de dislocations, celles-ci sont vraisemblablement bloquées par des impuretés qui auraient diffusé dans le cristal à partir des roches avoisinantes, au moment de sa formation. Un échantillon de diamant absolument pur serait, dans cette hypothèse, relativement mou, car rien n’entraverait le mouvement des dislocations; mais un échantillon à la fois très pur et parfait serait encore plus dur que ceux que nous connaissons, car il ne posséderait pas de dislocations.
- Il n’est pas nécessaire d’ailleurs que les atomes d’impuretés soient dans la dislocation elle-même. Il suffit souvent de leur présence dans le voisinage pour créer un champ de contraintes qui entrave le mouvement des dislocations. D’autre part, celles-ci, lorsqu’elles sont très nombreuses, se bloquent elles-mêmes, ce qui fait qu’un métal écroui qui peut compter jusqu’à io15 dislocations par centimètre carré est plus dur qu’un métal recuit qui n’en contient que io8 environ, alors qu’un cristal parfait qui ne contiendrait pas une seule dislocation ne pourrait subir la moindre déformation plastique. Dans un métal écroui, il arrive que deux dislocations « s’enchevêtrent « dans certaines conditions pour former une barrière infranchissable (barrière de Cottrell) contre laquelle les autres dislocations viennent buter.
- Croissance des cristaux. — Les exemples que nous venons de donner ne sont ni limitatifs ni définitifs en caractère. En effet, cet aspect de la physique cristalline est tout nouveau et les développements, s’ils sont déjà très nombreux, n’ont pas la prétention de tout expliquer; il reste bien des points obscurs. Nous allons décrire maintenant un aspect tout différent et non moins important du rôle des dislocations : la croissance des cristaux. L’étude de ce rôle nous permettra de comprendre pourquoi, ainsi que nous l’avons mentionné plus haut, les cristaux contiennent toujours des dislocations.
- Les cristaux étant formés par des empilements de motifs identiques, à la manière d’un mur de briques, on pourrait imaginer que pendant la croissance une couche ne commence que lorsque la précédente est terminée. En réalité, il n’en est rien. Il y a toujours un plan incomplet (formant une marche) et une rangée incomplète (formant un décrochement), ainsi qu’on le voit sur la figure 9. La croissance se fait autour de germes, une nouvelle couche étant amorcée avant que la précédente soit terminée.
- Des considérations théoriques ont conduit Frank, en 1949) à penser qu’en général les dislocations étaient nécessaires à la croissance et que les cristaux ne croissent qu'imparfaits. Nous allons en suivre un exemple avec la croissance en spirale; pour cela il faut introduire une deuxième espèce de dislocation, la dislocation-vis. La figure 10 indique bien la nature de ce défaut.
- Marche
- Germe
- Décrochement
- Illustration schématique de la croissance d’un cristal.
- On peut également le résumer en écrivant les déplacements des atomes quand on passe du cristal parfait au cristal qui possède une dislocation-vis. En prenant comme axe vertical l’axe de la dislocation, les déplacements u, v, w des atomes par rapport aux trois directions principales sont : u = o; v = o; w — b étant égal à la hauteur de la marche, c’est-à-dire
- à la distance interatomique de long de la dislocation.
- On voit que, comme dans le cas de la dislocation-coin, la partie du cristal perturbé suit une ligne, et qu’une moitié du cristal a glissé sur l’autre; mais, et c’est ce qui constitue une grande différence, le déplacement d’une moitié sur l’autre ne se fait plus perpendiculairement, mais parallèlement à la ligne de dislocation. Sur la surface du cristal, on retrouve la marche nécessaire pour la croissance; les atomes nouveaux viennent se placer le long de cette marche qui n’est jamais comblée, mais tourne autour de l’axe de la dislocation; chaque fois qu’elle a fait un tour complet, le cristal possède une couche de plus. Ainsi peut s’expliquer la croissance d’un cristal, non autour d’un seul germe, mais sur toute une surface : s’il y a une dislocation, le cristal continue à croître sans s’arrêter; s’il n’y en a pas, le cristal, ne croît pas au-delà d’une épaisseur très mince.
- Fig. 10. — Cristal contenant une dislocation-vis. ,
- La dislocation est une ligne verticale matérialisée par l’axe Hz.
- p.349 - vue 353/527
-
-
-
- 350
- On peut invoquer divers mécanismes pour expliquer la formation de ces dislocations qui permettent une croissance rapide des cristaux :
- — La surface cristalline sur laquelle il se développe possède déjà des dislocations de croissance; le nouveau cristal qui s’est fixé sur le premier par épitaxie aura des dislocations aux mêmes endroits. Cette influence a été observée en faisant pousser des petits cristaux d’argent sur du bromure d’argent.
- — Deux germes parfaits peuvent se rencontrer et se souder l’un à l’autre. Des dislocations se forment alors à leur interface. Elles pourront former des spirales de croissance sur les surfaces libres des deux germes qui alors se développeront très rapidement.
- — Des variations locales de concentration peuvent également créer des contraintes à partir desquelles prendront naissance des dislocations.
- Beaucoup d’exemples de spirales de croissance ont été observés sur des cristaux, naturels ou artificiels, par exemple le béryl, l’émeraude, l’iodure de cadmium, le carborundum, la paraffine... et même sur le magnésium et l’argent. On a pu mettre en évidence le long des spirales de croissance les points d’aboutissement des dislocations ainsi que les marches monoatomiques qui s’ajoutent pour former les marches très apparentes que nous voyons souvent à l’œil nu.
- Applications. — Cet aperçu rapide donne une idée de l’importance des dislocations et des mécanismes qui leur sont liés : elles permettent de mieux s’expliquer les phénomènes de croissance des cristaux, d’approcher de plus près les détails de la structure exacte des cristaux réels, de comprendre et d’interpréter les propriétés mécaniques des métaux, en particulier le fluage. L’intérêt spéculatif n’est cependant pas le seul que l’on puisse trouver à leur étude. Nombreuses sont les applications qui en découlent, aussi bien dans d’autres disciplines scientifiques que dans beaucoup de techniques pratiques. Les quelques exemples qui'suivent vont montrer combien est ouvert l’éventail de ces applications.
- Chimie appliquée. — Le rôle des dislocations dans la croissance des cristaux permet d’améliorer la technique des cristaux artificiels, en particulier celle des quartz qui servent d’étalons de fréquence dans les oscillateurs.
- Géophysique. — Inversement, l’observation des spirales de croissance sur des cristaux naturels aide à comprendre comment ils se sont formés. C’est le cas du mica trouvé dans des lits d’argile en Belgique, ou de graphite pris dans la craie au Canada, etc.
- Chimie industrielle. — Elles nous aident à mieux comprendre les phénomènes de catalyse de surface. Beaucoup de réactions, par exemple dans la chimie des pétroles, ont lieu quand les molécules réactives sont adsorbées à la surface d’un métal. Il faut que la surface soit le moins lisse possible et possède le plus de défauts pour être le plus efficace.
- Métallurgie. — Leur rôle dans la polygonisation qui confère des propriétés mécaniques particulières à la matière est capital. On retrouve cet état dans tous les alliages, et la dimension des grains ainsi que leur forme sont liées à des propriétés spéciales. On peut ainsi suivre en laboratoire une éprouvette, et les dislocations servent alors au contrôle des fabrications. Mais elles peuvent également permettre de prévoir les constituants d’un acier spécial devant posséder certaines propriétés bien précises, requises par l’utilisateur. C’est ainsi que l’on utilisera dans certains cas un alliage nickel-titane de préférence à un alliage nickel-cobalt, car il est plus tenace grâce à la multiplicité des joints de polygonisation.
- Physique du solide. — Les dislocations jouent un rôle moins direct, mais qui paraît de plus en plus important dans les semi-conducteurs : elles servent, en effet, de trappes ou de barrières pour les charges électriques, et leur nombre, nature et répartition peuvent modifier sensiblement les propriétés d’un semi-conducteur, en particulier la résistivité électrique. C’est pourquoi tous les organismes qui s'attachent à la fabrication des outils de l’électronique, tels les transistors à germanium ou à silicium, font un gros effort de recherche sur les dislocations. C’est le cas du C.N.E.T. en France, de Bell Téléphoné, General Electric, Raytheon, etc., aux États-Unis.
- *
- * #
- Nous avons là un exemple frappant de l’effondrement des barrières entre science appliquée et science fondamentale qui se constate dans le monde moderne. Elles marchent la main dans la main, étroitement liées. Si la spécialisation très poussée est devenue chose nécessaire, chaque spécialité ne peut vivre qu’en contact étroit avec un très grand nombre d’autres disciplines, donnant par là à la science un caractère d’universalité qu’elle n’a jamais eu à un tel degré. L’étude des dislocations est l’une de ces nouvelles spécialisations. Elle a déjà été très fructueuse sur le plan théorique, et ses applications s’annoncent nombreuses.
- André Auteuer,
- Ancien élève de l’École normale supérieure, Agrégé de l’Université.
- MAGNÉTISME FOSSILE
- Différents indices climatologiques laissent supposer que l’axe de rotation de la Terre a changé de position à différentes périodes de l’histoire du globe. Afin de vérifier cette hypothèse, d’assez nombreux chercheurs ont adopté une méthode qui vise à retrouver l’orientation du champ magnétique terrestre « fossile » et d’en déduire la situation approximative de deux pôles également fossiles.
- Les documents recueillis à cet effet sont des roches anciennes magnétiquement stables et dont on pense qu’elles ont conservé trace du champ auquel elles furent soumises lors de leur formation. Cette théorie a été contestée, en raison des effets de magnétostriction que ces roches ont pu subir, laissant place à de fausses interprétations.
- C’est afin de répondre à cette objection que cinq savants canadiens, américains et australiens ont étudié quatre séries d’échantillons de basalte et de grès du Trias supérieur, préle-
- vés sur le continent nord-américain. Trois séries avaient été recueillies dans l’est des États-Unis, une quatrième dans l’État de l’Utah. Les résultats ont marqué une concordance assez frappante, la position du pôle Nord triasique étant définie, selon les séries, par les latitudes et longitudes suivantes :
- 55 N-107 E
- 54 N- 90 E
- 55 N- 88 E
- 63 N- 93 E
- A ce pôle, géographiquement situé au cœur de la Sibérie, aurait correspondu un pôle austral voisin de l’extrémité sud du continent américain. L’axe de la Terre semble s’être maintenu dans cette direction pendant une longue période.
- La concordance des résultats paraît indiquer que la méthode, malgré les objections présentées, reste valable.
- p.350 - vue 354/527
-
-
-
- POMPILES
- 35]
- LES GUÊPES
- On connaît mal les Pompiles si l’on se limite à ceux de la région parisienne. Ils y sont très peu nombreux et d’aspect uniforme : noirs avec une partie de l’abdomen rouge. On rencontre Anoplius fuscus (fig. x) cheminant le long des sentiers des forêts à la recherche de ses proies. Mais dès qu’on va vers le Midi, les Pompiles deviennent plus nombreux et plus variés en couleurs. Pendant l’été, qui est leur saison préférée, ils abondent un peu partout, et on peut, avec quelque chance, voir l’espèce provençale, la plus grande et la plus colorée d’Europe, que Fabre a étudiée sous le nom de « Cali-curgue annelé ».
- Les régions tropicales sont leur véritable domaine; ils y sont nombreux et repi’ésentés certainement par plusieurs milliers d’espèces, puisque le genre Pepsis, strictement américain, en compte plus de 4oo, qui abondent surtout dans la région amazonienne. Dans ce genre se trouve même le plus grand des Hyménoptères, Pepsis héros : il mesure io cm d’envergure, les ailes étalées, c’est-à-dire beaucoup plus que bien des Oiseaux. C’est un cas extrême, et dans nos pays ces Insectes ont en moyenne io à i5 mm de long.
- Appartenant à l’ordre des Hyménoptères, les Pompiles sont des Guêpes, dans le sens large du mot : ils font partie des Hyménoptères supérieurs, ou porte-aiguillon, qui nouri'issent leurs larves avec d’autres Insectes (ou des Araignées) paralysés, en opposition aux Abeilles (au sens large) qui les nourrissent de pollen et de nectar.
- A côté de quelques détails morphologiques, un caractère permet de reconnaître les Pompiles : les femelles ont les antennes roulées en crosse (fig. i), mais seulement après la mort. Bien entendu elles ont un aiguillon, souvent très long, et leur piqûre cause une douleur très vive mais dont l’effet dure peu de temps. On les reconnaît dans la nature à leur habitude de courir sur le sol, les ailes relevées et les antennes tâtant le sol, ce qui est en rapport avec la recherche de leur proie; bien que très bons voiliers, ils marchent plus qu’ils ne volent.
- Un fait très remarquable est que les Pompiles, sans aucune exception, chassent des Araignées. D’innombrables observations montrent que c’est un fait absolu, et qu’aucun ne déroge à cette règle. C’est un exemple frappant d’un groupe important de Guêpes, répandu dans le monde entier, voué à la recherche de proies d’une seule nature. Par ailleurs les Pompiles donnent à chacune de leurs larves une seule Araignée, contrairement à d’autres Guêpes, les Pélopées par exemple, qui en emmagasinent plusieurs dans chaque cellule. Ce fait a son importance; la mère pompile est obligée d’en tenir compte afin de donner à sa larve une quantité de nourriture suffisante, étant donné la perte due à des parties de la proie inassïmilables, et par conséquent de capturer chaque fois une Araignée bien plus grosse qu’elle-même.
- Des observations permettent de penser que la mère sait proportionner la taille de l’Araignée à celle de sa future guêpe-fille, et par exemple donner, s’il s’agit d’un futur mâle, une proie plus petite, les mâles étant en général plus petits que les femelles. J’ai pris jadis, à Bonifacio, une Araignée du genre Eresus qui portait sur le dos l’œuf d’un Pompile; cette Araignée était un mâle encore jeune, notablement de taille moindre que n’aurait été une femelle de même espèce. Or le Pompile qui en est sorti quelques jours après, était un mâle, bien plus petit que la femelle.
- Les Guêpes savent quel sexe sortira de l’œuf qu’elles pondent, puisqu’elles peuvent déterminer ce sexe à volonté, en permettant ou en empêchant la fécondation de l’ovule devant le réceptacle séminal. C’est ce que Fabre a appelé « le sexe à la disposition de la mère », notion qui depuis a été pleinement confirmée. Partant en chasse, une Guêpe, et en particulier un Pompile, a,
- Fig. 1. — Le Pompile Anoplius fuscus.
- L’inscctc est mort et ses antennes sont roulées en crosse. Grossissement : x 4.
- si l’on peut dire, l’intention de capturer une proie de la taille nécessaire à sa future larve, qu’elle ne verra jamais.
- La nature des proies des Guêpes pose un problème fort curieux. Nous avons vu que les Pompiles ne chassent que des Araignées, exclusivement, chacun d’entre eux ayant une proie déterminée. Non seulement ils recherchent et reconnaissent les Araignées, mais encore ils ne confondent pas les diverses Araignées, et on peut dire qu’ils ont, ainsi que les autres prédateurs et parasites, une notion fort exacte de la classification telle qu’elle a été établie par les biologistes. Cependant la nature de la proie ne semble pas être une nécessité pour la larve elle-même. Tout permet de penser, des expériences l’ont établi, que les larves se nourrissent très bien avec d’autres proies. La spécificité des proies n’est valable que pour la Guêpe elle-même, nécessité qui est inscrite dans son instinct d’une façon inéluctable.
- Les Pompiles chassent pratiquement toutes sortes d’Araîgnées. Le mode de vie de celles-ci étant très varié,, il faut pour les Pompiles des méthodes de chasse différentes, toujours étroitement adaptées; chacun d’entre eux recherche une proie déterminée, il la trouve et s’en empare chaque fois d’une façon particulière. Quelques exemples le montreront.
- Certains Pompiles chassent les Mygales maçonnes, Araignées communes dans la région méditerranéenne, qui vivent dans un terrier profond, creusé par elles, et fermé d’un clapet exactement ajusté à l’ouverture (voir La Nature, mai ig52, p. 12g). Ceux qui sont spécialisés dans cette chasse savent parfaitement trouver le terrier, pratiquement invisible à l’observateur qui n’a pas une grande habitude; c’est probablement l’odorat qui les guide. Dès que le Pompile a trouvé le clapet, il le soulève par une véritable effraction, avec ses mandibules, ou à l’aide de l’avant de sa tête, aminci, et servant de pince.
- Ferton a observé en Corse un fait surprenant : certaines Mygales maçonnes ont un terrier en V, pourvu de deux ouvertures, chacune avec un clapet, ce qui facilite la fuite de l’Araignée lorsqu’elle constate la présence d’un ennemi. Or le Pompile connaît celte particularité, et après avoir forcé une des ouvertures, il va rapidement guetter à la seconde, par laquelle la Mygale pourrait s’enfuir.
- Le terrier ouvert, le Pompile y pénètre, va au fond piquer la Mygale, et dépose un œuf sur son corps, puis il repart en fermant la porte ! Pour certains d’entre eux ils emportent la proie, et vont l’enfouir ailleurs.
- La chasse dans le terrier a été contée d’une façon saisissante par Fabre pour le Calicurgue annelé, qui s’attaque à la puissante
- p.351 - vue 355/527
-
-
-
- 352
- Lycose de Narbonne, avec cette différence que le terrier n’a pas de clapet, l’ouverture étant seulement entourée d’une collerette de brindilles et de débris végétaux.
- Un autre mode de chasse est aussi très remarquable. Les Pom-piles du genre Episyron chassent les Epeires, Araignées qui font une toile du type géométrique. Le Pompile va chercher sa proie sur sa toile, réseau de fils de soie fortement couverts de gouttelettes de mucus qui retiennent captifs les Insectes imprudents. Or, le Pompile est capable de se mouvoir sur cette toile sans s’y prendre, ce qu’on ne peut s’empêcher de considérer comme une adaptation très remarquable. Bien mieux, il se dirige vers l’Araignée, immobile au centre de sa toile; celle-ci, au lieu
- Fig-. 2. — Le Pompile Batazonus quadripunctatus traînant une Lycose.
- Grossissement : x 3,5.
- d’aller vers l’envahisseur, se laisse tomber au sol, soutenue par un fil qu’elle laisse dévider de ses filières. Le Pompile n’est pas dupe de cette fuite : il suit le fil jusqu’à l’Araignée et la pique. J’ai pu assister à cette chasse, et constater que l’Araignée est paralysée instantanément par le venin du chasseur.
- C’est un Episyron qui est représenté sur les photographies prises par M. Bayard, en Camargue (fig. 3 à 6).
- Si l’on analyse cette remarquable chasse, on notera plusieurs points fort curieux pour le psychisme des Araignées et des Guêpes. Le Pompile sait trouver la proie qui lui convient, à l’exclusion de toute autre Araignée. La vue ne semble pas le guider, car ces Guêpes passent souvent assez près d’une proie sans la reconnaître; c’est probablement l’odorat qui intervient. Il peut se mouvoir sur la toile sans s’y engluer, tout aussi facilement que l’Araignée.
- Surtout, il est avantagé par la non-résistance de la proie. C’est un fait remarquable, et commun aux Insectes prédateurs, aussi bien que parasites ou commensaux, une sorte de résignation de la part des victimes comme s’il y avait là quelque fatalité. La Guêpe connaît la présence, à l’entrée du terrier qu’elle creuse, de la mouche parasite qui attend un moment d’inattention pour s’introduire dans le nid et y déposer un œuf destiné à détruire la larve de son hôte. La Guêpe témoigne une vive inquiétude, éloigne l’ennemi, souvent minuscule; elle est armée d’un aiguillon très redoutable, mais elle ne songe jamais à le détruire. D’autres Guêpes, ou encore des Abeilles, tolèrent la présence chez elles de parasites ou commensaux qui se font nourrir, ou d’ennemis qui détruiront leurs œufs ou larves. On a vu encore davantage dans cet étrange comportement : des Fourmis tuent leur propre reine pour y substituer une étrangère qui s’est introduite chez elles.
- En général, il n’y a pas lutte entre la victime et son ennemi spécifique, même lorsque la première est de plus forte taille, ou
- puissamment armée, ce qui est le cas pour le couple Pompile-Araignée : Fer ton a noté qu’un Pompile de 8 cg peut capturer une Araignée de 8o cg.
- Il est toujours difficile d’échapper à un certain anthropocentrisme si l’on étudie le comportement d’êtres aussi éloignés de nous.
- Dans le cas de l’Epeire chassé par l'Episyron (Pompile) on peut penser à une explication réaliste. L’Araignée, qui vit sur la toile, est une sorte d’automate, qui obéit à une chaîne de réflexes. Placée au centre, ou à la périphérie, elle est reliée au monde extérieur et à ses sensations par les vibrations de sa toile, qui est parfaitement équilibrée dans ce sens, vibrations qui lui sont transmises par le bout de ses pattes, très finement innervées. Une certaine catégorie de vibrations indiquent la présence d’une proie. Avec l’expérience classique du diapason il a été possible de savoir quel nombre de vibrations attire irrésistiblement l’Araignée. Hors ce nombre, les réactions sont différentes. Des débris végétaux déposés et agités par le vent sur la toile n’entraînent aucune réponse. Par ailleurs, qu’un mâle de son espèce se présente au pourtour de la toile, elle reconnaîtra sa présence, et le laissera s’y engager, si toutefois elle est en état de réceptivité sexuelle, qui est de nature hormonale. La présence du Pompile, au contraire, cause une certaine catégorie de vibrations, qui déclenchent le mouvement de fuite.
- La paralysation des proies par les Guêpes a toujours suscité un émerveillement, et même des considérations de philosophes, que les biologistes n’ont pas acceptées sans réserve.
- Un groupe d’insectes, les Guêpes, a la faculté de maintenir en vie, mais dépourvues de mouvements, les proies qui doivent servir à la nourriture des larves, et ce en les piquant de l’aiguillon, qui a un double rôle, puisqu’il sert aussi d’organe de défense. Dans les cas les plus simples, cette immobilisation est temporaire, ce qui permet le transport de la proie jusqu’au nid, ainsi que l’oviposition ; cela se rencontre aussi chez les Hyménoptères dits parasites, tels que des Braconides. La perfection est atteinte par le genre Sphex, le plus remarquable des paralyseurs, chez qui la proie reste immobilisée jusqu’à oo jours : quelques légers mouvements des antennes, ainsi que la défécation, montrent qu’elle est parfaitement en vie. Toutefois la proie ne se réveille jamais : si elle n’est pas dévorée par la larve, elle finit par mourir.
- L’intensité de la paralysie dépend de celle du venin. Chez les Pompiles, elle est temporaire; la proie se réveille et peut reprendre son activité. Mais cela suffit pour permettre à la Guêpe de l’emporter et l’enfermer dans son terrier, qui peut aussi bien avoir été creusé avant le départ en chasse, ou après. C’est ce stade que montrent les photographies présentées ici.
- Que les proies des Guêpes restent vivantes, bien que paralysées, cela est connu depuis longtemps, notamment par Réaumur et par Linné : ce dernier dit que celles des Ammophiles sont semimortuæ. Mais c’est Fabre qui, il y a environ un siècle, a appelé l’attention sur ce phénomène si curieux par ses belles observations sur le Cerceris bupresticide et sur les Sphex; il l’a popularisé dans ses célèbres Souvenirs entomologiques.
- Frappé par ce fait que la Guêpe pique dans un endroit déterminé, qui correspond à l’emplacement des ganglions nerveux, il conclut qu’elle a en quelque sorte connaissance de l’anatomie interne de sa proie, ce qui a été l’objet de nombreuses discussions. Il reste établi que la piqûre a bien lieu à un endroit donné, et non pas n’importe où. On sait aujourd’hui, à la suite de recherches histologiques, que l’action du venin cause une lésion profonde des tissus nerveux, soit dans les centres nerveux, soit dans les ganglions.
- Pour revenir aux Pompiles, il est exact qu’ils piquent dans les parages de la bouche, c’est-à-dire juste à l’endroit où le venin peut le plus rapidement être diffusé par le système circulatoire, et atteindre les centres nerveux qui, chez les Araignées, sont très
- p.352 - vue 356/527
-
-
-
- 353
- Fig. 3 à 6. — Activités du Pompile Episyron tripunctatus.
- En haut, deux phases de la préparation du terrier. — En bas, transport d'une Epeire et introduction dans le terrier (Photos André Bayard).
- concentrés et forment un collier autour de l’oesophage. Aussi est-il curieux de voir la proie devenir immédiatement inerte comme frappée par la foudre, immobilité qui atteint d’un seul coup tout l’organisme, y compris les chélicères et les pattes. Si le Pompile, par erreur, atteint l’abdomen, il abandonne sa proie.
- Il serait difficile d’admettre que la Guêpe ait connaissance de l’emplacement des centres nerveux, mais tout se passe comme s’il en était ainsi. La constitution de l’Araignée est telle que la partie antérieure du corps, ou céphalothorax, est couverte d’une couche de substance coriace, ou chitine, formant une
- véritable cuirasse que l’aiguillon peut difficilement perforer. Mais aux environs des pièces buccales, et entre les pattes, se trouve une membrane plus mince, qui permet les mouvements des appendices et n’offre aucun obstacle sérieux. D’autre part l’aiguillon n’est pas dépourvu de toute sensibilité, ses annexes sont innervées et, bien que l’acte soit extrêmement rapide, on voit la Guêpe palper les téguments jusqu’à ce qu’elle ait trouvé un point de moindre résistance pour y faire sa piqûre. Il reste remarquable qu’elle opère de manière à atteindre les centres nerveux.
- Lucien Berland.
- A propos de la fluorescence des Scorpions
- Dans- notre numéro de septembre 1957 (p. 340), M. Max Yachon, professeur au Muséum, publiait un article intitulé u Les Scorpions, animaux fluorescents » où il rendait compte des observations qu’il avait publiées en commun avec M. Mario Pavan, professeur à l’Université de Pavie. Ultérieurement (La Nature, avril 1958, p. 150) nous avons publié une mise au point de M. Pavan, qui précisait que ses publications personnelles à ce sujet avaient la priorité sur celle qu’il avait faite avec M. Yachon.
- Or M. R. Pussard, directeur de recherches à l’Institut national de la Recherche agronomique, nous a fait savoir qu’il avait lui-même signalé ce phénomène dans une communication au Congrès de l’Association française pour l’avancement des Sciences, à Àrcachon,
- le 24 septembre 1938. Son étude, signalant la fluorescence, en lumière de Wood, des chenilles à poils jaunes de la Teigne de la lavande (Diacrisia purpurata), comportait une note ainsi conçue : « Dans certains groupes, la chitine elle-même, bien que ne présentant aucune pigmentation particulière, se révèle vivement fluorescente en lumière de Wood : ainsi j’ai constaté que les Scorpions, en particulier Euscorpius flavicaulis de Geer, Buthus occitanus Amor., etc., présentaient tous une belle fluorescence jaunâtre ou verdâtre en lumière ultraviolette filtrée dite de Wood » (Revue de Zoologie agricole et appliquée, janvier 1939). Ainsi M. R. Pussard peut légitimement revendiquer la priorité de cette intéressante observation. Nous lui en donnons acte bien volontiers.
- p.353 - vue 357/527
-
-
-
- Observations photographiques à très haute altitude de la surface du Soleil
- I a turbulence atmosphérique, c’est-à-dire les mouvements à petite échelle de l’atmosphère terrestre, provoque des déformations et des déplacements de l’image des astres qui limitent énormément les possibilités de certaines observations astronomiques. En fait, la turbulence n’autorise que de façon tout à fait exceptionnelle la visibilité des détails qui sont à la limite du pouvoir séparateur des grands objectifs astronomiques. Bien que l’on s’efforce de construire les observatoires dans des lieux écartés de toute ville, et si possible à haute altitude, les effets de l’agilulion atmosphérique restent extrêmement gênants, et l’intérêt des très grands télescopes comme celui du Mont Palo-mar réside plus dans la possibilité qu’ils offrent de capter beaucoup de lumière que dans leur pouvoir de résolution élevé dont on ne peut guère profiter. On réserve de préférence ces instruments à l’observation photographique des étoiles et des nébuleuses très peu brillantes, tandis que l’on se contente de lunettes de faible diamètre pour étudier les planètes et la surface du soleil, pour lesquelles la turbulence se fait davantage sentir. Encore se limite-l-on souvent à l’observation visuelle qui permet de profiter des instants où l’image est convenable et de suivre ses mouvements d’ensemble provoqués par la turbulence. Les photographies des objets qui présentent un diamètre apparent notable sont en général très décevantes : les images des planètes, pour lesquelles le temps de pose atteint plusieurs secondes, sont floues et manquent de contraste. Quant à la granulation solaire, qui apparaît bien à l’observation visuelle de la surface de l’astre, elle est très difficile à photographier, et les très bonnes images de la photosphère sont extrêmement rares. Les meilleures ont sans doute été obtenues avec un objectif de faible ouverture (i3 cm) par l’astronome français Janssen, il y a près de 60 ans : il employait des poses d’un trois-millième de seconde sur des plaques au collodion humide. On voit que les techniques photographiques étaient déjà parvenues à cette époque à un grand degré de perfection. Toutefois, parmi les nombreuses plaques de Janssen, la plupart montrent des régions floues d’aspect caractéristique où la granulation n’est plus visible : on a cru longtemps qu’il s’agissait de phénomènes localisés à la surface du soleil mais de nombreux astronomes voient là un effet de la turbulence atmosphérique, qui se manifesterait même pendant des intervalles de temps aussi courts qu’un trois-millième de seconde.
- D’autre part, l’astrophysicien américain Schwarzschild constate en 1950, en collaboration avec Richardson, que les granulations solaires sont animées de mouvements rapides (quelques kilomètres par seconde), ce qui se traduit dans les meilleurs spectres que l’on ait pris de la surface solaire par un déplacement des raies provenant de chaque granule, dû à l’effet Doppler. Ceci laisse à penser que la photosphère est animée de mouvements de convection, d’où résulterait l’aspect granulaire de la surface : d’ailleurs Bénard a pu reproduire au laboratoire des figures très analogues en créant une zone turbulente entre deux plaques rapprochées entre lesquelles règne une grande différence de température. On remarque un aspect semblable dans certaines formations nuageuses terrestres (alto-cumulus). La présence de cette couche convective à la surface du soleil est d’une très grande importance, car c’est à travers elle que l’énergie créée par les réactions nucléaires à l’intérieur du soleil est communiquée à l’atmosphère de l’astre et rayonnée dans l’espace. Aufesi, convient-il de connaître parfaitement l’aspect réel et Dévolution au cours du temps de la granulation solaire. A cet effet, Schwarzschild a imaginé de filmer une portion de la photosphère, opération qui n’est possible qu’à condition de s’affranchir complètement de la turbulence atmosphé-
- Fig. 1. — Le télescope photographique solaire pour observations à très haute altitude.
- Le télescope, dont le tube est en grillage d’acier invar, est suspendu à une monture qui supporte en outre des batteries (en haut) et des appareils auxiliaires. L’ensemble est porté par un ballon Skyhook et est muni d’un parachute et d’amortisseurs destinés à préserver le télescope à l’atterrissage, non visibles sur la figure (Photo Kodak-Pathiî).
- rique : il a entrepris de transporter à très haute altitude, au moyen d’un ballon, un télescope photographique, bien au-dessus des basses couches de l’atmosphère où prend naissance la turbulence. La Société Perkin-Elmer Corporation a construit sous sa direction l’appareil représenté par la figure 1, qui n’est autre qu’un télescope à miroir parabolique de 3o cm de diamètre, ouvert à f/8. Un système optique auxiliaire permet d’agrandir l’image du soleil donnée par le miroir jusqu’à un diamètre de 60 cm : on n’enregistre donc sur le film de 35 mm qu’une très petite portion de la surface de l’astre. Le télescope est maintenu constamment pointé vers le soleil grâce à plusieurs cellules photoélectriques qui commandent des servomécanismes, et les images sont enregistrées à la cadence d’une par seconde.
- Pour emporter à très haute altitude cet appareillage qui pèse environ 64o kg on a fait appel à un ballon de type Skyhook, modèle maintes fois utilisé pour l’exploration de la haute atmosphère. Le premier vol a été effectué le 22 août 1967, et le ballon a atteint 27 000 m; mais il ne transportait qu’un appareil d’essai. Le second ballon fut lancé le 25 septembre et resta 4 heures 3/4 à l’altitude déterminée à l’avance de 27 000 m. Pendant ce temps la surface solaire fut filmée, mais toutes les images ne sont pas utilisables car on l’éalisait une mise au point continuellement variable, ignorant la position exacte du foyer du miroir, qui varie avec la température. A la fin de l’opération, l’instrument fut séparé du ballon et parachuté : on devait le retrouver presque intact, et il fut utilisé à nouveau après de légères réparations au cours d’un troisième vol, le 17 octobre,
- p.354 - vue 358/527
-
-
-
- 355
- Fig-. 2. — Photographie de la surface solaire, obtenue avec le télescope stratosphérique sur film Kodak spectrogra-phique.
- Remarquer l’aspect polygonal des granulations photosphériques.
- (Photo KODAK-PATIIÉ)
- au cours duquel le soleil a été filmé pendant 2 heures 1/2 de 27 5oo m d’altitude.
- Les résultats se sont montrés excellents : le système de poursuite automatique du soleil a parfaitement fonctionné, d’autant plus que les mouvements de l’appareil sous l’effet du vent sont absolument négligeables. La figure 2 montre l’aspect de la surface solaire photographiée sur film Kodak spectrographique, film lent à grand contraste, au cours de l’un des vols. On y remarque que les grains dont les dimensions s’étagent de 260 à 2 000 km (o,3 à 2 secondes d’arc) ont une forme polygonale irrégulière et ne sont séparés de leurs voisins que par une ligne sombre relativement étroite. Cet aspect, déjà visible sur les meilleures photographies de Janssen, confirme l’origine convective de la granulation solaire, et se rapproche très étroitement des phénomènes observés par Bénard, que nous avons signalés plus haut : ainsi les colonnes de gaz chauds plus brillants qui s’élèvent à partir de l’intérieur du soleil sont-elles séparées par des zones étroites où les gaz refroidis, moins brillants, redescendent. Ces tourbillons de convection n’ont pas une durée indéfinie : elle vaut, en moyenne, 4 mn pendant
- lesquelles ils s’estompent progressivement pour être remplacés par d’autres. Quant aux régions floues de Janssen, elles sont atténuées : elles proviennent bien de la turbulence.
- Les photographies obtenues à très haute altitude sont si intéressantes et si remarquables que l’on songe à recommencer de telles observations avec le télescope de 3o cm muni cette fois d’une caméra de télévision : l’observateur terrestre pourrait télécommander le pointage de l’appareil pour sélectionner les régions les plus intéressantes du disque. Un projet plus lointain comporterait l’envoi par ballon vers 25 000 m d’un grand télescope de go cm de diamètre qui permettrait d’obtenir des photographies d’une qualité exceptionnelle des surfaces planétaires, ce qui renouvellerait sans doute nos connaissances qui demeurent assez limitées sur ce sujet. On espère aussi avoir de nombreux renseignements concernant les détails fins des nébuleuses, et l’on pense résoudre des systèmes stellaires : un tel appareil aurait des possibilités du même ordre, bien que de nature différente, que celles d’un télescope de 5 m de diamètre situé dans un observatoire terrestre.
- J. Lequeux.
- Le contrôle de la vitesse des automobiles
- Les services de la police londonienne ont expérimenté un appareil électronique pour le contrôle de la vitesse des véhicules routiers. Cet appareil, qui comprend entre autres 34 transistors, est essentiellement un dispositif pour mesurer de courts intervalles de temps avec une grande précision, complété par deux tubes en caoutchouc placés en travers de la chaussée à une distance d’environ 2 m et reliés chacun à un interrupteur pneumatique. Le passage des roues avant d’un véhicule sur le premier tube déclenche le circuit de la base de temps- (oscillateur à quartz), la fermeture du circuit se produisant lors du passage des roues sur le deuxième
- tube. Le temps de passage entre les deux tubes est enregistré automatiquement par des compteurs ; la fréquence des impulsions et la distance entre les tubes sont choisies de telle sorte que l’indication résultante donne la vitesse du véhicule. L’exactitude de l’appareil est d’environ + 0,3 pour 100 pour une vitesse de 30 km/h et de + 1 pour 100 pour 160 km/h.
- On espère que l’emploi de cet appareil, en permettant un contrôle rigoureux de la vitesse des véhicules aux points les plus névralgiques, contribuera à réduire les excès de vitesse et à accroître ainsi la sécurité routière.
- p.355 - vue 359/527
-
-
-
- 356
- La Sardaigne et ses nouraghes
- L’étrange paysage? sarde est rendu plus prenant encore dans les régions du Centre et de l’Ouest où s’élèvent les nouraghes. Ce sont des constructions préhistoriques originales, qu’on ne trouve qu’en Sardaigne et qui semblent faire partie d’elle, de son sol. Sortes de tours en forme de cône tronqué, faits de pierres parfois énormes qui tiennent sans aucun ciment, les nourâghes ([nuraghi) sont, avec quelques autres monuments mégalithiques, les vestiges d’une civilisation sub-jugante et qui reste mystérieuse, dont l’origine se perd au-delà du 2e millénaire avant J.-C. A peu près 6 ooo nouraghes, plus ou moins bien conservés, témoignent encore en Sardaigne de cette « civilisation nouragique » qui commence seulement à être étudiée systématiquement.
- En tous cas, le voyageur qui parcourt l’île pour la première fois ne laisse pas de ressentir un choc en apercevant, sur les hauts plateaux, ou sur la pointe des promontoires, voire même jonchant littéralement certaines plaines, comme celle de Macomer, ces hautes tours coniques et vénérables (fig. 2). Piare-ment isolées, elles forment souvent des groupes de vingt à trente sur un espace assez restreint, distantes seulement de quelques centaines de mètres. Leur hauteur varie de 6 à i5 m, et peut même atteindre 20 m, lorsqu’elles comportent des étages. Il y a aussi des forteresses nouragiques, faites d’un nouraghe central flanqué de nouraghes périphériques, d’un aspect grandiose et impressionnant.
- Mais il apparaît vite que tous les nouraghes sardes n’appartiennent pas à la même époque préhistorique. Certains sont d’une simplicité qui les rapproche de la cabane primitive, d’autres sont déjà des demeures complexes, prodiges d’architecture. L’évolution du style de construction est- solidaire de l’histoire des premières populations sardes.
- La préhistoire sarde. — L’origine du peuple sarde demeure obscure. Rien ne laisse supposer que l’île ait été habitée au pléistocène : ses massifs montagneux tourmentés, ses côtes déchiquetées ont certainement été pendant longtemps responsables de l’isolement qui fut le sien jusqu’à une période fort postérieure au début du néolithique.
- C’est probablement à l’époque où apparaissent les premières civilisations du Proche-Orient asiatique que des populations, venues de divers points de la côte méditerranéenne relativement proches de l’île (Afrique, littoral étrusque ou espagnol), ont formé la première assise ethnique : chapitre, parmi d’autres, du livre des phénomènes migratoires qui ont caractérisé la préhistoire des peuples riverains de la Méditerranée plusieurs millénaires avant le Christ...
- Fig. 1. — Les « demeures de sorcières », près d’Alghero.
- Ce sont, des tombes creusées dans le roc (Photo Yan).
- Fig. 2. — Un nouraghe typique parmi ceux qui ornent le paysage dans le Centre et le Nord-Ouest de la Sardaigne.
- Le -nouraghe Santa Barbara, près de Macomer (Photo J.-C. Val le) .
- Fig. 3. — Intérieur d’une « demeure de sorcière » (Photo Mura).
- p.356 - vue 360/527
-
-
-
- 357
- Fig. 4. — Fragment du nouraghe Losa, près d’Abasenta.
- Les personnages donnent une idée de la taille des blocs utilisés à la base de l'édifice qui comporte plusieurs chambres, à chacun des trois étages.
- (Photo J.-C. Valle).
- Le premier homme sarde fut donc l’homme néolithique. Probablement il vivait dans des grottes, probablement il ensevelissait ses morts dans les antres naturels.
- Si on se réfère aux historiens anciens, grecs et latins, la civilisation noui’agique daterait d’une époque largement antérieure au xv® siècle avant J.-C., date approximative à laquelle le peuple des Shardana vint d’Afrique occuper l’île sous la conduite du légendaire Sardus. Bien avant le xve siècle en effet, une migration de Libyens aurait absorbé la peu nombreuse population
- Fig. 5. — Intérieur du nouraghe Losa.
- (Photo Yan,'.extraite de A. Bonxo, Sardaigne, Arthaud, Paris).
- des cavernes, et serait à l’origine des premières constructions nouragiques. Une autre migration, dont parle Pausanias, celle des Baléares, venant de la péninsule ibérique, aurait renouvelé la population qui avait construit les premiers nouraghes. Et c’est ainsi qu’à l’âge du Bronze et du Fer, une civilisation protosarde, ou encore « protonouragique », aurait dominé l’île pendant des siècles. On lui devrait les nouraghes « simples », encore isolés parce qu’ils servaient pour une seule famille. On lui devrait aussi de curieuses grottes artificielles, les dormis de janas (« maisons de sorcières ») où les morts étaient ensevelis (fig. i et 3).
- C’est donc vers i5oo, en période ennéolithique, qu’une troisième migration, celle des Shardana, a occupé les côtes et donné son nom à l’île. De nombreux documents, dont une lettre en
- Fig. 6. — La cheminée du sommet de la voûte, à l’intérieur du nouraghe Losa (Photo Yan).
- babylonien du souverain de Byblos au pharaon Aménophis II, la stèle de Ramsès II à Tanis, etc., mentionnent ces « Shardana au cœur indompté », qui combattirent comme ennemis ou comme mercenaires des pharaons, et dont certains abordèrent en Sardaigne. Ces nouveaux venus construisirent des villes côtières, et à leur contact, les nouraghes s’agrandissent, se groupent pour donner naissance à des forteresses nouragiques et à des villages nouragiques : non plus une famille, mais le clan et la tribu. La sépulture est un signe de cette vie associée : « tombes de géants » et hypogées collectifs. Mais le signe le plus certain de ces influences est la naissance de l’industrie nouragique ennéolithique : de petites statues de bronze noura-gique sont le symbole de caste, essentiel, d’un peuple singulier. L’apogée de cette civilisation, non plus « proto-nouragique », mais « nouragique » se situe entre le vm° et le vie siècle; ensuite, elle décline.
- Elle décline lorsqu’on franchit les limites de la préhistoire et de l’histoire. Et l’histoire, c’est d’abord, au Ve siècle, la domination des Carthaginois qui occupent les côtes et construisent des cités dont il reste encore des vestiges : Nora, Tliaros...
- p.357 - vue 361/527
-
-
-
- 358
- Puis, c’est la colonisation romaine au me siècle, qui superpose ses édifices à ceux des Carthaginois, utilise des chiens de chasse pour dépister les Sardes farouchement accrochés à leurs montagnes.
- L’un des rares attraits de la Sardaigne, c’est d’ailleurs la multiplicité de couches de civilisations qu’on y rencontre à chaque instant. Mais, plus que les vestiges de la période romaine, ou de la période carthaginoise, ce sont les monuments mégalithiques qui donnent le ton à un paysage qui, nous l’avons dit, en reçoit une fascinante originalité. Restes d’une longue culture protosarde, qui va s’épanouissant jusqu’à son âge d’or, contemporain d’Homère.
- Description du nouraghe. — Le nouraghe s’inspire, nous l’avons vu, de la cabane ronde, universellement répandue dans le monde de la préhistoire méditerranéenne. Sous son
- Fig. 7. — Intérieur du nouraghe Santa Antine.
- On remarquera les deux tours jumelées et la construction typique des deux portes (Photo B. Mazi).
- aspect le plus simple, il comporte une superposition d’anneaux circulaires faits de blocs de pierre placés l’un à côté de l’autre, les anneaux ayant un diamètre de plus en plus étroit jusqu’à une voûte, une « coupole » terminale obtenue en resserrant vers le haut les rangées de pierres superposées. Comme le poids d’un tel entassement de pierres suppose une contre-poussée concentrique, venant de l’extérieur, les blocs de base sont massifs ,et peuvent former une circonférence extérieure d’une vingtaine de mètres. D’où l’aspect typique d’un tronc de cône assez écrasé, la physionomie puissante et trapue.
- L’intérieur des premiers nouraghes était composé d’une cellule plus ou moins grande selon les dimensions de l’édifice, dans laquelle on entrait par une ouverture très étroite. Mais bientôt, la salle centrale se compliqua de niches pour le sommeil, ou fut divisée pour former plusieurs pièces. Un perfectionnement im-
- portant intervint lorsqu’on construisit des « chambres » superposées, de telle sorte que la « voûte » du rez-de-chaussée devenait le plancher de la chambre du dessus, jusqu’à la voûte finale formant terrasse. Pour aller d’une pièce à l’autre, un escalier était inclus dans le mur de l’édifice, dont l’architecture devenait plus savante.
- C’est ainsi qu’une tour nouragique pouvait abriter et défendre un grand nombre d’individus, une famille. Avec la construction de forteresses comme le nouraghe Losa, de villages comme celui de Barumini, les édifices nouragiques prirent une ampleur qui nécessitait, de la part des architectes, une intelligence architecturale poussée. Il est clair qu’ils n’arrivèrent à des formules définitives qu’à la suite de multiples tâtonnements et en tenant compte des expériences précédentes : c’est au moins une des raisons pour lesquelles il n’existe pratiquement pas en Sardaigne deux nouraghes absolument semblables.
- Destination des nouraghes. — C’est seulement dans la première moitié du siècle dernier que l’intérêt des archéologues et des historiens se porta sur les nouraghes. Citons les noms d’Al-plionso La Marmora, Luigi Falchi, Taramelli, Palroni, Paliotino, qui sont auteurs de travaux classiques. Plus récemment, nous citerons Mingazzini et surtout Giovanni Lilliu, auteur d’un >.ra. vail considérable sur le seul village nouragique de Barumini (1).
- On a parfois cru que les nouraghes étaient des tombeaux; mais l’absence de squelettes suffit pour écarter cetie interprétation. Ils n’avaient pas non plus de destination religieuse, au moins pas exclusivement : tout au plus ils pouvaient contenir un autel intérieur ou sur la terrasse.
- L’accord des historiens est aujourd’hui fait, pour considérer que les nouraghes avaient une double fonction de demeure et de défense. Les premiers nouraghes étaient dispersés, souvent loin les uns des autres, et on peut supposer qu’ils correspondaient à une société encore peu intégrée, défiante. Il y avait probablement un nouraghe par famille. Chacune possédait le terrain environnant et s’y livrait à la culture et à l’élevage. Entre familles plus ou moins voisines, certains échanges ne pouvaient manquer, et peut-être existait-il des clans groupant plusieurs familles. La présence, dans les nouraghes isolés, de niches proches de la porte laisse penser que des sentinelles pouvaient y être placées en présence de quelque danger. Avant la période des invasions carthaginoise et romaine, c’est contre d’autres familles, d’autres clans qu’il fallait bien protéger le nouraghe : aussi est-ce une société relativement anarchique qu’il faut imaginer, au moins durant toute la période « protonouragique » d’économie agricole dispersée.
- La vie dans le nouraghe était certainement très « primitive » : viande salée ou fumée, poissons séchés, céréales, étaient déposés dans les niches creusées autour de la salle commune; au centre de celle-ci, un foyer permettait de faire cuire les aliments et de se chauffer. Les habitants se plaçaient tout autour pour dormir.
- La foi’mation de villages nouragiques a dû marquer, selon Gh. Zervos, la naissance d’une époque de paix fondée sur les alliances et sur le respect des lois communes, et caractérisée par le développement des activités agricoles à côté des activités pastorales. Epoque de paix sociale, voulons-nous dire, car elle n’a pas été exempte, de luttes contre les envahisseurs extérieurs. Il est vraisemblable qu’à partir du xe siècle avant J.-C., il s’établit un système social organisé et hiérarchisé, avec ses prêtres et ses guerriers. Dans certaines régions de Sardaigne, sur le plateau de Serri, dans le Barbagia au sud-est de Nuoro, on trouve les
- 1. On consultera essentiellement, sur les nouraghes et les problèmes qu’ils posent, le livre de Christian Zervos, La Civilisation de la Sardaigne, du début de l’âge ennêolithique à la fin de la période nouragique, Cahiers d’Art, 1954. Le livre de Lîlliu, auquel nous faisons allusion, s’intitule Il nuraghe di Barumini et la stratigrafia nuragica, 1955 : nous lui avons emprunté quelques photographies et de nombreux renseignements. Quelques-unes de nos illustrations sont empruntées au beau livre de A. Boruo, Sardaigne (Arthaud, Paris, 1957) dont nous avons déjà rendu compte.
- p.358 - vue 362/527
-
-
-
- 359
- vestiges d’édifices qui purent être des temples, des tribunaux. Quoi qu’il en soit, les archéologues ont établi l’existence d’une cinquantaine de « villages » nouragiques dont certains, tel celui de Serra Orrios, près de Dorgali, ou tel celui de Barumini étudié par Lilliu, sont fort bien conservés.
- On tient désormais pour certain qu’autour d’un nouraghe complexe, sorte de forteresse analogue aux châteaux forts de l’époque féodale où résidait le chef du clan ou de la tribu, s’élevaient des habitations moins importantes de sujets, bergers et agriculteurs, liés probablement à leur seigneur par des obligations de nature religieuse et économique. Ces habitations étaient, soient de petits nouraghes véritables, soit des « cabanes nouragiques » avec un toit rapporté, de bois ou de branchages. Certaines étaient, semble-t-il, habitées par des artisans, puisqu’on a retrouvé les vestiges d’outils rudimentaires destinés à la mouture du grain, la fonte des ustensiles en bronze, le filage et le tissage. Forteresse et bourgade formaient des communautés qui pouvaient être très étendues, pouvant comporter jusqu’à plus de cent édifices. Ch. Zervos en distingue cinq types : cabane d’habitation, cabane-atelier, cabane pour le commerce, cabane-chapelle et cabane destinée aux réunions. En cas de danger, tous les habitants de la communauté se rassemblaient dans la forteresse nouragique où vivres, armes étaient facilement entassés.
- Procédés de construction. — Il est peu de nouraghes totalement intacts : en effet, la partie la plus fragile, c’est-à-dire la voûte terminale, s’est souvent effondrée, tandis que le revêtement intérieur, en gros blocs équarris, a l’ésisté jusqu’à nos jours à l’usure du temps. Les pierres utilisées étaient le basalte et le trachyte. La masse murale repose toujours sur la terre, ou sur un soubassement de pierre dans les régions humides : on peut considérer comme un principe absolu que les blocs de pierre, posés à sec., ne tiennent ensemble que par le jeu du poids et du contraste; aucun mortier n’est employé, et les interstices entre les pierres sont comblés avec de petits cailloux.
- Les quartiers de roc utilisés sont à peine débités, et posés l’un sur l’autre en fonction de leur forme et de leur poids, les plus gros formant les assises inférieures. Peut-être une sorte de souci esthétique se remarque-t-il au fait que les pierres extérieures sont souvent de même coupe, de dimensions sensiblement égales, de sorte qu’on peut observer une manière de ravalement alors que les pierres intérieures sont laissées brutes.
- Les nouraghes les plus sommaires sont construits à l’aide de blocs posés en assises horizontales et obliques sans aucun travail
- Fig 8. — Le « village nouragique » de Barumini.
- La forteresse centrale est formée de cinq tours. Tout autour, les vestiges des cabanes nouragiques qui abritaient artisans et paysans. Voir aussi la photo de la couverture (Photo Gallizy, in G. Lilliu).
- Fig. 9. — Un four du village nouragique de Barumini.
- (Photo Yan, in A. Borio, op. cit.).
- préalable, simplement entassés. Dans d’autres, les blocs sont nettement polyédriques ou taillés en forme de parallélépipède, et leur surface est éclatée : sous forme polyédrique, on les rencontre dans la construction du mur proprement dit; sous forme parallélépipédique, ils servent à faire les courbes, les entrées, les escaliers. Les nouraghes les plus « récents » se reconnaissent, entre autres choses, à la disposition des assises, réglées de manière qu’un bloc soit posé à cheval sur deux autres blocs.
- Évidemment, l’élément le plus important de cette architecture, qui, nous l’avons dit, peut dépasser i5 m, et aller jusqu’à 20 m, est la voûte, qui est obtenue simplement par la disposition des blocs (procédé de l’encorbellement). Dès une certaine hauteur, chaque assise de pierre qui limite le vide déborde sur l’assise inférieure, et une partie de la pierre se trouve en porte-à-faux : d’où un semblant de courbure, selon l’expression de Zervos, donnant dans l’ensemble la physionomie d’une parabole ou d’un cône très allongé. Ce système de construction se retrouve également dans les salles latérales, s’il y en a, et dans les couloirs : là aussi, l’extrémité de chacun des lits de pierre est un peu en surplomb, la face est légèrement ravalée de manière à donner un semblant de courbure continue. Quant à la fermeture terminale elle-même, elle est obtenue soit par la rencontre des deux pierres qui finissent la fausse voûte (rencontre des arêtes terminales, ou d’un point quelconque de leurs faces obliques), soit par une dalle servant de plafond en même temps que de pavement pour la salle supérieure, ou de plateforme s’il s’agit du sommet de la construction. Bien entendu, toute la structure des murs, et en particulier leur épaisseur dépend de la hauteur du tout, du nombre de salles prévues, etc. Dans les grands nouraghes, l’épaisseur des murs, à la base, peut excéder largement 5 m. Les nécessités propres à la ou aux coupoles terminales sont donc déterminantes de la physionomie générale du nouraghe, et de l’aspect des salles.
- La salle centrale est toujours circulaire, avec un diamètre à la base de 6 à 9 m. Elle est aérée par de petites ouvertures. Les chambres superposées sont nécessairement moins vastes, sans niches. Quant aux escaliers qui permettent d’y accéder, pris
- p.359 - vue 363/527
-
-
-
- 360
- Fig. 10. — Une amphore, vestige de la civilisation nouragique, découverte à Barumini.
- (G. Luxru, op. cit.).
- dans l’intérieur des murs, ils forment des sortes de spirales en pente douce. Leur point de départ se trouve dès le vestibule, parfois à i ou 2 m du sol, et ils sont éclairés eux aussi par de petites meurtrières.
- Les nouraghes du type forteresse ont souvent, à côté de la
- Fig. 11 et 12. — Statuettes nouragiques du Musée de Cagliari.
- A gauche, mère et enfant. A droite, lutteurs (Photos Yan).
- tour centrale, 3, 4 ou 5 tours secondaires. Ainsi le nouraghe du village de Barumini, dit « Su Nuraxi » (fîg. 8), a une tour centrale de 20 m de haut, et est entouré'de 4 tours secondaires, elles-mêmes protégées par des murs d’enceinte. Un puits profond, à présent comblé, permettait le ravitaillement en eau.
- Quelle que soit l’architecture des nouraghes, ils donnent au visiteur d’aujourd’hui le sentiment d’une indestructible solidité qui naît peut-être de l’économie des effets, de l’absence de toute éloquence inutile. Selon Antonio Borio, dans un livre récent (Sardaigne, 1957), ils expriment directement le génie propre des anciens sardes. Toujours est-il qu’ils s’incorporent tant et si organiquement au paysage qu’ils semblent être symboliques du peuple qui les construisit...
- La civilisation nouragique. — Mais les nouraghes ne sont pas les seuls vestiges que nous ayons de la préhistoire sarde.
- Fig. 13, 14, 15. — Statuettes de bronze nouragiques.
- A gauche, statuette découverte à Barumini, de dos et de face (ti. Linro, op. cit.). Au centre et à droite, chef de tribu et guerrier, statuettes du
- Musée de Cagliari (Photos Yan).
- p.360 - vue 364/527
-
-
-
- 301
- Il y a d’abord, comme nous l’avons dit, d’autres constructions mégalithiques, à usage funéraire ou religieux. On trouve ainsi de nombreux dolmens, faits en général de pierres verticales sur lesquelles repose une dalle horizontale : il s’agissait-de tombes, qui devaient probablement contenir mv seul cadavre. Les « tombes de géants » sont des constructions sépulcrales plus originales, avec un corridor, une stèle-porte et un hémicycle frontal.
- Il y a aussi ces extraordinaires domus de jan-as qui vont des petits tombeaux pratiqués dans une paroi de roches, jusqu’à de véritables nécropoles non sans analogie avec les catacombes.
- De même que tous les peuples antiques, les Protosardes croyaient que la mort n’interrompt pas définitivement les relations du mort avec les vivants. De nombreuses coutumes devaient être liées à ces édifices, telle celle que nous rapporte Antonio Borio, de pratiquer un sommeil de plusieurs jours auprès des morts pour obtenir la guérison des maladies, ou des songes révélateurs.
- Autres vestiges enfin d’une grande et longue , civilisation : les nombreux objets retrouvés dans les nouraghés^ou dans les sépulcres. Les plus intéressants sont des statuettes de bronze, conservées actuellement au musée national de Cagliari (fig. n à i5). Leur valeur est à la fois esthétique et historique. Elles permettent d’abord de reconstituer le costume et l’armure des hommes, et celui des femmes également. Les hommes ont sur la tête une sorte de bonnet phrygien, la poitrine est recouverte d’un justaucorps, tunique entrouverte, pantalon court attaché aux genoux. Ils portent un manteau. Les femmes sont vêtues d’une façon qui rappelle étrangement le costume de certains villages sardes d’aujourd’hui. Une élude attentive prouverait l’existence d’une société évoluée organisée en castes rigides, jalouses de leurs attributions civiles et militaires. Elles datent probablement de la période allant du ixe au ive siècle. ’' '
- Au point de vue esthétique, ces statuettes peuvent être considérées, ainsi que l’écrit Borio, comme « une des plus intenses expressions de l’art erméolithique des peuples méditerranéens ». Leur destination devait être votive, si l’on s’en rapporte au geste qui exprime souvent un acte d’adoration et d’offrande à la divinité (les Sardes pratiquaient probablement une sorte de poly-
- théisme, avec culte de la Terre Mère). En se fondant sur des critères stylistiques, Lilliu a classé ces figurines en trois groupes : le groupe d'Uta qui se caractérise par une grande rigueur géométrique, le groupe d’Albini où prévalent les éléments décoratifs de surface, le groupe de la Barbagia, qui se distingue par une exécution plus sommaire. Selon Pallottino, il y a des analogies de structure, de technique et même de détails d’expression avec les figures de bronze du Louristan, de l’Arménie, de la Syrie, de l’Asie Mineure, de la Grèce et de la Péninsule Ibérique. Mais il est bien difficile de préciser quelle est celle de ces régions qui a le plus influencé l’élaboration des formes plastiques sardes. En tous cas, l’art sarde paraît en étroite liaison avec des formes d’art préhistoriques dont on commence seulement à entrevoir les filiations.
- *
- # *
- Certes, la fascinante Sardaigne offre d’autres attraits que ses nouraghes et autres témoignages de l’époque nouragique. Mais ces survivances de temps très éloignés se confondent à tel point avec le présent, et semblent le conditionner si étroitement encore, qu’elles contribuent certainement à faire de ce pays quelque chose d’étrange et d’inaccoutumé. La Sardaigne offre au voyageur patient, épris de beauté, des émotions profondes. Bien que le réseau routier soit actuellement serré et confortable, bien qu’une industrie touristique commence (trop vite, pensons-nous) à se développer, c’est à pied qu’il faudrait visiter la Sardaigne. En tous cas, on ne connaîtrait pas la plus profonde beauté de ce pays si on ne se donnait de longues heures pour parcourir ses champs, à la recherche de vestiges antiques que l’on trouve toujours,, et qui quelquefois nous donnent l’impression de n’avoir jamais été découverts auparavant. Toujours, quelque berger ou quelque pâtre à l’allure archaïque vous conduira vers quelque pierre, quelque tombeau, à demi-enfoui, où continue à palpiter l’âme d’une grande civilisation disparue.
- Jean-Claude Valle.
- p.361 - vue 365/527
-
-
-
- 362
- La machine Zêta
- n'est-elle qu'un
- accélérateur de particules ?
- Faut-il remettre en question la production d’énergie thermonucléaire dans la machine britannique Zêta ? C’est ce qui semble découler d’un article récent publié par B. Rose, A. E. Taylor et E. Wood dans notre confrère londonien Nature (i4 juin ig58). On sait que Sir John Cockroft avait affirmé en janvier dernier qu’il y avait 90 pour 100 de chances pour que des réactions de fusion se produisissent réellement au cours des expériences. On se demande maintenant s’il ne faudrait pas renverser cette proposition et dire qu’il n’y a guère qu’une chance sur 10 pour que ces réactions aient bien lieu. Les auteurs que nous venons de citer pensent que la production de neutrons, décelée au cours des décharges électriques, serait due plutôt à des phénomènes d’accélération des particules du plasma qu’à un processus thermonucléaire réel. C’est en vérifiant le spectre d’énergie des neutrons qu’ils sont parvenus à cette conclusion.
- Rappelons que Zêta (voir La Nature, mars 1958, p. 81, et avril 1958, p. 121) est constitué d’un tube annulaire (tore) d’aluminium de 1 m de diamètre intérieur et 3 m de diamètre moyen où des pulsations unidirectionnelles de courant, d’une intensité de 200 000 A et d’une durée de 4 ms, sont produites toutes les 10 secondes pour échauffer le gaz de deutérium raréfié contenu dans le tube; ce gaz se trouve ionisé et transformé en plasma homogène. Le courant induit provient d’un transformateur à noyau de fer (dont la colonne annulaire de plasma constitue elle-même le secondaire) alimenté par un condensateur capable d’accumuler une énergie électrique de 5 x io5 joules. Des enroulements situés de loin en loin autour du tube d’expérience entretiennent d’autre part un champ magnétique axial (BJ variant de o à 4oo gauss. Il s’y ajoute un champ circulaire (Bq) produit par fa décharge elle-même à l’intérieur du tube. Ces champs sont' utilisés pour créer et surtout stabiliser pendant la plus longue durée possible (5 ms) l’effet de « pin-
- cement » (pinch ejfect) de la colonne de plasma. Les distorsions de cette colonne tendent aussi à être réduites par les courants tourbillonnaires qui se forment dans les épaisses parois d’aluminium du tube d’expérience (2,5 cm) lorsque le plasma s’en approche (il se produit un effet répulsif sur le champ circulaire B0 qui enserre le gaz).
- La quantité de neutrons, émise à chaque pulsation aux alentours du courant de pointe atteint dans Zêta le chiffre de i34 x 104 pour un courant de i84 kA et une température « calculée » de 4)65 millions de degrés. Mais, selon Thonemann (Nature, 25 janvier 1958), l’élargissement des raies de l’oxygène et de l’azote, introduits dans le tube pour vérifier spec-troscopiquement les vitesses cinétiques moyennes et par conséquent la température,- n’avait pas lieu d’être interprété comme indiquant un mouvement de masse du plasma. Dans ces conditions les neutrons émis pouvaient raisonnablement être attribués à des émissions thermonucléaires provenant d’une source à haute température mais pratiquement immobile.
- (Dr, selon Rose, Taylor et Wood, il se produirait en réalité un mouvement de masse du plasma, par suite de phénomènes d’accélération dans le sens du courant. Ces auteurs ont institué une expérience pour vérifier les spectres d’énergie des neutrons émis et surtout l’éventuelle variation de ces spectres selon que la décharge électrique est dirigée dans le sens normalement prévu dans Zêta, ou au contraire en sens inverse. Il est assez clair que si la masse du gaz s’approche d’un appareil d’observation placé tangentiellement à la colonne de plasma, l’énergie moyenne des neutrons reçus différera de celle observée lorsque la masse du gaz s’éloigne.
- Description de l'expérience. — Un collimateur, entouré d’un écran de béton, laisse passer un pinceau de neutrons qui est recueilli dans une chambre de Wilson à diffusion, c’est-à-dire
- ---------{
- l(lffilil<ii'i!lllifllli»iil!ill!!!]liiii!iii|i|i?li i'! iIm'Iii;:;
- (il »....................................... iiutiii'i !i
- I METRE
- Fig. 1. — Dispositif expérimental de mesure des énergies des neutrons émis au cours des décharges dans la machine Zêta.
- Le sens normal de la décharge est indiqué) par la flèche en gras. Quand on renverse le courant les neutrons reçus, à travers le collimateur R, dans la chambre à diffusion de Wilson E, montrent une énergie moyenne différente, plus élevée quand la décharge est dirigée vers le collimateur. A, tube d’expérience ; B, collimateur de polyéthylène d’une ouverture de 10 à 20 cm selon la section ; G, écran de béton de 40 cm ; D, ouverture secondaire dans l’écran ;
- E, chambre de Wilson ;
- F, enroulements produisant le champ stabilisateur axial ; G, faible source de neutrons étudiés à titre comparatif. (Figure extraite de Nature, avec l’aimable autorisation de l’éditeur).
- p.362 - vue 366/527
-
-
-
- 363
- à sensibilité constante (dans ce cas une des parois est à la température ambiante tandis que la paroi opposée est fortement refroidie; il subsiste au centre de la chambre une région intermédiaire sensible, d’une épaisseur de 5 cm environ, où se produisent les lignes de condensation qui correspondent aux trajectoires des particules). Le collimateur vise tangentiellement une partie de la colonne annulaire de plasma à travers la paroi d’aluminium du tube (dont l’épaisseur en oblique atteint alors 4 cm) et entre deux des enroulements externes destinés à produire le champ stabilisateur axial (B2). On atteint de cette façon io pour ioo de la longueur totale de la colonne annulaire de plasma (lig. i), mais naturellement on ne peut recueillir de neutrons que selon la ligne de visée qui ne couvre elle-même que i pour ioo environ de la surface des parois du tube d’expérience. Pour mettre en évidence tout effet produit par la direction dans laquelle le courant est dirigé, on en inverse le sens ainsi que celui du champ magnétique stabilisateur appliqué du dehors. Le spectre des énergies neutroniques, tel qu’il apparaît dans la chambre à diffusion de Wilson, varie dans chaque cas et indique que les particules du plasma doivent être accélérées dans le sens du courant. Les énergies des neutrons, eux-mêmes invisibles dans la chambre de Wilson, sont calculées selon la longueur des trajectoires de recul des protons qu’ils viennent à heurter. La pression et la température de la chambre ont été prévues pour que, par exemple, un neutron de 2,5 MeV produise une trajectoire de recul de 4,5 cm. On accepte seulement les trajectoires protoniques dirigées selon un angle inférieur à 4o° et dont l’énergie dépasse i ,46 MeV. L’erreur dans l’estimation de l’énergie d’un neutron est considérée par les auteurs comme n’excédant pas 4 pour ioo. Ces erreurs peuvent provenir de l’observation de la trajectoire de recul (i,5 pour ioo), des incertitudes angulaires ou des variations de la densité du gaz dans la chambre à diffusion.
- Résultats de l'expérience. — Chaque expérience faite dans le sens normal de la décharge a mené à l’observation d’une même énergie moyenne des neutrons. Mais en cas de renversement du courant électrique une énergie moyenne différente se manifestait, indiquant d’importants effets d’accélération des particules du plasma dans le sens du courant. Selon nos auteurs, cette différence entre les énergies moyennes, suivant la direction de la décharge, ne pourrait s’accorder avec l’hypothèse d’après laquelle tous les neutrons proviendraient d’interactions thermonucléaires au sein d’une masse de gaz au repos dans l’appareillage. L’importance de la différence entre les énergies moyennes (2,33 MeV dans un sens et 2,66 MeV dans l’autre) tendrait à indiquer qu’il n’y a pas de processus thermonucléaire en action, tout au moins à titre principal. On ne peut exclure en effet la possibilité d’une petite contribution thermonucléaîre.
- L’énergie, parfaitement compatible d’ailleurs avec celle des champs magnétiques entretenus, proviendrait de l’accélération des noyaux de deutérium, accélération qui les amènerait à se briser au cours de phénomènes de choc. Cette « fission » des deutérons, composés on le sait d’un proton et d’un neutron, se solderait par une fuite des neutrons (dénués de charge) à travers les parois du tore d’aluminium, tandis que les protons, portant une charge électrique, ne pourraient s’échapper du plasma. Rappelons que dans une réaction thermonucléaire les neutrons sont produits par un processus tout différent. Il s’agit, soit de la « fusion » de deux deutérons produisant de l’hélium 3 et un neutron, soit de celle d’un deutéron et d’un noyau de tritium (triton) formant de l’hélium 4 et un neutron.
- D’autre part, il n’est pas interdit de penser que des réactions de fusion thermonucléaire se produisent cependant dans la masse d’un gaz en mouvement. Mais, selon des travaux non publiés de Jones, la vitesse de déplacement du gaz serait insuffisante d’un facteur d’environ 16; ce résultat aurait été obtenu par l’étude spectroscopique (effet Doppler) de la translation directionnelle
- de la masse des impuretés contenues dans le plasma. Zêta fonctionnerait donc plutôt comme un accélérateur de particules du type bétatron. D’ailleurs, d'après Spitzer, fa haute température, de l’ordre du million de degrés, tendrait elle-même à faire gagner encore plus d’énergie aux deutérons après le passage du courant de pointe.
- On avait remarqué enfin que l’introduction, dans la chambre de décharge de Zêta, d’une sonde magnétique de 2,5 cm de diamètre réduisait l’apport de neutrons. L’explication admise était que la sonde refroidissait le plasma et diminuait le nombre des réactions de fusion. On sait, en effet, que dans la recherche d’un processus thermonucléaire le gaz est maintenu éloigné des parois pour que celles-ci ne le refroidissent pas, et non, contrairement à une opinion souvent avancée, parce que ces parois risqueraient d’être vaporisées : un gaz à la pression d’un dix millième d’atmosphère ne contient que relativement peu de calories, même à très haute température. Ce phénomène de refroidissement du plasma constitue d’ailleurs un des inconvénients des tubes rectilignes par suite de la présence des électrodes terminales. Les tubes annulaires ou tores ont été créés justement pour isoler complètement la colonne de plasma et l’empêcher d’être refroidie (ce qu’on ne peut cependant éviter entre les décharges quand le gaz retourne aux parois).
- Or il semble maintenant qu’une explication plus simple de la réduction de l’apport de neutrons en présence de la sonde magnétique puisse être trouvée dans le fait que celle-ci agirait par simple obstruction mécanique du flux de deutérons accélérés.
- On avait pensé depuis longtemps déjà que des accélérations locales, dues à la variation du champ résultant de l'instabilité de la colonne de plasma, étaient peut-être responsables des émissions de neutrons. Mais le déplacement de compteurs directionnels autour du tube d’expérience indiquait une émission pratiquement uniforme (ne variant que par un facteur de 2) et ne venait pas appuyer l’hypothèse d’accélérations locales. Au contraire, l’hypothèse d’une accélération régulière, en masse, des particules du plasma autour du tube annulaire pourrait maintenant s’accorder avec une émission uniforme des neutrons.
- On ne doit cependant pas prétendre que les expériences anglaises de canalisation de l’énergie thermonucléaire se soldent par un échec. Il reste possible que des réactions de fusion se produisent bien à Harwell. Mais l’origine des émissions de neutrons est encore douteuse et il faudra sans doute accroître largement la température ainsi que la taille des réacteurs pour obtenir des résultats indiscutables.
- Jacques Fouciiet.
- Le « Caravanning » en Grande-Bretagne
- La vogue du caravanning, mot formé d’après caravan (roulotte), est l’un des phénomènes sociaux les plus remarquables de l’après-guerre dans les pays anglo-saxons, d’où il commence à envahir les États voisins. On estime que 10 pour 100 des Britanniques prennent leurs vacances en caravan, sans compter les 230 000 Anglais qui ont fait d’une roulotte leur home permanent. De véritables agglomérations de type original sont ainsi nées aux environs de Londres et des grandes villes : la plupart des caravanes (puisque le mot est maintenant francisé dans ce sens) qui se trouvent dans ces villes sur roues ont d’ailleurs abandonné toute idée de déplacement : certaines sont même installées sur cales I
- L’industrie des caravanes connaît une prospérité sans précédent : son chiffre d’affaires en Grande-Bretagne est estimé à 12 milliards de francs pour 1937, année où la production a atteint 25 000 unités (contre 14 300 en 1956, et à peine 3 000 il y a dix ans). Les exportations se chiffrent à 10 pour 100 de la production totale, et sont en constante progression. Une centaine de firmes, très inégales en puissance, se partagent le marché. Même les plus importantes gardent un caractère semi-artisanal, la clientèle se révélant fort sensible à l’apparence et à la finition du véhicule.
- p.363 - vue 367/527
-
-
-
- 1 La lutte contre la corrosion
- Les revêtements métalliques
- dans la protection contre la corrosion atmosphérique
- Après les articles que nous avons publiés sur le problème général de la corrosion et sur les métaux et alliages légers (La Nature, novembre 1957, p. kkh), puis sur le rôle et l’avenir des produits frittés et des cermets (mars 1958, p. lOâ, et avril 1958, p. 13't) nous poursuivons notre enquête par une étude que M. P. Morisset, directeur du Centre d’information du Chrome Dur, a bien voulu nous donner sur la corrosion électrochimique des métaux dans l’atmosphère et sur leur protection, étude qui préparera à mieux comprendre divers aspects de ce vaste problème.
- L’existence des métaux dans la nature n’est pas uniforme. Si certains métaux se rencontrent à l’état natif, la plupart n’existent que sous forme de corps composés : sels ou oxydes. L’homme a réussi à isoler et à extraire tous les métaux, puis à les travailler et les façonner de manière à profiler de leurs remarquables propriétés mécaniques. Mais quand inversement il veut se servir de ses réalisations métalliques et qu’il doit les replacer dans la nature au milieu des intempéries, les métaux tendent, tout au moins en surface, à reprendre leur état d’existence naturelle sous forme de composés. Cette destruction superficielle, que le sens commun nomme corrosion, pose tout le problème des revêtements métalliques : protéger en surface certains métaux par d’autres en tenant compte de leurs comporte-
- Revêtemenb Revêtement
- anodique cathodique
- 7 Electrolyte
- Attaque du Zinc Attaque du Fer
- ( formation de sels de zinc (extension de la corrosion
- AUTOPROTECTION DÉCOLLEMENT
- (jusqu’à disparitionduzinc) DU REVÊTEMENT
- Fig-. 1. — Schémas du mécanisme d’attaque de corrosion sur revêtements anodiques et cathodiques (corrosion électro-chimique).
- ments respectifs dans l’atmosphère. Nous allons voir que plusieurs solutions sont possibles, qu’elles présentent des caractéristiques différentes et que la connaissance de celles-ci est indispensable pour réaliser un emploi rationnel des grands types de revêtements métalliques sur fer : dépôts électrolytiques de nickel, cuivre, chrome, zinc, cadmium, étain, etc.; galvanisation à chaud par immersion en bain de zinc fondu ; métallisation au pistolet de zinc et aluminium, etc.
- Application de la théorie de la corrosion é!ectro= chimique au mécanisme de protection par les revê= tements métalliques. —- Le comportement relatif des métaux dans la nature où ils sont soumis aux intempéries est essentiellement fonction de leur classement par ordre des tensions. Considérons (tableau I), le classement obtenu en rangeant les métaux dans un ordre tel que chaque élément précipite les suivants et est précipité par les précédents. Cet ordre est appelé ordre des tensions, ou ordre des potentiels, la force électromotrice nécessaire pour électrolyser une solution normale des sels des métaux décroissant dans le même ordre. Ce classement, établi relativement aux concentrations normales et dans les circonstances courantes de température et de pression, est remarquable si on envisage, d’une part, les phénomènes d’oxydation des métaux et, d’autre part, de réduction de leurs oxydes.
- On constate effectivement (tableau I) que les premiers termes s’oxydent beaucoup plus facilement à l’air que les suivants. Aluminium et zinc s’oxydent à l’air, le nickel difficilement et à partir du cuivre l’oxydation à l’air n’est plus possible. Inversement, les oxydes des premiers termes ne sont pas réductibles par l’hydrogène, les oxydes de cuivre et des termes suivants sont au contraire très facilement réduits et même la chaleur seule décompose les oxydes de mercure, argent, platine et or.
- Si on considère maintenant l’existence des métaux à l’état natif dans la nature, on constate que seuls ceux qui sont après l’hydrogène se rencontrent à l’état natif; tandis que les métaux qui précèdent l’hydrogène décomposent l’eau avec dégagement d’hydrogène et n’existent pas à l’état libre dans la nature.
- Un revêtement métallique consistant essentiellement en la juxtaposition de deux métaux, l’un ayant pour mission de protéger l’autre de la corrosion atmosphérique, on conçoit que le mécanisme de la protection sera essentiellement fonction de la place occupée respectivement par ces deux métaux dans l’ordre des tensions. Le problème fondamental étant la protection du fer, on voit que deux types différents de revêtements se présentent :
- — Revêtements anodiques : aluminium, zinc, cadmium sur fer ;
- — Revêtements cathodiques : nickel, étain, plomb, cuivre sur fer.
- Ces deux types de revêtements étant définis, voyons maintenant comment se présente le mécanisme de protection. La corrosion atmosphérique des métaux se manifeste comme un phénomène analogue à celui de la pile électrique. Deux points métalliques étant à des potentiels différents en présence d’une humidité atmosphérique jouant le rôle d’électrolyte, il y a phénomène d’électrolyse avec attaque du point anodique.
- p.364 - vue 368/527
-
-
-
- 365
- Tableau I. — Classement des métaux par ordre des tensions
- Métaux (par ordre des tensions) (2) Oxydation Réduction des oxydes Etat libre dans la nature Observations
- Li t 1 (1) Fe, Sn, Cu, Hg sont
- K Oxydation Oxydes supposés à leur oxydation
- Na non réduits minimum.
- Ba par H
- Si
- Ca de plus en plus (2 ) Cet ordre des tensions
- Mg est relatif :
- ALUMINIUM Métaux — aux concentrations
- Mn • (3) n’existant pas normales ;
- ZINC facile à l’état libre — aux circonstances
- CHROME (3) dans la nature courantes de température
- CADMIUM et pression.
- FER | (l)
- Te (3) Les oxydes de Mn
- Go et Gr sont partiellement
- NICKEL réduits par H en oxydes
- ÉTAIN (i) inférieurs.
- PLOMB
- CUIVRE (I) Oxydes Métaux
- très facilement se rencontrant
- réduits par H à l’état natif
- dans la nature
- As Oxydation
- Bi à l’air
- Sb impossible
- Hg(0
- ARGENT
- Pd Oxydes
- Pt décomposés
- OR par la chaleur
- seule
- Considérons le cas d’un revêtement ano-dique, zinc sur fer par exemple, et schéma, tisons une discontinuité dans le revêtement (fig. i). Zinc et fer sont en contact, de plus une humidité atmosphérique contenant des sels dissous remplit la fissure et joue le rôle d’électrolyte. Cet ensemble constitue un élément de pile où le zinc joue le rôle d’anode et le fer celui de cathode. Il y a attaque du métal anodique, c’est-à-dire du zinc, avec formation de sels de zinc qui obstruent la fissure. Ce mécanisme explique l’auto-pro-tection du métal de base en cas de fissures ou porosités dans les revêtements anodiques.
- Par ailleurs, on a vu que les métaux qui réalisent ainsi des revêtements anodiques par rapport au fer s’oxydent en général dans l’atmosphère. Cette oxydation est d’ailleurs limitée; car la couche d’oxyde qui se forme en surface arrête l’attaque en profondeur du métal et joue un rôle de protection. Ce n’est que dans la mesure où sous l’action des intempéries ou d’effets mécaniques, cette couche d’oxyde est dissoute ou enlevée que le métal de revêtement peut subir une attaque plus profonde et ainsi s’user dans le temps. C’est notamment le cas du zinc et de d’aluminium qui se recouvrent respectivement de couches protectrices d’oxyde de zinc et d’alumine.
- Les revêtements anodiques sont donc ainsi caractérisés :
- — Protection assurée même en cas de discontinuités : fissures, porosités, épaisseurs trop faibles;
- — Durée de protection limitée, dans la mesure où les intempéries ou causes mécaniques éliminent les oxydes et sels qui se forment en surface du métal protecteur; dans ce cas, protection approximativement proportionnelle à l’épaisseur du revêtement.
- Parmi les revêtements anodiques les plus usités, citons : la galvanisation à chaud : revêtement de zinc sur acier obtenu par immersion dans le zinc fondu; la métallisation par projection au pistolet de zinc ou aluminium sur acier; les dépôts électrolytiques de zinc et cadmium sur acier.
- Considérons maintenant le cas d’un revêtement cathodique, nickel sur fer par exemple, et schématisons à nouveau une discontinuité dans le revêtement (fig. i). Cette fois-ci dans l’élément de pile, c’est le métal de base qui joue le rôle d’anode et qui est attaqué. Il se produit une destruction du métal de base en dessous du métal protecteur inaltéré et ce dernier s’effrite et se décolle. La destruction du revêtement peut ainsi s’opérer même en cas d’une simple défectuosité. Par contre, la durée de protection peut être théoriquement illimitée, les métaux qui permettent un revêtement cathodique sur le fer étant pratiquement inattaquables dans l’atmosphère (tableau I).
- Les revêtements cathodiques sont donc ainsi caractérisés :
- — Nécessité pour le revêtement de n’avoir aucune discontinuité : pas de fissures, absence de porosité, épaisseur suffisante ;
- — Durée de protection théoriquement illimitée, dans la mesure où les conditions précédentes sont réalisées et où le métal de revêtement est inattaquable dans les atmosphères où on l’utilise et ne subit pas de détériorations d’ordre mécanique consécutives à des chocs ou usures par frottement.
- Parmi les revêtements cathodiques les plus usités, citons : des dépôts électroniques de nickel, cuivre, chrome sur acier,
- c’est-à-dire toute la gamme des <c chromages décoratifs »; les dépôts électrolytiques de métaux nobles : argentures et dorures, les revêtements de plomb sur acier obtenus soit par immersion dans le plomb fondu, soit par métallisation au pistolet; les revêtements d’étain sur fer obtenus, soit par immersion dans l’étain fondu, soit par dépôt électrolytique, quoique dans certaines conditions et notamment en présence d’acides organiques ces revêtements puissent présenter des caractères anodiques.
- Influence de Vépaisseur et de la nature des revê= tements métalliques sur leur résistance à la cor= rosion. — Une notion fondamentale, hors de laquelle toute estimation de la qualité d’un revêtement métallique est illusoire, est celle de l’épaisseur du revêtement. L’oubli fréquent de ce principe élémentaire fausse complètement la compréhension de la qualité des revêtements métalliques dans leurs emplois. Un dépôt électrolytique de nickel sur fer de 2 p. d’épaisseur aura même aspect qu’un dépôt de 20 jx d’épaisseur ; mais il n’existera aucune commune mesure entre l’emploi des deux dépôts : dans les mêmes conditions d’utilisation, le premier pourra n’être au bout de quelques mois qu’un semis de rouille, tandis que le second conservera son bel aspect initial des années durant.
- Précisons cette influence de l’épaisseur en distinguant à nouveau les deux cas de revêtements anodiques et cathodiques.
- Pour les revêtements anodiques, nous avons vu que la corrosion se manifeste initialement au détriment du métal de revêtement et sans altération du métal de base. D’une part, s’il y a discontinuité dans le revêtement, les sels du métal protecteur formés obstruent fissure ou porosité. D’autre part,
- p.365 - vue 369/527
-
-
-
- 366
- le métal protecteur s’oxyde superficiellement, et c’est dans la mesure où les produits formés, sels ou oxydes,'sont éliminés par les intempéries que le revêtement se détériore. Autrement dit, la corrosion se manifeste par une usure progressive du métal protecteur. On conçoit aisément que dans des conditions constantes de corrosion atmosphérique ou dans des conditions qui se reproduisent périodiquement, ce qui est le cas des variations cycliques annuelles des divers climats, le revêtement ano-dique devra présenter une usure proportionnelle au temps. C’est effectivement ce qui a été constaté en général dans les divers essais précis effectués sur revêtements anodiques exposés pendant des années dans des climats variés. Ceci revient à admettre que la protection par revêtement anodique est approximativement proportionnelle à l’épaisseur du revêtement.
- Un caractère particulier à noter dans le cas des revêtements anodiques est l’exti’ême lenteur avec laquelle le métal de base se détériore, même lorsque le métal protecteur a déjà disparu en plusieurs endroits. Un exemple "classique est la longévité étonnante des tôles galvanisées, même lorsqu’elles sont entachées de rouille. Envisageons le cas d’une vieille tôle galvanisée (fig. 2) où le dépôt de zinc n’ayant plus grande épaisseur, le fer est progressivement mis à nu. D’après le mécanisme de destruction anodique précédemment décrit, la détérioration du fer sera très lente, car le zinc demeurera seul attaqué chaque fois qu’il sera associé à une surface cathodique en fer.
- Auto-protection
- Humidité
- Risque de rouille
- Humidité
- Humidité
- Fig. 2. — Schéma de l’extension lente de la rovdlle sur une vieille surface galvanisée.
- 9 100
- 0 S 10 15 20 25 30 35 ¥0 ¥5 50
- Épaisseur ( microns )
- Fig. 3. — Résultats d’essais de porosité (Wesley) sur dépôts électrolytiques de nickel, montrant l’importance de l’épaisseur dans la protection contre la corrosion.
- Les points figuratifs de l’essai sont distribués dans la partie hachurée.
- Considérons maintenant les revêtements cathodiques. La corrosion s’effectuant dans ce cas au détriment du métal de base, il est impératif que celui-ci ne soit jamais mis en contact avec le milieu extérieur. D’où la nécessité que le métal de revêtement ait une épaisseur suffisante, compte tenu de la nature plus ou moins poreuse ou fissurée du dépôt. Une expérience situe objectivement l’ordre de grandeur de cette importance : il s’agit simplement d’essais de porosité effectués sur des dépôts électrolytiques de nickel d’épaisseurs allant de 2 à 5o p. (fig. 3). -Le coefficient de porosité (nombre de pores par décimètre carré) peut être considéré comme représentatif de la valeur de protection contre la corrosion. Or on constate, par exemple, qu’on peut observer 200 porosités par décimètre carré sur un dépôt de i5 p. d’épaisseur et 25/dm2 seulement sur un dépôt de 3o u. d’épaisseur. On arrive presque à cette notion de multiplier par 10 la protection en doublant l’épaisseur. On conçoit en examinant le graphique pourquoi nous disions précédemment que, dans la pratique, il n’y aura aucune commune mesure dans les différences de comportement de deux revêtements de nickel de 2 et 20 p. d’épaisseur malgré un aspect initial identique.
- Au sujet de l’influence de l’épaisseur du dépôt électroiytique de nickel, il y a lieu de signaler que c’est le facteur prépondérant de la qualité des nombreux revêtements connus sous le nom de « chromages décoratifs ». En effet, dans le chromage décoratif, le dépôt de chrome est limité à une mince couche dont l’épaisseur universellement adoptée est de 0,2 ou o,5 p.. Cette mince couche est déposée sur dépôt éleclrolytique de nickel qui, lui, assure la protection contre la corrosion de l’acier ou autre métal de base, avec des épaisseurs allant de 5 à 4o p.. Le mince dépôt de chrome a uniquement pour rôle de conserver le brillant initial du dépôt électrolytique de nickel et d’éviter son ternissement. Une augmentation de l’épaisseur du dépôt de chrome dans la gamme de quelques microns n’améliorerait pas la tenue à la corrosion de l’ensemble pour des raisons de structure fissurée et de tensions. Par contre, lorsque le dépôt de chrome est déposé directement sur l’acier en fortes épaisseurs, supérieures à 3o p., ce qui est le cas du chromage dur, la protection contre la corrosion atmosphérique est largement assurée.
- Principaux types de revêtements métalliques. —
- L’influence fondamentale de l’épaisseur des revêtements métalliques sur la qualité de leur protection contre la corrosion fait qu’un revêtement métallique n’est concevable que si son épaisseur est spécifiée. Aussi, dans tous les pays industriels, a-t-on défini, dans des normes ou spécifications pour chaque type de revêtement, une gamme d’épaisseurs qui permet de jalonner des qualités nettement différentes. Examinant les principaux types de revêtements métalliques, nous indiquerons donc les diverses classes ainsi définies d’après l’épaisseur dans les Normes françaises.
- Dépôts électrolytiques. — La surface à protéger est placée en cathode dans l’électrolyse d’une solution qui comprend un sel du métal protecteur. Les dépôts électrolytiques les plus utilisés sont ceux de nickel, cuivre, chrome, zinc, cadmium, étain, plomb, argent, or. On dépose également par électrolyse des alliages : alliages cuivre-zinc (laiton), cuivre-étain (spéculum), étain-nickel, étain-zinc, etc. Si on ne cherche pas uniquement la protection contre la corrosion, on peut déposer de très fortes épaisseurs de certains métaux pour profiter de leurs qualités propres. Les dépôts électrolytiques de « chrome dur » et de « nickel épais » sont ainsi utilisés pour des fins mécaniques. 1
- Pour les principaux dépôts électrolytiques, les types suivants ont été normalisés :
- — Dépôts électrolytiques de nickel-chrome et cuivre-nickel-chrome (Norme NF A 91-101);
- p.366 - vue 370/527
-
-
-
- 367
- — Nickel NL (épaisseur de l’ordre du micron); N2, N5, Nio, N20, N3o, N4o (le nombre du symbole indique l’épaisseur en microns) ;
- — Nickel-cuivre NC10, NC20, NC3o (le nombre du symbole indique l’épaisseur totale en microns, l’épaisseur du nickel devant être au moins égale respectivement à 5, 10, i5 p.) ;
- — Chrome Cri, Cr2, Cr3, Cr5, Crio (le nombre du symbole indique l’épaisseur en dixièmes de micron);
- — Dépôts électrolytiques de zinc et de cadmium (Norme NF A 91-102) ;
- — Zinc Z2, Z4, Z10, Zi5, Z20, Z4o;
- — Cadmium Cd2, Cd4, Cdio, Cdi5 (le nombre du symbole indique l’épaisseur en microns).
- Métallisation au pistolet. — La surface à protéger est recouverte par projection au pistolet du métal protecteur fondu. Le métal protecteur est utilisé dans le pistolet sous forme de fil ou plus rarement de poudre. Le pistolet métalli-seur est la combinaison d’un chalumeau oxyacétylénique ou oxy-propane et d’un pulvérisateur à air. Tous les métaux et alliages tréfilables peuvent ainsi être projetés.
- Les types suivants de revêtements ont été normalisés (PN A 91-201) :
- — Pour le zinc : ZP4o, ZP80, ZP120;
- — Pour l’aluminium : AP120, AP200;
- —• Pour le plomb : PP3oo, PP5oo, PPi 000 (le nombre du symbole indique l’épaisseur en microns).
- Immersion dans les métaux fondus. — La surface à protéger est immergée dans un bain en fusion du métal protecteur. Les techniques les plus utilisées sont : la galvanisation à chaud (immersion dans un bain de zinc fondu) et l’étamage à chaud (immersion dans un bain d’étain fondu).
- Les revêtements de galvanisation à chaud sont normalisés d’après une définition par la masse de zinc déposée par unité de surface. On peut admettre pour le zinc la correspondance approximative suivante avec l’épaisseur : 1 g/dm2 correspond à une épaisseur de i4 p.. La norme NF A 91-121 définit la galvanisation à chaud avec ses diverses caractéristiques et c’est dans les normes ou projets de normes des produits
- Fig. 4. — Un exemple du rôle essentiel de l’épaisseur dans les revêtements cathodiques « nickel sur fer ».
- Enjoliveurs de roues d’automobile nickelés, montrant l’importance fondamentale de l’épaisseur du dépôt électrolytique. Ces deux enjoliveurs ont été soumis pendant la même durée de temps à un essai violent de corrosion accélérée (essai au brouillard salin). A gauche, l’enjoliveur ayant été revêtu d’un dépôt de qualité N 20 (20 tj. d’épaisseur) a remarquablement résisté, tandis qu’à droite, l’enjoliveur ayant reçu un revêtemenent de qualité N 5 (5 g d’épaisseur) est détérioré.
- Fig. 5. — Un exemple original et élégant d’emploi généralisé de revêtement anodique « zinc sur fer ».
- Maison métallique à trois étages Domofer dont les éléments constitutifs des murs et du toit sont des bandes d’acier galvanisé à chaud.
- galvanisés que l’on trouve la classification précise des revêlements suivant les épaisseui's de zinc adaptées à l’usage des divers produits galvanisés : Tôles galvanisées : NF A 36-320, Fils galvanisés : Pr A 9i-i3i, Tubes galvanisés : Pr A 91-141.
- Dépôts chimiques. — La surface à protéger est recouverte d’un mince dépôt d’un autre métal par immersion dans une solution d’un sel de ce dernier à la suite d’un phénomène de déplacement. Ces dépôts très minces assurent une protection limitée : cuivrage de l’acier par exemple. On peut obtenir des dépôts plus épais en faisant appel à des phénomènes de réduction : dépôts de nickel sur acier par réduction de sels de nickel par voie chimique.
- Métaux plaqués. — La surface à protéger est recouverte mécaniquement d’une feuille du métal protecteur, l’adhérence étant obtenue par laminage à chaud. Cette technique s’applique aussi bien aux petites surfaces (placage mince de cuivre et alliages de cuivre sur acier) qu’aux très grandes surfaces (placage de feuilles épaisses de nickel ou d’acier inoxydable sur acier).
- Oxydation anodique de l'aluminium. — Quoique ce procédé ne soit pas à proprement parler un revêtement métallique mais un traitement de surface, rappelons qu’il consiste en un renforcement de la couche protectrice d’alumine qui se forme sur l’aluminium et ses alliages.
- Contrôle de la qualité des protections par revête* ments métalliques. — Une question souvent posée et qui est assez mal connue des utilisateurs des objets et produits protégés contre la corrosion par les revêtements métalliques est celle du contrôle de la qualité des protections. Une solution
- p.367 - vue 371/527
-
-
-
- 368
- paresseuse et quelque peu répandue dans le public est de dire que tout contrôle de ce genre est impossible ou tout au moins impraticable en production industrielle sinon en laboratoire. Ce point de vue est faux et les exemples ne sont pas rares de pièces protégées par revêtements métalliques produits industriellement, dont pratiquement on rencontre deux qualités distinctes : l’une excellente où il s’agit d’une production où la qualité du revêtement a été contrôlée, l’autre médiocre ou très inconstante où la protection a été effectuée sans aucun souci de la définition exacte du revêtement et de son contrôle.
- Or, en général, c’est par une opération fort simple et peu onéreuse qu’on peut garantir une protection de haute qualité par les revêtements métalliques. Ayant choisi le type de revêtement qui convient en ayant soin d’en fixer l’épaisseur, il suffit bien souvent d’un simple contrôle d’épaisseur, judicieusement prévu, pour assurer toute une production industrielle de haute qualité. On dispose, en France, d’un arsenal fort nuancé de méthodes qui permettent, à de rares exceptions près, de mesurer dans d’excellentes conditions les épaisseurs des revêtements métalliques. Les divers procédés possibles sont les suivants :
- — Mesure directe des cotes ou des poids avant et après revêtement : procédé précis et utilisable uniquement en fabrication ;
- — Mesure par différence de poids entre pièce revêtue et pièce après dissolution chimique du revêtement;
- — Mesure par dissolution chimique du revêtement et dosage du métal de revêtement dans la solution obtenue;
- — Mesure par dissolution chimique avec mesure du temps de dissolution (essais à la goutte ou au jet) ;
- — Mesure par coupe micrographique;
- — Mesures magnétiques présentant l’immense avantage d'être non destructives et rapides.
- Tableau II. — Instruments dentaires et chirurgicaux (Extrait de la Spécification fédérale américaine GG-I-526 a).
- Métal à protéger Nature des dépôts électrolytiques Epaisseur du revêtement (en microns)
- Cuivre Nickel (minimum) 19
- Acier au carbone Nickel (minimum) 10
- Chrome (minimum 1 0,2
- Cuivre et alliages Nickel (minimum) Chrome (minimum) 8 0,2
- Un choix a été effectué parmi ces diverses méthodes poulies introduire dans les Normes françaises. On a distingué deux types de méthodes de contrôle : méthodes rapides, facilement utilisables en atelier et permettant de contrôler en réception la valeur globale des fournitures, et méthodes de référence, plus précises, utilisables seulement en laboratoire et faisant foi en cas de contestation.
- La répartition des méthodes rapides dans les Normes françaises s’établit ainsi :
- — Dépôts électrolytiques : essais à la goutte avec mesure du temps de dissolution du revêtement. Les méthodes magnétiques quoique non introduites encore dans les normes de dépôts électrolytiques peuvent être avantageusement utilisées dans de nombreux cas ;
- — Métallisation au pistolet : méthodes magnétiques conformément à des prescriptions rigoureuses d’interprétation des mesures, dont notamment l’obligation d’effectuer la moyenne
- arithmétique de io lectures ponctuelles;
- — Galvanisation à chaud : différence de poids entre surface revêtue et surface après dissolution chimique du revêtement. L’emploi des méthodes magnétiques n’est pas prévu dans les normes, car, dans ce cas, il est peu précis, la présence des alliages fer-zinc faussant les mesures;
- — Oxydation anodique de l’aluminium et de ses alliages : mesure de la tension de claquage entre deux électrodes placées sur le revêtement.
- Pour les méthodes de référence, on a surtout cherché le maximum de précision en faisant appel, d’une part, aux méthodes de dissolution chimique avec dosage du métal de revêtement dissous, d’autre part, aux méthodes de coupe micrographique.
- L’épaisseur du revêtement métallique étant la qualité fondamentale, le contrôle de celle-ci est en général suffisant pour assurer une production qui donne entière satisfaction en matière de protection contre la corrosion. On peut également dans certains cas effectuer des contrôles de continuité du revêtement en vue de déceler des porosités ou fissures, ou d’une manière plus générale l’homogénéité du revêtement. Des réactifs appropriés ont été mis au point à cet effet : par exemple, essais coloriscopiques au ferri-ferrocyanure pour les revêtements de nickel et cuivre sur acier, essai au sulfate de cuivre pour les revêtements de zinc sur acier.
- Une notion souvent évoquée et mal inter-
- Tableau III. — Nickelage-ciiromage des accessoires d’automobile
- Les dépôts électrolytiques de nickel-cuivre-chrome doivent avoir une épaisseur suffisante pour pouvoir assurer la protection contre' la corrosion compatible avec leur structure. Le tableau suivant propose dans ces conditions un échelonnement quant aux qualités minima de ces dépôts, leur désignation étant conforme à la
- norme française NF A 91-121.
- Destination Dépôts électrolytiques recommandés suivant la nature du métal de base
- Fer Cuivre et alliages Zinc et alliages
- Pièces extérieures (Pare-chocs, enjoliveurs, calandres, poignées, etc.). Climat tropical (') N Z)o-j-Cr2 NC4o-j- Cra Nao-f-Gra NC4o+Cra
- Climat tempéré N 3o -j- Cra NC3o -f- Cra N 20 -f- Cr2 NCao-j- Cra Nio + Cra NC20 -f- Cra
- Pièces intérieures Climat tropical N 20-)-Cra NCao-j- Cra Nio-j-Cra NCao -f Cra
- Climat tempéré N lo-j-Cra NC10 -j- Cra Nio-|-Cr2 N 10 -f- Cra
- 1. Certaines conditions sévères d’utilisation peuvent amener à adopter ces qualités en climat tempéré : atmosphères marines agressives, chutes de neige fréquentes avec fusion de la neige par chlorure de sodium, etc.
- p.368 - vue 372/527
-
-
-
- 369
- Tableau IV. <— Utilisation des protections suivant la nature du métal pour les équipements et matériels aéronautiques (Extrait du cahier des charges de l'Union syndicale des Industries aéronautiques).
- Aciers et métaux ferreux. Zingage Cadmiage électrolytique Nickelage Nickelage chromage Oxydation anodique Argenture Etamage
- Electrolytique Projection
- Zi5 FIC ZP8o ZP120 Cdio FIC
- Aluminium et alliages. ZP8o ZPl 20 Cdio FIC Oxydation anodique renforcée
- Cuivre et alliages cuivreux à haute teneur de cuivre. Nio NioCr5 Agio Smo
- Zinc et alliages de zinc. NC3o NC3oCro
- prêtée est celle d’adhérence. L’adhérence du revêtement sur son métal de base ne peut pas se contrôler d’une manière non destructive. D’autre part, l’adhérence n’est pas une quantité physique -susceptible de varier d’une façon continue de la valeur o à la valeur acceptable pour l’application envisagée. Pour les applications industrielles, la notion d’adhérence se ramène à la question « tout ou rien ». Ou le revêtement est adhérent et l’adhérence a nécessairement la valeur qui convient, ou le revêtement n’est pas adhérent et les craquelures ou exfoliations sont immédiates au moindre effort mécanique ou à l’essai discret du quadrillage au burin de graveur normalisé. Par ailleurs, la destruction des revêtements par manque d’adhérence est souvent une notion fausse. Les revêtements sont en général soumis dès le début de leur emploi aux attaques de la corrosion. Or, souvent le décollement du revêtement proviendra, non pas d’un manque d’adhérence initial, mais de la naissance d’une corrosion détruisant le métal de base, à la suite d’une épaisseur trop faible ou de l’existence de porosité ou fissure. Épaisseur et porosité du revêtement pouvant être contrôlées ainsi que nous l’avons vu, il en résulte que, dans ces conditions, l’adhérence ne posera pas de problème.
- On peut donc ainsi d’une manière simple assurer des protections de haute qualité en contrôlant uniquement l’épaisseùr et l’homogénéité des revêtements. On peut effectuer également des contrôles plus compliqués par des essais de corrosion accélérée. Il en existe de types divers : essais d’humidité, essai au brouillard salin, cycles d’essais où alternent chaleur, froid, humidité, atmosphères sulfureuses ou autres, etc. Si de tels essais procurent une satisfaction pour l’esprit, car ils mettent en jeu des phénomènes réels de corrosion sur des revêtements qui doivent résister précisément à la corrosion, il n’en demeure pas moins qu’il faut être très prudent dans ces essais, à l’égard de l’extrapolation alléchante d’une durée de résistance dans la pratique. Les phénomènes de corrosion sont beaucoup trop complexes pour qu’on puisse codifier utilement des résultats généraux et il est sage de considérer de tels essais comme devant surtout servir à résoudre des cas d’espèce en matière de contrôle industriel, ce qui ne retire rien de leur grande utilité en matière de recherche.
- Recommandations d’emploi des revêtements métaU tiques en fonction de leurs conditions d’utilisation.
- — Nous avons vu successivement que l’étude des phénomènes de corrosion montrait l’importance de certains facteurs dont notamment l’épaisseur, pour définir la qualité des protections,
- que les principaux types de revêtements métalliques avaient été normalisés d’après leur épaisseur, et enfin qu’il existait des méthodes simples de contrôle de la qualité de ces divers types de revêtements. Il reste maintenant, grâce à ces données, à indiquer pour un emploi déterminé quel est le type de revêtement à utiliser. Ce genre de recommandation d’emploi donne en général lieu à des controverses et atteint rarement le stade d’une publication officielle, malgré les services incontestables qu’il rendrait pratiquement.
- Nous donnerons ici trois exemples :
- — Pour la protection des instruments dentaires et chirurgicaux, une épaisseur minimum de métal de revêtement est imposée, dans la spécification fédérale américaine GG-I-526 a (tableau II).
- — Pour les nickelages-chromages des accessoires d’automobile, il n’existe pas de spécification en France, mais si on se réfère à certains standards étrangers et à l’expérience, on peut proposer les échelonnements de qualité du tableau III.
- — Pour les équipements et matériels aéronautiques, l’Union syndicale des Industries aéronautiques a précisé, en fonction des métaux à protéger et des divers procédés, quel était exactement le revêtement à utiliser (tableau IV).
- Les notions précédemment exposées sont simples. Si elles sont connues, elles ne sont pas toujours respectées et ainsi s’en trouve faussé l’emploi rationnel des revêtements métalliques. Il ne faut pas oublier que domestiquer les métaux et vouloir profiter d’une manière durable de leurs qualités y compris leur bel éclat en pleine corrosion atmosphérique, c’est agir contre la nature et ses lois de transformation des éléments. Aussi faut-il s’attendre en contrepartie à devoir respecter certains impératifs pour avoir la garantie d’une haute qualité.
- P. Morisset,
- Ancien élève de l’École Polytechnique, Directeur du Centre d’information du Chrome Dur.
- Le plus long câble sous-marin
- Les États-Unis procèdent actuellement aux travaux de pose du plus long câble sous-marin du monde ; il reliera leur côte occidentale aux Iles Hawaii et aura 3 860 km de longueur. Le plus long câble actuellement en service est celui qui relie Terre-Neuve à l’Écosse et qui mesure 3 130 km.
- p.369 - vue 373/527
-
-
-
- 370
- La situation pétrolière française en 1958
- Grâce à une série de découvertes importantes, dans le Sud-Ouest de la Métropole et au Sahara, la France est en train de prendre rang parmi les nations productrices de pétrole et de gaz naturel. Les études parues dans La Nature, sur le gaz de Lacq (avril 1957, p. 121) et sur le Sahara (septembre 1907, p. 3G4) faisaient état surtout des promesses que recèlent ces deux secteurs. La situation a largement évolué depuis lors et si l’on n’a pas encore assisté à une montée en flèche des chiffres de production, on peut déjà affirmer que ces promesses sont nettement confirmées.
- C’est ce qui ressort de la rapide revue des principaux gisements, passée à la date du ier mai 1958, en y joignant celui de Parentis, exploité par la Société Esso-Rep et sur lequel nous nous étendrons davantage, n’ayant pas encore eu l’occasion de le décrire.
- Au préalable, les quelques indications statistiques ci-dessous dégageront l’état de la recherche et de l’exploitation pétrolières en France, dans les territoires d’outre-mer et dans les pays associés (Maroc et Tunisie).
- Le nombre de mètres forés, tant pour l’exploration que pour l’exploitation est en nette progression, sauf en ce qui concerne l’Afrique du Nord. Pendant les derniers 12 mois (mai 1957 à avril 1958) le total des mètres forés dans la Métropole a atteint le chiffre de 267 i55, contre i84g46 dans les 12 mois précédents (mai 1956 à avril 1957). L’accroissement a été de 38,7 p. 100. Les chiffres les plus importants concernent le secteur de Lacq (79 980 m), celui de Parentis et des Landes (4o 619 m), celui de l’Alsace (35 737 m). A signaler cependant l’effort assez remarquable réalisé dans le bassin parisien par la Société Petro-rep (19 56o m), avec d’ailleurs un résultat appréciable, enregistré au début de l’année, au puits Coulom 1, entre Château-Thierry et Melun où de l’huile a été recueillie.
- En Afrique du Nord, le nombre de mètres forés s’est élevé à 34 882, contre 09 437 pour la période précédente. Au Sahara, progression spectaculaire, avec 156 621 m contre 79 072, de même d’ailleurs qu’en Afrique noire (i43 616 m contre 77 577) où le secteur le plus actif a été celui du Gabon.
- La production d’huile a peu augmenté dans la Métropole, un léger progrès de Parentis étant compensé par un recul de Lacq supérieur : le total des 12 mois a été de 1 38i 909 l (contre x 365 322 t pour la période précédente). Recul appréciable en Afrique du Nord, mais entrée en scène, au début de l’année, de l’huile débitée par les puits sahariens, avec un tonnage de 82 201 t. L’Afrique noire a fourni 278 680 t.
- L’événement le plus marquant de la production a été la mise en route de Lacq inférieur qui a déjà fourni 335 607 000 m3 de gaz. Du même coup la production totale de gaz de la Métropole a doublé, passant de 081 2o3 000 à 688 102 000 m3.
- En résumé celte dernière période de 1957-1958, marquée par le démarrage de Lacq et du Sahara, n’a pas été d’une durée suffisante pour faire apparaître une hausse spectaculaire de la production. L’étude des principaux gisements fera mieux comprendre les progiùs accomplis.
- Parentis. — C’est le 21 mars 1953 que le pétrole a été rencontré pour la première fois aux envii'ons de Parentis-en-Born. La profondeur atteinte était 2 225 m. Le forage fut poursuivi jusqu’à près de 2 4oo m.
- Le gisement (calcaires dolomitiques imprégnés d’huile) était situé stratigraphiquement sous le Néocomien, étage du crétacé inférieur qui constitue également le toit du gisement de Lacq. Les forages ultérieurs démontrèrent que le réservoir de pétrole se prolongeait vers l’ouest, c’est-à-dire au-delà de l’étang de Parentis. Ce hasard géographique a obligé la société exploitante Esso-Rep à mettre en œuvre les techniques spéciales qui ont
- Fig'. 1. — Creusement de la fosse qui recevra le pipe-line de Parentis au Bec d’Ambez où une nouvelle raffinerie est en cours d’équipement.
- Une excavatrice est en action. Une section de tubes, déjà assemblés, est prête à être posée dans la fosse (Photo Esso).
- cours lorsqu’un gisement est directement situé sous une nappe d’eau. Un tiers environ des puits actuellement en exploitation (le total des forages est de 34) a été installé sur des plates-formes lacustres. Les profondeurs de l’étang étant d’ailleurs faibles, ces plates-formes ont été fondées sur des pilotis battus à travers les sables du fond. Pendant la période du forage, elles ont dû supporter le poids du derrick et de ses moteurs. Toutes les installations annexes étaient par contre groupées sur un ponton qui fut amarré successivement auprès de chacun des chantiers.
- Le forage une fois terminé, tout le matériel est transporté vers la plate-forme suivante. Il 11e reste plus que la tête d’éruption et les vannes du puits, lequel est relié à la terre ferme par un mince pipe-line qui est raccordé à un pipe-line commun où le pétrole est dirigé vers le parc de stockage, voisin de Parentis.
- Outre le forage vertical à partir des plates-formes, Esso-Rep a utilisé pour quelques-uns de ses puits le forage oblique qui pei'met d’installer le derrick sur la rive, le puits étant incliné grâce au système du sifflet déviateur.
- Le gisement, actuellement en pleine exploitation, ne réserve sans doute aucune surprise. La pression initiale de 225 kg/cm2 n’a que peu baissé. La qualité du pétrole est très satisfaisante : il a été classé, après analyse, parmi les huiles mixtes, entre les paraffiniques et les aromatiques. Il contient une certaine proportion de gaz nalui’el qui, après séparation, est utilisé par les industries locales de la région de Parentis. La production Esso-Rep des 12 mois (mai 1957 à avril 1958) a atteint 1 2o3 244 t, en augmentation de 4,3 pour xoo sur la période pi’écédente. Cette production devrait se maintenir approximativement au même niveau pendant un certain nombre d’années. La réserve, évaluée à environ 3o 000 000 t, sera sans doute épuisée vers 1980. Il n’est pas impossible toutefois que l’exploitation de Parentis puisse se prolonger au-delà de cette date, car deux forages poussés jusqu’à des niveaux de 3 5oo à 3 700 m ont donné lieu à des jaillissements de gaz humides. L’existence d’un gisement « Parentis inférieur » n’est donc pas exclue.
- p.370 - vue 374/527
-
-
-
- Fi;g 2. — Un des puits lacustres de Parentis, en cours de forage.
- On remarque, à gauche de la plate-forme qui porte le derrick, le ponton destiné à rester amarré pendant la durée des travaux (Photo Esso).
- Ajoutons que dans les chiffres ci-dessus on doit inclure (pour environ 20 000 t) l’huile débitée par deux autres gisements landais de moindre importance, découverts et exploités par la Société Esso-Rep, ceux de Lugos et de Mothes qui comprennent respectivement 6 et 2 puits productifs.
- La région des Landes continue à être activement prospectée, y compris d’ailleurs la plate-forme continentale qui borde la côte, entre l’Àdour et le bassin d’Arcachon. Lin pipe-line relie Parentis à la nouvelle raffinerie du Bec d’Ambez, installée par la Société Esso Standard.
- Lacq. — Le fait le plus important, concernant le gisement de Lacq inférieur, est le démarrage, en juin 1907, de l’installation de désulfuration et de dégazolinage qui a permis, après une longue attente, de commencer à la fois la distribution du gaz et la production de soufre. L’installation débite à un rythme voisin de celui qui avait été prévu pour la première tranche d’exploitation, c’est-à-dire G5o 000 m3 par jour. La mise en route de la deuxième tranche est toujours prévue pour la fin de cette année et l’on sait que plusieurs industries vont se greffer sur cette source d’énergie, parmi lesquelles l’électrolyse de l’aluminium. Nous aurons l’occasion de revenir sur ce sujet.
- Par contre, aucune donnée nouvelle de quelque importance ne peut être fournie sur le gisement lui-même. Pendant plusieurs mois, on a attendu les résultats du forage Sauvelade iox, qui devait indiquer si la structure s’étendait vers l’ouest. Malheureusement ce forage, pour des raisons techniques, n’a pu être poursuivi jusqu’au niveau où le gaz aurait pu être rencontré. J1 en résulte qu’à l’heure actuelle l’évaluation de la réserve n’a guère été modifiée : i5o milliards de mètres cubes au lieu de 12b milliards. L’extension possible du gisement n’est cependant
- pas exclue, non seulement vers l’ouest mais vers le nord : aux dernières informations, on guettait avec intérêt les renseignements que devait incessamment fournir le puits 116, parvenu déjà à 3 445 m de profondeur. Huit puits étaient en exploitation à la date du ier mai. Ce sont les puits 101, 102, io3, io4, io5, 106, ii3, 120 (voir La Nature, avril 1967, p. 123). Trois puits (107, xig, 122) étaient en cours d’équipement.
- On sait que la Société nationale des pétroles d’Aquitaine a étendu ses recherches à d’autres secteurs. Deux indications d’une certaine importance ont été enregistrées, l’une à Clermont où un puits, soumis à un test, a fourni de l’huile, l’autre à Audignon où du gaz a été recueilli.
- Sahara. — L’effort principal, au Sahara, a porté sur les gisements reconnus qui s’équipent à un rythme accéléré en vue de productions importantes. Une exception doit être faite en ce qui concerne les puits de la région d’In Salah qui, pour les raisons que nous avons exposées précédemment (réservoirs contenant exclusivement du gaz, distances excessives pour parvenir jusqu’à la côte), ont été laissés en sommeil. Trois secteurs aü contraire ont été particulièrement actifs, ceux d’Edjeleh, Ilassi Messaoud et Ilassi lUMel.
- Edjeleh. — Nous conservons cette dénomination, bien que le secteur comprenne à présent trois gisements distincts, groupés désormais sous le nom de Bassin Polignac.
- Edjeleh, le premier en date, est aussi celui qui a fait l’objet du plus grand nombre de forages : 29 puits en effet ont déjà été forés, dont 26 pi'oductifs. Les 3 puits négatifs ont permis de délimiter le gisement vers l’ouest. La réserve, jusqu’à nouvel ordre, est évaluée à 4o 000 000 t et l’on prévoit, pour i960, une px'oduction annuelle de 2 5oo 000 t.
- p.371 - vue 375/527
-
-
-
- 372
- Fig-, 3. — Pendant le forage d’un des puits d’Edjeleh.
- Groupe d’ouvriers européens et africains au travail autour de la table de rotation (Photo B.R.P.).
- Tig-uentourine, qui avait été signalé comme un prolongement possible d’Edjeleh et qui livrait d’ailleurs une huile analogue (c’est-à-dire très fluide), ne semble pas justifier tous les espoirs qu’on avait mis en lui. Les structures sont plus ou moins bouleversées et le gisement discontinu se présente plutôt sous forme de « lentilles » dont chacune est cependant d’une certaine importance. Sur 12 puits forés, 6 se sont révélés productifs. On ne peut ni évaluer le tonnage de la réserve ni anticiciper sur la production que l’on doit attendre de ce gisement.
- Les pronostics sont au contraire des plus favorables en ce qui concerne un gisement nouvellement découvert (en juin 1967) à Zarzaïtine. Un puits a fourni du gaz. Deux autres ont atteint, à 1 000 m de profondeur, une roche imprégnée d’huile, située à l’étage du dévonien. Les premiers essais ont révélé une productivité des puits voisine de i5o t par jour, très supérieure à celle des puits d’Edjeleh dont le débit probable oscille entre 26 et 75 t par jour. Les conclusions, pour ce gisement de Zarzaïtine, sont donc très optimistes : la réserve d’huile serait au moins équivalente à celle d’Edjeleh.
- Le point noir, au sujet du bassin Polignac, réside dans les obstacles d’ordre politique que rencontre l’évacuation du pétrole vers la côte. Trois tracés possibles avaient été envisagés dès ig56 pour le futur pipe-line, avec comme points d’aboutissement Tripoli, le golfe de Gabès ou la côte algérienne, après raccordement au pipe d’Hassi Messaoud. C’est le projet de Gabès qui avait prévalu et était près de se réaliser lorsque la tension diplomatique entre la France et la Tunisie est venue s’opposer à l’accord en voie de conclusion. Cet échec, déclarent les pétroliers, a eu un bon côté : le projet prévoyait un pipe-line de 16 pouces et s’il avait reçu un commencement d’exécution on aurait dû conserver cette section qui, depuis la découverte de Zarzaïtine, est considérée comme nettement insuffisante. Toujours est-il qu’on ne sait pas, à l’heure actuelle, comment le pétrole Polignac sera acheminé vers la Méditerranée, bien que les récentes négociations inclinent à nouveau vers la solution Gabès.
- Hassi Messaoud. — Ce gisement, le plus important découvert
- jusqu’ici au Sahara, confirme de jour en jour sa valeur. A partir des deux premiers puits MD 1 et OM 1, une série de nouveaux puits ont été forés, s’éloignant en direction des quatre points cardinaux : partout le gisement a été retrouvé à des profondeurs presque uniformes (3 5oo à 3 800 m) et, avec une constance remarquable, les puits ont fourni de l’huile. Leur débit varie entre i5o et 5oo t par jour. Le périmètre ainsi jalonné dépasse dès maintenant 100 km2 : outre les 9 puits terminés (MD 1,2, 3, 4, 5 et OM 1, 6, 7, 8), 3 puits en cours de forage (MD 6, 7 et OMN 17) ont pénétré dans la couche. Le travail se poursuit dans une euphorie d’autant plus grande que les nouveaux puits se sont révélés « meilleurs » que leurs aînés.
- On prévoit, pour i960, l’ouverture d’une première tranche d’exploitation au rythme de 4 000 000 t par an. A ce tonnage de l’huile s’ajoutera une très importante production de gaz, car chaque tonne extraite s’accompagne de la venue de 23o m3 de gaz. Et déjà cette richesse pose un problème, car un milliard annuel de mètres cubes de gaz naturel est une ressource énergétique qui excède, semble-t-il, les besoins prévisibles du territoire algérien.
- Un pipe-line provisoire, reliant Hassi Messaoud à Touggourt,
- Fig. 4. — A Hassi Messaoud : Le campement des ouvriers africains employés par la S. N. Repal (Photo B.R.P.).
- a permis, on le sait, d’évacuer un tonnage appréciable d’huile (voir plus haut les chiffres de la production saharienne, entièrement fournie par Hassi Messaoud). Il va être remplacé par un pipe-line définitif qui aboutira au port de Bougie, après un parcours de 700 km. Les tubes, pesant ensemble 70 000 t et représentant une valeur de 4o milliards de francs, sont déjà en place, prêts à être posés. Ce n’est qu’une partie des investissements considérables qui se poursuivent à Hassi Messaoud et sur la « route de l’huile », dans une conjoncture particulièrement difficile.
- Diverses informations ont été publiées au sujet de la réserve d’Hassi Messaoud : tenant compte de la surface reconnue par les géophysiciens (80 x 100 km environ), de la puissance de la couche (i3o m) et de sa porosité, on est parvenu à des chiffres extravagants, atteignant plusieurs milliards de tonnes. Ce faisant, on a simplement oublié un facteur essentiel qui est le coefficient de récupérabilité. Selon la nature des couches imprégnées, ce
- p.372 - vue 376/527
-
-
-
- 373
- Fig. 5 et 6. — A Tinguentourine. — A gauche : Un des ouvriers indigènes arrose le socle de la table de rotation. — A droite : Le crochet
- du levier destiné à la mise en place des tubes (Photos B.R.P.).
- coefficient varie de o à 5o pour ioo. A Hassi Messaoud, il est estimé par les ingénieurs à i5 pour ioo. Ceci signifie que si le ce cubage » du pétrole, selon les données ci-dessus, aboutissait à 6 milliards de tonnes, l’huile récupérable, c’est-à-dire la réserve réelle, resterait inférieure à un milliard de tonnes. Ce chiffre doit être considéré comme un maximum. Jusqu’à présent, les évaluations officielles ne dépassent pas 3oo millions de tonnes.
- Hassi R’Mel. — Ce gisement est certainement d’un volume important. Quatre puits ont été forés jusqu’à présent, parmi lesquels trois nettement productifs et un contestable. Ils ont fourni du gaz « humide », c’est-à-dire contenant une appréciable quantité de gazoline (200 g environ par mètre cube).
- La réserve ayant été évaluée à 100 milliards de mètres cubes, le gisement serait susceptible de fournir, au cours de son exploi-
- tation, 20 millions de tonnes de gazoline. Il serait d’autant plus désirable que cette exploitation puisse être entreprise, mais elle pose le difficile problème évoqué plus haut à propos du gaz d’Hassi Messaoud : comment et où distribuer ce gaz ? Selon toute vraisemblance, on devra tôt ou tard avoir recours à la liquéfaction à très basse température, afin de pouvoir transporter le gaz, sous forme de méthane liquide, vers la France et d’autres pays d’Europe.
- C’est "une des nombreuses possibilités du Sahara, terrain pétrolier encore vierge il y a cinq ans et dont l’équipement exige une grande variété de moyens et la mise en œuvre de techniques dont l’application est encore inusitée.
- Yves Métuel.
- L'observation des « nuages argentés »
- A l’occasion de l’Année géophysique internationale, M. N. Gri-chine, de l’Institut de Géophysique appliquée de Moscou, signale, dans la revue soviétique Priroda, les récentes observations de « nuages argentés ». Ces nuages sont les plus élevés que l’on connaisse actuellement. Leur altitude moyenne est de l’ordre de 82 km. Leur aspect est assez semblable à celui des cirrus. Ils se distinguent par leur couleur argentée à nuances multiples, par leur scintillement et par la pulsation, à période variable, de leur éclat. Les observations jusqu’à présent effectuées semblent prouver que les nuages argentés n’apparaissent qu’en été, et cela dans certaines régions seulement. Ainsi on n’a pu les apercevoir qu’à l’intérieur d’une ceinture comprise entre 5o° et 75° de latitude dans l’hémisphère Nord, et entre 4o° et 6o° environ dans l’hémisphère Sud. Dans l’hémisphère Nord, on les observe surtout au mois de juillet; voici, d’ailleurs, comment leurs observations semblent se répartir entre les différents mois de l'année : 7 pour 100 en avril, 19 pour 100 en juin, 5g pour 100 en juillet, 12 pour 100 en août et 3 pour 100 en septembre. Aucun nuage de ce type n’a jamais été aperçu
- en hiver, ni en dehors des ceintures ci-dessus indiquées. L’observation des nuages argentés n’a été faite, jusqu’à présent, que d’une façon plutôt sporadique; les conclusions qui semblent en découler ne peuvent donc être considérées comme définitives. La fréquence de leur apparition varie également d’une année à l’autre : ainsi, en U.R.S.S., on les a aperçus 10 fois en ig5o, 21 fois en 1 g51, 8 fois en 1952, 19 fois en 1953, 17 fois en 1954) 22 fois en ig55, 10 fois en 1956.
- Les nuages argentés ont une densité optique très faible. Ils ne peuvent êti'e aperçus qu’au crépuscule, quand le soleil se trouve déjà au-dessous de l’horizon : les couches plus basses et plus denses de l’atmosphère se trouvent alors à l’ombre, seules les couches supérieures et peu denses étant éclairées. L’étude méthodique et poussée de ces nuages pei'mettra certainement de connaître leur constitution et leur propagation; elle fournira également des renseignements précieux sur les perturbations qui se produisent dans les couches supérieures de la stratosphère, aux altitudes comprises entre 75 km et 90 km.
- C. M.
- p.373 - vue 377/527
-
-
-
- 374
- LE CIEL EN OCTOBRE 1958
- SOLEIL : du 1er octobre au 1er novembre (à 0h) sa déclinaison décroît de — 2°54' à — 14011' et son diamètre app. varie de 32'0",2 à 32'17",0 ; la durée du jour passe de 11 MO™ le 1er à 9h55™ le 31. — LUNE : Phases : D. Q. le 6 à lh20m, N. L. le 12, à 20h52m ; P. Q. le 19 à 14h7m, P. L. le 27 à loh41m ; périgée le 13 à 2h, diamètre app. 33'28" ; apogée le 27 à 0h, diamètre app. 29'2o". Principales conjonctions : avec Mars le 2 à 18h, à 1°46' S. ; avec Uranus le 8 à tfik, à 5°43' S. ; avec Vénus le 12 à 10h, à 2°34' S. ; avec Mercure le 13 à 6h, à 0°9' S. ; avec Neptune le 13 à 21h, à 0°39' S. ; avec Jupiter le 14 à 2h, à 0°26' N. ; avec Saturne le 17 à lh, à 3°28' N. ; avec Mars le 29 à 19h, à 2°43' S. Principales occultations : le 3, de ô Taureau (mag. 3,9) immersion à 3h10m,9 et émersion à 4Mlm,8 ; le 8, de A2 Cancer (mag. 5,7), émersion à 3M2m,7 ; le 21, de 47 Capricorne (mag. 6,2) immersion à 22h29m,0. — PLANETES : Mercure, noyé dans le rayonnement solaire est invisible ; Vénus, étoile du matin peu remarquable, se rapproche du Soleil ; Mars, dans le Taureau, magnifique astre rouge visible toute la nuit ; le 16, diamètre app: 17" et mag. — 1,5 ; Jupiter et Neptune se perdent dans les lueurs crépusculaires ; Saturne, dans Ophiuchus est étoile du soir, se couchant environ 3 heures après le coucher du Soleil ; Uranus, dans le Cancer se lève maintenant vers minuit ; le 16. josition : a = 9h14m et 5 = + 16°45'. — ETOILES VARIABLES : minima observables d’Algol (2m,2-3m,5) le 1er à O11,7, le 3 à 21k,6, ]e 6 à 18h,o, le 18 à 5h7, le 21 à 2*,5, le 23 à
- 23h,3, le 26 à 20h2, le 29 à 17k,0 ; minima de P Lyre (3m,4-4m,3) le 6 à 14h,l, le 19’ à 12h5 ; maxima de r, Aigle (3m7-4m,4) le 1er à 19k,2, le 8 à 23h,4, le 16 à 3k,6, le 23 à 7k,9, le 30 à 12k,1 ; maximum de R Bouvier (3“, 9-13“,l) le 3. — TEMPS SIDERAL : au méridien de Paris à 0h (T. U.) : le 1er : 0k-46ml3s, le 11 : P>25m39s, le 21 : 2k5mos, le 31 : 2h44™3is.
- Phénomènes intéressants. — Observer la surface tachée du Soleil. — Du 8 au 11, lumière cendrée de la Lune, le matin. — Le 12, éclipse totale de Soleil, invisible en France, maximum à 26^34“,8, grandeur : 1,030. — Le 27, éclipse de lune par la pénom-brb,.“en'partie visible en France, entrée de la Lune dans la pénombre àf'13kl8m,l, milieu de l’éclipse à loh27m,l, sortie de la Lune de la pénombre à 17h36m,0, grandeur : 0,783, à Paris la Lune se lève à 16h44m. — On remarquera l’excellente visibilité de Mars, qui rétrograde entre les Pléiades et Aldébaran. — Au début de la nuit, on peut encore observer les riches régions de la Voie lactée du Sagittaire au Cygne. — Étoiles filantes : le 9, Draconides, radiant \ Dragon ; du 16 au 22, Orianides (maximum le 19), radiant v Orion.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- La raréfaction des grands Cétacés
- Dans la revue soviétique Priroda de mars 1958, M. S. K. Kliinov a jeté un cri d’alarme en ce qui concerne l’avenir des cétacés et, en particulier, des baleines. La pèche de baleines, par les flottilles de baleiniers notamment, s’était poursuivie, durant des années, sur une échelle sans cesse croissante, ce qui eut pour résultat une diminution inquiétante du nombre de ces cétacés dans les divers océans. On sait, en effet, que la multiplication des baleines s’effectue suivant un rythme très lent, à raison d’un individu tous les deux ans par femelle. lus naissances sont donc loin de compenser leur destruction massive. D’autre part, les baleines vivent et se déplacent par groupes isolés ; chaque groupe suit invariablement le môme trajet lors des migrations saisonnières, ce qui fait que deux groupes ne peuvent jamais se mélanger et se compléter. Ce sont les baleines bleues surtout qui semblent menacées d’upe totale disparition. Ainsi, si chaque baleinier capturait, en moyenne, 166 de ces cétacés en 1932-1933, ce chiffre est tombé à 58 en 1937-1938, à 12 en 1953-1954 et à 5,8 seulement en 1955-1956.
- La situation est à peine meilleure en ce qui concerne les autres cétacés, les cachalots par exemple, qui, eux aussi, sont, dans certaines régions, exterminés sans aucune discrimination. Aussi, M. Klimov préconise-t-il une réglementation beaucoup plus sévère de la pêche des cétacés. Dans le cas des cachalots, il recommande d’interdire la capture de femelles dont la longueur du corps est inférieure à 11 m. En effet, le cachalot femelle atteint la maturité vers la fin de la deuxième année de sa vie ou au début de la troisième, époque où son corps mesure de 8,5 à 10 m. Mais il continue de croître encore, et c’est à la longueur de 10 à 11 m que correspond le maximum de sa fécondité. Par contre, sa faculté de reproduction baisse sensiblement lorsque la taille de 11 m a été atteinte ou dépassée. C. M.
- Laines d'Afrique du Sud
- Laine de mérinos. — La laine de moutons mérinos est le principal produit, après l’or, de l’économie sud-africaine. Les 9/10 de la production annuelle (140 000 t sur 156 000) sont exportés, notamment vers la France, qui se place an second rang des acheteurs de laine : en 1956, 25 000 t, d’une valeur de 12 milliards de francs.
- Mohair. — Après la Turquie et les États-Unis, l’Afrique du Sud est le plus important producteur de mohair (poils de chèvres angoras) du monde. En 1956, la production a atteint 4 000 t ; la France a acheté pour près de 750 000 000 F de mohair à l’Afrique du S ud.
- Astrakan. — L’exportation de peaux d’astrakan (le Diamant Noir de l’Union sud-africaine) a atteint en 1956 le chiffre de 3 750 000 unités, valant 6 milliards de francs ; la France est l’un des principaux clients, accaparant près du quart des exportations. L’astrakan du Sud-Ouest africain est très demandé dans les milieux de la haute couture en Europe et en Amérique du Nord. Le Sud-Ouest africain, qui monopolise pratiquement l’élevage des moutons caraculs, en possède un troupeau de 4 millions de têtes, contre 30 000 seulement avant 1914. Chaque animal possède son signalement photographique reporté sur une fiche. Bien que l’astrakan soit généralement de couleur noire, il existe également de l’astrakan brun (Kambar) ou gris (Shiras) ; quelques peaux blanches sont aussi produites. On pratique couramment de nos jours la décoloration et la" teinture des peaux d’astrakan, selon les exigences de la mode.
- Plumes d’autruche. — Bien que cette rubrique soit un peu différente des précédentes, elle n’en concerne pas moins l’industrie de la mode. La production des plumes d’autruche, centralisée à Oudhoorn, près du Cap, donne 27 000 kg par an, provenant de 40 000 autruches. La peau d’autruche donne un cuir très souple.
- Les diamants de Sibérie
- La prospection des gîte-s diamantifères en U. R. S. S. a débuté en 1941 dans l’Oural. Elle s’est poursuivie au cours des dernières années sur le plateau sibérien, dans la région comprise entre le Iénisséi et la Léna, pour aboutir à la délimitation d’une vaste province diamantifère, définie géographiquement par un rectangle d’environ 400 km de long et 1,5 km de large, orienté sud-ouest-nord-est.
- Les placers et les fiions de kimberlite qui ont été découverts se situent dans une zone difficile d’accès, la taïga, où croissent les conifères et percée de loin en loin par de rares pistes. Les filons datent, semble-t-il, du Jurassique ou du Crétacé, mais sont inclus dans des argiles, des calcaires dolomitiques et des marnes du Cambrien et de l’Ordovicien. L’allure de ces filons dont la puissance varie entre 50 et 550 m est assez différente de celle connue en d’autres régions : cela est dû vraisemblablement aux conditions
- rigoureuses du climat, sous lequel le sol est gelé presque de manière permanente.
- La teneur moyenne, dans les filons, est d’un carat par mètre cube. Elle est très variable dans les placers dont les plus riches se trouvent parmi les alluvions de la rivière Vilni. Les pierres dépassent rarement la dimension de 0,5 carat, le maximum étant 32,5 carats. Elles sont en général incolores, bien qu’au sud on trouve une appréciable proportion de diamants jaune brun, fumés et verdâtres.
- La qualité n’est pas très élevée : un peu moins de 10 pour 100 des pierres conviennent >à la bijouterie. Le reste est destiné aux usages industriels. C’est d’ailleurs à cette fin que la prospection a été menée, l’U. R. S. S. étant-jusque-là mal approvisionnée en diamants industriels.
- G. C.
- p.374 - vue 378/527
-
-
-
- LES LIVRES NOUVEAUX
- 375
- Reports on Progress in Physics. Vol. XX
- (1957). 1 voi. 17,5 x 25,5, 568 p., fig. The Plivsical Society, Londres, 1957. Prix, relié : 63 sh.
- Cette publication annuelle d’une haute valeur scientifique comprend des mises au point sur les oscillations des plasmas dans les métaux, la théorie de l’hélium liquide, les protons de haute énergie, le comportement collectif d’un ensemble de particules interagissantes, les mésons K et les hypérons, les propriétés des solides vis-à-vis des ondes en hyperfréquences, la photographie ultra-rapide, la sensibilité photographique et l’explication théorique des propriétés de l’argon à l'état solide. Ces textes sont, comme à l’habitude, d’un niveau très élevé, mais ont le mérite de résumer et d’exposer d’une façon souvent brillante ces sujets qui ne font pas toujours l’objet de publications d'ensemble.
- Aide-Mémoire Dunod : Mécanique, Physique générale, par Maurice Df.nis-Papin. 1 vol. 10 x 15, 133 fig. Dunod, Paris, 1958. Prix, relié : 480 F.
- Cette 6e édition confirme le succès remporté par ce petit manuel dans lequel une classification ordonnée permet de retrouver exactement et très vile le renseignement recherché, dispensant le lecteur de compulser de nombreux ouvrages. Les légères erreurs matérielles qui existaient dans l’édition précédente ont été éliminées et différents additifs mettent la présente édition complètement à jour. Cet aide-mémoire qui comprend à la fois la Mécanique rationnelle et la Physique générale (à l’exception de l’Ëlectrotechnique qui, à cause de son importance et de l’étendue de ses applications, fait l’objet d’un aide-mémoire spécial) rendra un précieux service aux ingénieurs, aux physiciens et aux étudiants qui y trouveront une documentation pratique et complète.
- The éléments of classical thermodynamics, par A. B. Pippaud. 1 vol. 14 x 21,5 vm-165 p., 52 fig. Cambridge University Press, Londres, 1957. Prix, relié : 25 sli., broché : 15 sh.
- Ouvrage consacré aux bases théoriques de la thermodynamique dite classique, par opposition
- à la thermodynamique statistique. Il ne comporte aucun développement d’ordre expérimental. Après un exposé très clair des principes, quatre chapitres sont consacrés aux applications et c’est dans le choix des exemples que réside l'intérêt de ce livre : diagramme de l’hélium, superconductivité, ordre-désordre, etc. De nombreuses questions par contre ne sont pas abordées. Tl s’agit essentiellement d’une introduction à des traités de thermodynamique plus complets et à ce point de vue ce livre remplit très bien son rôle.
- La spectroscopie en radiofréquences, par un
- ensemble de spécialistes français. 1 vol. 16x24, 163 p., fig. Editions de la Revue cVOpti-(jue, Paris, 1957. Prix, broché : 1 600 F.
- Bien que la découverte des transitions alomi-ques et moléculaires dans le domaine radioélectrique ne dale que de 1934, les progrès accom-
- ----- A NOS LECTEURS ------------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-66
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- plis sur ce sujet ont été extrêmement rapides, grâce au développement des techniques radioélectriques. Les trois premiers chapitres de cet ouvrage, dus à trois grands spécialistes français, MM. Kastler, Grivet et Brossel, passent en revue les principales méthodes d’étude de la résonance paramagnétique, tandis que les deux suivants sont consacrés à l’effet La-mb dont l’importance théorique est considérable. Les cinq chapitres qui suivent sont consacrés à des études théoriques ou expérimentales sur des sujets reliés à la speclvographîe en radiofréquences. Ouvrage extrêmement intéressant, mais dont l'assimilation exige une forte culture scientifique.
- Microwave Measurements, par Edward
- L. Giivzton. 1 vol. 16 x 23,5, xvm-515 p.,
- fig. McGraw-Hill, Ixvndres et New York, 1957.
- Prix, relié : 93 sh.
- Les nombreuses recherches faites pendant la guerre sur le radar avaient permis d’établir un grand nombre de méthodes de mesures nouvelles. Ces recherches donnèrent lieu ensuite à un grand nombre de publications. Il fallait donc distiller toute cette matière pour en tirer la quintessence à l’usage des nouveaux venus dans ce domaine. Ceux-ci trouveront donc ici les fondements de toutes les mesures classiques en hyperfréquences, depuis la génération des signaux jusqu’à la mesure de leur fréquence, en passant par les mesures de puissance et d’impédance, tous les développements étant solidement appuyés sur un exposé théorique préliminaire.
- Servomécanismes. Théorie et technologie, par
- M. Bonamy. 1 vol. 18 x 25, 284 p., 352 fig.
- Masson et CIe, Paris, 1957. Prix, broché :
- 3 500 F ; cart. toile : 4 200 F.
- Dans une introduction et un premier chapitre, l’auteur définit et situe son sujet, puis en deux parties nettement distinctes sont donnés tous les éléments qui permettent la synthèse du sujet. La première partie : Théorie expose les différentes méthodes de calcul ; elle est du niveau de Mathématiques supérieures. La seconde partie : Technologie établit un bilan détaillé du matériel utilisé dans cette branche.
- MASSON ET O
- ÉDITEURS, PARIS
- Problèmes
- de
- Géologie sous-marine
- LE PRÊCONTINENT - LE LITTORAL ET SA PROTECTION LA STRATIGRAPHIE SOUS-MARINE
- par
- Jacques BOURCART
- On sait l’essor prodigieux que connaissent depuis 1940 les sciences de la mer. L’auteur évoque quelques-uns des problèmes géologiques que ces recherches océanographiques récentes ont soulevés. À la lumière de son expérience personnelle, il montre la direction de certaines solutions et l’intérêt passionnant des questions encore en suspens.
- Collection Évolution Des Sciences n° 12
- Un volume de 128 pages avec 20 figures.......................................................... 980 F
- p.375 - vue 379/527
-
-
-
- 376
- Les hyperfréquences, par Roger RigaL. 3e édition. 1 vol. 16 x 24,5, x-255 p., fig. Eyrol-les, Paris, 1957. Prix : 2 000 F.
- Réédition attendue d'un ouvrage très intéressant. Son regretté auteur avait présenté avec beaucoup de talent ce domaine particulier de la vaste gamme des ondes électromagnétiques qui a donné lieu, ces dernières années, à des réalisations tout à fait spectaculaires.
- Chimie minérale, par Louis IIackspill, Jean Besson et Albert Herold. Tome I : Généralités. Gaz rares. Hydrogène. Halogènes. Familles de l’oxygène, de l’azote et du carbone. 1 vol. 13,5 x 18,5, xïi-884 p., 136 fig.
- Tome II : Famille du bore. Métaux alcalino-terreux et alcalins. Éléments de transition 1 vol, 13,5 x 18,5, 816 p., 97 fig. (Collection « Euclide »). Presses Universitaires de France, Paris, 1958. Prix, chaque volume : 3 600 F + t. 1.
- Quoi qu’en pensent certains qui opposent volontiers le développement rapide de la chimie organique à une lente évolution de la chimie minérale, cette dernière connaît des changements importants et il est heureux de temps à autre qu’un ouvrage fasse le point. Dans cet ouvrage, destiné aux candidats à la licence et à l’agrégation ainsi qu’aux élèves des Écoles nationales supérieures de Chimie, les auteurs ont su se dégager des limites trop strictes des programmes en ne craignant pas d’aborder diverses questions qui, du fait de leur actualité ou de leurs applications éventuelles, suscitent de l’intérêt. Il suppose bien entendu certaines connaissances de chimie générale et de chimie-physique, correspondant en fait aux mathématiques spéciales ou à l'année de propédeutique M.P.C. Certaines de ces notions, concernant notamment la valence et les liaisons, sont partout rappelées fort clairement dans les généralités, avant d’aborder l’examen des divers éléments, classés par familles.
- Le lür volume, qui commence par étudier l’air, l'oxygène et les gaz rares, l'eau et l’hy-
- drogène, l’ozone et l’eau oxygénée, est plus spécialement consacré aux familles des halogènes, de l’oxygène, de l’azote et du carbone, à leurs préparations de laboratoire, leurs propriétés et les principes de leurs préparations industrielles.
- Le 2e volume étudie la famille du bore, les alcalino-terreux et alcalins, les éléments de transition.
- Géologie du granité, par E. Raguin. 1 vol. 17 x 25, 276 p., 51 fig. Masson, Paris, 1957. Prix : 2 400 F.
- Le granité demeure l'un des grands mystères géologiques. Il a été jusqu'à ce jour impossible de reconstituer les conditions chimiques qui ont existé lors de sa formation. Celle-ci a été l'objet de discussions passionnées. La lro édition du présent ouvrage, parue en 1946, a été rapidement épuisée. Cette 2® édition a été repensée et développée en fonctions des idées actuelles et, en grande partie, écrite de nouveau. Les questions remaniées sont surtout les suivantes : constitution du granité, ses gisements ; l’assimilation par le granité et son auréole ; les satellites fdoviens du granité ; le métamorphisme granitique. Le plan général de l’ouvrage a été conservé, de façon à lui garder à la fois le caractère d’un traité d’initiation au granité, utilisable par les jeunes géologues, et, avec ses 292 références bibliographiques, celui d’un ouvrage de travail destiné à des spécialistes.
- « Mon Univers » : Les plantes. Texte de Marguerite Fleury. Dessins de Pierre Comte. 1 vol. 17,5x25,5, 30 p., illustré en couleurs. Armand Colin, Paris, 1957 Prix : 240 F.
- « Mon Univers » : 70 siècles d'inventions.
- Texte de Frédéric Petit, Dessins d’Henri Mercier. 1 vol. 17,5x25,5, 28 p., illustré en couleurs. Armand Colin, Paris, 1957. Prix : 240 F.
- « Mon Univers » : Bateaux pour l'aven-
- ture. Texte de Nathalie Delage. Dessins
- d’Henri Mercier. 1 yoI. 17,5x25,5, 30 p., illustré en couleurs. Armand Colin, Paris, 1957. Prix : 240 F.
- Trois jolis albums de la collection Mon Univers. Le premier présente l’histoire du Thé, du Bleuet, de l’Herbe aux Goutteux (ombellifôre ici mal définie), du Rosier, de deux graminées, du Nénuphar, du Roseau, du Lotus rose, des Tamaris, de la Garance, de l’Hévéa, du Cotonnier, de la Vigne. Le second évoque le feu, la domestication des animaux, l’attelage, la culture des plantes, la céramique, la vannerie et le tissage, la navigation, la métallurgie, la roue, les moulins, l’écriture et l’imprimerie, les moteurs. Le troisième est une petite histoire de la navigation ancienne.
- ERRATUM
- Dans notre 2e article sur la télévision en couleurs (juin 1958), la note au bas de la lre colonne de la page 211 comporte une erreur. Les formules données dans cette note indiquent bien que les symboles w et a y représentent non pas une fréquence, mais une pulsation, terme qui désigne une fréquence mulLipliée par 2 tz (radians par seconde). Nous nous excusons de ce lapsus auprès de nos lecteurs.
- PETITES ANNONCES
- (190 F la ligne, taxes comprises. Supplément de 100 F pour domiciliation aux bureaux de la revue).
- A CÉDER : anciennes flores et livres de Botanique. Écrire au Dr HANNS, 5, quai Koch, Strasbourg (Bas-Rhin).
- VIENT DE PARAITRE
- A LA
- PHYSIQUE DE L’ETAT SOUDE
- PAR C. KITTEL
- Professeur de physique à l’Université de Californie, Berkeley
- TRADUIT DE L'AMÉRICAIN PAR
- F.-L. HUGUENIN
- Ingénieur E. S. E.
- Ingénieur-Docteur
- R. PAPOULAR
- Ingénieur E. S, E. Docteur es sciences
- Cet ouvrage aborde, sans les épuiser, des domaines essentiels et divers de la théorie des solides : structure cristalline, élasticité et diverses propriétés thermiques, électriques et magnétiques. Il s'adresse esseritiellement aux étudiants, aux jeunes chercheurs et -aux ingénieurs (surtout les technologues), aussi bien qu'aux scientifiques d'un nioeau supérieur mais qui n'ont pu se tenir au courant de tous les développements de la physique du solide.
- xvi-596 pages 16 x 25, avec 220 figures. Relié toile sous jaquette
- 6 800 F
- En vente dans toutes les bonnes librairies et chez
- 92, rue Bonaparte, Paris-6e Éditeur, C.C.P. Paris 75-45
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 3e trimestre 1958, n° 3i56. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 38o3. — 9"J953.
- p.376 - vue 380/527
-
-
-
- N° 3282
- Octobre 1958
- LA NATURE
- LES RÉACTEURS HOMOGÈNES
- i. Généralités. — Réacteurs homogènes de recherche
- Pour construire un réacteur nucléaire, il faut assembler une masse suffisante de matière fissile (U 235, U 233 ou Pu 239) pour que puisse avoir lieu une réaction en chaîne -autoentretenue. Selon que les neutrons produisant les fissions des atomes fissiles seront à grande vitesse (d’énergie cinétique voisine de celle avec laquelle ils sont émis, soit de l’ordre de 2 à 10 MeV) ou à faible vitesse, cette faible vitesse étant obtenue comme on sait par chocs successifs sur des atomes légers de ralentisseur, le réacteur sera dit à neutrons rapides ou à neutrons thermiques ; il existe la possibilité de recourir à des neutrons en cours de ralentissement, dits neutrons intermédiaires, mais leur emploi, qui fut réalisé dans le S.I.R. ou Submarine lntermediate Reactor du deuxième sous-marin atomique américain, le Seawolf, ne semble pas avoir conduit à un type de réacteur intéressant.
- En plus de cette distinction fondamentale entre réacteurs à neutrons rapides et réacteurs à neutrons thermiques, il en est une autre tout aussi importante, basée sur le mode de répartition du combustible nucléaire dans le cœur du réacteur. En effet, le combustible peut être réparti sous forme de barreaux métalliques gainés ou protégés par un revêtement métallique, disposés en réseau dans le cœur, le réacteur étant alors dit hétérogène; ou, au contraire, le combustible peut être dissous, dispersé dans un solvant ou un fluide porteur, réparti uniformément dans ce fluide, le réacteur prenant alors le nom d’homogène.
- Nous appellerons donc réacteurs homogènes tous les réacteurs nucléaires qui fonctionnent avec un combustible fissile à l’état fluide. Initialement, les réacteurs homogènes étaient ceux pour lesquels combustible et modérateur étaient intimement mélangés, surtout vis-à-vis des neutrons évoluant dans le réacteur; historiquement, le premier réacteur, construit à Chicago en 19/(2 par Fermi, fut hétérogène parce que l’emploi de l’uranium naturel dans le graphite exigeait une certaine séparation de l’uranium et du graphite pour que pût avoir lieu la réaction en chaîne: le recours à des combustibles enrichis a permis ensuite d’envisager les deux types. Et de même que pendant le développement industriel de l’énergie atomique le physicien s’est, souvent effacé devant l’ingénieur ou le technologue, de même nous baserons notre définition des réacteurs homogènes sur un principe technologique : un réacteur homogène sera un réacteur sans barreaux de combustible gainés, le combustible s’y trouvant à l’état fluide ou fluidisé. Nous verrons que cette définition englobe des types divers de réacteurs, y compris ceux, comme le L.M.F.R. de Brookhaven, où le modérateur conserve une structure hétérogène, au double point de vue mécanique et neutronique.
- Ceci étant admis, quels avantages pouvons-nous attendre a priori des réacteurs homogènes par rapport aux réacteurs hétérogènes ? Le premier avantage, et non des moindres comme pourrait en témoigner maint technologue, est de supprimer les très difficiles problèmes métallurgiques liés à la fabrication des
- barreaux de combustible, barreaux auxquels on demande des propriétés contradictoires avant et après l’utilisation dans le reacteur, sans compter les oppositions de principe dans le réacteur hétérogène lui-même : surface maximum pour l’échange de chaleur, mais introduisant le minimum de matériaux de gainage qui mangent les neutrons et dont 1-e volume cependant est proportionnel à une surface qu’on souhaite aussi grande que possible...
- Autre avantage des réacteurs homogènes : l’état fluide du combustible permet d’envisager si c’est nécessaire un traitement chimique en continu pour enlever les produits de fission, ce qui permet le fonctionnement à empoisonnement constant et minimum (les produits de fission sont des poisons qui absorbent inutilement des neutrons, et leur quantité augmente d’une façon générale à mesure que l’uranium est consommé).
- Ce facteur est particulièrement important pour les réacteurs régénérateurs, c’est-à-dire ceux dans lesquels on cherche une régénération du combustible en transformant par absorption de neutrons une matière fertile comme le thorium 232 ou l’uranium 238 en matière fissile nouvelle, uranium 233 ou plutonium 23g.
- Lorsque nous décrirons par la suite les réalisations en matière de réacteurs homogènes, nous verrons largement jouer ces deux avantages principaux qui justifieraient d’ailleurs à eux seuls le développement de ces réacteui’s. Quels sont, par contre, les inconvénients qui ont jusqu’à ce jour limité ce développement, puisqu’il y a quelque 20 à 3o fois plus de réacteurs hétérogènes construits ou en projet à ce jour que de réacteurs homogènes ? Le plus important de ces inconvénients est lié à la difficulté des problèmes chimiques rencontrés : les fluides manipulés sont généralement très corrosifs, et on connaît peu de matériaux susceptibles de contenir ces fluides à hautes températures, en présence de rayonnements extrêmement intenses dont on ignore encore les nombreuses conséquences. Cette difficulté pour contenir ces fluides est aggravée par la nécessité d’une étanchéité absolue et d’une sécurité draconienne, pas une goutte ne pouvant être tolérée hors d’un système contenant parfois plusieurs mètres cubes d’un produit liquide équivalant à plusieurs dizaines de tonnes de radium. Une boutade d’un des ingénieurs chargés à Oak Ridge de la construction du réacteur homogène H.R.T. (voir plus loin) situera tout de suite cette difficulté : « le seul problème des réacteurs homogènes est un problème de soudures... ». Après plusieurs années d’efforts dans la voie des réacteurs homogènes, et compte tenu du très grand intérêt qu’ils présentent pour l’avenir de l’énergie atomique vu leurs avantages indéniables, nous sommes loin, malgré de très belles réalisations, de la définition optimiste de ces réacteurs par Weinberg, ardent défenseur de ce type de réacteur et directeur du Laboratoire national d’Oak Ridge : « Un réacteur homogène égale un pot, un tuyau et une pompe. » Même exacte, cette définition ne dirait pas pour autant en quelle matière magique et incorrodable construire le pot, le tuyau et la pompe...
- p.377 - vue 381/527
-
-
-
- 378
- Ayant ainsi en tête les principaux avantages et inconvénients des réacteurs homogènes <— que certains appellent aussi réacteurs à combustible fluide dans l’esprit de la définition donnée, au début de ces remarques d’introduction — nous allons brièvement décrire les types possibles et étudier d’une manière un peu plus détaillée les principales réalisations internationales dans ce domaine.
- Principaux types possibles de réacteurs homogè= nés. — La première distinction que nous pouvons introduire est liée à l’énergie des neutrons qui propagent la réaction en chaîne dans le réacteur; comme nous l’avons vu ci-dessus, selon que cette énergie sera de quelques MeV ou d’une fraction d’électron-volt, le réacteur sera à neutrons rapides ou à neutrons thermiques. La majorité des réacteurs homogènes construits à ce jour ou en projet sont à neutrons thermiques, mais on verra qu’il existe un très intéressant projet de réacteur homogène rapide en cours de réalisation.
- Parmi les autres facteurs susceptibles de différencier les réacteurs homogènes, nous distinguerons ensuite le fluide porteur. Le combustible sera rarement — pour ne pas dire jamais — utilisé à l’état pur, uranium ou plutonium fondu. 11 est le plus souvent réparti dans un fluide que nous appelons le fluide porteur. Ce fluide peut être un gaz (cas des projets hollandais) ou un liquide. Parmi les liquides, nous mettrons à part le cas de l’eau qui a donné naissance aux États-Unis à de nombreux types de réacteurs homogènes; les autres liquides à considérer seront les sels ou métaux fondus, dont la gamme à peine explorée est d’ailleurs fort riche, comprenant le bismuth, les alliages bismuth-plomb-étain, le sodium, le lithium 7, les hydroxydes alcalins, les hydrures, éventuellement des acides comme l’acide phosphorique, etc. Signalons que les gaz, ainsi que les sels et métaux fondus, permettent de fonctionner à des températures élevées, ce qui en justifie pleinement l’intérêt au point de vue therm ody namique.
- Ensuite, pour les réacteurs fonctionnant par les neutrons thermiques, nous introduirons la distinction de la structure du modérateur, selon que celui-ci est réparti d’une manière homogène ou hétérogène dans le récipient du réacteur. Dans le premier cas, le modérateur fait partie ou constitue même à lui seul le fluide porteur, comme pour l’eau dans les réacteurs type Oak Ride; dans le second, on a un .réseau hétérogène de tubes creux dans un massif solide par exemple, le combustible s’écoulant dans ces tubes ; au point de vue neutronique, ces réacteurs sont proches des réacteurs hétérogènes classiques; c’est le cas du L.M.F.R. de Brookhaven, le modérateur étant un réseau de graphite comme dans G 1 par exemple, dans les canaux duquel circule de l’uranium dissous dans du bismuth fondu.
- Une autre distinction proviendra de l’état du combustible dans le fluide porteur. Le combustible pourra en effet être soit dissous, soit dispersé à l’état de suspension. Ces deux cas existent comme nous le verrons.
- Une dernière distinction — encore qu’il fût possible de poursuivre longuement ces essais de classification — sera basée sur le mode d’enlèvement de chaleur, selon que le fluide porteur (ou le modérateur éventuellement) sera autorisé ou non à bouillir. Le terme ébullition qui pourrait surprendre a priori pour un gaz, correspond en réalité à un état des solides fluidisés; si solide dispersé et gaz se déplacent en bloc, on est dans l’état liquide par extension; si des bulles de gaz, des occlusions, se déplacent plus vite que le lit du solide fluidisé, on est dans l’état ébullition. Les conditions d’échange de chaleur et les conditions neutroniques sont considérablement modifiées selon le cas de fonctionnement. Par ailleurs, sauf dans quelques cas assez rares (sodium par exemple), l’ébullition des métaux fondus ne semble pas présenter pour l’instant d’applications pratiques.
- Si nous ajoutons que cet essai de classification basé sur cinq principales distinctions seulement ne précise aucun des éléments
- en jeu, c’est-à-dire que nous avons laissé le choix du combustible (U naturel ou enrichi, U 235, Pu 23ç>, U 233), du fluide porteur (de l’hydrogène au bismuth avec de nombreuses combinaisons possibles, y compris les hydrocarbures que nous ne faisons que mentionner), du modérateur (de l’eau légère à la glucine), du réfrigérant, etc., on voit que l’expérimentation est largement ouverte aux chercheurs et constructeurs de piles homogènes, que celles-ci en plus soient de recherche ou productrices d’énergie. Nous allons nous efforcer de décrire les principales réalisations en ce domaine, qui n’ont fait qu’effleurer jusqu’alors les immenses possibilités qui sont offertes par les réacteurs homogènes... une fois résolus certains problèmes technologiques fondamentaux.
- Les réacteurs homogènes de recherche. — Les
- savants de Los Alamos ont donné naissance à une lignée particulièrement intéressante de petits réacteurs homogènes de recherche, issus du premier Water-Boiler construit en 1944 pour effectuer des expériences préliminaires sur les masses critiques d’uranium 235. Ces petits Water-Boilers sont indéniablement ce que l’on peut imaginer de plus simple comme type de réacteur. Avec les « Swimming Pool », ce sont les réacteurs de recherche les plus répandus dans le monde. Us sont essentiellement constitués par un récipient sphérique ou cylindrique en acier inoxydable de faible épaisseur (quelques millimètres au plus), rempli d’une solution aqueuse d’un sel d’uranium enrichi; le récipient, qui constitue la région critique, est entouré d’un réflecteur en oxyde de béryllium ou en graphite; quelques barres d’acier au bore ou de cadmium permettent le contrôle et assurent la sécurité de l’ensemble. Les volumes actifs sont de quelques litres, au plus quelques dizaines de litres, juste à l’opposé, dans l’échelle des volumes des piles, de ceux des G de Marcoule ou des piles Calder Hall, de 1 000 m3 environ. Les puissances varient, selon les cas, entre quelques milliwatts et une cinquantaine de kilowatts; dans ce dernier cas, deux ou trois serpentins intérieurs au récipient, dans lesquels circule de l’eau ordinaire purifiée, suffisent généralement à assurer le refroidissement. D’une conception extrêmement simple, susceptibles selon les chercheurs américains de « donner le plus de neutrons par dollar investi » dans le domaine des petits réacteurs de recherche, avec des flux de neutrons pouvant atteindre quelques io12 neutrons/cm/s (même ordre de grandeur que pour EL 2 à Saclay), ces petits réacteurs de recherche sont particulièrement séduisants et commencent à être construits en série aux États-Unis (pour un prix de l’ordre de 3o à 100 millions de francs, selon les cas).
- Historiquement, le besoin d’un premier ensemble type Water-Boiler se fit sentir dès 1943 aux États-Unis, quand il devint nécessaire de connaître les masses critiques de solutions aqueuses homogènes de sels d’uranium 235 (pur ou fortement enrichi) pour diverses concentrations, différents modérateurs et des configurations géométriques variées. En effet, une bonne partie des traitements chimiques de l’uranium enrichi se faisant par voie aqueuse dans une usine de diffusion gazeuse comme celle d’Oak Ridge, il était nécessaire de connaître les conditions critiques limites à ne jamais dépasser dans les récipients ou canalisations pour ne jamais réaliser involontairement... une pile atomique incontrôlée.
- On chercha également à acquérir une certaine expérience du fonctionnement d’ensembles critiques enrichis, alors qu’on ne connaissait, à cette époque, que les réacteurs à uranium naturel. Le premier réacteur ainsi construit, de puissance dite nulle (une fraction de watt) fut appelé Lopo (Low Power) et divergea à Los Alamos en 1944; il fut décidé de le faire fonctionner à puissance nulle, afin de réduire au minimum les protections nécessaires, d’éliminer l’appareillage d’extraction de chaleur, et de limiter autant que possible les effets des rayonnements sur la solution. Voulant de plus avoir un investissement en uranium 235 aussi faible que possible, puisque cette époque cor-
- p.378 - vue 382/527
-
-
-
- 379
- respondait aux premiers pas de la production d’uranium enrichi aux États-Unis, il a fallu utiliser pour la construction des parties vitales des matériaux peu absorbants pour les neutrons et un bon réflecteur.
- L’ensemble de Lopo est montré par la figure i. Le cœur de ce petit réacteur est un récipient de i5 1, en acier inoxydable 18-8 type 347 (stabilisé au niobium) rempli de sulfate d’uranyle en solution aqueuse; l’uranium utilisé était enrichi à 14,67 pour 100 en uranium 235 ; la masse en fonctionnement est de 58o g de U 235, soit 3,g58 kg d’uranium au total, et là encore nous sommes loin des quelque 100 t d’une pile G ou Calder Hall. En choisissant la glucine BeO comme réflecteur, la masse
- Fig'. 1. — Coupe du réacteur homogène Lopo.
- I, plaque de sécurité en
- cadmium ; 2, trop-plein ;
- 3, électrode de sécurité ;
- 4, électrode indicatrice de
- niveau ; 5, barre de réglage en cadmium ; 6, conduite supérieure ; 7, sphère en
- acier inoxydable contenant du sulfate d’uranyle enrichi ; 8, réflecteur en oxyde de béryllium ; 9, réflecteur en graphite ; 10, électrode indicatrice de niveau ;
- II, canalisation d’air ; 12, récipient de vidange.
- critique minimum est de 565,5 g de U 235 à 39° C, la différence avec la masse en fonctionnement provenant de la présence de divers appareils de contrôle, toujours un peu absorbants, mais nécessaires lorsque la pile fonctionne. Dans le but d’éliminer les effets dus à des variations de température, l’ensemble fut enfermé dans une enceinte thermostatée à température bien réglée. Le contrôle de la pile était effectué au moyen d’une barre cylindrique de cadmium, de 87 cm de long et 19 mm de diamètre, tangente à la sphère de 3o cm de diamètre constituant le coeur; la position de cette barre de contrôle pouvait être repérée au centième de millimètre.
- Vu l’importance que présente le mode d’approche des conditions critiques pour de petits réacteurs de ce type qui, comme nous l’avons dit, commencent à être utilisés dans de nombreux laboratoires universitaires ou de recherche, nous expliquerons avec quelques détails comment est atteint l’état dit critique où la réaction en chaîne est autoentretenue. Pour cela, après avoir placé divers détecteurs de neutrons dans la cuve ou dans le réflecteur et à l’aide d’une source de neutrons placée également ou dans la cuve ou en son voisinage, on étudie l’évolution du taux de comptage en fonction de la charge du réacteur en matière fissile. Ce taux de comptage, directement fonction du facteur de multiplication des neutrons, tend vers l’infini (croissance exponentielle) quand le réacteur dépasse l’état juste critique. L’extrapolation de courbes tendant vers l’infini étant naturellement délicate, c’est finalement l’inverse du taux de comptage qu’on relève en fonction de la charge en uranium, ce chiffre tendant vers zéro à mesure qu’on approche l’état cri-
- tique; la convergence des courbes liées aux divers détecteurs permet d’atteindre les conditions critiques avec la plus grande prudence (le processus est le même pour un réacteur hétérogène, avec la différence toutefois que les augmentations de charge ne peuvent être inférieures au poids d’un barreau complet et nécessitent de « jouer » sur des barres absorbantes pour obtenir des variations plus faibles).
- L’état critique étant défini par un taux de multiplication des neutrons égal à 1, nous appellerons état sous-critique (ou réaction en chaîne convergente) un état défini par un taux de multiplication des neutrons inférieur à 1, et surcritique (ou réaction en chaîne divergente) un état avec taux supérieur à 1. Ainsi, l’état critique est approché par une suite d’états sous-critiques pour lesquels il ne peut y avoir, sans source auxiliaire, de réactions en chaîne autoentretenues.
- Dans le cas de Lopo, la « criticalité » fut atteinte en remplissant la sphère successivement jusqu’à un niveau bien défini de la canalisation de sortie, par des solutions de concentrations croissantes en uranium. Le facteur de multiplication (en réalité, l’inverse du taux de comptage) était mesuré pour chaque remplissage, en utilisant une source radium-béryllium de 200 milli-curies placée au centre de la sphère (fig. 2). Entre deux
- Quantité d'uranium dans ta sphère, en grammes
- Fis- 2. Courbe montrant l’approche des conditions critiques.
- On voit qu’en augmentant la quantité d’uranium 235 dans la sphère on se rapproche de plus en plus de l’état critique, jusqu’à pouvoir même le déterminer avec précision sans l’atteindre quand on en est à quelques grammes. Les courbes 1, 2, 3, 4 correspondent, selon le cas, soit à des détecteurs différents (donc de sensibilités différentes), soit à des emplacements différents ; leurs formes relatives montrent l’utilité de recourir à plusieurs détecteurs pour atteindre les conditions critiques.
- remplissages successifs, la solution était redescendue dans le récipient sous-critique situé sous le réacteur afin de procéder aux ajustements de concentration (un récipient est dit sous-critique quand, quelle que soit la concentration en matière fissile, on ne peut jamais y entretenir une réaction en chaîne).
- Parmi les études les plus intéressantes qui furent effectuées avec Lopo, une place particulière est occupée par celles liées au coefficient de température, dont l’importance est d’ailleurs considérable pour tous les réacteurs. Supposons un milieu homogène, siège d’une réaction en chaîne autoentretenue à coefficient de multiplication des neutrons égal à un, ce milieu étant constitué par exemple par du sulfate d’uranyle dans l’eau légère à une température bien déterminée. Les atomes d’uranium 235 qui subissent la fission sous l’effet d’un neutron incident se cassent en deux produits de fission accompagnés par exemple de 2,5 neutrons en moyenne par fission; de ces 2,5 neutrons émis en moyenne, il suffira qu’un seul frappe à nouveau un
- p.379 - vue 383/527
-
-
-
- 380
- autre atome d’uranium, comme on sait, pour que le facteur de multiplication soit égal à un, c’est-à-dire que la chaîne soit autoentretenue; dans ce cas, i,5 neutrons en moyenne seront perdus par absorption dans le modérateur ou dans les matériaux constitutifs du cœur (par exemple, dans l’hydrogène, le soufre, l’acier, etc.) ou bien par « rayonnement », par fuite par la surface extérieure du réacteur.
- Voyons ce qui arrive au neutron qui sera absorbé par l’uranium : émis avec une certaine énergie, de l’ordre de 2 MeV, ce neutron sera ralenti par chocs successifs sur les atomes du modérateur, jusqu’à atteindre un niveau d’énergie dit thermique, parce qu’il est de l’ordre de grandeur de l’énergie d’agitation thermique des atomes du modérateur; une fois therma-lisé, rendu propre à son absorption par un autre atome d’uranium 235 qui en est d’autant plus gourmand que son énergie est plus faible, le neutron va errer quelque temps dans le milieu, va « diffuser », jusqu’à sa rencontre avec l’atome d’uranium 235. Ainsi, à la vie du neutron entre son émission et son absorption, on peut associer deux parcours, deux longueurs liées, l’une au chemin parcouru pendant le ralentissement, l’autre au chemin parcouru pendant la diffusion. Ces deux longueurs, essentielles en théorie des piles, s’appellent effectivement longueur de ralentissement et longueur de diffusion, et dépendent étroitement des propriétés physiques et nucléaires de ce milieu, entre autres, comme on le conçoit aisément, du nombre d’atomes par élément de volume du milieu, c’est-à-dire de la densité. Et c’est ainsi que nous en arrivons au coefficient de température d’un réacteur, ou mesure de l’effet de la température sur les conditions de criticalité. Si la température du milieu augmente (ce qui augmente, aussi, mais d’une manière très faible que nous négligerons ici, l’énergie moyenne des neutrons), celui-ci va se dilater et, voir sa densité diminuer: la diminution de densité aura pour effet d’augmenter les longueurs de ralentissement et de diffusion ; les neutrons n’étant plus convenablement ralentis, le réacteur cessera d’être critique.
- Ce phénomène fondamental est de la plus grande importance et c’est pourquoi nous l’avons ainsi détaillé. Son importance est considérable en particulier pour le fonctionnement et la sécurité des réacteurs. Imaginons en effet que, pour une raison quelconque, la multiplication des neutrons commence à croître; ceci se fait généralement de façon exponentielle qui, si elle n’est pas stoppée, risque d’avoir des conséquences désastreuses, la puissance du réacteur pouvant être multipliée par x 000 par exemple en une fraction de seconde, pendant laquelle les mécanismes des barres de contrôle ou de sécurité peuvent être trop lents. L’accroissement de puissance aura pour effet un accroissement de température, et l’effet de température va alors jouer automatiquement : le réacteur possédera un mécanisme propre de régulation et de sécurité. Cet effet, très important et très rapide pour les réacteurs à combustible fluide ou réacteurs homogènes, assure une très grande sécurité à ces réacteurs et constitue ainsi un de leurs principaux avantages.
- Le calcul théorique exact de cet effet de température est très délicat et dépend de nombreux facteurs, entre autres la géométrie du réacteur et du réflecteur. Il était du plus grand intérêt de pouvoir en effectuer l’étude expérimentale, et c’est Lopo qui, pour la première fois, en permit l’étude et la mesure.
- Lopo a permis de voir l’importance exacte de ce phénomène qui conduit à des oscillations convergentes de puissance : si la puissance augmente, la température augmente, la réaction en chaîne s’arrête; la température diminuant alors, la réaction en chaîne reprend et on a ainsi (fig. 3) des oscillations de puissance qui convergent vers une valeur d’équilibre pour laquelle le réacteur est parfaitement stable.
- Signalons enfin, avant de passer à la description des autres réacteurs qui ont suivi la voie si bien ouverte par Lopo, que ces phénomènes sont liés, comme nous l’avons dit, à des variations de densité du milieu muliplicateur,*mais que ces variations
- peuvent avoir d’autres causes que les variations de température, à savoir par exemple la croissance de bulles qui diminuent la densité moyenne du milieu. Ces bulles peuvent être de vapeur ou provenir de la décomposition de l’eau sous les rayonnements (bulles de radiolyse). On parlera alors d’effets de bulles, mais les mécanismes sei'ont identiques aux effets de température, et ils sont particulièrement importants pour les réacteurs homogènes puisque la structure du milieu leur permet d’agir très rapidement.
- Le besoin de disposer pour l’expérimentation de flux de neutrons plus élevés d’une part, le désir d’étudier les phénomènes liés à la production d’énergie dans des x'éacteurs homogènes aqueux d’autre part, ont amené les chercheurs de Los Alamos à développer les réacteurs du type Water-Boiler, et à construire des modèles plus poussés que nous allons voir maintenant. Dans tous ces réacteurs, au point de vue neutronique, le flux maximum de neutrons thermiques au centre est d’environ 5.io7 neu-trons/cm2/s par watt de puissance calorifique dégagée, soit environ 10 fois plus que dans une pile à uranium naturel et eau lourde, et 100 fois plus que dans une pile à uranium naturel et graphite, ce qui explique le très grand intérêt de ces petits réacteurs pour faire de la recherche.
- Le milieu multiplicateur étant très absorbant à cause de la section efficace de l’hydrogène plus grande que celle du deutérium ou du carbone, la durée de vie moyenne des neutrons thermiques y est très brève ainsi que la longueur de diffusion, si bien que le flux de neutrons en cours de ralentissement, rapporté au flux de neutrons thermiques, est plus élevé que dans un réacteur à uranium naturel.
- Au point de vue de la construction mécanique du réacteur, le fait de fonctionner à des puissances plus élevées aura diverses conséquences; en premier lieu, il sera nécessaire d’assurer le refroidissement du milieu ; ceci sera effectué avec un ou plusieurs serpentins de quelques mètres de longueur dans lesquels circule de l’eau légère. D’autre part, il sera nécessaire de prévoir les protections nécessaires contre les rayonnements, traversées par des canaux plus ou moins nombreux pour aller chercher près du réacteur les flux de neutrons les plus élevés. Nous ne dirons rien de ces dispositifs relativement classiques, l’épaisseur des protections étant naturellement fonction de la puissance de fonctionnement du réacteur.
- Avec la puissance, par contre, se développe un phénomène
- Thermocouples au cœur
- uïssàncj
- ZOO
- Temps (minutes)
- Fig. 3. — Oscillations de la puissance et de la température en régime transitoire.
- Cette expérience a été effectivement réalisée avec un petit water-boiler à Livermore, en Californie. La puissance nominale de fonctionnement doit être de quelques watts. À l’instant zéro, la puissance stable est de l’ordre de 500 W, ce qui échauffe donc la solution jusqu’à ébullition et arrêt de la réaction en chaîne ; l’ébullition s’arrête à son tour, le réacteur se refroidit alors et redevient critique, et le cycle oscillatoire se développe jusqu’à l’atteinte d’un état d’équilibre.
- p.380 - vue 384/527
-
-
-
- 381
- Système de contrôle
- Cœur
- Fig. 4. — Vue en coupe d’un water-boiler expérimental.
- Au centre le cœur, qu’entoure le réflecteur et la protection ou bouclier en béton. On aperçoit à gauche le système de contrôle, et sur les deux faces (en arraché) des canaux d’irradiations avec leurs bouchons.
- particulièrement important, non seulement pour les Water-Boilers, mais pour tous les réacteurs homogènes qui utilisent l’eau, légère ou lourde, comme modérateur. C’est le phénomène de radiolyse ou décomposition de l’eau sous les rayonnements, qui exigera selon les cas des dispositifs supplémentaires plus ou moins complexes pour manipuler et traiter les gaz évolués. Dans un réacteur quelconque modéré à l’eau, celle-ci subit une certaine décomposition du fait des différents rayonnements qui la traversent : le phénomène est particulièrement important dans le cas d’un réacteur homogène, car les fragments de fission, agents de dissociation les plus destructeurs, sont émis au sein du liquide, tandis qu’ils restent dans les barres d’uranium d’un réacteur hétérogène. Le volume de gaz dissociés est de l’ordre de io 1 dans les conditions normales de température et de pression par kilowattheure dégagé dans le milieu multiplicateur. Cette émission abondante d’hydrogène et d’oxygène, chargés de vapeur d’eau et de produits de fission, et éventuellement accompagnés de gaz provenant de la dissociation du sel dissous, pose un problème difficile. Des dispositions doivent être prises pour évacuer ces gaz dans l’atmosphère, ou encore pour recombiner l’oxygène et l’hydrogène; dans un cas comme dans l’autre, il faut également se préoccuper de retenir et de stocker les produits de fission entraînés, dont l’activité est vite considérable.
- Le comportement satisfaisant de Lopo a amené les chercheurs de Los Alamos à réaliser un second Water-Boiler d’une puissance supérieure de l’ordre de 5 kW, dans le but d’obtenir des 11 ux de neutrons thermiques de l’ordre de 5.io10 neu-trons/cm2/s ; ce Water-Boiler fut nommé Hypo (High Power). Diverses modifications, nécessaires comme nous l’avons vu, furent apportées au contrôle, à la protection, etc. ; la solution de sulfate d’uranyle fut remplacée par du nitrate d’uranyle, car à l’époque, on ne connaissait pas de méthode chimique d’extraction des produits de fission pour les solutions de sulfates, alors qu’elle était connue pour les nitrates.
- Bien que le fonctionnement de liypo ait été prévu à une puissance de l’ordre de i à a kW, Hypo a pu en réalité fonctionner à 4 ou 5 kW ; cette augmentation provenait du fait que les bulles radiolytiques, en augmentant l’agitation du fluide, influaient favorablement sur le coefficient de transfert de chaleur par convection du fluide aux parois du serpentin qui put, en fin de compte, évacuer des quantités de chaleur plus importantes que celles qui avaient été initialement prévues.
- Après avoir fonctionné de manière satisfaisante, Hypo fut
- transformé à nouveau en un Waler-Boiler plus puissant nommé Supo (Super-Power), d’une puissance thermique de 5o kW. Les modifications ont surtout porté sur l’appareillage et sur de nombreux dispositifs expérimentaux. D’autre part, l’uranium enrichi à i5 pour ioo fut remplacé par de l’uranium enrichi à 88,7 pour roo de U 235 (les figures auxquelles nous renvoyons décrivent bien, pensons-nous, l’allure générale de ce réacteur).
- Autres water=boilers et réacteurs de recherche qui en sont dérivés. — Comme nous l’avons dit ci-dessus, Lopo, Hypo et Supo furent les premiers d’une nombreuse lignée de petits réacteurs homogènes expérimentaux dits Water-Boilers ; lignée si nombreuse même qu’il serait vain d’en entreprendre l’énumération, certaines sociétés industrielles aux États-Unis construisant jusqu’à deux réacteurs de ce type par mois. On peut penser d’ailleurs que d’ici quelques années les laboratoires des universités et facultés, tant aux États-Unis que dans les autres pays, seront équipés avec ces excellents petits appareils de recherche et de démonstration, dans la mesure où les .facultés ne voudront pas se désintéresser des développements de l’énergie atomique (fig. 4 et de la couverture).
- Nous ne mentionnerons donc que ceux qui nous paraissent à un titre quelconque les plus importants. Parmi ceux-ci, la première place revient, pensons-nous, aux fCE.YV.B. (Kinetic Experiments for Water-Boiler) construits et exploités par la société North American Aviation. D’une manière générale, la prolifération des réacteurs aux États-Unis a inquiété la Commission U. S. de l’Énergie Atomique qui a développé un programme dit de sécurité. Dans ce programme, une étude complète est entreprise tant des conséquences possibles d’accidents liés à des réacteurs nucléaires qu’aux conditions et raisons mêmes pour lesquelles ces accidents peuvent se produire. C’est dire que dans ce programme, l’U.S.A.E.C. fait construire des réacteurs pour les détruire, en les expérimentant dans les conditions les plus variées, jusqu’à ce que le réacteur soit détruit et que soient ainsi définies les limites de fonctionnement à ne pas dépasser pour raisons de sécurité, et les conséquences possibles d’accidents. C’est à ce programme que sont affectés les trois K.E.W.B. en cours d’expérimentation ou d’achèvement, ces
- Fig. 5. — Proserpine en cours de montage.
- Au centre, la cuve cylindrique en acier inoxydable (récemment remplacée par une cuve en zirconium) reposant sur la partie intérieure du réflecteur de glucine, qu’entoure le réflecteur de graphite au même niveau.
- (Photo C.E.A.).
- p.381 - vue 385/527
-
-
-
- 382
- Fig. 6. — Vue en
- cours de montage de V enceinte thermosta-tée, autour de Proserpine*
- À. gauche, le bâti des barres de sécurité avec le système arbalète non encore installé. L’empilement est gainé par des feuilles de cadmium prises en sandwich entre des feuilles de duralumin, le tout maintenu par une armature. On aperçoit divers trous expérimentaux dans le massif, et le prémontage des barres de contrôle et de sécurité.
- cPhoto C.E.A.).
- ÇhQVbOftl QCtlf»
- Ciceh* •tanche
- Filtre» pQpi<r
- Dispoithf de positionnement
- ,c»> détecteur»
- Cobine thermoetotêe
- Bouchon» omcvtbig?
- Tubes de ventilation
- Tube d introduction de détecteurs
- Barres de réglage et de
- Canaux radiaux
- d experiences
- Canaux tongentiels
- Dispositif de mesure
- d expériences
- Barres de sécurité
- RéservoiT inf
- Collection des
- fuites liquides
- Fig. 7. — Coupe est-ouest de Proserpine.
- On voit au centre la cuve avec les réflecteurs ; sous le bloc-pile est le collecteur des fuites éventuelles et deux bouteilles qui assurent une atmosphère commune (risques de contamination par le plutonium) à tous les récipients qui contiennent de la solution. A. gauche, le schéma d’une boîte à gants pour transvaser et modifier la solution ; tout ceci est contenu comme on voit dans une enceinte étanche et thermostatée ; au-dessus de cette enceinte et en communication avec la cuve se trouve la cloche, ou boîte à gants étanche servant à la manipulation des gaz radioactifs où radioly tiques et à la mise en place des détecteurs ou de la source de démarrage.
- p.382 - vue 386/527
-
-
-
- 383
- réacteurs devant établir les règles de sécurité pour les Water-Boilers.
- KEWB-i et KEWB-2 sont des Watei’-Boilers d’essai, avec réflecteur en graphite. Contenus dans des caves étanches et blindées, ils permettent de faire varier les principaux paramètres tels que : géométrie du système, volume vide au-dessus de la solution, pression et température initiale de la solution, niveau de puissance au démarrage, etc. En fonction de ces divers paramètres sont étudiés ce que l’on appelle des « pics de puissance », leurs mécanismes de développement et d’arrêt (coefficients de températures ou liés aux bulles), et leurs conséquences possibles vis-à-vis de l’installation. KEWB-3 est un projet d’expériences pour les explosions dues aux gaz radiolytiques, dont le but est d’obtenir des renseignements qui puissent être utilisés à définir un facteur de sécurité à incorporer dans la conception des récipients des Water-Boilers en cas d’inflammation spontanée des gaz de radiolyse produits pendant un phénomène neutronique transitoire.
- Proserpine. — En France également, un petit Water-Boiler a été réalisé. Original à plus d’un titre, ce petit réacteur de très faible puissance, qui fut critique pour la première fois en mars, a été baptisé Proserpine.
- Une des originalités principales de Proserpine est de faire appel au plutonium comme combustible, issu des barreaux de la pile française EL. 2 de -Saclay. Ce plutonium est réparti sous forme de sulfate de plutonyle dans le modérateur constitué par de l’eau légère; la solution, extrêmement difficile à manipuler à cause de la haute toxicité du plutonium, est contenue dans un récipient cylindrique en acier inoxydable de 25 cm de diamètre, la hauteur critique étant de l’ordre de 20 cm pour une masse critique de l’ordre de 3oo g (fig. 5). Ce cœur est entouré
- de deux réflecteurs : un premier réflecteur en glucine de 3o cm d’épaisseur et un second réflecteur en graphite de 5o cm d’épaisseur, protégés par armature et gainage métalliques.
- Les manipulations de la solution de plutonium se font à partir de boîtes à gants étanches de façon que la solution active ne soit jamais au contact de l’atmosphère, ce qui assure la sécurité « chimique » de ce petit réacteur (fig. 7). La sécurité « neutronique » est assurée par deux barres projetées en cas de besoin en moins de 0,2 s dans le bloc pile, près de la cuve, par un système dit à arbalète. Bloc pile, dispositifs de sécurité et boîtes à gants de manipulation de solutions de plutonium sont logés dans une enceinte en légère dépression sur le hall expérimental, et thermostatée avec le plus grand soin pour permettre une détermination précise du coefficient de température dont on a vu plus haut l’importance (fig. 6).
- Le tout est contenu, ainsi que le tableau de commande, dans un hall étanche en légère dépression par rapport à l’atmosphère. En cas d’un accident, rendu bien improbable par le nombre de précautions prises, la contamination resterait cantonnée aux enceintes en dépressions successives.
- Comme nous l’avons dit, Proserpine fut rendue critique en mars. Ce petit réacteur est destiné à la vérification expérimentale de certains calculs théoriques -et à la mise au point des méthodes opératoires de tout un ensemble d’expériences critiques liées au traitement chimique du plutonium à Marcoule,
- Dans notre prochain article, nous verrons les principaux projets ou réalisations de réacteurs homogènes de puissance dans le monde.
- («, suivre). Michel Grenon,
- Ingénieur au Département des études de piles du C.E.A.
- Première phase de fonctionnement de la pile 6.2
- C’est le 21 juillet dernier que la deuxième pile du Centre de Marcoule, G.2, a divergé, à puissance et à charge réduites, Ses caractéristiques, rappelons-le, sont analogues à celles de la première pile G.i, en fonctionnement depuis deux ans. Certaines différences doivent toutefois être notées : la puissance, tout d’abord, de G.2 sera nettement plus élevée que celle de son aînée (i5o MW thermiques contre 35) ; ses dimensions en conséquence, seront également plus imposantes — le bâtiment qui l’abrite mesure environ 60 ni de haut.
- Mais la différence essentielle réside dans le choix du fluide échangeur de chaleur. Pour G.i que l’on se proposait de réaliser rapidement, on s’était contenté d’avoir recours à l’air, prélevé dans l’atmosphère et rejeté par une cheminée de 100 m de haut. G.2 est refroidie par l’anhydride carbonique C02, circulant en circuit fermé sous pression : ce choix a été inspiré par les bonnes caractéristiques nucléaires de C02, son coefficient d’échange thermique élevé et son inertie chimique. Le circuit fermé a en outre Davantage d’éviter l’encrassement et la corrosion des organes de la pile.
- Il convient de rappeler que le refroidissement par C02 a été appliqué pour la première fois dans la pile expérimentale EL.2 de Saclay. Les atomistes britanniques Dont adopté par la suite dans leurs trois réacteurs de puissance de Calder Hall.
- Rappelons également que, les piles de Marcoule qui utilisent comme combustible l’uranium naturel et comme modérateur le
- Fig'. 1. — Façade de la pile G.2.
- Les quatre systèmes de tuyauteries alignés le long de cette façade sont les échangeurs de chaleur. En contrebas (à droite) le bâtiment en construction qui abritera les turbo-alternateurs (Photo C.E.A.).
- p.383 - vue 387/527
-
-
-
- 384
- graphite ont été essentiellement conçues dans le but de produire du plutonium. Elles ne sont pourtant pas des plutonigènes pures, car la chaleur produite est transformée en énergie électrique, grâce à un échange entre le circuit de C02 et un circuit d’eau : la vapeur ainsi obtenue met en mouvement un groupe turboalternateur.
- Ceci concerne un avenir — d’ailleurs très rapproché — car G.2 traverse une phase préparatoire où elle fonctionne à la puissance zéro, sous le contrôle des physiciens du Département de l’étude des piles, qui, à Saclay, avaient procédé aux calculs et dressé le projet. Ils ont pu constater la justesse de leurs calculs, car ils avaient prévu que la masse critique serait atteinte, moyennant un chargement de 22,3 t d’uranium. Or G.2 a divergé avec 22,5 t.
- La phase actuelle de contrôle est consacrée à l’examen de différents éléments : le comportement des gainages en magnésium allié à 0,7 pour 100 de zirconium, la mesure du flux neutronique dans les différentes zones de la pile, à dessein de dresser ce
- que les « pilologues » nomment « la carte des flux ». Ce dernier contrôle permet en particulier de vérifier la qualité du modérateur, c’est-à-dire du graphite. 11 semble que la pureté nucléaire de ce matériau ait été confirmée par les récents essais.
- Un contrôle d’un autre ordre est poursuivi : c’est celui du caisson en béton précontraint, garni à l’intérieur d’une chemise d’étanchéité en acier que les techniciens ont baptisé « la peau » du réacteur. Ce caisson devra supporter une pression, transmise par le gaz C02, de i5 kg/cm2. Des essais faits sur le caisson encore vide de la troisième pile G.3 (sœur jumelle de G.2) ont prouvé que le béton précontraint résistait correctement à une pression double, soit 3o kg/cm2.
- C’est vers la fin de cette année qu’aura lieu la montée en puissance de G.2 qui aura reçu dans l’intervalle sa pleine charge, à savoir ii5 t d’uranium. Le circuit de refroidissement sera alors mis en action et les turbo-alternateurs livreront au réseau de l'Électricité de France les premiers kilowattheures <c exportés » par Marcoule. Y. M.
- Le Vickers VC-10
- La B.O.A.C. vient de passer commande à la firme Vickers-Armstrong de 35 appareils à turbo-réacteurs YC-10, livrables à partir de 1963. Ce contrat, d’un montant de 60 millions de livres (70 milliards de francs), est le plus élevé qui ait jamais été signé pour un appareil commercial de fabrication britannique.
- Le VC-10 sera propulsé par quatre turbo-réacteurs Rolls-Royce « Conway » placés, comme sur Caravelle, tout à fait à l’arrière du fuselage : cette disposition a l’avantage d’éviter les vibrations dans l’espace réservé aux passagers. L’aile médiane est très fine et située assez nettement en arrière du fuselage : l’en-
- vergure totale est de 42 m, la longueur totale de 48 m, le poids de i4o t. Grâce aux quatre moteurs exerçant chacun une poussée de 17 5oo livres (8 5oo kg), la vitesse de croisière attendue est de l’ordre de 900 km/h. Le pont supérieur recevra entre 108 et i52 passagers selon la classe adoptée, tandis que le pont inférieur emportera du fret. Le directeur de Vickers a qualifié le futur VC-10 de « champion du monde virtuel ». Il est vrai que le premier appareil ne volera pas avant la fin de l’année 1961, c’est-à-dire bien après l’entrée en service des appareils américains du type Douglas DC-8 ou Boeing 707, ses concurrents directs. P. W.
- p.384 - vue 388/527
-
-
-
- Biologie et pêche
- De la transplantation des plies au marquage des morues
- Le terme de pêche scientifique s’applique assez souvent aux procédés et aux tactiques de pêche dont les apports de la science ont considérablement accru l’efficacité (1). Nous dirions plutôt qu’il s’agit là de techniques dont le but, pour un navire pris isolément, est d’accomplir une campagne de pêche avec le meilleur rendement possible. Leur intérêt économique ne saurait être contesté et l’on doit reconnaître qu’en utilisant par exemple les appareils de sondage par écho les flottes modernes de pêche apportent une contribution plus grande à l’alimentation mondiale, tout en élevant le niveau de vie des pêcheurs.
- Ces progrès cependant ont une contrepartie qui est le risque de dépeupler les mers et de tarir cette source d’approvisionnements alimentaires. Ce risque est difficile à apprécier et, dans la suite des temps, les idées à cet égard ont largement évolué. En i883, T. H. Huxley déclarait que les grandes pêches maritimes sont pratiquement inépuisables et que l’action de l’homme ne peut avoir qu’une influence négligeable sur la population des poissons. Des thèses entièrement différentes ont été exprimées depuis lors : sans se rallier à l’alarmisme excessif de certains, la plupart des auteurs admettent que le stock de nourriture contenu par les océans doit être géré avec prudence, sous peine d’obliger les futures générations à faire face à une situation de moins en moins favorable. C’est là évidemment une idée très générale qui exige d’être confirmée dans le détail, ce qui justifie la vaste gamme des recherches entreprises en de nombreux pays pour fonder l’industrie de la pêche sur une connaissance biologique plus précise du milieu marin et des différentes faunes qui y vivent.
- Tous les problèmes ne sont pas d’égale urgence et l’on peut
- 1. Voir aussi : Expérience d’exploitation de la nature : la pêche au Grand Lac de l’Esclave, par G. FEnTOis, La Nature, août 1957, p. 328.
- considérer par exemple que les espèces pélagiques (telles que le hareng) ne risquent pas jusqu’à nouvel ordre d’être «. ;surpê-chées ». Tout différent est le cas des poissons qui font partie de la faune côtière et des inquiétudes assez vives ont été exprimées en particulier pour la Mer du Nord où opèrent les navires de pêche de plusieurs nations, capturant plus d’un million de tonnes de poissons par an sur un périmètre qui ne dépasse guère 3a5 ooo km2. Des signes assez nets de dépeuplement y ont été relevés qui font apparaître que les ponctions opérées 6ur certaines espèces dépassent dès à présent leur faculté de renouvellement.
- Démographie marine. — Cet exemple typique (sur lequel d’ailleurs nous reviendrons avec plus de détails) a été l’occasion pour les biologistes européens de fixer leurs méthodes d’investigation. Elles sont, sans aucun doute, assez complexes : il ne suffit pas en effet d’apprécier les caractères généi'aux de tel ou tel secteur, c’est-à-dire de recenser les différentes populations qui s’y sont fixées, il faut encore que les espèces soient méticuleusement identifiées, que le cycle biologique de chacune soit parfaitement connu ainsi que les ressources alimentaires qui lui permettent de vivre.
- L’étude prend à la fois un aspect statistique ou « démographique » et un aspect plus nettement biologique. Les chiffres de la pêche en général et ceux de pêches expérimentales exécutées à titre de sondage renseignent sur la composition des stocks et leurs fluctuations, sur les réactions de chaque espèce aux opérations de pêche. Des recherches embryologiques, des marquages de poissons adultes feront par contre ressortir les probabilités de croissance des poissons et leur faculté de reproduction. Mais d’autres facteurs biologiques interviennent : température et salinité de l’eau, causes de la mortalité naturelle (maladies, parasites, prédateurs, etc.). L’océanographie d’autre
- p.385 - vue 389/527
-
-
-
- 386
- part fournira, en ce qui concerne le milieu marin, des données qui peuvent être assimilées à celles de la météorologie et de la pédologie, mises sur les continents au service de l’agriculture et de l’élevage.
- Les fluctuations de la Plie. — 11 est évident que de pareilles études ont rarement été entreprises dans toute leur ampleur lorsqu’il s’est agi de pêches où aucune défaillance du poisson ne s’était manifestée. Un cas par contre doit être mis en relief : c’est celui de la Plie (Pleuronectes plaiessa). A la fin du siècle dernier déjà, des craintes avaient été exprimées quant à la permanence des stocks et une expérience occasionnelle — la guerre de 1914-1918 — attira l’attention dos chercheurs scientifiques : pendant les années de guerre en effet la grande pèche au chalut fut pratiquement supprimée et lorsqu'elle reprit, à la fin des
- Fig. 2. — Cari Georg Johannes Petersen ( 1860-1928).
- (Photo aimablement communiquée pur le Ministère royal danois des Affaires étrangères).
- hostilités, on constata que les prises étaient devenues beaucoup plus abondantes. La population des Plies s'était donc accrue en quantité, mais, dans une assez forte proportion, les poissons avaient vieilli et leur état démontrait qu’ils étaient insuffisamment nourris : manifestement, la surpopulation avait entraîné un appauvrissement en ressources alimentaires. Dans les années qui suivirent, la pèche intensive (les terrains de Plies étant en moyenne chalutés deux ou trois fois par an) produisit son effet : les Plies diminuèrent progressivement de taille et il apparut qu’on ne leur laissait pas le temps de parvenir jusqu’à leur plein développement.
- Les conclusions pratiques de cet état de choses auraient pu se limiter à des mesures réglementaires, restreignant les périodes de pêche, agrandissant les mailles des filets, etc. On serait ainsi resté fidèle à la conception classique qui assimile la pêche à la chasse et où la protection des espèces (à des fins économiques) est obtenue en dosant les ponctions dont elles font l’objet. Mais, se demanda-t-on, pourquoi ne pas réviser cette conception dans le sens de méthodes semi-agiicoles ? Ne pouvait-on agir sur la population des Plies comme on agit sur celle des animaux terrestres d’élevage ? Plusieurs expériences ont donc été tentées : sur les côtes écossaises par exemple on a recueilli les œufs de Plies pour les « couver » dans des récipients protégés, on a élevé les alevins qui furent mis en liberté alors qu’ils avaient dépassé 1’ « âge critique », celui où les jeunes poissons sont systématiquement dévorés par les adultes.
- 11 semble que ccs expériences n’ont jamais pu atteindre une échelle suffisante pour modifier sensiblement les conditions naturelles. Par contre, un essai hollandais de transplantation a donné d’intéressants résultats : des jeunes Plies capturées sur la côte des Pays-Bas ont été marquées, puis libérées par moitié sur remplacement où elles avaient été pêchées, l’autre moitié étant remise à l’eau sur le Dogger Bank, zone riche en coquillages qui sont la nourriture habituelle des Plies : il est apparu, à la reprise, que les « immigrantes » du Dogger Bank avaient eu une croissance sensiblement plus rapide que les sujets laissés dans leurs eaux natales.
- Mais c’est au Danemark que les méthodes de ce genre ont pris un développement tout particulier. On doit noter à ce sujet que les premières initiatives en vue d’études scientifiques menées en commun ont été prises par les pays Scandinaves : à la suite de deux conférences internationales (à Stockholm en 1899 et à Oslo en 1901), un « Conseil international pour l’exploitation de la mer » a été créé, dont le siège est à Copenhague. Un laboratoire annexe fonctionne à Oslo.
- Les travaux de Petersen. — Ce n’est pas au hasard que la capitale du Danemark a été choisie comme le centre scientifique de la pêche. A l’époque en effet où se situe la création du Conseil international, des recherches d’un genre entièrement nouveau avaient été entreprises par un jeune savant, C. J. IL Petersen (fig. 2), qui, en 1889 avait pris — il était alors âgé de 29 ans — la direction de la Station biologique danoise. Pour être mieux fixé sur l’exceptionnelle personnalité de Petersen, il suffira d’indiquer qu’au moment où il fut investi dans ses fonctions, il avait déjà à son actif une série de travaux sans précédent : étude systématique de la faune benthique- des eaux danoises, pêche et identification des œufs et des alevins des principales espèces de poissons. Mais on lui doit aussi une invention qui, à elle seule, mérite de lui conférer une célébrité mondiale : c’est Petersen qui le premier conçut et mit en application la méthode de marquage des poissons, en vue de connaître et suivre leurs migrations.
- Par la suite, il élabora une théorie synthétique de la biologie marine à laquelle il donna le nom imagé de « métabolisme de la mer ». C’est en 1915 qu’après une saison de recherches dans le Kaltegat il traça le schéma métabolique de ce bras de mer. Évaluant à 24 millions de tonnes le stock de base, constitué par la nourriture végétale, il estime que sur ce stock vit une faune benthique pesant 6 millions de tonnes. Celte faune se divise en deux parties inégales : 5 000 000 t d’ « animaux inutiles » (c’csl-à-dire qui ne servent pas à alimenter les poissons) et 1 000 000 t d’animaux utiles (vers, petits lamellibranches, etc.).
- Ce serait, du point de vue de la pêche, la véritable richesse à exploiter. Elle est en fait gaspillée, car cette catégorie d’animaux utiles sert de nourriture à des crustacés, des gastéropodes, des étoiles de mer et autres prédateurs primaires qui à leur tour sont dévorés par des poissons carnassiers tels que la morue. Cette dernière, étant placée au sommet de la pyramide de prédation, est exceptionnellement « chère à nourrir » : selon les estimations de Petersen, les 6 000 l de morues pêchées chaque années dans les eaux du Kaltegat coûtent 600 000 t d’animaux utiles. La Plie au contraire, qui se nourrit directement de ces animaux, est un poisson économique : les 5 000 t annuelles de Plies sont produites par l’ingestion de 5o 000 t de petits animaux. Un môme stock fournit donc 1 t de morue contre xo t de Plies.
- La conclusion, un peu aventurée et platonique, de Petersen est que l’exploitation du stock de nourriture marine serait plus rationnelle si l’homme vivait lui-même sur les animaux de base et ... court-circuitait les prédateurs qui le transforment en l’appauvrissant. Mais si tous les poissons sont nos concurrents théoriques, une constatation pratique demeure, c’est que la
- p.386 - vue 390/527
-
-
-
- 387
- Fig. 3. — Bateaux danois pêchant les jeunes Plies sur les terrains de frai de la Mer du Nord.
- (Photo aimablement communiquée par le Ministère royal danois des Affaires étrangères).
- Plie est un moindre mal. A cet égard, elle a droit à des soins spéciaux. Elle est, tout au moins dans le cas des eaux danoises, le poisson sur lequel les recherches biologiques doivent conduire aux résultats les plus fructueux.
- La transplantation des Plies. — Une idée émise par Petersen dès 1897 est qu’il y aurait avantage à transplanter les Plies (qui n’atteignent qu’un assez faible développement dans les zones de frai) vers des terrains en eaux plus profondes où la population est davantage clairsemée et où la nourriture disponible est plus abondante.
- De nombreuses transplantations expérimentales ont été pratiquées au début du siècle sur des Plies marquées. Elles ont. donné lieu aux observations suivantes :
- i° Le pourcentage des Plies reprises est souvent assez faible, soit que les poissons aient souffert pendant le transport, soit qu’ils aient émigré vers des fonds où la pêche est difficile;
- 20 D’une manière générale, les Plies libérées après transplantation ont tendance à se déplacer davantage que les Plies libérées sur place ;
- 3° Le taux de croissance des Plies transplantées est nettement plus élevé que celui des mêmes poissons restés sur les terrains de frai, en eaux peu profondes. Des gains en longueur de 7 à 9 cm acquis en un an sont presque de règle et l’on trouve des cas exceptionnels où l’allongement a atteint de i3 à i5 cm. Notons que l’exactitude des mesures des poissons repris n’est jaimais absolue : ces mesures sont généralement effectuées sur des poissons morts envoyés par les pêcheurs et qui se sont contractés pendant le parcours.
- Les conclusions de ces premières expériences étaient assez nuancées : le Skager-Rak par exemple paraissait peu favorable à la transplantation. Le Kattegat au contraire se présentait relativement bien. La zone de capture des jeunes Plies se situait dans la zone côtière occidentale du Danemark, au large d’Esbjerg, c’est-à-dire en Mer du Nord.
- Jusque-là on ne s’était guère écarté de ce secteur de la Mer du Nord et c’est seulement en 1920 que l’attention de Petersen fut dirigée vers les deux Belts où les pêcheurs signalaient un changement notable survenu parmi les Plies. La cause et les effets étaient les mêmes que ceux exposés plus haut pour la Mer du Nord : la pêche en s’intensifiant avait éliminé les vieilles Plies et avait fait apparaître une génération nouvelle de poissons, moins nombreux mais plus lourds et de meilleure
- qualité. Cette constatation a grandement contribué à réformer l’ancienne théorie qui tendait à restreindre purement et simplement la pêche : l’exemple des Belts démontrait qu’il était anti-économique de laisser vivre les Plies après le terme de leur croissance et au-delà d’une taille de 35 à 07 cm qu’elles dépassent rarement.
- De même, il n’y avait aucun intérêt à vouloir exploiter directement les terrains de frai de la Mer du Nord où une population d’environ ii4 millions de Plies était concentrée à tel point que
- Fig. 4. — Type de pêcheur groenlandais.
- (Photo Ministère royal danois des Affaires étrangères).
- chaque poisson devait vivre sur une surface de fond ne dépassant pas i,3 m2. Dans un rapport ultérieur (1922), Petersen aboutit à la conclusion que les transplantations qui s’imposent en tout état de cause ne devraient pas prévoir plus de 4o Plies à l’hectare sur le nouveau « terrain de pacage ».
- On voit que l’idée de gérer la mer comme un ensemble de propriétés d’élevage est désormais bien assise dans l’esprit de Petersen. Elle est partagée d’ailleurs par ses collaborateurs A. C. Johansen et II. Blegvad qui après sa mort (1928) ont poursuivi son oeuvre. C’est en cette même année 1928 que, pour la première fois, une transplantation sur une vaste échelle fut pratiquée : i43 000 Plies pêchées sur les terrains de frai du Horns Rev en Mer du Nord (fig. 3) et du Nissum Bredning dans le Limfjord furent libérées dans les Belts. Cette opération fut répétée chaque année : elle se solda au bout de six ans par un bénéfice de 168 000 couronnes, réalisé par les pêcheurs des Belts. Depuis lors, elle est devenue classique : une sorte de division du travail s’est opérée entre les pêcheurs de l’Ouest qui recueillent et verident les jeunes Plies (comme certains éleveurs terrestres vendent les poussins ou les porcelets) et les pêcheurs de l’Est, assimilables aux éleveurs qui engraissent les animaux. Ajoutons que, dans les Belts, terrains de pacage, on ne se soucie
- p.387 - vue 391/527
-
-
-
- Fig. 5.
- Pêche de la morue au large du Groenland (Photo Centre de propagande de la Morue).
- guère du renouvellement du stock et que les pêcheurs ont toute latitude de pratiquer une pêche d’épuisement, sous la réserve toutefois de respecter une taille inférieure limite du poisson, ce qui est d’ailleurs leur strict intérêt.
- Les statistiques du Limfjord. — Nous ne possédons pas d’éléments statistiques précis concernant la transplantation des Plies dans les Belts pendant les dernières années. Un document par contre, publié en 1955, nous renseigne sur une transplantation à moins vaste échelle dans deux bassins du Limfjord (au nord du Jutland), ceux de Thisted et Visby. Les Plies ne s’y reproduisent pas et la transplantation se pratique d’une manière continue depuis 1928. Les résultats, relevés jusqu’en 1953, sont assez irréguliers. Dans le tableau ci-dessous, nous avons choisi deux années (1933 et 1937) où l’opération (en poids) a été négative, alors que trois autres années (1929, 1 g43, 1951) ont été favorables :
- Transplantations Productions
- Années
- négatives
- Années très productives
- t 1933 .................. 36 786 kg 28 000 kg
- ) 1937 .................. 41 825 » 41 615 »
- ( 1929 .................. 31 448 » 85 200 »
- 1943 .................. 25 672 » 112 419 »
- ( 1951 .................. 48 125 » 97 077 »
- Commentant ces résultats, les spécialistes danois estiment que les très fortes productions ne sont pas dues uniquement à la transplantation. Les années fastes du Limfjord succèdent en effet (à environ 4 ans de distance) à des années de grande abondance en Mer du Nord. Il y aurait donc eu une immigration de poissons adultes, créant un repeuplement accidentel et temporaire. Les marquages d’ailleurs confirment que les Plies transplantées constituent une minorité parmi les Plies pêchées.
- Cependant la technique de la transplantation s’est récemment
- améliorée, de même que celle du marquage (par tatouage). C’est ainsi que les reprises en ig53 ont pu atteindre 87 pour 100.
- Ce qu’en outre on n’aperçoit pas à première vue, c’est que le bénéfice économique de la transplantation dépasse de loin celui qui ressortait de la comparaison des poids. Cela s’explique par le fait que les cours du poisson se relèvent fortement dans les années de rareté. C’est ainsi que dans les mauvaises années ig33 et 1937, les recettes de production ont atteint 28 000 et 48 83o couronnes, alors que les frais de transplantation étaient d’environ 6 5oo couronnes. Le bénéfice net s’est donc chiffré par 21 5oo et 42 23o couronnes. L’opération a été cependant plus « payante » en ig5i où une somme de 16 900 couronnes dépensée en transplantation a permis aux pêcheurs de réaliser un bénéfice de i32 23o couronnes.
- La crevette groenlandaise. — Les recherches biologiques ont joué un rôle capital dans les pêcheries de la côte occidentale du Groenland où, pendant longtemps, la pêche avait conservé un caractère artisanal et procédait de méthodes très primitives. Un exemple très net de cette situation ancienne est donné par la pêche du flétan, assez prospère jusqu’à la période 1930-1935 où un brusque fléchissement fut constaté. Une conserverie de flétan, installée à Holsteinborg, se trouva pratiquement sans travail et les autorités danoises se préoccupèrent de remédier à la carence de matière première.
- Manifestement, le flétan avait été « surpêché », mais sa présence au long de cette côte démontrait qu’il avait pu vivre sur un stock abondant de nourriture. Il fut assez facile d’établir la composition de ce stock, eu examinant le contenu de l’estomac des poissons : il s’agissait en majeure partie de crevettes de l’espèce Pandealus borealis, connue en plusieurs régions, depuis le Skager-Rak jusqu’au Spitzberg. La conserverie groen-
- p.388 - vue 392/527
-
-
-
- 389
- Fig. 6 et 7. — Transfert des œufs de saumon dans les ruisseaux qui se jettent dans les fjords du Groenland.
- (Photos aimablement communiquées par le professeur P. M. IIansen).
- landaise fut donc reconvertie du flétan à la crevette et la pêche de cette dernière fut organisée, partant pratiquement de zéro. La biologie de Pandealus borealis n’était pas inconnue : elle devait cependant être étudiée de plus près, en tenant compte des conditions locales qui régnent sur la côte groenlandaise.
- Au bout d’une série de travaux, dirigés par le professeur Paul M. Hansen, les indications suivantes ont pu être relevées. Le Pandealus est un crustacé des profondeurs et les terrains propices à la pêche sont des fonds vaseux, situés entre 3oo et 4oo m de la surface. Les pêcheries du Groenland sont voisines de la limite septentrionale de l’espèce et un faible refroidissement de l’eau suffit à déterminer une baisse massive de la population. C’est ainsi que l’hiver exceptionnellement froid de 1948-1949 a détruit le stock d’IIolsteinborg : la pêche n’a pu être reprise qu’au bout de 4 ou 5 ans, grâce surtout à l’apport de crevettes pêchées dans un autre secteur, celui de la baie de Disko, qui est d’ailleurs devenue (bien que plus septentrionale) le centre de la pêche des Pandealus.
- C’est d’ailleurs à Disko que les observations ultérieures se sont concentrées. L’espèce supporte des températures minimales de — i,6° C et maximales de + 8°. Sa période de développement est considérablement allongée dans les eaux froides. On la mesure à partir de l’éclosion de l’œuf jusqu’à l’épisode caractéristique de la vie de la crevette, à savoir son changement de sexe (ce crustacé en effet commence par être du sexe mâle et se transforme ensuite en femelle). Or ce changement de sexe, qui se produit à l’âge de deux ans dans les eaux danoises, est retardé jusqu’à quatre ans dans la partie sud de la côte groenlandaise et jusqu’à cinq ans à Disko (comme d’ailleurs au Spitzberg). Il s’agit là de moyennes car, dans les années chaudes, le changement de sexe intervient plus tôt. Mais de toute manière la lenteur du développement et par conséquent du
- renouvellement de l’espèce est un facteur favorable à la permanence du stock.
- On a reconnu que les crevettes, outre certaines migrations horizontales déterminées par la recherche des températures optimales, se livrent à une migration verticale quotidienne qui les amène toutes les nuits près de la surface.
- Ces différentes données ont guidé la pêche qui a progressé de manière régulière, se concentrant de plus en plus dans la région de Disko où une usine de réfrigération a été installée, doublée par une conserverie. Les eaux de cette région contiennent, semble-t-il, une réserve inépuisable : la pêche intensive sur les fonds de 3oo à 4oo m est compensée par un renouvellement, dû à la proximité de fosses profondes où la pêche au chalut ne peut être pratiquée.
- Ajoutons que l’industrie de la crevette est favorisée par les usages gastronomiques Scandinaves qui donnent une large place à ce crustacé dans la composition des plats et des menus.
- Le marquage des Morues, — La pêche de la Morue, au large de la côte occidentale et même de la côte orientale du Groenland, a pris en ces dernières années une grande extension, en raison du réchauffement des eaux (fig. 5).
- Pour guider cette pêche, les biologistes danois ont eu recours, depuis 1925, à la méthode des marquages qui leur a permis de dresser une sorte de tableau démographique, où l’on tient le plus grand compte de l’âge des Morues (on sait que la détermina, tion de l’âge est obtenue en comptant les zones des otolithes). C’est ainsi que, par un jeu constamment tenu à jour de fiches perforées, on a pu démontrer l’existence de « classes pleines » et de « classes creuses » dont l’inégalité est due à une conjugaison plus ou moins favorable des facteurs température, salinité, réserves de nourriture, courants, etc. Deux « classes » se sont
- p.389 - vue 393/527
-
-
-
- 390
- signalées par leur grande importance numérique : la classe 1922 et la classe ig34.
- Mais la population des Morues est également caractérisée par son hétérogénéité. Deux groupes tout d’abord doivent être distingués : le groupe septentrional possède un plus grand nombre de vertèbres que le groupe méridional. En outre, l’étude des migrations a fait apparaître une division en clans qui adoptent des terrains de frai différents : il y a celui qui fraie dans les eaux plus chaudes de l’Atlantique, en direction de Terre-Neuve; il y a celui, plus nombreux, qui se dirige vers les côtes de l’Islande. Ceci concerne les Morues migratrices, auxquelles s’opposent les Morues sédentaires qui ont des terrains de frai locaux dans plusieurs fjords du Groenland.
- Ce schéma général demande à être, dans une certaine mesure, corrigé, en raison des échanges et des métissages qui, selon le professeur Hansen, ont lieu d’un groupe à l’autre. On remarquera que ces études et les méthodes de pêche qui en découlent n’ont pas exactement la même physionomie que celles des côtes
- danoises. La Morue ne se prête pas, comme la Plie, à des opérations de transplantation et de peuplement. La pêche de la Morue en zone arctique n’a pu, de ce fait, adopter l’allure d’un élevage terrien : elle bénéficie toutefois de données de plus en plus précises qui pourraient conduire à un contrôle permanent comparable à celui qui s’exerce sur un troupeau libre.
- Les biologistes danois ont par contre inauguré tout récemment des expériences de transferts d’œufs de Saumons, provenant des fjords de Norvège : ces œufs, transportés dans des récipients connus sous le nom de boîtes de Weber, sont libérés dans les petits cours d’eaux qui se jettent dans les fjords groenlandais (fig. 6 et 7). Cette tentative, qui se justifie par l’analogie entre les milieux marins de la Norvège et du Groenland, est actuellement en cours et l’on ne peut encore se prononcer sur ses résultats. Si elle réussit, ce sera une contribution de plus apportée par la biologie à la prospère industrie de la pêche groenlandaise.
- Gaston Cohen.
- l/été 1958 en France
- Tableau I. — Caractéristiques de l’été 1958, comparées aux normales
- Températures Précipitations Soleil
- Moyenne Moyenne Moyenne Hauteur totale Nombre total Nombre total
- des maximums des minimums des moyennes en mm de jours d’heures
- ig58 Norm. ig58 Norm. ig58 Norm. 1958 Norm. ig58 Norm. ig58 Norm.
- Paris-Montsouris .... 22,6 23,8 i3,6 i3,o 18,2 18,4 263,1 i64,4 53 37 570,9 734,0
- Lille 21,0 31,7 12,9 11,6 16,9 16,6 208,0 171,0 46 4o 5o6,o 579.0
- Tours 22,2 24,7 i3,o 12,8 17,6 18,8 190,0 327,4 i5i ,0 60 34 53g,o 693,0
- Brest 17 > 9 19»1 ii,9 11,7 i4,9 i5,4 202,0 56 43 555,3 6i4,3
- Nantes 21,6 23,1 12,6 12,4 16,9 17,8 3o4,o i5i ,0 55 38 494,0 786,0
- Cherbourg 18,6 19,1 i3,o i3,3 r 5,8 16,2 183,9 168,0 45 33 —
- Bordeaux 28,6 24,5 13,4 13,7 i8,5 i9> 3og,o 189,0 4i 33 712,3 734,0
- Toulouse 24,9 26,4 14,0 i4,i 19.4 20,3 164,4 102,0 39 23 73i,8 719.0
- Limoges 22,2 23,4 11 >7 10,9 16,4 16,9 17,2 292,0 84,8 199.0 49 33 612,0 704,0
- Marignane 27,1 28,0 i6,3 31,9 22,2 72,0 12 10 97*bo 975,o
- Nice-le-Var 24,5 26,2 17,2 18,1 18,4 20,9 22,1 116,2 69,1 i4 I I 1 oo6,5 1 000,0
- Perpignan 27,2 24,8 28,1 22,2 23,2 35,9 8i,3 i4 17 899.0 887,0
- Lyon 25,9 i4,4 l4,2 i9>6 20,1 3i2,4 237,9 44 32 772,5 814,7
- Clermont-Ferrand .... 24,0 24,8 12,8 12,5 18,4 18,7 i5g,o 178,7 37 3i 671,0 722,0
- Strasbourg 23,5 24,3 i3,3 12,8 i8,3 l8,6 249,3 230,2 47 38 56g,o 597,7
- Nancy 22,2 23,2 12,1 11,6 17,2 17,4 2i4,4 198,8 46 37 566,o ”
- Sur l'ensemble du pays. — Les données numériques des 16 stations météorologiques qui figurent sur le tableau I font ressortir que l’été 1958 a été modérément frais, assez pluvieux et mal ensoleillé. La température moyenne mensuelle a été faiblement déficitaire (N — o,5°), mais la moyenne des températures maximales quotidiennes présente un déficit plus accusé (N — i,i°); par contre, la moyenne des températures minimales quotidiennes est très légèrement supérieure à la normale (N + 0,2°).
- La pluviosité a été excédentaire (i,3 N) et l’insolation peu généreuse (0,9 N). Les orages ont présenté une fréquence normale dans l’ensemble.
- Dans les régions. — La température. — Partout déficitaire, la température moyenne a montré les plus forts écarts à la normale dans le Sud-Est (N — o,8°), le Sud-Ouest (N — 0,7°) et l’Ouest (N — o,6°). Elle s’est rapprochée de la normale dans le Centre-Est (N — o,i°) et le-Nord-Est (N — 0,2°). Les tem-
- pératures maximales moyennes ont accusé le plus fort déficit dans le Sud-Ouest (N — i,5°) et dans le Nord (N — i,4°), les écarts les plus faibles étant observés dans le Centre-Est (N — o,7°), dans le Sud-Est et dans le Nord-Est (N — o,8°). Les températures minimales moyennes ont été excédentaires sur la majeure partie du pays, et surtout dans le Nord (N + 0,70). Les seules régions où elles n’ont pas été excédentaires sont l’Ouest (écart nul) et le Sud-Est (N —-o,6°).
- La pluviosité. — Elle a été excédentaire presque en toutes régions. Cet excédent a été plus particulièrement marqué dans l’Ouest (i,5 N) et dans le Sud-Ouest (i,4 N), tandis qpie la moitié Est du pays était la moins touchée (1,1 N). Le nombre de jours de pluie a été également supérieur à la normale sur tout le territoire.
- L’insolation. — Sauf dans le Sud-Est où elle a été très légèrement supérieure à la normale, l’insolation a été déficitaire partout ailleurs, surtout dans l’Ouest (0,8 N).
- p.390 - vue 394/527
-
-
-
- 391
- Les orages. — Le nombre de jours d’orage a été voisin de la normale, marquant un léger excédent dans le Nord, le Sud-Ouest et le Nord-Est, et un léger déficit ailleurs, surtout dans l’Ouest et le Sud-Est.
- Les mois. — La. température. — Les mois de juin et de juillet ont été frais, surtout si l’on considère les températures maximales moyennes (N — 1,2° et N — r,3° respectivement). En juin, le déficit atteint, sur ces températures, i,6°- dans le Nord-Est et i,5° dans le Nord. En juillet, on note un déficit de 2,o° dans le Sud-Ouest et de i,5° dans le Nord. En ce qui concerne le mois d’août, si la température moyenne est légèrement excédentaire (N + 0,2°), on retrouve un déficit pour les températures maximales moyennes (N — 0,7), déficit qui atteint encore i,3° dans le Sud-Ouest. Seule la région du Centre-Est marque, au cours de ce mois,'un léger excédent en ce qui concerne les températures maximales moyennes (N -f o,i°); elle est, avec le Nord-Est, la région la plus favorisée : température moyenne, N + o,8°.
- La pluviosité. —• De même intensité pendant les trois mois de l’été (1,3 N), elle a cependant été plus marquée en juillet dans le Sud-Est (2,7 N) et dans le Sud-Ouest (1,7 N); en juin dans le Sud-Ouest (2 N) et dans le Nord (1,5 N) ; en août dans l’Ouest, le Sud-Ouest et le Nord-Est (i,5 N). Au cours de ce môme mois, la région la plus favorisée a été le Sud-Est (o,5 N), seule région déficitaire en août, de même qu’une partie du Nord-Est.
- L'insolation. — Elle a été égale à 0,9 N au cours de chacun
- des trois mois, mais c’est au cours du mois d’août qu’elle a été le plus mal partagée (0,7 N dans le Nord et l’Ouest), cependant qu’elle dépassait la normale dans le Sud-Est (1,1 N).
- Les orages. -— Supérieurs à la normale au cours du mois d’août (1,2 N), ils ont été particulièrement ressentis dans le Nord-Est où ils ont causé d’importants dégâts (1,6 N), dans le Centre-Est et l’Ouest (1,5 N) et dans le Sud-Ouest (i,4 N). Le Sud-Est seul a été déficitaire (0,7 N). Le mois au cours duquel l’activité orageuse a été la plus faible est celui de juin (0,7 N), en particulier dans le Sud-Est (0,2 N) et l’Ouest (o,3 N). Le mois de juillet a été normal au total, la région de l’Ouest étant la plus favorisée (0,2 N), tandis qu’un excédent était noté dans le Nord (i,3 N) et dans le Sud-Est (1,2 N).
- A Paris-Montsouns. — La température moyenne a été très légèrement inférieure à la normale au cours de cette saison (déficit de 0,2°). De même que dans la majeure partie des stations, ce déficit a été plus marqué sur les températures maximales moyennes (N — 1,2°). C’est le mois de juin qui a été le plus frais (N — o,8° pour les températures moyennes et N — i,5° pour les maximums).
- La pluie a été abondante (1,6 N) surtout en juin (2,1 N); mais c’est en août que le nombre de jours de pluie a été le plus important (20 jours alors que la normale est de 12).
- L’insolation a été très déficitaire (0,8 N) : il a manqué 160 heures de soleil au cours de la saison, soit près de 2 heures par jour, en moyenne.
- R. N.
- Le liège et ses dérivés chimiques
- La production de liège est essentiellement limitée au bassin occidental de la Méditerranée : Portugal, Espagne, Algérie, Maroc, Tunisie, Italie et, en faible quantité, dans le sud de la France. Aucun résultat valable n’a été obtenu aux U.S.A., en Crimée et au Japon où des essais ont été tentés.
- Le terme de liège n’appelle guère généralement à l’esprit que des propriétés physiques (élasticité, imputrescibilité, imperméabilité, légèreté, non-conductibilité de la chaleur et du son), seules utilisées jusqu’ici dans les bouchons, isolants, flotteurs. Mais comme l’importance de la demande en liège en faisait monter le prix on a cherché à le remplacer : capsules métalliques sur les bouteilles d’eaux minérales, bouchons en poly-thène...
- Devant l’essor des matériaux de synthèse une chute plus ou moins rapide du marché du liège est à prévoir, entraînant l’inutilité apparente des forêts de chêne-liège et la diminution des revenus pour certains pays. Ce qui amena à envisager l’utilisation des dérivés chimiques du liège ainsi que le rappelait le professeur A. Guillemonat, de la Faculté des Sciences de Marseille, dans la revue Industries et Travaux d'Outre-Mer (octobre 1957). Et d’insister d’abord sur sa structure très complexe et encore mal connue. Céroïdes, subérine et une fraction ligno-cellulosique en forment les composants. D’aspect cireux, les céroïdes sont obtenus par simple dissolution dans un solvant organique. La subérine représente l’ensemble des acides gras obtenus après saponification ou alcoolyse, ces acides gras pouvant être solubles dans l’eau (10 pour 100 du liège) ou solubles seulement dans des solvants organiques (45 pour 100 du liège). La fraction ligno-cellulosique (3o pour 100) est insoluble dans les solvants usuels.
- Le liège contient encore de l’eau, des tannins, de la glycérine et quelques sels minéraux. En fait 3o pour 100 seulement des substances extraites du liège sont donc de constitution connue.
- La pénurie de ig4o a incité les professeurs Dupont et Guillemonat à utiliser des acides gras pour la fabrication de savons et lubrifiants. Montée par capitaux privés une usine-pilote faisait passer ce procédé du laboratoire à l’industrie quand la fin de la guerre rendit inutile cet effort.
- On s’orienta alors vers le fractionnement de la subérine en deux parties : cire de liège et subéroline, la première, produit dur et fondant vers 8o°, paraissant pouvoir concurrencer la cire du palmier Carnauba (importée du Brésil) dont il est fait grand usage. Malheureusement elle ne pourrait s’y substituer totalement qu 'après légère modification que le manque de moyens financiers n’a pas permis jusqu’ici.
- De la subéroline, produit mou, collant, qui, sous l’action de la chaleur, donne une masse souple ressemblant à du caoutchouc on a tiré quelques réalisations dans la confection de vernis souples pour métaux.
- Emulsionnée dans l’eau, la cire de liège a permis le « paraffinage » des fruits. Depuis quelques années les agrumes de l’Afrique du Nord sont traités à la cire de liège ce qui, en plus d’un aspect brillant agréable à l’œil, les protège mécaniquement de l’évaporation et des moisissures.
- Les sels de subéroline possèdent un pouvoir émulsifiant remarquable, bien que ne moussant pratiquement pas, et ils sont utilisés pour stabiliser les émulsions du latex de caoutchouc. Ils empêchent de même les émulsions de matières plastiques de se coaguler sous l’effet du froid. En un an les ventes de subéroline sur le marché français ont doublé et l’usine-pilote d’Alger équilibre à peu près ses frais.
- Des possibilités sont à prévoir dans le domaine des vernis, cires, matières plastiques, textiles artificiels, parfums de synthèse...
- Une reconversion de l’industrie du liège est à envisager dans les années à venir.
- P. Gauboy.
- p.391 - vue 395/527
-
-
-
- 392
- Les essais de turboréacteurs
- La mise au point d’un nouveau moteur exige comme pour un avion de nombreux essais; et dans le cas particulier des turboréacteurs, pour lesquels la gamme des conditions de fonctionnement est très vaste, le nombre de ces essais est très grand. On peut les décomposer pratiquement en trois catégories : les essais thermodynamiques des différents éléments, les essais de performances et de régulation au sol et en altitude, et les essais d’équipements tels que ceux de ventilation, de régulation ou de dégivrage. Ces essais peuvent être effectués soit sur des bancs au sol, ce qui correspond aux essais en soufflerie des maquettes d’avion, soit en vol, le réacteur en essai étant monté dans des nacelles spéciales sur un avion déjà éprouvé.
- Essais au banc. — Les installations nécessaires sont de natures très diverses. Si l’on suit l’ordre chronologique du déroulement des essais, on trouve d’abord les chambres de mesure pour compresseurs et turbines dans lesquelles on détermine leur rendement. De même, pour les chambres de combustion, on détermine avant l’essai sur le moteur complet le rendement de combustion, la perte de pression totale dans la chambre, la carte des températures et les limites d’extinction. Lorsque les divers éléments qui constituent le réacteur ont été essayés séparément, on passe à l’essai du réacteur lui-même; les conditions d’essai vont du ralenti au régime de décollage. Le réacteur est monté sur un chariot qui peut se déplacer longitudinalement et qui est relié à un point fixe au moyen d’un anneau dynamométrique. Le problème le plus important à résoudre est celui des mesures. Les paramètres qui intéressent l’ingénieur se limitent principalement à trois : pressions, températures et vitesses.
- Les mesures de pression s’effectuent à l’aide de sondes, dites tubes de Pitot, qui détectent parallèlement la pression totale et la pression statique, d’où l’on peut en déduire la vitesse de l’écoulement. Pour explorer toute l’étendue d’une veine, comme une tuyère de sortie, on utilise des peignes qui groupent un certain nombre de sondes de Pitot parallèles.
- Les appareils de mesure de températures sont soit des appareils basés sur la variation de la résistance électrique d’un conducteur, soit des thermocouples. Deux types de thermo-couples sont utilisés suivant la valeur des températures à mesurer : fer-constantan pour les basses températures, et chromel-alumel pour les températures élevées.
- Les vitesses de rotation enfin sont mesurées par des tachy-mètres électroniques qui permettent de compter un grand nombre d’impulsions en un temps très court; on peut ainsi mesurer des vitesses à plus ou moins un tour/minute. Parmi les bancs d’essai au sol, il faut faire une place à part aux chambres de simulation des conditions en altitude qui, comme leur nom l’indique, servent à essayer les moteurs sous la pression et la température qui régnent en haute altitude. Mais, d’une part ces bancs conditionnés sont toujours quelque peu en retard sur le développement des turboréacteurs, d’autre part ils sont prévus pour des essais en régime stationnaire, ce qui interdit de faire varier rapidement les conditions de fonctionnement du turboréacteur en essai. Aussi, une grande partie des essais doit être effectuée sur bancs volants.
- Bancs d’essai volants. — On utilise dans ce but des avions ayant déjà de nombreuses heures de vol à leur actif. Le moteur en essai est disposé soit en remplacement de l’un des
- p.392 - vue 396/527
-
-
-
- 393
- moteurs assurant la propulsion normale de l’appareil, soit dans des nacelles extérieures (lig. i).
- Le problème le plus épineux est celui de l’enregistrement des mesures; l’appareil le plus souvent utilisé est l’enregistreur Hussenot-Beaudouin. Les courbes de variation des paramètres sont tracées sur films photographiques dont la vitesse de déroulement peut varier entre o,5 et 180 mm/s; une base de temps est installée dans l’appareil et permet de repérer la succession des phénomènes.
- Généralement, les avions utilisés sont des avions de transport, dont la vaste cabine permet l’installation d’un nombre important d’instruments. Toutefois, pour des raisons particulières, telles que des essais à haute altitude, on fait parfois appel à des bombardiers, comme c’est le cas en Angleterre où le
- Canberra a déjà servi à la mise au point de plusieurs turboréacteurs dont le Bristol « Olympus ».
- En France, la S.N.E.C.M.A., après avoir successivement utilisé le quadrimoteur « Languedoc » et le bimoteur S.O. 3o et Bretagne » effectue actuellement tous ses essais en vol sur un S.E. 2010 « Armagnac » (fig. 2) mais pour étendre encore davantage le domaine de vol, tant en vitesse qu’en altitude, on prête à notre principale société de construction de turboréacteurs l’intention d’acquérir ultérieurement une « Caravelle ».
- Signalons enfin pour conclure que la mise au point du turboréacteur se termine par son adaptation à l’avion prototype avec lequel on réalise les derniers essais d’équipements communs au moteur et à l’avion.
- Jacques Spincourt.
- L'accouplement de la reine abeille
- Après Réaumur, Huber et Dzierzon, et bien que les travaux de von Frisch aient entraîné de nombreuses études sur la biologie des abeilles, les détails précis sur l’accouplement de la reine restent tant soit peu mystérieux. On admet généralement que la jeune reine s’échappe de la ruche d’un vol rapide, suivie d’une nuée de mâles dont le plus puissant devient le procréateur d’une génération porteuse de ses hautes qualités. Or, des observations récentes de Pierre Jean-Prost, rapportées dans une note à l’Académie des Sciences (Comptes rendus, 4 décembre 1957), semblent ramener à des proportions bien plus modestes l’histoire des noces de l’abeille si poétiquement popularisées par Maeterlinck.
- Ces observations ont été faites en Lozère, sur le plateau Can de l’Hospitalet. Quand les conditions atmosphériques sont favorables, les mâles d’abeilles sortent en groupes denses, formés de 3o à 100 individus environ; ils tourbillonnent autour d’un centre, suivant un point qui semble commander les mouvements du groupe, lequel produit un bourdonnement très caractéristique. Certains de ces groupes s’éloignent rapidement tandis que d’autres ne tardent pas à tomber à terre. L’expérience, consistant à présenter une reine vierge enfermée dans une cage de grillage, a montré que plus d’une vingtaine de mâles sont immédiatement attirés et viennent se poser sur cette cage. L’auteur a constaté d’autre part que, souvent, l’envol d’un
- criquet ou d’un mylabre déclenche une poursuite des mâles d’abeille présents dans les environs. Mais, cette poursuite est arrêtée au bout d’une ou deux secondes. Il semble donc que les groupements se fassent autour d’une reine vierge. Ce fait a été confirmé par la capture d’un de ces essaims, contenant une reine; l’accouplement de celle-ci a pu être constaté par la présence des organes génitaux d’un mâle trouvé mourant, encore engagés à l’extrémité de son abdomen.
- Ces vols de mâles en groupe autour d’une femelle sont donc des essaims d’accouplement, dont la trajectoire se termine par une chute, et l’acte sexuel est accompli à terre, dans l’herbe. Comme nous voilà loin de la jeune reine de Maeterlinck « ivre de ses ailes, et obéissant à la magnifique loi de l’espèce qui choisit pour elle son amant et veut que le plus fort l’atteigne seul dans la solitude de l’éther ». D’autre part, P. Jean-Prost confirme les accouplements multiples de la reine abeille. Ce fait avait été admis par Stephen Taber qui se basait sur l’observation de la descendance d’une reine porteuse d’un caractère récessif ; il avait ainsi pu déterminer la race de plusieurs mâles avec lesquels elle s’était accouplée. Enfin, le volume du sperme contenu dans la spermathèque après le vol nuptial, comparé à la quantité émise par un seul mâle, apporte également une preuve des accouplements multiples.
- L. C.
- p.393 - vue 397/527
-
-
-
- 394
- Chemins de fer eurasiatiques
- L'Europe occidentale possédait déjà un important réseau ferré quand, tout à la fin du siècle dernier, la Russie des tsars entreprit la construction d’un chemin de fer transsibérien. Celui-ci, ouvert à la circulation en voie unique en 1901, fut ultérieurement doublé; puis, après la Révolution, on le rattacha au réseau d’Asie centrale soviétique. Cependant, jusqu’à ces dernières années, les communications ferroviaires entre la Russie d’Europe et la Sibérie et l’Extrême-Orient demeurèrent très insuffisantes. Le problème se pose de façon pressante au moment où les récents plans quinquennaux mettent l’accent sur la mise en valeur systématique des immensités sibériennes; au moment aussi où les relations entre l’U.R.S.S. et la Chine se resserrent étroitement du point de vue politique et économique.
- Ainsi, tandis qu’en Occident le chemin de fer apparaît à beaucoup comme un moyen de transport périmé, au contraire, il se développe dans les régions économiquement attardées. La Sibérie ne possède aucun grand fleuve orienté d’Est en Ouest qui facilite les transports, et les relations aériennes sont trop onéreuses pour être utilisées ailleurs que dans les cas indispensables (Arctique, transport de voyageurs ou de courrier, de marchandises rares ou de denrées périssables). L’édification d’un important réseau ferré semble donc la nécessaire infrastructure de tout plan de développement ultérieur d’un pays neuf. L’Asie soviétique et chinoise passe par la phase d’équipement qu’a connue l’Amérique du Nord au siècle dernier.
- Les parties asiatiques de l’U.R.S.S. recèlent de riches gisements minéraux (fer et métaux non ferreux), possèdent d’immenses réserves d’énergie hydroélectrique et offrent d’énormes possibilités agricoles. Déjà le 5e plan quinquennal (i95o-ig55) avait consacré aux investissements industriels dans ces régions (Oural, Kazakhstan, Kouznetzk, Turkestan, Transcaucasie) des sommes près de trois fois supérieures à celles du précédent quinquennat.
- Il y a mieux encore : bien que le 6e plan ait prévu un développement sensible de la production agricole (« terres vierges » du Kazakhstan), forestière et minière, ainsi qu’un essor correspondant de l’industrie, ses prévisions apparaissent comme périmées. Un nouveau plan a été présenté le ier juillet 1958, et couvrira la période 1959-1966 : il concerne les industries minières et métallurgiques, l’industrie chimique, l’électrification, la production de gaz naturel et de pétrole, le développement de la culture céréalière et de l’abattage de bois.
- La refonte totale du système de communications entre Russie d’Europe et régions asiatiques s’impose par conséquent comme la tâche la plus urgente. Les voies ferrées existantes sont soumises à un très lourd trafic, qui, par exemple, a atteint pour certaines, en 1955, des Ailleurs doubles de celles de 1960. Les prévisions pour i960 font également peser sur les voies ferrées eurasiatiques la plus grande partie de l’accroissement attendu de trafic. Les conditions géographiques imposent l’emploi du chemin de fer, qui assure pour l’ensemble de l’U.R.S.S. 84 pour 100 des transports de marchandises (en ig55).
- La modernisation des lignes existantes permettra d’absorber un plus lourd trafic. C’est ainsi que le Transsibérien est en cours d’électrification (voir la note parue dans La Nature, septembre 1956, p. 368); les gares sont agrandies et les quais allongés, de nouveaux entrepôts édifiés, des stations de triage aménagées. La traction Diesel est introduite dans les steppes et les déserts du Kazakhstan. De nombreux raccordements sont construits, des embranchements nouveaux desservent des gisements miniers qui vont entrer en exploitation. La mise prochaine en service (1959 ?) de pipe-lines reliant Oufa et Tuimazy (Volga-Oural) à Omsk et Irkoutsk, et ultérieurement à l’Extrême-Orient, doit soulager le Transsibérien; des raffineries de pétrole sont prévues à Novosîbirsk et Irkoutsk.
- Outre le développement propre de la Sibérie, l’essor du réseau ferré intéresse au plus haut point les relations économiques entre l’U.R.S.S. et les pays d’Asie, particulièrement l’Iran, l’Afghanistan et la Chine.
- Les rails à large écartement des chemins de fer russes (i,52 m au lieu de 1,43 m pour la voie standard) ne pénètrent guère dans les pays limitrophes, à l’exception de la Finlande, de la Mongolie, et de quelques tronçons situés en Iran et en Arménie turque. Sur la nouvelle voie ferrée (Irkoutsk) Oulan-Bator-Pékin, un transbordement est nécessaire à Tsining. Cette obligation constitue naturellement un obstacle majeur : on tend à rechercher l’emploi de wagons à axes interchangeables, ou bien à décharger les marchandises à bord de camions automobiles qui les transporteront directement à destination. Dans ce but, un organisme spécial dénommé Autonechtransport a été fondé à Moscou en ig52, avec des agences fonctionnant à Achkhabad pour l’Iran, Kouchka et Termez pour l’Afghanistan, Saïsan et Panfilovo pour le Sin-Kiang, etc. L’intérêt de cet organisme ressort du fait qu’il n’existe point, par exemple, de chemin de fer en Afghanistan et que les marchandises afghanes doivent, pour gagner l’étranger, emprunter les voies ferrées soviétiques. Il en va de même pour les produits destinés à ce pays : les marchandises anglaises et allemandes transitent par la Pologne, les marchandises hollandaises par la Tchécoslovaquie, etc. D’autre part, des techniciens russes prêtent leur assistance afin de construire en Afghanistan une route de montagne traversant la chaîne de l’Hindou-Kouch (5 000 m) et reliant Kaboul à Termez. Le financement de la construction est assuré par un prêt soviétique.
- Le développement des liens avec les pays d’Asie figure au premier rang des préoccupations des Soviets. La ligne directe d’Irkoutsk à Pékin, via Oulan-Oude, Oulan-Bator et Tsining, a été ouverte au trafic en janvier 1966; grâce à cette nouvelle jonction, le trajet Moscou-Pékin se trouve raccourci de 1 oookm, et la distance Moscou-Changhaï est désormais plus courte que la distance Moscou-Vladivostok. En outre, Irkoutsk sera relié prochainement, via Oulan-Bator et Tsining, au grand centre industriel nouveau de la Chine, Lan-Chou (ou Lan-Tchéou).
- Lan-Chou, déjà relié par rail à Pékin, Changhaï et Tchoung-king, voit grandir son rôle de plaque tournante : on projette de prolonger la voie Lan-Chou-Tchoung-king au-delà de cette dernière ville, en direction du Yunnan minier (qu’une voie ferrée, due aux Français, rattache au Tonkin), ainsi qu’en direction de Tchang-Hiang, port situé entre Canton et Haïnan, et qui semble appelé à un bel avenir. Dans la direction du sud-ouest, une autre voie ferrée est projetée de Lan-Chou à Lhassa, via le bassin du Tsaïdam. Sera-t-elle réalisée, et est-elle même réalisable, vu l’altitude atteignant 5 000 m ? C’est également la question que l’on se pose devant le projet soviétique de liaison ferroviaire Turkestan-Sin-Kiang-Inde : une telle voie ferrée devrait franchir l’épaisse barrière du Karakorum, où le pic Ka culmine à plus de 8 600 m.
- Enfin, de Lan-Chou part une dernière ligne en direction du Turkestan soviétique, via la Porte de Dzoungarie. Activement menés des deux côtés, les travaux doivent en principe être achevés pour i960. Grâce à un raccordement avec le chemin de fer sud-sibérien, via Karaganda, la nouvelle liaison ouvrira une voie d’accès directe entre l’U.R.S.S. et la Chine centrale et méridionale. Son importance économique et politique ne doit pas être sous-estimée; les centres industriels soviétiques, en pleine progression, de l’Oural et de la Sibérie seront reliés à une vingtaine de ports ouverts sur l’Océan Pacifique, au lieu du seul
- p.394 - vue 398/527
-
-
-
- 395
- Fig-. 1. — Carte des chemins de fer
- et archaïque Vladivostok, pris quatre mois de l’année par les glaces.
- Durant ce temps, le chemin de fer Baïkal-Amour-Magistral, déjà plusieurs fois annoncé comme étant réalisé ou près de l’être, semble curieusement rejeté à l’arrière-plan. Son intérêt est cependant certain, envisagé du point de vue de la mise en valeur de la taïga sibérienne : il desservirait Bratsk (centrale hydraulique géante sur l’Angara), des gisements de houille et de fer, ainsi que des mines d’or. Il atteindrait Nikolaïevsk, et des antennes se dirigeraient vers Iakoutsk et Magadan, où de
- eurasiatiques existants et en projet.
- (Cartographie La Nature, d’après The Times Review of Indaslry)
- nouvelles industries commencent à croître. Sans doute la réalisation du B.A.M. est-elle à prévoir dans l’avenir, quand les préoccupations actuelles de liaisons transasiatiques se seront faites moins pressantes. Celles-ci en tout cas, peu connues en Occident, sont en train de modifier le visage d’une partie de l’Asie. A ce titre, elles ne sont pas sans évoquer la prodigieuse épopée des constructeurs de transcontinentaux, dans le Canada et le Far West de la deuxième moitié du xix® siècle.
- Paul Wagbet.
- L'enseignement des sciences aux États-Unis
- Dans un précédent article (La Nature, novembre 1957, p. 454), nous faisions remarquer les deux points faibles de la recherche scientifique aux États-Unis : le niveau de l’enseignement secondaire et la tendance à développer la rechèrche appliquée plutôt que la recherche pure. Des statistiques récentes et deux messages du président Eisenhower du 13 et du 27 janvier 1958 prouvent l’effort entrepris par les États-Unis pour remédier à ces deux points faibles.
- Le budget de l’Atomic Energy Commission, qui était de 1 990 millions de dollars en 1957, est porté à 2 300 millions de dollars en 1958 et sera de 2 550 millions de dollars en 1959. D’autre part, les crédits alloués à la National Science Foundation seront portés à 140 millions de dollars en 1959, soit plus de trois fois leur valeur actuelle, 58 millions étant réservés pour les bourses
- de recherche et les fonds d’équipement et 82 millions pour l’extension et l’amélioration de l’enseignement scientifique, à tous les niveaux, soit cinq fois le montant actuel.
- Le gouvernement fédéral envisage de dépenser des sommes très importantes pour augmenter considérablement le nombre des bourses d’études, augmenter les fonds mis à la disposition des écoles normales de professeurs et hausser leur niveau à celui des grandes universités, augmenter le nombre des bourses pour les cours d’été de perfectionnement des professeurs, permettre aux États d’améliorer le recrutement des professeurs de physique et de mathématiques, en particulier en augmentant leur salaire, encourager les jeunes gens à choisir une carrière scientifique.
- A. A.
- p.395 - vue 399/527
-
-
-
- 306 La figuration du mouvement en Zoologie
- Fig. 1. — Panthère s’étirant.
- L’art de traduire par la peinture et par la sculpture la vie en mouvement chez les animaux remonte certes à l’époque magdalénienne de la préhistoire mais, en abordant cette question, il faut préciser le sens du terme mouvement. « Déplacement d’un corps ou de quelqu’une de ses parties », énonce le dictionnaire Larousse.
- Devant cette définition concise, prenons un exemple : le pas d’un cheval aide son corps, par le déplacement successif de ses quatre pieds, à progresser sur le sol. Les autres allures principales, trot, galop, sont de nouvelles combinaisons par lesquelles le quadrupède accroît sa vitesse en utilisant les mêmes appuis, avec des suspens plus ou moins prolongés. Ces allures, de même que le petit galop, le traquenard, le recul, le bond, le saut, sont dits mouvements de translation.
- L’étirement d’un animal au réveil (fig. i) sera déjà un geste car il devient significatif d’une impression du sommeil à l’éveil, de la fatigue même qui a contracté ses muscles au lendemain d’une course, d’une chasse ou d’une bataille. Survienne un compagnon, un rival, le geste se concentre sur une expression physionomique d’accueil ou une grimace haineuse de la face, spécialement chez les singes, les fauves, les rongeurs. Chez les chevaux, les ruminants et les rongeurs aussi, les oreilles, plus exclusivement, trahiront la colère en se couchant, l’attention ou l’écoute en pointant en avant. La queue, chez les singes, les carnassiers, présidera au rétablissement de l’équilibre ou bien traduira la satisfaction chez les Canidés en s’agitant latéralement quand, par contre, chez les Félidés, le même mouvement caractérisera l’impatience, l’intolérance. Chez les Oiseaux, les impressions se manifestent plus spécialement par le hérissement, le soulèvement ou l’aplatissement relatifs de telle ou telle « plage »
- du plumage soulevée par les muscles peauciers d’une zone de pté-rvlies : mouvements de la huppe (fig. a), hérissement de la collera Ite, du scapulum, bouffant des plumes ventrales, du croupion, des sous-caudales (braies de l’Autour), etc. Sans les multiplier, ces exemples caractérisent les mouvements proprement dits de relation ainsi que les gestes et les nuances des jeux physionomiques.
- Jusqu’à nos jours, l’iconographie zoologique n’a jamais insisté sur la figuration encyclopédique des mouvements, des gestes et des nuances physionomiques des espèces animales. La science ne se doit-elle pas de décrire cette dynamique expressive à la suite de ses diagnoses morphologiques, base de sa nomenclature systématique, tout comme la chimie ne peut s’arrêter sans avoir donné les caractères et propriétés des substances ?
- Les vélins, réalisés du xvne au xixe siècle, s’en tiennent, dans leur magnificence, à livrer les proportions du corps et enregistrent les matières diverses des téguments et leur coloration, décrivant par la miniature le faciès statique des animaux comme il fut fait pour les plantes par d’autres artistes de la même période. Plutôt que s’arrêter à ce stade, il faudrait, dès à présent, distinguer rationnellement, planche par planche, par une figuration synoptique, les attitudes typiques des espèces reliées à celles des genres, voire à celles de la famille, de l’ordre, de la classe puisqu’il y a des mouvements spécifiques caractéristiques qui isolent les types, et également des affinités entre les groupes qui les englobent.
- Cette figuration comporterait par conséquent des dessins de la forme la plus épurée, jetés dans le schéma d’ébauche le plus dépouillé comme la plus mobile interprétation du mouvement envisagé, et conduits vers le fini, de quelques-uns du moins, avec les colorations que l’aquarelle rehaussée de gouache peut réaliser dans l’expression de la substance de la vie toute palpitante. Cela est autrement significatif que ces phases immobilisées par la photographie qui ne peut, volontairement, puisque l’appareil n’est pas un cerveau, nous donner, sans choix, les seules poses remarquables triées par un observateur doué. Se méfier de la conscience de l’homme, de l’artiste, et donner foi à l’objectivité d’un appareil est, dans le cas, une étrange dépravation, pour « moderne » qu’elle soit. La machine ne doit pas servir une
- paresse d’esprit et d’éducation générale dans la pratique même du dessin.
- La mobilité n’est discernable que sous la fougue de l’artiste qui l’a sentie dans son rythme le plus précis. Je sais que cela est possible. Cent témoignages de l’Art sont là pour en prouver, par des résultats plastiques de la sculpture et de la peinture, la réalisation éparse à toutes les époques où
- Fig. 2. — Attitudes d’oiseaux.
- A gauche, Huppe (deux phases). Au milieu, Chevalier combattant (paràde : collerette et oreillettes épanouies, hérissement du dos). A droite, Autour des Palombes montrant ses braies (sous-caudales) .
- r>
- p.396 - vue 400/527
-
-
-
- 397
- Fig. 3. — Oiseaux en vol.
- A gauche, Milans royaux planant. A droite, Pie, Eider et, au-dessous, Oiseau-Mouche.
- le réalisme s’est fait jour à travers les monstruosités de l’hagiographie religieuse et traditionaliste. Certes des œuvres de cinétique, comme les séries enregistrées par Marey et Muybridge, sont un beau résultat. Mais 1’ « œil » d’un appareil n’est pas réglé assez près des réflexes humains. Rien ne témoigne du fragment de seconde que nous devons imaginer sur tel instantané qui, s’il est plus rapide que notre perception propre, précise le phénomène alors que le but est de relater une observation humaine d’abord, avant tout, et non l’objectivité enregistrée par un déclic plus ou moins prompt, analyses de télévision ou de ralenti, renseignements d’une optique extérieure à notre enregistrement artistique. Pourquoi éloignerait-on les perceptions de l’observation en plein air au profit d’un développement en chambre noire ?
- Il y a du reste un certain nombre de phénomènes qui, pour être bien figurés, le but étant la représentation de la mobilité, doivent conserver toute l’apparence que la vie met devant nos yeux, en vision normale; témoin ce flou partiel de certaines parties d’un animal en translation : le battement des ailes d’un oiseau dénonce, suivant l’espèce, la dimension de l’envergure et le poids de son corps relativement à la surface portante. Considérez vos souvenirs d’un rapace qui plane, d’une pie à l’essor, d’un eider volant au ras de la mer (fïg. 3). Le premier laisse compter ses rémiges primaires largement étendues et aucun détail de sa voilure ne nous échappe, immuable plan volant. La seconde, avec un battement scandé avec effort, donne quatre ailes sur notre rétine. Le troisième, au corps lourd, à la surface alaire faible, les ailes étant courtes proportionnellement à la longueur du corps, est obligé de les actionner si vite qu’elles forment une zone de brouillard qui coupe en deux la masse visible du palmipède. A plus forte raison, si nous considérons un oiseau-mouche vrombissant en plein vol devant une fleur. Seuls son corps, sa queue et sa tête restent immobiles et visibles. Le peintre devra donc imiter ce halo brumeux, si toutefois un appareil peut enregistrer au fixe la torsion imprimée à la surface de l’aile certainement gauchie en pale d’hélice par l’intense agitation. Pour les quadrupèdes, le phénomène de flou est observable chez tel cheval, chien ou lièvre traversant à toute vitesse. Les membres sont presque invisibles tandis que la tête, le corps,
- la queue sont nets dans leur translation sur la ligne de course. L’indication du dessinateur devra être lâchée sur les flous, précise sur les parties fixes ou relativement continues et bien visibles.
- Nous venons d’envisager la question d’expression préalable de la vitesse. Elle importe pour l’évocation des images complexes que reçoit notre rétine avec une netteté qui varie pour un même mouvement accéléré entre le précis et le flou. En tenant compte de ces principes bien établis, l’artiste sensible devra noter dans une forme impressionniste le résultat de ses perceptions. Il détaillera donc, sur une feuille assez grande pour les contenir sans confusion, un nombre de croquis et d’accomplissements qui permettent d’un coup d’œil d’ensemble de comparer les différents motifs choisis par lui comme typiques. Ces thèmes du modèle auraient trait à une série d’attitudes à l’arrêt, au repos, dans diverses allures de progression, dans des poses de toilette, de chasse, de fuite, etc.
- Gestes majeurs où l’artiste rencontre le désir du savant, puisqu’ils seront qualifiés à travers toute la série des êtres indépendants que sont, seuls, les représentants du règne animal les plus intéressants encore à signaler : les Vertébrés parmi lesquels il faudra faire une sélection particulièrement représentative des mouvements, gestes et jeux physïonomiques les plus distinctifs.
- Se posera la question de qualité de l’Artiste. Il faudra s’appuyer sur une objectivité très consciencieuse tout en restant vivant dans son indication. Cas de nos grands dessinateurs français du temps où Clouet traçait d’admirables portraits trait pour trait, avec quel sens de la psychologie dépouillée de tout agrément ! Pour le mouvement, il se souviendra de maîtres comme Géricault dont les chevaux sont, si mobiles grâce à son insistance sur la nature des points osseux et des masses musculaires tandis que les parties les plus mobiles restent en ébauche. Ainsi des Assyriens qui sculptèrent les motifs des bas-reliefs de Ninive, restant fidèles à la pose, au modelé les plus vivants, donc les plus réels, à côté d’interprétations décoratives des crinières et des membres reliés au plan de la stèle. Ainsi, plus près de nous, de notre génial animalier Barye, anatomiste profond et artiste si animé dans toutes les parties de ses groupes de bronze. On parcourra l’histoire de l’Art depuis les préludes des Magdaléniens en exceptant les moindres réussites des adeptes de l’engra-vure sur paroi auprès de plus réels chefs-d’œuvre où la réalisation
- p.397 - vue 401/527
-
-
-
- 398
- Fig. 4. — Cercopithèques Diane : variations de la forme.
- (Dessins inédits de Roger Rkboussin).
- la plus certaine domine dans certains profils de chevaux ou de bisons, bouquetins, cerfs, etc. La Grèce antique, l’Égypte, les Hindous, les Persans, les Chinois et les Japonais, tentés par l’expression de la vérité de la forme et du mouvement, nous livrent dans nos musées, sous les procédés les plus divers, par des principes généraux qui les unissent, les exemples les plus constants de cet art. La fidélité au vrai d’un Pisanello, d’un Breughel, d’un Vélasquez, d’un Potter aussi bien que chez Chardin, chez Courbet, Barye, Léo-Paul Robert et Liljefors, pour les plus récents, prouvera le retour nécessaire de tous les maîtres de cet art à l’étude de la Nature.
- Qu’on imagine réalisée une série de planches donnant les attitudes des Fauves, des Antilopes, des Poissons, des Ophidiens et des Oiseaux avec leurs gestes et leurs expressions corporelles et faciales réunies, groupées, classées avec un esprit scientifique en catégories méthodiques. Ceci pour soutenir que notre artiste-naturaliste ne devrait pas traduire la vie avec une charge d’ennui à la traîne d’un lourd savoir mais chanter librement ce qu’il sent, s’exprimer avec caractère et avec naturel, impressionné comme au lendemain d’une observation ou d’une méditation sur ses souvenirs présents et forts d’un enthousiasme
- fidèle. Dessin et peinture se lieront sans discontinuité pour raconter en lignes et en taches colorées l’intensité d’une présence, d’une scène restituée avec leur gymnique, leur mimique, leur qualité de texture et leur substantielle saveur sur la même page synoptique.
- Il est des savants comme un public qui le souhaiteraient au-delà des froids schémas des manuels qui ne valent pas les enseignements que la clé des champs ouvre sur l’école buissonnière, car il n’est pas de zoologiste ni d’animalier dont la passion de l’étude ne l’ait entraîné aussi à méditer sur le mimétisme de l’animal et de son environnement de nature libre, sur la parité de décoration à patron des bêtes et de leur milieu habituel, terreàuj feuillages, herbes et trous de vase, sable, neige ou rocher, air et eau. Quelles notions pour peindre la partie en fonction du Tout !
- Quelles séries de nos bibliothèques en font état ? Aucune. Je sollicite les pouvoirs de notre Éducation Nationale de s’en vouloir bien émouvoir.
- Roger Reboussin,
- Maître de Dessin appliqué aux Animaux au Muséum national d'Histoire naturelle.
- Coloration adaptative et mimétisme
- L’important ouvrage de Hugh B. Cott, Adaptative coloration in Animais, paru en 1940, vient d’être, non réédité à proprement parler, mais simplement réimprimé (’). La présentation du volume est, si possible, encore plus soignée que celle de l’édition originale ; l’impression, semblant réalisée par un procédé photographique, sur très beau papier, est remarquable ; les planches ont été groupées à la fin. H suffira de rappeler les grandes lignes de cet ouvrage qui devrait se trouver dans toutes les bibliothèques de biologie. La première partie concerne les colorations et dessins dont le but semble être de dissimuler plus ou moins parfaitement l’animal dans son milieu ; ce sont les colorations cryptiques. L’auteur étudie successivement les ressemblances générales au milieu, les couleurs variables, l’ombre oblitérante, les dessins disruptifs, l’effacement de l’ombre portée ; il indique ensuite la signification biologique de ces différents caractères. La seconde partie est consacrée aux colorations dites sématiques, dont le rôle semble opposé à celui des précédentes ; il s’agit de ces caractères qui rendent un animal particulièrement visible et semblent ainsi le signaler à l’attention d’un prédateur éventuel, car tous ces animaux possèdent un moyen de défense quelconque. Ces caractères sont étudiés avec le même soin que les couleurs cryptiques : apparence et comportement des animaux aposématiques,
- 1. Adaptative coloration in Animais, par Hugh B. Corr. 1 vol. 18 x 25, 508 p., 48 planches. Methuen, Londres, 1957. Prix, relié : 75 sh
- relations entre les couleurs avertissantes et les attributs répulsifs, valeur des défenses en face des ennemis. La troisième partie s’occupe des déguisements et, sous ce terme, l’auteur réunit des faits très différents, mais dont le caractère commun est de montrer une ressemblance entre l’animal et un végétal ou des objets inanimés, ou une similitude entre un animal inoffensif et un autre protégé par un moyen de défense. Les premiers se rapprochent des colorations cryptiques puisque le but est de rendre l’animal invisible dans son milieu et de le soustraire ainsi aux attaques de ses ennemis ; les seconds présentent en général des colorations très vives, grâce auxquelles certains animaux ressemblent, de façon souvent extraordinaire, à des modèles, appartenant toujours à un groupe qui en est plus ou moins éloigné dans la classification ; mais, alors que le premier animal est parfaitement comestible et fréquemment attaqué par des ennemis, le second est protégé par des moyens divers et, en général, délaissé par les prédateurs ; la ressemblance procure donc à l’imitateur, ou mime, une immunité qui est fonction de la perfection de son imitation ; c’est le mimétisme. Un important chapitre de conclusions et une bibliographie étendue terminent ce beau travail. On sera certainement heureux de pouvoir se procurer cet ouvrage, qui était devenu introuvable en librairie ; il s’y ajoute malheureusement le regret que son auteur n’y ait pas ajouté un chapitre sur les travaux récents.
- L. C.
- p.398 - vue 402/527
-
-
-
- 399
- La séparation des terres rares à grande échelle
- L'installation-pilote du Laboratoire de Bellevue
- L’installation-pilote du Laboratoire des Terres rares du C.N.R.S. à Bellevue, créée sous la direction de M. Félix Trombe, est l’objet d’une présentation au Palais de la Science, à l’Exposition internationale de Bruxelles. M. Jean Loriers, maître de recherches au C.N.R.S., qui dirige actuellement la séparation des terres rares dans ce laboratoire, a bien voulu en exposer l’intérêt et les méthodes dans l’article que nous publions ci-après.
- On désigne sous le nom de terres rares ou lanthanides la série des i4 éléments trivalents du 3e groupe de la classification périodique qui, du lanthane au lutécium (nos atomiques 57 à 71), dérivent les uns des autres par addition d’un électron dans la couche profonde 4 /• Il convient de joindre à la famille des terres rares d’une part l’yttrium, qui accompagne toujours les lanthanides dans leurs minerais, et aussi le scandium, qui n’est jamais exempt de terres rares à l’état naturel. Tous ces éléments possèdent des propriétés chimiques extrêmement voisines, ce qui s’explique facilement si l’on observe (tableau I) que leurs atomes présentent exactement la même structure dans les couches électroniques externes, responsables, comme on Je sait, des caractères chimiques.
- La séparation des éléments des terres rares, toujours associés dans la nature, a été longtemps un des problèmes les plus difficiles à résoudre de la chimie minérale. Seuls quatre d’entre eux peuvent être assez facilement isolés en exploitant des propriétés particulières liées à des changements de valence, d’ailleurs exceptionnels : ce sont d’une part le cérium, qui peut passer à l’état tétravalent, et être alors précipité à pH très acide comme le thorium, et d’autre part le samarium, l’europium et l’ytterbium, qui possèdent un état bivalent (assez instable) qui les rapproche des alcalino-terreux. Pour les autres,
- on n’obtient guère par les méthodes de séparation les plus éprouvées qu’une division grossière en deux groupes : le groupe cérique, comprenant les premiers éléments de la série : lanthane, cérium, praséodyme, néodyme, samarium, et le groupe yttrique, réunissant les éléments de poids atomique plus élevé, à partir du samarium ou de l’europium, et aussi l’yttrium, qui lui a donné son nom. Cette division se retrouve d’ailleurs dans la composition des divers minerais de terres rares, qui sont généralement caractérisés par la prédominance d’un des deux groupes : groupe cérique pour la monazite, et groupe yttrique pour la gadolinite, par exemple.
- Pour isoler ensuite chaque élément dans un groupe, on était obligé autrefois de recourir à des opérations de fractionnement très laborieuses, et seuls les éléments les plus abondants dans les matières premières (comme le néodyme) ou ceux occupant une place particulière (comme le lanthane) pouvaient être séparés en quantités appréciables avec une pureté satisfaisante. En dehors de ces cas favorables, la préparation à l’état pur des sels des terres rares restait un problème d’une complexité décourageante : des années de travail, des milliers de cristallisations fractionnées ont été nécessaires pour isoler certains éléments du groupe yttrique ; en particulier, ceux de numéro atomique impair, qui sont très peu abondants dans les mélanges naturels. On comprend facilement que dans ces conditions la production à grande échelle de ces éléments ne pouvait être envisagée.
- Le procédé de séparation par échanges d’ions. —
- La mise au point de nouvelles méthodes de séparation, plus efficaces et plus rapides, devint une nécessité urgente avec le développement des travaux sur l’énergie atomique. Les terres rares entrent en effet dans la composition des produits de fission et il était indispensable de pouvoir séparer ces éléments et de les préparer à l’état pur et en quantités suffisantes pour l’étude de leurs propriétés nucléaires.
- Tableau I. — Répartition des électrons des atomes des terres rares a l’état normal
- Nombres Io 2o 2| 3o 3, 3s 4o 4. 4s 43 5o 5, o2 60 6, 6S
- Eléments et sy mboles K L M N 0 P
- atomiques S S P S P cl s P d / S P d s P d
- Scandium 21 Sc 2 2 6 2 6 I 2
- Yttrium . 39 Y 2 2 6 2 6 IO 2 6 1 2
- Lanthane. 37 La 2 2 6 2 6 IO 2 6 m 2 6 I 2
- Cérium . 58 Le 2 2 6 2 6 IO 2 6 m I 2 6 I 2
- Praséodyme . 59 Pr 2 2 6 2 6 10 2 6 10 2 2 6 I 2
- Néodyme. Prométhium. 60 Nd 2 2 6 2 6 10 2 6 m 3 2 6 I 2
- 61 Pm 2 2 6 2 6 10 2 6 10 4 2 6 I 2
- Samarium . C2 Sm 2 2 6 2 6 10 2 6 10 5 2 6 I 2
- Europium . 63 Eu 2 2 6 2 6 10 2 6 m 6 2 6 I 2
- Gadolinium . 64 (id 2 2 6 2 6 10 2 6 m 7 2 6 I 2
- Terbium. 65 Tb 2 2 6 2 6 10 2 6 m 8 2 6 I 2
- Dysprosium. 66 Dy 2 2 6 2 6 10 2 6 m 9 2 6 I 2
- Holmium. 67 Ho 2 2 6 2 6 10 2 6 m 10 2 6 1 2
- Erbium . 68 Er 2 2 6 2 6 10 2 6 m 11 2 6 I 2
- Thulium . 69 Th 2 2 6 2 6 10 2 6 m 12 2 6 I 2
- Ytterbium . 70 Yb 2 2 6 2 6 10 a 6 10 i3 2 6 I 2
- Lutécium • 71 Lu 2 2 6 2 6 10 2 6 m i4 2 6 1 2
- p.399 - vue 403/527
-
-
-
- 400
- En Amérique, dans le cadre du « Manhattan Project » et du « Plutonium Project », des moyens importants furent mis à la disposition de plusieurs groupes de chercheurs. Leurs travaux aboutirent à la mise au point du procédé de séparation des terres rares par échanges d’ions, procédé qui marque un progrès considérable, au point de vue de l’efficacité, sur les anciennes méthodes de fractionnement. Rappelons le principe de ce procédé désormais classique.
- Les ions terres rares en solution acide peuvent être adsorbés par les résines synthétiques échangeuses de cathions telles que celles du type Amberlite IR ioo (polymère phénol-formaldéhyde) ou Dowex 5o (polymère aromatique sulfoné). Les cathions adsorbés peuvent être ensuite élues sélectivement par l’action de divers agents complexants; en particulier, les solutions de citrate d’ammonium dans des conditions convenables de concentration et de pli. Pour donner à l’opération son efficacité maximale, on place la résine dans une longue colonne cylindrique, à l’entrée de laquelle on fixe le mélange à séparer. Le passage de la solution éluante dans la résine provoque une cascade de désorptions et de ré-adsorptions des ions terres rares, qui subissent de ce fait un déplacement lent et continu vers la sortie de la colonne. Comme il existe, d’une terre rare à l’autre, de petites différences dans la force des liaisons résine-terre rare, et aussi dans la stabilité des complexes citriques, la progression s’accompagne d’une séparation des terres rares, qui apparaissent finalement dans Véluat à la sortie de la colonne dans l’ordre inverse de leurs basicités, c’est-à-dire de leurs numéros atomiques. En fractionnant les solutions sortant de la colonne, on matérialise la séparation, qui est évidemment plus ou moins complète suivant les conditions opératoires. La figure i représente le montage très simple que l’on utilise généralement. La
- ELUAN
- Laine de verre
- Contrôle
- Résine
- échangeuse
- Fractionnement
- ELUAT
- Plaque
- poreuse
- Fig. 1. — Appareillage de séparation des terres rares sur colonne de résine échangeuse d’ions.
- résine est placée dans une colonne de verre surmontée d’un réservoir qui l’alimente en solution éluante, et l’éluat passe à travers un dispositif de contrôle ou de fractionnement automatique.
- Dans les premiers travaux américains, les séparations se faisaient sur des traces de pi'oduits de fission, et on contrôlait la sortie des différentes terres rares (radioactives) à l’aide d’un compteur Geiger-Müller. Les courbes d’élution représentaient donc l’activité de l’éluat en fonction du volume passé. Par la suite, on travailla sur des quantités pondérables, mais de
- l’ordre du milligramme seulement. Ce n’est qu'après les travaux de F. H. Spedding et collaborateurs aux Laboratoires d’Ames (Iowa) qu’il fut établi que le procédé n’était pas seulement une technique d’analyse chromatographique, mais aussi une méthode de préparation.
- Après la publication des premiers résultats obtenus par les Américains, les travaux de séparation des terres rares par échange d’ions se multiplièrent. En France, une série de recherches furent entreprises sous la direction de F. Trombe au Laboratoire des Terres Rares du C.N.R.S., qui venait d’être installé à Bellevue. De nombreuses séparations furent réalisées en utilisant une résine du type « Dowex 5o » de qualité commerciale et, en même temps, on perfectionna les moyens de contrôle des produits obtenus : spectrophotométrie d’absorption et analyse par spectres de flamme, mesure de la susceptibilité magnétique, etc.
- L’ensemble de ces essais ayant donné des résultats encourageants, il fut décidé d’orienter les travaux vers la préparation de sels de terres rares en plus grandes quantités, avec comme objectif la construction d’une installation-pilote dont la production serait suffisante pour couvrir tous les besoins du laboratoire, qui s’attaquait à un vaste programme d’études fondamentales sur les métaux et alliages des terres rares, et pour faire face aux demandes croissantes provenant d’autres laboratoires de recherches.
- Transposition du procédé des échanges d’ions à l’échelle industrielle. — L’adaptation de la méthode de séparation par échanges d’ions à la production des terres rares à grande échelle apparaît à première vue assez malaisée. D’une part, la capacité de traitement des colonnes de résine est limitée : dès que l’on veut augmenter la quantité de terres rares traitées en une opération sur une colonne déterminée, la qualité de la séparation diminue rapidement. On s’en rendra compte facilement en comparant les courbes d’élution de la figure 2, qui représentent les résultats de deux séparations effectuées sur un même mélange de terres cériques, dans des conditions identiques, mais avec des masses de produit différentes (3 g et 22,5 g). D’autre part, les séparations sont très longues, car le débit d’élution doit rester faible et la progression des terres rares dans la colonne est très lente avec les solutions citriques, du moins dans les conditions de sélectivité requises.
- De plus, les terres rares sortent des colonnes en solutions très diluées (généralement moins de o,5 g par litre). Il est donc nécessaire, pour le traitement de quantités importantes de mélanges, de mettre en circuit et de fractionner de très grands volumes de solution. La manipulation et le stockage de ces solutions risquent de provoquer rapidement un encombrement exagéré des locaux de travail. L’extraction des terres rares à partir de ces solutions ne peut se faire commodément que par une précipitation à l’acide oxalique, en liqueur concentrée, ce qui nécessite des évaporations longues et coûteuses. La présence d’acide oxalique rend les solutions d’acide citrique résiduaires inutilisables pour une nouvelle élution : d’où une consommation importante de ce produit cher. Enfin, les traitements de concentration et de précipitation portent pour une large part sur des solutions qui contiennent encore des mélanges de terres rares, qu’il faut ensuite remettre en solution, fixer et refractionner.
- Toutes ces complications rendent le procédé trop lent et trop onéreux pour la préparation de grandes quantités de terres rares. Pour s’en assurer, il suffit d’extrapoler les données relatives à une séparation à petite échelle ayant donné de bons résultats : par exemple, la séparation des 3 g de terres cériques représentée par la figure 2 a nécessité le passage de 4 1 d’éluant avant la sortie des terres rares, puis de 18 1 pour l’extraction totale, soit une consommation de 18 x 5o = 900 g d’acide citrique. Pour traiter 3 kg de produits dans les mêmes
- p.400 - vue 404/527
-
-
-
- 401
- Fig. 2. — Séparation de terres cériques par échange d’ions.
- Courbes d’élution obtenues dans les mêmes conditions (acide citrique 5 pour 100, pll=3,l, débit 150 cm3 par heure) sur des mélanges correspondant à 3 g (A.) et 22,5 g (B) d’oxydes.
- litres deluant
- litres deluant
- conditions, il faudrait, outre l’immobilisation d’une quantité de résine i ooo fois plus grande, faire circuler 22 000 I d’éluant et consommer 900 kg d’acide citrique!
- En définitive, la séparation industrielle des terres rares par échanges d’ions, qui implique la mise en service de colonnes de résine de grandes dimensions pour suppléer à leur faible capacité de traitement, ne peut être rentable que si l’on apporte diverses améliorations au procédé primitif.
- Un premier progrès fut réalisé quand Spedding et ses collaborateurs, cherchant à réduire la consommation de l’acide citrique, dont la concentration était à l’origine de 5 pour 100 dans les solutions éluantes, arrivèrent à déterminer de bonnes conditions de séparation avec une concentration de 0,1 pour 100. Mais les inconvénients résultant de la dilution des solutions s’en trouvaient accrus, en raison des complications matérielles dues à la nécessité de manipuler des volumes encore plus considérables de liquide au cours du fractionnement des terres rares.
- Notre laboratoire proposa alors une solution différente, en faisant breveter un procédé permettant la récupération de la majeure partie des solutions citriques et la concentration des terres rares contenues dans ces solutions sans évaporation et pratiquement sans frais. Sans entrer dans les détails du procédé, disons simplement qu’il est basé sur une utilisation plus étendue des possibilités des résines échangeuses d’ions : celles-ci sont capables de fixer totalement les terres rares contenues dans une solution citrique, si le pH de cette dernière est abaissé à une valeur convenable. La fixation en solution citrique permet donc la récupération des solutions contenant des mélanges de terres rares provenant des opérations précédentes, et elle a en outre l’avantage d’être sélective, c’est-à-dire de réaliser déjà un certain classemetit des terres rares dans la colonne, ce qui favorise la séparation ultérieure. D’autre part, il est possible de faire varier de façon très sensible la concentration des terres rares dans une solution citrique, par simple élévation du pli d’élution. On peut ainsi réaliser la concentration des terres rares par une rapide opération de fixation-extraction sur de petites colonnes auxiliaires peu encombrantes et on récupère de la sorte au moins 90 pour 100 des solutions citriques.
- Une deuxième série de recherches portèrent ensuite sur des modifications d’appareillage, destinées à simplifier le mode opératoire du procédé et, en particulier, à réduire la manipulation ou le stockage de volumes trop considérables de solutions. Ces recherches nous conduisirent à mettre au point un nouveau procédé de séparation par échanges d’ions. Il consiste à substituer à la colonne unique du procédé classique une série de plusieurs colonnes pouvant être parcourues par l’éluant en série ou en parallèle, grâce à un jeu de tuyauterie et robinetterie approprié (fig. 3). L’élution et le fractionnement des
- solutions à la sortie de la colonne unique du procédé classique sont remplacés par une répartition des terres rares sur l’ensemble des colonnes reliées en série. Au cours de cette répartition, on obtient une localisation très poussée des différentes terres rares dans les diverses colonnes, et on extrait ensuite directement les éléments localisés dans chaque colonne, sous forme concentrée, par circulation de la solution éluante (à pH élevé) en parallèle. Ce procédé, qui réalise une grande simplification dans le travail, donne de plus des résultats supérieurs à ceux du procédé classique, grâce à la superposition des deux opérations d’élution, la seconde portant sur des produits déjà disposés dans un ordre favorable sur les colonnes.
- Enfin, une troisième série d’essais nous amenèrent à remplacer dans beaucoup de cas les solutions citriques qui, outre les défauts déjà signalés, sont très sensibles aux fermentations, par des éluants d’un emploi plus facile. Les acides amino-poly-acétiques (appelés triions, célons, complexons, séquestrènes, etc.) se sont révélés être des complexants de choix, tant par leur résistance aux agents de fermentation que par les résultats qu’ils ont donnés dans les séparations. Nous avons employé d’abord l’acide nitrilo-tri-acétique, puis l’acide éthylène-dia-mino-tétra-acétique, dont le sel sodique est un produit commercial courant (célon E). Avec des concentrations de o,5 à
- Fig. 3. — Schéma
- d’instaltation de colonnes en série pour séparations par le procédé de « localisation ».
- voies permettent de faire circuler l’éluant
- dans les
- parallèle
- colonnes.
- Alimentation
- Récupération
- p.401 - vue 405/527
-
-
-
- 402
- Tubes collecteurs
- Fig. 4. — Sélecteurs de fractions à flacons basculants.
- Contre-poids
- 2 pour ioo, on obtient facilement des élutions plus rapides et des solutions plus concentrées en terres rares que par les solutions citriques.
- Bien que les acides aminopolyacétiques ou leurs sels livrés dans le commerce (trilon, acide EDTA, célon E) soient plus chers que l’acide citrique, le prix de revient des produits séparés par échanges d’ions avec ces complexants n'est finalement pas plus élevé, car ces acides organiques sont insolubles en milieu acide et peuvent être récupérés en grande partie par acidification des solutions avant la précipitation oxalique des terres rares.
- L,instalIation=pilote de Bellevue. — A la suite de toutes ces études, le Laboratoire des Terres Rares de Bellevue disposait d’une gamme de techniques et d’un choix d’éluants assez variés pour être en mesure d’entreprendre avec succès une production à grande échelle. D’importantes installations furent donc mises en service dans notre laboratoire au début de l’année ig53. Ces installations comprennent notamment :
- — Une batterie d’une vingtaine de colonnes échangeuses d’ions de grandes dimensions (hauteur i,5o m, diamètre io à 20 cm). La charge de résine est supportée par des plaques perforées recouvertes de toile de verre, la perforation étant étudiée de manière à combattre l’effet de frein des parois, pour assurer un débit uniforme dans toute la section des colonnes.
- — Le dispositif d’alimentation des colonnes : touries de 5o à 6o 1 de capacité placées sur des plates-formes à hauteur variable pour régler le débit d’éluant-
- — Six batteries de « sélecteurs » pour le fractionnement des solutions à la sortie des colonnes. Ces batteries comprennent chacune io flacons de 5 1 de capacité, placés en cascade dans des godets basculant automatiquement après remplissage, grâce à un système de contrepoids et de tubes collecteurs. La figure 4 fait comprendre le mécanisme de ces sélecteurs de fraction.
- — Des cuves de grande capacité et un groupe de pompage en chlorure de polyvinyle sont en outre prévus pour le stockage des solutions et le remplissage des touries d’alimentation.
- La tuyauterie de l’installation est réalisée entièrement en tubes de polyéthylène et la robinetterie en chlorure de poly-
- vinyle. Tous ces accessoires ainsi que toutes les colonnes sont munis de raccords interchangeables (également en matière plastique) ce qui assure une grande souplesse de travail, les colonnes pouvant être alimentées par le haut ou par le bas et être reliées dans n’importe quelle disposition, par exemple en série ou en parallèle.
- En dehors de cette installation, dont la figure 5 donne une idée d’ensemble, le laboratoire dispose encore de nombreuses autres colonnes de plus petites dimensions, destinées à la purification d’éléments peu abondants, à la concentration de solutions provenant de la grande installation et aux travaux de mise au point de nouveaux procédés. Il existe en particulier deux batteries de 8 colonnes en série de 5o cm de long et 4 cm de diamètre, qui ont servi à la détermination des meilleures conditions de séparation de certains éléments rares tels que le thulium ou le terbium, actuellement très demandés par l’énergie atomique.
- Dès sa mise en service, l’installation-pilote a fonctionné à pleine capacité, et nous allons voir maintenant quelques exemples des réalisations effectuées dans notre laboratoire au cours des dernières années.
- Production d’oxyde de scandium pur. — Contrairement à ce qu’on pourrait croire, le scandium est assez abondant dans la nature, mais presque toujours à l’état très divisé. Son seul minerai est la thortveitite, silicate contenant aussi des terres rares, que l’on trouve en très petites quantités en Norvège et à Madagascar, où on rappelle aussi befanamite. Ce n’est guère qu’une curiosité minéralogique, de même que l’oxyde de scandium est resté longtemps une curiosité de laboratoire.
- Le traitement des minerais de Madagascar a été entrepris en ig53 à Bellevue en application d’un contrat conclu entre le C.N.R.S. et l’Université de Californie pour la fourniture de plusieurs milliers de grammes d’oxyde de scandium pur. Des techniques nouvelles de traitement des minerais et de purification du scandium venaient d’être mises au point dans notre laboratoire. La production put donc être commencée immédiatement.
- p.402 - vue 406/527
-
-
-
- 403
- Fig. 5. — Vue d’ensemble de Vinstallation-pilote de séparations par échanges d’ions du Laboratoire des Terres Rares de Bellevue.
- Le minerai utilisé contenait en moyenne 25 pour ioo d’oxyde de scandium. Pour obtenir une attaque complète, nous avons eu recours, après broyage, à une carburation à haute température (i 8oo° C) au four IT.F., en creuset de graphite. Les carbures formés étaient ensuite décomposés par chauffage en solution chlorhydrique et, après élimination de la silice, on séparait la scandine brute par précipitation oxalique et calcination. L’oxyde impur obtenu, contenant de fortes quantités de terres rares (i5 à 20 pour 100 et même davantage par la suite), devait enfin être purifié.
- Une grande partie de ces purifications ont été réalisées par échange d’ions sur les grandes colonnes du laboratoire, en utilisant comme éluants des solutions de célon-E à 2 ou 3 pour 100 et à pH assez élevé. Ces conditions permettent de traiter rapidement des charges de 100 à i5o g de scandine par colonne, avec d’excellents rendements. Le scandium sort en tête, presque aussitôt après le début de l’élution, et les terres rares sont extraites dans les dernières fractions (fig. 6). On contrôle la pureté de l’oxyde de scandium obtenu finalement par mesure de la susceptibilité magnétique (Sc203 est très légèrement dia-magnétique, tandis que les terres yttriques qui le contaminent dans le minerai sont fortement para-magnétiques). Chaque traitement sur une colonne durant en moyenne deux à trois jours, nous avons pu produire en quelques mois plus de 4 000 g d’oxyde de scandium à 99,9 pour xoo, malgré la mauvaise qualité de plusieurs livraisons de minerai, qui contenait parfois moins de i5 pour 100 de scandine, en présence de proportions considérables de terres rares (20 à a5 pour xoo du poids de minerai). Il est bon de rappeler qu’avant ces travaux, les réserves mondiales de scandine pure ne devaient guère dépasser quelques centaines de grammes.
- Préparation d’oxyde d’yttrium de haute pureté. —
- L’yttrium, plus encore que le scandium, s’apparente aux terres rares par ses propriétés chimiques, à tel point qu’il a donné son nom au groupe des terres yttriques, dont il est le constituant majeur dans leurs minerais. De façon plus précise, ses propriétés le situent entre l’holmium et le dysprosium, ce qui s’explique fort bien si l’on se reporte aux structures électroniques du tableau I, qui font apparaître un maximum d’identité des couches extérieures entre l’yttrium et l’holmium.
- Dans les opérations de fractionnement, l’yttrium vient s’intercaler entre deux éléments yttriques du groupe Er, Ho, Dy, Tb, Gd, ou se superpose à eux, et son isolement se trouve encore compliqué par le fait que la place qu’il occupe dans la série peut varier soit avec la méthode de séparation, soit avec les conditions opératoires. Par exemple, dans la méthode de fractionnement à l’aide du gaz ammoniac dilué, imaginée par F. Trombe, la place de précipitation de l’yttrium rétrograde vers les terres cériques quand sa concentration diminue dans les solutions. Il est donc très difficile d’obtenir, par les méthodes classiques, un oxyde d’yttrium totalement débarrassé des terres rares proprement dites. Or, certaines applications, qui semblent appelées à un développement rapide (chimie nucléaire, industrie électronique), exigent un oxyde de haute pureté, que seules les techniques de séparation par échange d’ions sont capables d’atteindre.
- En effet, la place assignée à l’yttrium dans l’ordre de sortie des terres rares ne pouvant changer au cours d’une même élution, il devient possible de mettre à profit les différences de position qui peuvent être obtenues en employant des solutions éluantes différentes. Ainsi, avec une solution citrique à 5 pour 100 et pH = 2,8, l’ordre d’élution est Dy — Tb — Y, tandis que l’ordre est Dy — Y — Tb avec la même solution à ioo° G et pH = 0,2, ou bien avec un citrate à 0,1 pour 100 et pH 5,5-6,o. On réalisera donc une bonne purification de l’yttrium en le traitant d’abord par le premier éluant, qui le sépare du dysprosium, puis par le citrate à 0,1 pour 100 par exemple, qui le débarrasse du terbium. Pour cette deuxième séparation, nous avons préféré utiliser les solutions à base d’acide EDTA : l’ordre d’élution est le même que celui observé avec le citrate à 0,1 pour 100, mais les élutions sont plus rapides, les solutions sont plus concentrées et les produits obtenus sont plus purs.
- Dans le traitement de grandes quantités de terres yttriques, nous traitions donc d’abord le produit brut par l’acide citrique à 5 pour 100 à pH compris entre 2,8 et 3,o, pour éliminer les terres lourdes (Er, Dy, Tb), en opérant suivant le procédé des colonnes en série afin de réduire au minimum les manipulations de produits intermédiaires. Puis, nous achevions la purification par une élution à l’acide EDTA, ce qui éliminait com-
- Scandium
- Terres rares
- 50 litres d'éluant
- Fig. 6. — Purification de 100 g d’oxyde de scandium brut.
- Colonne de 1,5 m x 11 cm ; éluant : Célon-E (2 pour 100) ; pH = 5.
- p.403 - vue 407/527
-
-
-
- 404
- plètement le terbium et surtout le gadolinium, constituant les impuretés principales après la première opération.
- Plus récemment, nous avons mis au point un procédé encore plus efficace, en employant l’acide hydroxy-éthyl-éthylène-dia-mino-tétra-acétique (acide HEDTA). Avec ce complexant, l’yttrium se trouve élué non plus dans la zone des terres yttriques, mais parmi les terres cériques, entre le néodyme et le praséo-dyme. En travaillant dans de bonnes conditions, il est donc possible de réaliser la séparation totale de l’yttrium et du groupe yttrique; grâce à des installations de colonnes en série appropriées, ce fractionnement peut se faire sans consommation notable de réactif et l’extraction finale de l’yttrium s’obtiendra économiquement par un éluant ordinaire (acide EDTA, par exemple).
- En utilisant ces divers procédés, nous avons préparé plusieurs milliers de grammes d’oxyde d’yttrium, dont une bonne partie avait une pureté supérieure à 99,95 pour 100, d’après les analyses spectrographiques effectuées au Centre d’études nucléaires de Saclay. Cet oxyde est légèrement diamagnétique (^ = —0,22.io-6 COS). Le léger paramagnétisme attribué généralement à Y203 est donc dû sans doute à la présence de petites quantités de terres rares dans les produits étudiés.
- Traitement des terres yttriques. — A côté de la purification de l’yttrium, nous poursuivons actuellement le traitement de mélanges yttriques bruts provenant de divers minerais tels que le xénotime, riche en éléments de poids atomique élevé, et les terres yttriques de la monazite, contenant davantage de gadolinium et de samarium. Plusieurs opérations successives sont évidemment nécessaires pour isoler tous les composants individuels; les courbes d’élution de la figure 7, se rapportant au fractionnement de 200 g d’un mélange brut provenant du xénotime, donnent une idée de la complexité de ces
- Concentration
- grammes d'oxyde Yb par litre
- Yttrium
- Sm+T.C.
- Tb+Gd
- Litres d’éluant
- Fig. 7. — Fractionnement de 200 g de terres yttriques de xénotime.
- Colonne de 1,5 m x 11 cm ; éluant : Célon-E (1 pour 100) ajusté à pH 3,5 par l’acide acétique.
- travaux de séparation. A l’heure actuelle, des réserves importantes de concentrés sont constituées dans notre laboratoire, et plusieurs centaines de grammes d’oxydes très purs ont déjà été préparés pour diverses recherches : oxydes de gadolinium (ferrites, alliages pour usages nucléaires), oxyde de dysprosium, oxyde d’erbium (sulfures, grenats ferro-magnétiques), oxyde de thulium (radio-isotope artificiel émetteur de rayons y), oxyde de lutécium (recherches atomiques), etc.
- Séparation de terres cériques à grande échelle. —
- Le groupe des terres cériques forme le constituant principal de la monazite, qui est le plus important des minerais de terres rares et qui contient également des proportions notables de thorium. Les demandes croissantes en thorium de l’énergie atomique ont donné à l’exploitation de la monazite une vive impulsion, de sorte que les terres cériques sont actuellement une matière première très abondante.
- On a vu que parmi ces éléments, le cérium et le samarium peuvent être assez facilement isolés grâce à l’existence de valences anormales. La séparation du cérium, la seule qui soit quantitative, est pratiquée couramment dans l’industrie en raison des diverses utilisations du cérium (manchons à gaz, optique, alliages pyrophoriques, affinage des aciers, etc.). En conséquence, les mélanges cériques dont on dispose généralement sont exempts de cérium. L’extraction des autres constituants n’en reste pas moins fort laborieuse, surtout pour le néodyme et le praséodyme. Ce sont ces deux éléments que nous nous sommes attachés à séparer en premier lieu, l’isolement du lanthane ne s’imposant que par l’intérêt théorique et le caractère particulier de l’opération.
- Oxyde de néodyme. — En raison de son abondance dans les matières premières, il est assez facile de préparer, par cristallisation fractionnée, des quantités importantes de concentrés titrant jusqu’à 8o-85 pour ioo de Nd203. C’est un oxyde brut de cette qualité, contenant comme impuretés principales du praséodyme (ii pour ioo) et du samarium (3 pour ioo), que nous avons tout d’abord employé pour préparer de l’oxyde très pur. Les meilleures purifications ont été obtenues par le procédé des colonnes en série en réalisant l’étalement des terres rares par l’acide EDTA en solution ammoniacale à pli assez
- Fixation 800 g La + Ce+Pr 5_ Pr + Nd 70_
- Sm+Nd
- Nd> 99.8% 205. Nd (+Sm) 75
- Sm + Nd 23 T.Y.+ Sm 8
- 799 0 248 219 226 106
- Fig. 8. — Bilan d’un traitement de purification de 800 g d’oxyde de néodyme impur ( contenant 3 pour 100 d’oxyde de samarium et Il pour IOO d’oxyde de praséodyme) par le procédé de localisation sur colonne en série.
- bas. Nous donnons à titre d’exemple (fig. 8) le bilan du traitement de 8oo g d’oxyde sur une batterie de cinq colonnes de la grande installation. Au total, cette purification a donné plus de 200 g d’oxyde de néodyme à 99,8 pour 100, environ i3o g à plus de 99 pour 100 et 280 g à plus de 98 pour 100.
- Une telle opération peut être effectuée en quelques jours, ne consomme que peu de solutions éluantes (la concentration des solutions à l’extraction atteint facilement 5 à 6 g d’oxyde par litre) et réduit à peu de choses les fractions mélangées qu’il faudra retraiter.
- Oxyde de praséodyme. — Il est difficile d’obtenir par cristallisation fractionnée des concentrés de praséodyme. Nous avons donc utilisé comme matière première des produits provenant de séparations par échanges d’ions, regroupés jusqu’à obtention de quantités suffisantes. On a traité par exemple par l’acide EDTA 60 g d’un concentré titrant 86 pour 100 d’oxyde de praséodyme (avec 16,6 pour 100 de La203 et 7,2 pour 100 de Nd203) sur une colonne de i,5o m x 11 cm; en plus de 3o g d’oxyde de praséodyme à 99,8 pour 100, on a retrouvé en fin de séparation presque tout le lanthane (près de 10 g d’oxyde) à l’état très pur : 99,8 pour 100 au moins d’après l’analyse spectrophotométrique.
- Oxyde de lanthane. — Le lanthane est le plus basique des éléments des terres rares, c’est lui qui précipite en dernier lieu par addition d’ammoniaque dans leurs solutions. Dans les séparations par échanges d’ions, le lanthane prend de même la
- p.404 - vue 408/527
-
-
-
- 405
- Fig. 9. — Séparation du néodyme et du pra-séodyme ( courbe A, acide EDTA 1 p. 100) et extraction du lanthane (courbe B, acide EDTA 2 pour 100) après élution sélective sur deux colonnes en série.
- Courbe A
- Courbe B
- litres d'éluant
- acide EDTA 1%
- dernière place dans l’ordre d’élution des terres rares. Nous avons cherché à exploiter cette position particulière pour réaliser sa purification sans déplacement sur la colonne, par élimination progressive des autres éléments. Ce résultat peut être obtenu par une solution citrique à 5 pour ioo, si le pH ne dépasse pas 3,o-3,i (fig. 2). et aussi par l’acide EDTA, à condition d’opérer en solution peu concentrée et à pH peu élevé. Comme dans ce cas l’élution est assez lente, nous avons opéré sur deux colonnes en série, pour pouvoir, après localisation, extraire en solution concentrée d’une part le lanthane resté sur la première colonne, d’autre part les terres rares passées sur la seconde (fig. 9).
- Les conditions opératoires sont particulièrement favorables à l’obtention d’un lanthane très pur puisqu’on procède en principe à l’élimination totale des impuretés avant son extraction de la colonne. Notre procédé présente en outre l’avantage de permettre la séparation de la totalité du lanthane contenu dans le mélange initial et de réaliser accessoirement une très bonne purification du néodyme et du praséodyme.
- Conclusion. — Dans l’aperçu que nous venons de donner sur les travaux de séparation par échanges d’ions qui se poursuivent au Laboratoire des Terres Rares de Bellevue, nous avons choisi à dessein nos exemples dans des cas très variés, concernant aussi bien les lanthanides que leurs éléments associés : scandium et yttrium. De l’ensemble des résultats obtenus, une première conclusion se dégage : dans tous les cas, que l’éluant à purifier soit entraîné par l’élution en tête (scandium), dans la zone centrale (yttrium, praséodyme) ou en queue du fractionnement (lanthane), la séparation sur colonnes de résines échangeuses d’ions se montre remarquablement efficace, tant au point de vue du rendement que de la pureté des produits obtenus.
- Mais notre objectif n’était pas tant de prouver l’efficacité du procédé, maintenant reconnue par tous les spécialistes, que de mettre en évidence ses possibilités (peut-être sous-estimées) en ce qui concerne la préparation de grandes quantités de terres rares pures. Grâce aux divers perfectionnements apportés au procédé initial et à l’utilisation de colonnes de grandes dimensions, nous avons pu réaliser sur l’installation-pilote de Bellevue une production qui dépasse déjà largement l’échelle du laboratoire. Si notre installation est encore unique en
- France, il n’en est pas de même en Amérique, où plusieurs sociétés ont équipé leurs usines de terres rares d’importantes installations d’échanges d’ions. Certes, la capacité de production de ces installations pourra paraître à certains encore assez modeste. Mais il ne faut pas perdre de vue qu’en dehors du cérium, les éléments des terres rares n’entrent pas dans la composition de produits de grande consommation. Leurs propriétés très variées semblent au contraire les destiner à toute une série d’applications spécifiques, où la variété des demandes l’emporte de très loin sur la quantité : éléments d’addition en métallurgie (lanthane, scandium), électronique (yttrium, erbium, etc.), optique (lanthane, cérium, praséodyme, néodyme), chimie et physique nucléaire (yttrium, gadolinium, europium), isotopes radio-actifs (thulium, scandium), etc. Ces applications ne se sont développées pour la plupart que depuis la découverte des techniques d’échanges d’ions, car les autres méthodes de séparation n’avaient permis de mettre sur le marché que quelques-uns des lanthanides.
- La technique des échanges d’ions vient donc compléter de façon très heureuse la gamme des anciens procédés industriels de séparation de terres rares, sans prétendre encore entrer en concurrence avec eux dans les productions à gros débit. L’exemple d’autres réussites industrielles des échanges d’ions (en particulier le traitement des minerais pauvres d’uranium) nous incite d’ailleurs à penser qu’il serait présomptueux d’affirmer que l’équilibre actuel ne se modifiera pas, dans l’avenir, au profit des nouvelles techniques.
- Jean Loriers,
- Maître de recherches au C.N.R.S.
- Acides glutamique et nicotinique dans le tabac
- Des recherches, chromatographiques poursuivies à l’Université de Duke (Caroline du Nord) ont mis en évidence la présence, dans la fumée de cigarette, de glutamine, d’acide glutamique et d’acide nicotinique. 7 à 10 microgrammes de glutamine et d’acide glutamique ont été décelés dans la fumée d’une cigarette de dimension normale (7 cm). Les quantités d’acide nicotonique varient, selon les qualités de tabac, entre 9 et 15 microgrammes.
- p.405 - vue 409/527
-
-
-
- 406
- Les cellules animales en culture prolongée,
- outil moderne
- de l’étude des virus
- et du cancer
- Fig. 1. — Exemple
- d’appareillage pour la mise en culture de cellules dispersées par la trypsine.
- Les cellules sont maintenues en suspension dans le vase de gauche et distribuées au moyen de la seringue et du tube en caoutchouc dans les tubes et boîtes de culture. Les tubes sont maintenus inclinés dans des porloirs, afin que les cellules se déposent sur un côté (un tiers de leur longueur environ). On distingue la couche liquide dans les boîtes, où baignent les cellules déposées sur une de leurs faces.
- A certains égards, la biologie de chacune des cellules de notre organisme prises isolément est en retard sur la bactériologie. C’est en effet que beaucoup de résultats spectaculaires obtenus sur la physiologie et la génétique des bactéries au cours de ces dernières années ont été rendus possibles par la facilité avec laquelle des populations considérables, à héritage génétique bien déterminé, peuvent être obtenues. C’est ainsi qu’une bactérie isolée, à la surface d’un milieu nutritif solide approprié peut donner naissance à une colonie dont chaque individu possède, en l’absence de toute mutation, des propriétés héréditaires et physiologiques stables. La culture similaire des cellules animales, plus dépendantes de facteurs complexes qui assurent leur maintien dans l’organisme, offre des difficultés plus grandes. Leur multiplication dans un environnement artificiel s’accompagne d’une adaptation et de transformations difficiles à analyser. D’excellents exemples en ont déjà été donnés dans La Nature, par le professeur Jean Verne (La culture des tissus animaux, La Nature, juin iq52, p. 17/1, et juillet x95a, p. 209).
- Culture continue des cellules animales. — La mise en culture de cellules provenant de divers tissus des animaux d’expérience ou de l’homme est maintenant faite communé: ment dans de nombreux laboratoires et procède souvent comme suit : ces tissus divisés en petits fragments sont lavés dans un liquide physiologique et traités pendant un temps assez long (pouvant s’élever à plusieurs heures) par une solution diluée de trypsine. La trypsine est une diastase produite dans l’intestin par le pancréas et qui digère les protéines. Sans doute ces dernières substances jouent-elles un rôle important pour souder les cellules les unes aux autres dans les organes, car la trypsine libère ces liens.
- Les cellules saines peuvent résister assez longtemps à ce traitement si l’on a pris soin d’ajouter des substances nutritives productrices d’énergie, comme le glucose, afin d’assurer pendant ce temps les processus vitaux fondamentaux. Une fois détachées, elles sont soustraites à l’action de la trypsine et placées dans le milieu définitif où elles forment une suspension. C’est celle-ci que l’on utilise pour ensemencer les tubes et flacons de culture (fig. 1). Les cellules sédimentent lentement vers la paroi du fond, où elles adhèrent plus ou moins fortement. Une multiplication survient alors lorsque les conditions sont convenables, en particulier si le peuplement est suffisamment dense et si le liquide contient des proportions satisfaisantes de tous les éléments nutritifs nécessaires.
- Cette dernière question n’a pas été sans soulever des difficultés importantes dans le passé ; en pratique, on s’efforçait d’imiter les conditions naturelles en ajoutant divers liquides organiques tels que le sérum ou des extraits de tissus. Malheureusement ces milieux ont l’inconvénient d’apporter une foule de facteurs difficiles à analyser et qui nuisent à l’exactitude des expériences. A mesure que les connaissances sur la nutrition s’améliorent, des progrès importants dont nous reparlerons plus loin sont obtenus; mais les différents milieux synthétiques réalisés ont presque toujours besoin d’un peu de sérum pour atteindre leur efficacité. Ces antibiotiques sont largement utilisés afin d’éliminer toute contamination accidentelle par des bactéries ou des champignons qui pourrait se produire malgré les manipulations aseptiques.
- L’épuisement rapide des qualités du milieu et la production de substances acides (acide lactique surtout, comme dans le muscle) nécessitent un renouvellement fréquent du fluide. De même, lorsque les cellules ont envahi toute la surface disponible et sont menacées par le surpeuplement, le transfert dans
- p.406 - vue 410/527
-
-
-
- 407
- de nouveaux flacons est rendu nécessaire et s'opère simplement par l’addition d’un peu de trypsine, remettant les cellules en suspension comme dans le cas initial.
- De nombreux tissus sont ainsi aptes à une culture prolongée, quasi indéfinie. La recherche médicale utilise aujourd’hui comme matériel de choix de nombreuses souches issues de l’organisme humain, comme le tissu conjonctif, la moelle osseuse, le rein, le poumon et le placenta, pour n’en citer que quelques-uns. Les tumeurs cancéreuses sont également l’objet de telles cultures : la souche la plus célèbre à l’heure actuelle a été isolée par Gey en 1962 à Baltimore à partir d’un cancer du col de l’utérus. Au cours du processus, des sélections ont dû se produire, ne nous laissant que des lignées cellulaires qui supportent particulièrement bien les conditions artificielles où elles se trouvent, et la facilité avec laquelle la souche peut être enti'etenue et utilisée en fait maintenant un matériel
- Fig. 2. — Cellules de la souche Hela.
- La culture, fixée et colorée, est observée à travers la paroi de verre. I.es nucléoles de chaque noyau apparaissent comme des taches noires. La flèche indique la masse chromosomique sombre d’une cellule en train de se diviser. On remarque la perle de colorabilité de la substance cellulaire autour des chromosomes. Grossissement : x 700.
- d’élude courant dans des laboratoires du monde entier. C’est cette souche appelée Hela, qui est représentée par la figure 2 : ces cellules cancéreuses sont épithéliales par leur origine mais elles ne tendent à former en culture aucune structure ordonnée particulière. Ce caractère se retrouve dans les souches établies à partir de tissus normaux, même lorsqu’elles proviennent de cellules d’étiologies différentes : le rein par exemple possède de nombreuses catégories cytologiques ; peut-être certaines d’entre elles disparaissent-elles. Une uniformisation, d’aspect se produit en tout cas à la longue et rend très délicate toute distinction entre les divers tissus (lig. 3), sans que l’on puisse affirmer de façon certaine si tous les éléments dont on dispose ont des propriétés identiques ou non, môme si la culture a été conduite après plus de six mois.
- Fig. 3. — Culture de cellules de la cornée humaine.
- La cornée 11e possède pas de vaisseaux sanguins et son activité métabolique est faible. Ses cellules se divisent néanmoins activement en culture, comme en témoigne la disposition par paires de certaines d’entre elles. Grossissement : x 200.
- Cultures cellulaires et recherches sur les virus. —
- L’amélioration des techniques au cours de la dernière décennie a permis une avance sensible de nos connaissances sur la multiplication des virus. On se souvient qu’il s’agit de particules très petites (inférieures en général à o,5 p.) dont l’existence est entièrement dépendante des cellules vivantes qu’elles infestent habituellement. Leur pénétration dans celles-ci est suivie après un certain délai par une production intensive de particules identiques à la particule infestante, par suite d’une sorte de dérèglement du fonctionnement normal de la cellule abou-
- Adsorption
- Phase masquée - -
- Défaut d'adsorption Inactivation spontanée du virus
- Cellule saine
- Virus 4
- \ /
- Anticorps / neutralisants
- Facteurs nutritifs défavorables
- Synthèse du virus
- Fig. 4. — Schéma de la multiplication du virus de la poliomyélite dans les cellules Hela.
- En caractères penchés, les facteurs qui entravent la production du virus (les dimensions relatives de celui-ci, qui n’a que 0,03 p de diamètre, sont fortement exagérées).
- p.407 - vue 411/527
-
-
-
- 408
- Fig. 5. — Cultures d’une souche cellulaire ayant reçu diverses doses d’un virus pathogène de l’homme (herpès).
- Les cellules ont été fixées et colorées cinq jours après avoir reçu des doses de virus qui vont en croissant de la droite vers la gauche et leur peuplement dense apparaît comme un fond sombre sur la photographie. Le virus s’est répandu à partir des cellules infectées en produisant des îlots
- de destruction qui vont en s’élargissant. Les zones rayonnantes sont probablement le reflet des courants de convection au sein du milieu où le virus se répand. La dernière culture à gauche paraît intacte : la forte dose qu’elle a reçue a été préalablement chauffée à 56” G pendant 30 mn,
- montrant que le virus est facilement détruit par la chaleur. Sa voisine, qui a reçu du virus non chauffé, est déjà entièrement détruite.
- tissant à la synthèse du virus au lieu de leur substance propre. Du virus prêt à attaquer de nouvelles cellules est libéré pendant que la cellule, assez souvent, se désintègre (fig. 4)-Parmi les virus de l’homme que l’on a réussi à multiplier au moyen des cultures, on peut citer la variole, les oreillons, la rougeole, la grippe, l’herpès (fig. 5), la poliomyélite... Le virus de la poliomyélite est actuellement caractérisé et préparé en grandes quantités au moyen de cultures de cellules rénales de singe (Rhésus, Papio, etc.). Le service du docteur Lépine, à l’Institut Pasteur de Paris, prépare un vaccin contre la poliomyélite en faisant subir au virus un traitement qui le rend inoffensif, sans altérer cependant ses propriétés de faire apparaître une immunité chez les personnes qui l’ont reçu en injection. Les cellules rénales de singe n’ont d’ailleurs pas été sans donner des ennuis aux expérimentateurs : au cours des tentatives de culture prolongée survient fréquemment un type de dégénérescence spécial qui est transmissible par transfert du fluide à la souche Hela. Il s’agit de divers virus transportés sans inconvénient par l’animal. Des virus peuvent donc être transportés très longtemps par des cellules vivantes sans que les conditions permettent leur multiplication. La nature du changement qui met fin à cette « latence » en permettant la production du virus est d’une importance facile à concevoir si l’on sait que plusieurs virus « latents » ont déjà été isolés à partir de tissus humains. Plusieurs facteurs trouvés au moyen de cultures ont été mis en cause. De façon générale, une grande activité du fonctionnement cellulaire favorise la poussée du virus et la stimulation nécessaire peut se produire sous l’action de certaines hormones ou encore lorsque la cellule est placée in vitro.
- Il a été montré que les tissus n’utilisent pas toujours les mêmes substances nutritives pour fabriquer le virus ou leur propre substance. La nutrition comporte normalement pour une part des acides aminés (acides azotés entrant dans la constitution des protéines) et des vitamines dont la présence individuelle est absolument nécessaire. Si au lieu de placer dans le milieu un acide aminé indispensable, on le remplace par un corps dont la formule ne diffère que par un détail, il arrive que la cellule « se trompe » et incorpore la substance dans des protéines qui ne sont alors plus tout à fait semblables. Si la protéine est une diastase nécessaire à la vie, elle peut perdre son activité et le faux acide aminé se comporte alors comme un poison violent.
- On a pu fabriquer certains « analogues » d’aminoacides qui ne sont néanmoins pas nuisibles à la cellule mais empêchent complètement la production du virus.
- Il arrive également que la multiplication du virus vient à se détraquer. Normalement une particule virale est constituée par un noyau d’acide nucléique entouré d’une enveloppe de protéines. La libération des particules par l’hôte peut se faire avant que la synthèse soit terminée, en donnant du virus « incomplet », en général inactif et réduit à leur noyau nucléique. Cet accident semble avoir été assez bien suivi par des coupes observées au microscope électronique, mais nous en ignorons encore les causes intimes.
- En se reportant à l’article de M. Jean Grive dans La Nature (février ig58, p. 46), on se souvient que des acides nucléiques introduits dans une cellule vivante sont dans certains cas aptes à modifier légèrement les propriétés héréditaires de celle-ci (mutation), peut-être en s’incorporant directement aux chro-
- p.408 - vue 412/527
-
-
-
- 409
- mosomes. Ces faits ont été découverts chez les bactéries avant d’être actuellement confirmés sur des animaux. Dans le premier cas, la mutation peut être provoquée par un acide nucléique bactérien provenant d’un individu de la même espèce différant par un ou plusieurs caractères. Cet acide nucléique peut être transporté par un bactériophage (virus bactérien). C’est ainsi qu’une bactérie héréditairement sensible à la streptomycine peut brusquement devenir résistante si elle est infectée par un phage provenant d’une variété résistante et qui reste « latent ».
- Si l’on songe que l’homme reçoit et porte probablement une foule de virus, la maladie n’étant peut-être qu’une manifestation exceptionnelle appartenant à certains d’entre eux, il n’est pas impossible que de telles mutations se produisent de cellule à cellule par l’intermédiaire de ces virus. Peut-être le cancer n’est-il que l’expression très localisée, du moins à ses débuts, d’une telle mutation ? Même si la source du cancer est tout autre, il n’en est pas moins vrai que nous devons rencontrer là un des problèmes les plus troublants de la biologie.
- Encore faudrait-il pouvoir connaître les propriétés génétiques réelles de chacune des cellules de notre organisme. Ce savoir est-il à notre portée ?
- Clones cellulaires et genèse des cancers. — Une
- population cellulaire obtenue à partir d’une seule cellule constitue un clone, dont les divers individus possèdent, en l’absence de toute mutation survenue entre temps, des propriétés génétiques identiques. Le problème d’obtenir des cultures à partir d’une seule cellule se heurte à des difficultés pratiques : leur multiplication ne se fait pas bien si leur nombre par rapport à la quantité de fluide de la culture est trop peu élevé. Les cellules doivent donc contribuer à produire dans le milieu un facteur qui n’est pas encore bien connu, mais qui pourrait contenir de l’acide nucléique, car il a été prouvé cette année que des bactéries libèrent normalement de l’acide désoxyribonucléique lorsqu’elles sont placées dans un milieu peu favorable.
- La difficulté a été résolue en 1943 par Earle en plaçant une seule cellule dans une très petite quantité de fluide au sein d’un tube capillaire. Une population suffisante pour pouvoir être transférée à une culture plus grande était alors obtenue. Le travail d’Earle mérite d’ailleurs une autre mention : les cellules qu’il utilisait provenaient du tissu conjonctif sous-cutané d’une souris normale et avaient été soumises à l’action de substances carcinogènes, dont le nom vient de l’apparition de tumeurs à caractères cancéreux qui suit leur application sur la peau de l’animal. Après des essais infructueux prolongés, ces cellules manifestèrent cependant une transformation et acquéraient tous les aspects des cellules de tumeurs malignes. Ce clone est maintenant connu sous le nom de « souche L » (fig. 6) et a été répandu dans de nombreux laboratoires concurremment à la souche Hela, en gardant des caractères bien définis malgré les quelques mutations que l’on a déjà constatées. Ces cellules sont les seules que l’on sache actuellement multiplier dans un milieu totalement synthétique; la simplification de celui-ci à une solution saline glucosée ne contenant pas moins de 21 acides aminés et 12 vitamines est capable d’assurer leur survie (sans divisions) pendant plusieurs mois.
- Des cellules vivantes irradiées par les rayons X perdent leur capacité de se diviser mais peuvent survivre (en prenant des caractères anormaux). On met à profit ce phénomène en dispersant parmi elles un très petit nombre de cellules normales isolées : autour de chacune d’elles se développent de petites colonies qui sont autant de clones, grâce à l’aide des cellules irradiées qui permettent de reconstituer les conditions où la culture est abondamment peuplée. De nombreuses souches sont ainsi obtenues à l’heure actuelle à partir de cellules normales ou cancéreuses isolées. Les petites colonies qui se développent
- autour d’un élément initial ne sont pas sans rappeler ce que donnent les techniques habituelles en bactériologie. L’analogie ne s’arrête pas là car la croissance, les besoins nutritifs, l’apparition de mutations peuvent s’étudier de la même façon. Après une culture prolongée ces clones cellulaires peuvent être comparés à juste titre à des micro-organismes nouveaux produisant des espèces définies, bien que leur survie soit entièrement dépendante de l’activité de l’homme. On comprend que l’on soit maintenant en mesure d’obtenir bien des connaissances nouvelles au sujet de leur physiologie. Déjà cette année fut montré, au moyen d’un clone de cellules llela, que celles-ci sont capables de s’adapter au milieu nutritif en produisant des diastases capables de faire la synthèse d’un acide aminé indispensable à la nutrition lorsque celui-ci vient à faire défaut. Cette pro-
- Fig. 6. — Souche L de Earle.
- Les cellules sont vues directement à travers la paroi d’une boîte de culture. La flèche indique une cellule anormale à deux noyaux qui sera l’origine d’une cellule géante à nombreux noyaux. Les anomalies de la division du noyau sont très fréquentes chez les éléments cancéreux. Grossissement : x 200.
- duction d’enzymes (ou diastases) d’adaptation, réaction permettant à un organisme de résister à des conditions défavorables, n’était connue auparavant que chez les bactéries.
- Les cultures cellulaires nous permettent actuellement d’étendre nos connaissances sur les propriétés des cellules cancéreuses. On sait que les tumeurs cancéreuses sont caractérisées dans l’organisme par une croissance continue et anarchique accompagnée de transformations régressives qui affectent la spécialisation des cellules. Lorsque l’origine de .la tumeur est épithéliale, les cellules perdent complètement leurs caractères spécialisés ainsi que leur tendance à se diviser en lames orientées; elles s’infiltrent en cordons désordonnés dans les tissus avoisinants et peuvent essaimer, grâce à la circulation, en divers points de l’organisme. C’est l’allure que prend la prolifération de la tumeur dans les tissus, accompagnée de quelques caractères cytologiques, qui permet de caractériser la nature cancéreuse du mal dans une coupe. La distinction est malheureusement beaucoup plus difficile au moyen des cultures, où de
- p.409 - vue 413/527
-
-
-
- = 410 : =
- nombreuses cellules d’origine normale viennent à ressembler à des cellules cancéreuses. Aussi a-t-on imaginé d’injecter ces cellules dans un organisme vivant, de la même espèce ou non, afin d’étudier leur comportement. Cette opération s’accompagne souvent d’une réaction inflammatoire des tissus envahis par les cellules intruses au moyen des procédés normaux de défense de l’organisme. Or, lorsque l’expérience est faite sur des rats, on peut diminuer ou supprimer cette réaction par action des rayons X sur l’animal ainsi que par injection de cortisone. Des cellules Hela ont ainsi pu survivre dans des rats et même y proliférer comme un cancer ordinaire, pouvant amener plus tard la mort de l’animal. Les cellules normales injectées dans les mêmes conditions peuvent produire des tumeurs notables, mais dont la croissance est rapidement circonscrite par les tissus avoisinants et qui ne tardent pas à dégénérer. Il est néanmoins encore trop tôt pour que l’on sache affirmer à coup sûr qu’une lignée cellulaire issue de tissus normaux est cancéreuse ou non, faute de critères absolus. A plus forte raison, le mécanisme intime de la transformation, même produite par
- des facteurs variés (substances chimiques, virus, etc.), nous-échappe entièrement.
- L’observation de certains caractères des cellules tumorales pourrait avoir pourtant une importante signification. De façon générale, ces cellules montrent en culture une adhésivité réduite à l’égard du support ou de toute cellule voisine, ce qui favorise sans doute leur infiltration dans les tissus : certaines peuvent être cultivées en suspension agitée en l’absence de tout substrat ! Leur synthèse de protéines est plus forte, par suite de la suppression de quelque contrôle qui la limite dans les cellules normales. Si l’on songe que ces synthèses sont sous la dépendance de l’acide ribonucléique, lui-même placé sous l’influence de l’acide désoxyribonucléique représentant les facteurs héréditaires, on comprend aisément l’ardeur avec laquelle la recherche moderne tend à élucider ces relations.
- Jean Pelmont,
- Ancien élève de l’École normale supérieure.
- Agrégé de P Université. r
- Bi-centenaire du « Systema naturæ » (10e édition)
- Il serait injuste de ne pas célébrer l’anniversaire d’une date particulièrement mémorable, puisqu’elle a marqué le début d’une ère nouvelle dans le développement des sciences biologiques. C’est en 1768, après plusieurs essais, que Linné publia la 10e édition du Systema naturæ (x), que l’on a fixée ensuite comme le point de départ de la nomenclature botanique et zoologique, et de l’application de la loi de priorité pour les noms des êtres vivants.
- Jusqu’alors on dénommait les animaux et les plantes sans aucune règle, au hasard, et c’était le désordre le plus complet. Réaumur lui-même, si féru de la précision, ne savait, vers 1740, comment désigner les Insectes dont il avait étudié le comportement avec tant de pénétration.
- Vers la même époque, un jeune botaniste suédois s’attacha à cette besogne et, en quelques années, établit les règles de la nomenclature botanique et zoologique, d’une façon si parfaite que son « Système » a supporté l’épreuve de deux siècles sans défaillance. Ce sont les principes linnéens qui sont encore en application aujourd’hui, à quelques modifications de détail près.
- Ce système consiste à nommer tous les êtres par deux noms (nomenclature binominale), comme le sont les personnes humaines dans la plupart des sociétés : un nom de genre (qui correspond au patronyme) et un nom d’espèce (semblable au prénom), ce qui permet de les classer facilement et de les reconnaître. Grâce à cette nomenclature internationale, les biologistes sont pourvus d’une méthode dont l’usage a amplement démontré l’excellence.
- Pour éviter toute contestation, et aussi en hommage aux langues classiques qui sont à la base de notre culture, ces noms sont tirés du grec et du latin, ou tout au moins latinisés.
- On s’étonne parfois en dehors du cercle des biologistes de l’emploi de ces noms qui paraissent étranges ou même pédan-tesques. Le but est seulement de leur donner une valeur internationale. Dans certains cas d’ailleurs, les noms donnés par les anciens ont été conservés : Sphex, Vespa, Rhinocéros, Ele-phas, etc., étaient employés par les auteurs grecs et latins. Autrement d’ailleurs, un être vivant, mettons par exemple l’Abeille, aurait un nom différent dans chaque langue : Abeille, Bee, Biene, etc., tandis que, avec le nom Apis mellifica, tout biologiste de n’importe quelle partie du monde la reconnaîtra.
- 1. Systema naturae, per Régna tria natarae secundum Classes, Ordines, Généra, Species, com Characleribus, Differentiis, Synonymis, locis. Editio Décima, Reformata, Holmiæ, 1758.
- Non seulement Linné a créé de toutes pièces le « Système » de la nomenclature des êtres, mais il a dressé le premier inventaire, qu’il croyait complet et définitif, des animaux et des plantes, mettant en tête Homo sapiens, qu’il a intégré dans le règne animal.
- Linné admettait l’existence d’autant d’espèces qu’il en est sorti des mains du Créateur. Évidemment, cette notion n’a pas-été conservée. Mais son inventaire de la nature était déjà une œuvre magistrale qui a permis le développement des sciences biologiques. Et il ne faut pas oublier que plus de cinquante années se sont écoulées après Linné, pour que Lamarck émette la première idée de l’évolution, et environ un siècle pour que Darwin publie l'Origine des espèces.
- Linné connaissait quelques milliers d’espèces animales. Maintenant on en compte plus d’un million, bien enregistrées, recensées, et pourvues d’un état civil, si l’on peut dire. Il y a au moins 800 000 espèces d’insectes, et ce n’est pas fini.
- Peut-être ne serait-il pas excessif de rappeler au sujet du grand savant suédois une anecdote. Un jour, l’un des Jussieu faisait une démonstration dans le Jardin du Roi et décrivait des plantes devant un auditoire attentif. Un jeune inconnu prit la parole et exposa des notions si pertinentes que Jussieu dit tout de suite : « Vous êtes M. Linné ». Car seul, le botaniste déjà connu par ses travaux pouvait avoir des idées aussi neuves sur la classification des plantes,
- L. Berland.
- Annonces météorologiques par signaux lumineux
- On prévoit l’érection prochaine à Aix-la-Chapelle, sur la tour de la gare centrale, d’une installation « météorologique » constituée par une colonne métallique de 11 m de haut qui permettra aux habitants de cette ville et à leurs voisins belges et hollandais de suivre l’évolution du temps. La colonne sera pourvue de tubes lumineux de 9 m de long, et terminée par une boule de 2 m de diamètre ; les tubes joueront le rôle de baromètre-thermomètre ; la boule, également lumineuse, s’illuminera en trois couleurs différentes suivant que le temps est au beau ou non, ou que des chutes de neige sont imminentes. Les prévisions indiquées par cette installation seront transmises par le Service météorologique d’Aix-la-Chapelle.
- p.410 - vue 414/527
-
-
-
- 411
- L'influence du disulfiram sur le métabolisme de l'alcool éthylique
- On désigne sous le nom de disuljiram ou antabus, un composé organique employé comme accélérateur de vulcanisation du caoutchouc, que l’on a en outre préconisé et utilisé pour combattre l’habitude des boissons alcoolisées. En effet, lorsqu’il est absorbé avec de l’alcool, il provoque des douleurs de la face et de la partie supérieure du corps en même temps que des malaises extrêmement pénibles. Du fait de l’effet psychologique provoqué par ces troubles, il peut donc être un agent intéressant lors des cures de désintoxication des alcooliques.
- Dans la nomenclature officielle, ce produit est appelé disulfure de tétraéthylthiurame et sa formule est :
- csh8n /C2h5
- \n_C —S —S —G —N< c2h5/ Il II V,2h5
- s s
- Jusqu’à présent, la théorie généralement admise de l’action du disulfiram sur le métabolisme de l’alcool était celle de Ilald, Jacobsen et Larsen. Ces auteurs ont trouvé en 19/18 que le métabolisme de l’alcool qui a lieu normalement suivant le schéma :
- CHsCIIaOH -> CH3CHO —> CH3COOH ... -> C02 + HaO
- Alcool Acétaldéhyde Acide acétique
- s’arrêtait partiellement au stade de l’acétaldéhyde après administration de disulfiram, d’où une accumulation d’acétaldéhyde qui provoquerait les symptômes désagréables chez les personnes qui ont absorbé de l’alcool. L’inhibition porterait donc sur l’oxydation de l’acétaldéhyde en acide acétique, le disulfiram agissant sur les enzymes qui interviennent dans cette oxydation.
- Cette théorie était contestée par un certain nombre d’auteurs. Certains n’ont pas trouvé d’accumulation d’acétaldéhyde après administration d’antabus; d’autres n’ont trouvé aucune relation entre la formation d’acétaldéhyde et les symptômes cliniques observés après injection de disulfiram et d’alcool. L’étude a été reprise récemment par MM. IL Casier et H. Polet à l’Université de Gand (Belgique) en utilisant de l’alcool éthylique et de l’acétaldéhyde marqués au carbone i/i; les résultats obtenus ont été présentes lors de la conférence internationale sur les Radioisotopes dans la Recherche scientifique qui s’est tenue à Paris au mois de septembre 1957. Les expériences ont été effectuées sur des souris. On peut les diviser en trois parties principales.
- Dans une première partie, les auteurs ont étudié le métabolisme de l’alcool chez la souris avec et sans administration préalable de disulfiram. Après injection d’alcool éthylique marqué au carbone i4, les souris sont introduites dans un bocal hermétiquement fermé. Entraîné par un léger courant d’air, le gaz carbonique expiré qui est marqué par le carbone i4 de l’alcool est arrêté par une solution de soude caustique. 11 est ensuite précipité par addition d’une solution de chlorure de baryum. Le carbonate de baryum précipité est recueilli et on en mesure la radioactivité au moyen d’un compteur de Geiger-Müller. Les résultats obtenus constituent une mesure de la combustion complète de l’alcool injecté, puisque le gaz carbonique et l’eau sont les termes ultimes de toute combustion dans l’organisme.
- Mais tout l’alcool n’est pas brûlé à l’état de gaz carbonique et d’eau. Une partie se retrouve à l’état libre dans les tissus sous la forme d’alcool éthylique et d’acétaldéhyde qui sont
- volatils. Pour les déterminer globalement, les souris sont tuées par strangulalion et les tissus distillés. On recueille les parties volatiles dans un mélange sulfo-chromique. Une autre partie est métabolisée par l’organisme et fixée dans les tissus. On la détermine par mesure de la radioactivité des tissus après dessiccation. Six tissus différents ont été examinés : le foie, le cœur, les reins, les muscles des pattes postérieures, le cerveau et les poumons.
- Les résultats obtenus par les auteurs ont été les suivants. Si l’on administre de fortes doses de disulfiram (1 800 mg par kg) et 0,2 cm3 d’alcool dilué, ce qui correspondait à 2,44 g d’alcool absolu par kilogramme d’animal, la quantité d’alcool brûlé à l’état de gaz carbonique et d’eau est environ 5 fois moindre que celle brûlée normalement, c’est-à-dire en l’absence d’injection de disulfiram. La fixation d’alcool métabolisé dans l’organisme est diminuée de 61 pour 100. On constate, en outre, que le disulfiram inhibe principalement la fixation dans les tissus dont la teneur en alcool métabolisé fixé est normalement la plus élevée, c’est-à-dire dans le foie et les poumons. Parallèlement, la teneur en alcool libre dans l’organisme est fortement augmentée sous l’influence du disulfiram. Cette augmentation est plus marquée 4 h après l’injection d’alcool et s’élève à 171 pour 100 de la quantité libre normalement. En résumé, on observe une forte diminution du métabolisme de l’alcool jusqu’au stade acide acétique et gaz carbonique.
- Ces résultats préliminaires établis, les auteurs ont cherché s’il y avait effectivement accumulation d’acétaldéhyde. Pour cela l’acétaldéhyde est dosé séparément au moyen du 2-4 dinitro-phénylhydrazine qui fixe sélectivement l’acétaldéhyde en milieu acide. L’expérience montre qu’il y a bien une légère augmentation en acétaldéhyde mais que celle-ci est 200 à 4oo fois plus faible que l’augmentation en alcool éthylique libre dans les tissus, ce qui détruit la thèse suivant laquelle le disulfiram provoque une accumulation d’acétaldéhyde dans les tissus. Afin de confirmer ces résultats, les auteurs ont injecté de l’acétaldéhyde marqué au carbone i/j à des souris en présence de disulfiram. On n’observe aucune accumulation d’acétaldéhyde, mais une augmentation en alcool éthylique qui s’explique par le fait qu’un enzyme, l’aldéhyde-mutase du foie, en milieu anaérobie catalyse la réaction de dismutation de l’acétaldéhyde. Cette réaction, connue sous le nom de réaction de Cannizzaro, consiste en la formation d’une molécule d’alcool et d’une molécule d’acide acétique à partir de deux molécules d’acétal-déhvde et d’une molécule d’eau; elle s’écrit :
- 2 CH3CHO + H20 —> CH3CH2OII + CHS — COOH.
- En définitive, toutes ces données semblent bien confirmer la thèse suivant laquelle le disulfiram inhibe principalement le premier stade du métabolisme de l’alcool (transformation de l’alcool en acétaldéhyde) et n’influence que très faiblement le deuxième stade (transformation de l’acétaldéhyde en acide acétique). Quant aux malaises observés après ingestion d’alcool par les personnes traitées au disulfiram, ils seraient dus en grande partie à l’effet synergique de l’alcool et du disulfiram ou de l’un des produits de transformation du disulfiram dont la toxicité relative est augmentée par leur association.
- On voit comment l’emploi des éléments marqués permet des expériences beaucoup plus fines que les méthodes classiques. Ceci explique leur utilisation de plus en plus fréquente pour l’étude des processus complexes que sont les métabolismes.
- R. R. et F. R.
- p.411 - vue 415/527
-
-
-
- 412
- Primates et Paléontologie humaine
- En même temps que la publication du monumental Traité de Zoologie du professeur Grasse, la Librairie Masson poursuit celle du grand Traité de Paléontologie du professeur Piveteau, dont les premiers tomes parus ont été : Tome I (Généralités, Protistes, Spongiaires, Cœlentérés, Bryozoaires); tome II (Bra-chiopodes, Chétognathes, Annélides, Géphyriens, Mollusques); tome III (Onychophores, Arthropodes, Échinodermes, Stomo-cordés); tome V (Amphibiens, Reptiles, Oiseaux). La dernière livraison a été celle du 2e volume du tome VI (Mammifères, Évolution) que nous analyserons ultérieurement (1). Entre temps, on a eu en main le tome VII, très attendu, consacré aux Primates et à la Paléontologie humaine : près de 700 pages entièrement rédigées par M. Jean Piveteau lui-même (2). Cette œuvre vient à son heure car les dernières années ont été fertiles en résultats importants concernant le problème des origines de l’Homme, certes le plus passionnant de toute la Paléontologie, et aussi concernant l’ensemble des Primates.
- Depuis longtemps on admet que les grands singes Anthropoïdes et l’Homme ont une origine commune, qui doit se situer très loin dans l’ère tertiaire. On connaît beaucoup de grands singes fossiles, quelques-uns par un fragment d’os ou une seule dent, mais aucun ne nous permet de situer l’instant où les deux lignées ont commencé à diverger.
- M. Piveteau voit deux temps bien marqués dans la genèse de l’humanité, dans Vhominisation. Dans un premier temps, le rameau s’est individualisé. Les êtres qui le composent n’ont pas encore les attributs essentiels qui pour nous définissent un être humain, ou ils ne les possèdent qu’à l’état de tendances ou de virtualités. Ils ne sont pas hommes mais ils sont déjà sur le chemin qui mène à l’homme.
- Ce sont les Australopithèques de l’Afrique du Sud qui nous donnent la meilleure idée de ce que pouvaient être ces singes, encore singes incontestablement, mais engagés sur la voie humaine. S’ils ont encore un cerveau à peine plus gros que celui d’un gorille, avec une crête sagittale et bien des détails simiens, par contre les Australopithèques marchent droit ou presque, leur voûte palatine ressemble à la nôtre, leur mâchoire et leurs dents sont déjà de type humain. Il est très douteux qu’ils aient connu le feu et façonné des outils. Ces Australopithèques ne sauraient compter parmi les ancêtres directs de l’Homme, ils ne sont pas assez anciens pour cela et des êtres plus évolués existaient déjà en leur temps; mais ils montrent un stade par lequel les préhumains ont dû passer, et ils peuvent être considérés comme un rameau attardé des Hominidés très primitifs.
- On possédait depuis 1872 un fossile beaucoup plus antique de Toscane, l’Oréopithèque, représenté par quelques fragments de membres et une portion de mandibule et dont il a été trouvé en août dernier un squelette complet. Considéré longtemps comme un singe, l’Oréopithèque a été étudié de nouveau récemment ; c’est en réalité un Hominidé primitif, caractérisé surtout par le dessin de sa prémolaire inférieure et par la brièveté de sa mandibule. Comme ce fossile, datant du Vindobonien, paraît très avancé sur le chemin qui mène à l’Homme, l’origine commune des Anthropoïdes et des Hominidés se trouve rejetée beaucoup plus loin dans le Tertiaire. Ainsi ce qu’on peut appeler la préparation de l’hominisation est un fait extrêmement ancien.
- 1. Traité de Paléontologie, publié sous la direction de Jean Piveteau, membre de l’Institut, professeur à la Sorbonne. Tome VI, 2' volume : Mammifères, Évolution, par R. Lavocat, C. Dechaseaux, R. Vaufrey, J. Piveteau, J. Viret, R. Saban, R. Hoffstetter, G. Gura, S. Sciiaub. 1 vol. 16 x 25, 962 p., 1 040 fig., 1 planche. Masson, Paris, 1958. Prix, broché : 15 500 F ; cart. toile : 16 500 F.
- 2. Traité de Paléontologie. Tome VII : Primates, Paléontologie humaine, par Jean Piveteau. 1 vol. 16 x 25, 676 p., 639 11g., 8 pl. hors texte dont 4 en couleurs. Masson, Paris, 1957. Prix, broché : 12 000 F ; cart. toile : 12 800 F.
- La véritable hominisation, marquée par l’apparition d’une industrie qui témoigne d’une intelligence et de la transmission d’une tradition, est indiscutable avec les Pithécanthropiens : Pithécanthrope de Java, Sinanthrope de Chine, Atlanthrope d’Algérie. L’Atlanthrope a été trouvé avec des silex aclieu-léens, à un endroit où on avait déjà trouvé du chelléen et l’on sait que nous avons en Europe des vestiges très nombreux de ces deux types archéologiques, datant même d’époques plus anciennes que le Sinanthrope asiatique. Les Pithécanthropiens devaient exister en Europe à l’aurore des temps quaternaires.
- Après eux viennent les êtres que l’on peut ranger déjà dans le même genre que nous, le genre Homo. L’Homme de Mauer, qui porte des dents presque modernes sur une mâchoire extraordinairement volumineuse, ne peut pourtant être considéré comme intermédiaire entre les Pithécanthropiens et les premiers hommes véritables. Ses caractères un peu contradictoires le rendent difficile à placer dans la phylogénie humaine, et il témoigne seulement du fait que deux séries de caractères peuvent évoluer avec des vitesses bien différentes.
- L’Homme de Néandertal, qui apparut il y a quelque cent mille ans, a donné lieu à des discussions passionnées sur le point de savoir s’il pouvait être notre ancêtre. En réalité, le problème était mal posé, parce que le Néandertalien n’est pas un type homogène ; on réunit sous cette appellation des hommes fossiles assez divergents par d’importants détails, et d’époques très différentes. M. Jean Piveteau adopte la conception qui les sépare en deux groupes bien distincts : d’une part, le Néandertalien classique, celui de La Chapelle-aux-Saints, avec sa voûte crânienne très surbaissée et ses énormes bourrelets susorbitaires et, d’autre part, le type d’Ehringsdorf, à la voûte crânienne beaucoup plus haute, au crâne plus court, et qui semble beaucoup plus proche de l’Homme moderne, quoiqu’il soit plus ancien que le Néandertal typique puisqu’il est antérieur à la glaciation de Wurm. Ainsi, conformément à une opinion courante, qui nous a toujours paru raisonnable, le vrai Néandertal, celui de Néandertal même et de La Chapelle-aux-Saints, serait un rameau éteint sans descendance, qui a survécu jusqu’à être le contemporain de nos ancêtres directs et a peut-être été massacré par eux. Mais bien auparavant déjà, un proche parent de Néandertal, l’Homme d’Ehringsdorf, avait évolué dans un sens qui le rapprochait de l’Homo sapiens, et cet homme-là pourrait bien être dans notre lignée. Ainsi se trouverait résolu le problème des origines immédiates de VHomo sapietis.
- Il faut être reconnaissant à M. Jean Piveteau du travail remarquable qu’il vient d’accomplir en nous présentant cette synthèse de toute la Paléontologie des Singes et de l’Homme. L’histoire qu’il nous expose a encore bien des lacunes qui ne seront jamais tout à fait comblées. Du moins on commence à y voir plus clair, et la merveilleuse aventure humaine se dégage peu à peu grâce aux sévères disciplines de l’anatomie comparée.
- P. O.
- Dynamite radioactive
- L’emploi de dynamite radioactive permet d’augmenter la sécurité dans les mines qui abattent les minerais à l’explosif. La méthode consiste à incorporer à la dynamite un isotope radioactif qui permette de déceler, à l’aide d’un compteur de Geiger portatif, l’existence, dans les déblais ou dans les trous de mine, de cartouches non explosées. Le radio-isotope utilisé pour les essais a été l’antimoine 124 qui a une période de 124 jours. On peut également employer l’indium 114 ou le fer 59. Le radio-isotope est incorporé à l’explosif lui-même. Le procédé qui consiste à le mélanger à l’encre de marquage des cartouches n’est pas à recommander car il rend les déblais radioactifs.
- p.412 - vue 416/527
-
-
-
- LE CIEL EN NOVEMBRE 1958
- 413
- SOLEIL : du 1er novembre au 1er décembre (à 0h) sa déclinaison décroît de — 14°M' à — 21°42' et son diamètre app. passe de 32'17",0 à 32'29",6 ; la durée du jour varie de 9h52>“ le 1er à 8*34“ le 30. — LUNE : Phases : D. Q. le 4 à 14^19®, N. L. le 11 à 6*34®, P. Q. le 18 à 4h59m, P. L. le 26 à 10h16m ; “périgée le 10 à 14h, diamètre app. 33'24" ; apogée le 23 à 5h, diamètre app. 29'30". Principales conjonctions : avec Uranus le 5 à 2h, à 5°40' S. ; avec Neptune le 10 à 10h, à 0°33' S. ; avec Jupiter le 10 à 22^, à 0°59' N. ; avec Vénus le 11 à 6h, à 1°40' N. ; avec Mercure le 12 à 16h, à6°25' N. ; avec Saturne le 13 à 16h, à 3°36 N. ; avec Mars le 23 à 7h à 3°25' S. Principales occultations : le 2, de 26 Gémeaux (mag. 3,1) émersion à 2h27rn,8 ; le 3, de 68 Gémeaux (mag. 5.1) émersion à
- WnÊÊBÊBÊÊÊnÊÊBÊÊÊÊÊÊÊÊÊÊMÊBBÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊtÊÊKÊ*.
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- fondée en 1887 par C. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc. Demandez les programmes au Siège Social : Hôtel des Sociétés Savantes 28, rue Serpente, PARIS-6”
- Permanence, tous les jours non fériés de 14 à 17 h.
- Cotisations : Région Parisieune, 1 800 F ; France, 1 S00 F ;
- Etranger, 2 300 F ; Étudiants, 2S0 F.
- Droits d’inscription, 200 F ; Étudiants, 140 F.
- Spécimen gratuit de la revue sur demande.
- ii)42m,S ; le 27, de 115 Taureau (mag. 5,3) émersion à 20h49IU,4 ; le 28, de 120 Taureau (mag. 5,5) émersion à 0h42m,7 ; le 29, de a Gémeaux (mag. 3,6) immersion à 23b4m,0 et émersion le 30 à 0h18m,4. —-PLANÈTES : Mercure, difficile étoile du soir dans la seconde partie du mois, se couche 1 heure après le Soleil ; Vénus, est invisible en conj. supér. avec le Soleil le 11 ; Mars, astre rouge étincelant au sud des Pléiades au début du mois' ; en opposition avec le Soleil le 16, diamètre app. 19h,0 et mag. •— 2,0 ; Jupiter, est invisible en conj. avec le Soleil le 5 ; Saturne, dans Ophiuchus étoile du soir s’effaçant vivement dans les brumes- du couchant ; Uranus, dans le Cancer visible dès la fin de la soirée ; le 21, lever à 21h41m, position : a = 9M6m et 6 = + 16°36' ; Neptune, dans la Vierge, devient un peu visible dans l’aube à la fin du mois. — ETOILES VARIABLES : minima observables d'Algol (2-m,2-3m,o) le 10 à 4h,3, le 13 à lh0, le 15 à 21^,8, le 18 à 18^,7, le 30 à 6h,0 ; minima de (3 Lijre (3m,4-4m,3) le 1er à 10h,8, le 14 à 9h,i, le 27 à 7h,4 ; mavima de t, Aigle (3»\7-4m,4) le 6 à 16h,3, le 13 à 20h,6, le 21 à 0h8, le 28 à 5h,l. — TEMPS SIDÉRAL : le 1« : 2*48»27«, le 11 : 3h27m53s, le 21 : 4îl7Iia18s, le 1er décembre : 4ll46m44s.
- Phénomènes intéressants. — Surveiller l’activité solaire qui est voisine d’un maximum. — Du 6 au 9, lumière cendrée de la Lune, le matin. — La planète Mars, astre rouge, brille d’un éclat magnifique pendant tout le mois, d’abord au sud des Pléiades, elle s’en éloigne ensuite au S.-W. en rétrogradant, ne pas manquer de l’observer dans une petite lunette. — Dans la nuit du 29 au 30 on suivra l’occultation de \ Gémeaux. — Etoiles filantes : du 15 au 20, Léonides (maximum le 16), radiant Ç Lion ; du 17 au 23, Andromédides, radiant y Andromède.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- LES LIVRES NOUVEAUX
- Histoire de la science, publiée sous la direction de Maurice Daumas. 1 vol. 11 x 18,
- 1 906 p. Encyclopédie de la Pléiade, Gallimard, Paris, 1958. Prix : 4 200 F.
- Ce livre est un véritable monument, édifié grâce à la collaboration de plusieurs auteurs parmi lesquels M. Caullery, P. Humbert, A. Sauvy, E. Schatzman, R. Taton. Son objet, nettement défini, est une histoire de la science des origines au xxe siècle. Quelques sondages permettent de se rendre compte que la plupart des sujets ont été magistralement traités, mais plutôt dans une optique philosophique (visant à connaître l’évolution de la pensée scientifique) que dans le souci d’une revue exhaustive. Les astronomes, mathématiciens, physiciens et psychologues consulteront sans doute l’ouvrage avec plus de fruit que les zoologistes, les géologues et les géophysiciens. Mais ces inégalités sont inévitables et prouvent une fois de plus qu’une vue encyclopédique sur un domaine aussi vaste, ne peut tenir en un volume unique. Un tableau synchronique et deux index (noms et matières) facilitent grandement le maniement de cet ouvrage.
- Science fausse et fausses sciences, par Jean Rostand. 1 vol. 12 x 18,5, 308 p. Gallimard, Paris, 1958. Prix : 750 F.
- Recueil d’études inédites sur quelques sujets d’actualité où la science est intéressée. Le premier a donné son titre au recueil. La science fausse, c’est ce qui peut se glisser de faux dans la science authentique. Ainsi, quand par des expériences mal conduites, les adversaires de Pasteur prétendaient prouver la génération spontanée des microbes, c’était de la science fausse, laite pourtant par de vrais savants, victimes de leurs habitudes d’esprit. Les fausses sciences, elles, sont en principe extérieures à la science (astrologie, radiesthésie...) et à première vue elles ne la menacent guère, sinon par le tort qu’elles portent à la société sur laquelle elles vivent en parasites. Un exemple d’erreur scientifique, commise de bonne foi, est longuement cité par M. Jean Rostand ; il montre l’importance d’un esprit critique rigoureux. Il y a aussi la courte aventure lyssenkiste... Quelques études intéressantes sur : la biologie et le droit ; les singularités de l’homme ; biologie et enfance inadaptée ; unité et différenciation en biologie ; cinéma et biologie.
- Servomécanismes et Régulation, par H. Chest-nut .et R. W. Mayer. Traduit de l’américain par H. Garçon. 1 vol. 16 x 25, 560 p., 347 flg. Dunod, Paris, 1957. Prix, relié toile sous jaquette : 5 800 F.
- Cet ouvrage est centré sur les problèmes de la commande par contre-réaction et les progrès que cette méthode a apportés dans le -domaine de la régulation. L’auteur aborde entre autres l’étude des régimes transitoires (méthode de Laplace et méthode de l’équation différentielle), la réalisation des systèmes de commande cl; la synthèse des ensembles régulateurs. Abondamment illustré et complété de nombreux exercices, ce livre est un véritable classique.
- L'aluminium, par R. Gadeau. 1 vol. 11x16,5, 224 p., 21 fig. Armand Colin, Paris, 1958. Prix : 360 F.
- La collection Armand Colin s’enrichit d’une excellente monographie sur l’aluminium, métal
- A NOS LECTEURS
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-66
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- dont la production, qui doit beaucoup à la science et à la technique françaises, se développe en flèche puisqu’elle a doublé entre 1950 et 1956. Après la description des phases chimique et électrométallurgique de sa préparation puis de son raffinage, l’auteur étudie les propriétés du métal et de ses alliages, leur fonderie et la préparation des demi-produits, leurs applications et les traitements qui permettent de protéger l’aluminium comme ses alliages contre la corrosion.
- La vie des plantes. Ecologie végétale, par Claude-Charles Mathon, chargé de recherches au C.N.R.S. 1 vol. 11 x 17,5, 128 p., 13 flg. Collection Que sais-je ?, P.U.F., Paris, 1958. Prix : 180 F.
- Exposé succinct de l’écologie végétale et de l’étude des plantes dans leur milieu. Après avoir décrit les méthodes de recherche, l’auteur étudie l’influence du climat et de ses diverses composantes, puis le substrat physique et enfin le milieu vivant.
- Détermination microscopique des minéraux des sables, par Solange Duplaix. Préface de Jacques Bourcart. Nouvelle édition. 1 vol. 14 x 22, 96 p., 69 flg. de minéraux. Ch. Béranger, Paris, 1958. Prix : 1 700 F.
- Depuis la lr* édition de cet ouvrage, en 1948, l’étude des minéraux rares des sédiments a pris une très grande importance. Outre l’application déjà ancienne à la stratigraphie des forages, elle permet la recherche des directions et des distances de transport par les courants. Qu’il s’agisse d’égouts, de déversement de matières dangereuses, l’étude du transport des minéraux rares naturellement convoyés ou artificiellement immergés est d’actualité. La recherche de ressources minérales nouvelles dans les allu-vions ou dans le sable des plages nécessite également l’emploi de ces méthodes.
- Lexique pédologique trilingue, par G. Plaisance, ingénieur des Eaux et Forêts. 1 vol. 21 x 27, 358 p. Centre de Documentation Universitaire et S.E.D.E.S., Paris, 1958. Prix : 1 500 F.
- L’ouvrage donne les équivalents, en français, anglais et allemand, de 3 300 mots de pédologie, géologie, érosion, géomorphologie, cryopédo-logie, agronomie, etc. En annexes, des tableaux
- p.413 - vue 417/527
-
-
-
- 414
- synoptiques inédits, donnant les correspondances entre les classifications des propriétés des sols selon les diverses écoles pédologiques, faciliteront les vues d'ensemble et les comparaisons.
- The Invertebrata, par L. A.. Borradaile et
- F. A. Potts, 3e édition révisée par G. A. Ker-
- kut. 1 vol. 14 x 22, xvin-795 p., 523 fig.
- Cambridge University Press, Londres, 1958,
- Prix, relié : 55 sh.
- La nouvelle édition de ce traité très apprécié des étudiants des Universités anglaises montre des différences assez importantes avec les précédentes ; on peut, par exemple, en citer la place assignée aux Graptolites qui sont transférés des Cœlentérés aux Protocordés. L'auteur insiste sur le fait que les Invertébrés ne constituent pas un ensemble homogène, mais le nom est conservé comme une désignation commode d'un groupe de phylums qui doivent être souvent traités comme un ensemble. La division logique du règne animal est en Protozoaires, Parazoaires et Métazoaires, formant trois sous-règnes. Les Parazoaires ne comprennent que les Éponges ; à l’intérieur du groupe des Métazoaires, les Cœlentérés, ne présentant pas de mésoderme (Diploblastica), s'opposent à tous les autres animaux (Triploblastica). Les grandes divisions du traité sont donc les suivantes : I. Protozoaires, divisés en 4 classes : Mastigo-phora (Flagellés), Sarcodina (Rhizopodes), Spo-rozoa (Sporozoaires), Ciliophora (Ciliés) ; II. Parazoaires (Porifères) ; III. Métazoaires, divisés en : Cœlentérés (Cnidaires, Cténophores) ; Acœlo-mata (Plathelminthes) ; Annélides ; Arthropodes (Onichophores, Trilobites, Crustacés, Myriapodes, Insectes, Arachnides) ; Mollusques ; Échi-nodermes ; Protocordés divisés en Hemichorda (Entéropneustes, Cephalodiscus, Graptolites), Uro-chorda (Tuniciers) et Cephalochorda (Vertébrés). Les groupes difficiles à placer sont rattachés aux Acœlomata (Némertes, Rotiîères, Nématodes, Gastrotriches, Acanthocéphales, Gordiens) et aux Mollusques (Ectoproctes, Bracliiopodes, Chæto-gnathes, Phoronides). Dans l'ensemble, un très bon traité, au courant des dernières recherches, qui pourra rendre des services aux étudiants qui désirent un ouvrage plus simple que le
- Traité de Grassé, et qui, naturellement, lisent l’anglais.
- Les Passereaux ; III. Des pouillots aux moineaux, par Paul Géroudet. 1 vol. 12 x 17, 296 p., 38 dessins de R. Hainard, M. Reichel, P. Barruel et P.-A. Robert, 48 planches dont 32 en couleurs de L.-P. Robert. Delachaux et Niestlé, Neuchâtel, Paris, 1957. Prix : 1 650 F.
- Dans la jolie collection Les beautés de la Nature ou ont paru déjà tant de livres excellents par la documentation comme par l’image, voici le 6e volume de La vie des oiseaux. Gomme les précédents, il est le fruit de longues et patientes observations personnelles s'ajoutant à une sûre érudition. Les dessins originaux sont appuyés par des descriptions précises et des notices où l’on trouve tout l’essentiel de ce qui concerne chaque espèce. Nul doute que ce bel ouvrage enfin achevé n'encourage, selon les vœux de l'auteur, l'observation, la connaissance et aussi, espérons-le, la protection des oiseaux dans les pays de langue française.
- Le cerveau humain, par Paul Ciiauchard, directeur adjoint à l’Ecole des Hautes Études. 1 vol. 11 x 17,5, 128 p., 8 fig. Collection Que sais-je ?, P.U.F., Paris, 1958. Prix : 180 F.
- Après une description des structures cérébrales et une courte étude sur le problème des localisations, Fauteur analyse l’activité supérieure et la pensée (bioélectricité cérébrale, processus d’auto-régulation, schèmes spatio-temporels innés et acquis, etc.) puis l'intégration consciente et les processus de la « personnalisation ». La pathologie cérébrale nous conduit enfin au problème moral. Gomme dans ses autres livres, l’auteur ici se révèle à la fois soucieux de science exacte et de spiritualité.
- Spiders, Scorpions, Centipedes and Mites.
- The Ecology and Natural History of Woodlice, « Myriapods » and A r a c h ni ds, par J. L. Cloudsley-Thompson. 1 vol. 14 x z2, 228 p., 39 fig., 17 pl. Pergamon Press, Londres, 1958. Prix, relié : 50 sh.
- Cet intéressant petit volume est consacré à l’ensemble des Arthropodes terrestres, autres que les Insectes, c’est-à-dire les Isopodes (Cloportes), les Diplopodes (Glomeris, Iules),, les Chilopodes (Scolopendres), les Pauropodes, les Symphyles et tout l'ensemble des Arachnides (Scorpions, Solifuges, Pseudoscorpions, Balpi-grades, Tliélyphones, Schizomides, Phrynichi-des, Ricinulides, Opilions, Araignées et Acariens). On Aroit que le programme est vaste et, pour être traité en un peu plus de 200 pages, il a fallu forcément le réduire aux faits principaux. La morphologie externe, l’anatomie et la classification sont volontairement négligées et l’auteur s’occupe presque uniquement de la biologie. Dans chaque groupe, il donne l’essentiel de ce qu’on connaît sur le comportement, les mœurs, la reproduction et le cycle vital, les ennemis des animaux étudiés. Tout cet ensemble est forcément traité assez rapidement mais les renseignements donnés sont exacts et le livre rendra service à tous ceux qui désirent avoir une idée générale sur les animaux si divers qui composent ce groupe énorme d’invertébrés.
- Le Sahara ; Géologie, ressources minérales, mise en valeur, par Raymond Furois, sous-directeur au Muséum. 1 vol. 14 x 23, 300 p., 22 fig. Payot, Paris, 1958. Prix : 2 000 F.
- Les espoirs que l'on met dans l’exploitation du Sahara sont-ils fondés P La réponse à cette question présuppose une étude très complexe. Elle est loin d’être achevée, mais le dossier est déjà assez nourri. Ce livre nous en apporte l’essentiel. L'auteur expose d’abord la préhistoire et l’histoire du Sahara, dont le climat a été jadis bien différent de ce qu’il est aujourd'hui. Il dépeint ses habitants actuels, leurs mœurs, leurs ressources. Il en étudie la géologie avec une particulière compétence. Enfin, il aborde l’examen des ressources minérales, à commencer par l’eau, qui pose un problème majeur. Autres problèmes ardus, celui des transports, celai de la main-d’œuvre. La main-d’œuvre locale est presque inutilisable, les Noirs ne peuvent y être employés que de façon saisonnière, les Européens ne peuvent guère y
- Quel que soit votre problème d'étude, de recherche scientifique ou d'enseignement, il existe
- un produit
- Kodak
- pour le résoudre. Pour tous renseignements adressez-vous à
- KODAK-PATHl * SERVICE SCIENTIFIQUE
- 37, Av. Montaigne, PARIS-VIII9 — Tél. BAL 26-30
- VIENT DE PARAITRE
- CHIMIE GÉNÉRALE
- Introduction à la chimie descriptive
- et à la
- chimie théorique moderne
- PAR
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7*
- Préparation aux carrières des Laboratoires Médicaux, industriels, Agricoles.
- Préparation aux diplômes d'Etat.
- Brevet de Technicien d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du four — Cours du soir
- Section d'enseignement " 6 domicile "
- (Joindre timbre pour notice)
- L. PAULING
- Professeur de Chimie à l’Institut de technologie de Californie.
- TRADUIT DE L'AMÉRICAIN PAR R. PARIS
- Professeur de Chimie minérale à la Faculté des Sciences de Lyon.
- XXIt-728 pages 15x25, avec 147 figures et une planche hors texte en couleurs. 2e édition. Nouveau tirage.
- Broché sous jaquette........................................... 2 900 F
- Belié toile sous jaquette...................................... 3 300 F
- En vente dans toutes les bonnes librairies et chez 92, rue Bonaparte 20UKT033 Éditeur, Paris-60.
- p.414 - vue 418/527
-
-
-
- 415
- supporter un travail continu. Les difficultés sont donc grandes et d'énormes capitaux devraient être investis.
- Madagascar : Panorama de l’Androy, par
- Suzanne Frère. 1 vol. 18 x 25, 200 p., nombr. lig. et photos hors texte. Éditions Aframpe, Paris, 1958. Prix : 2 000 F.
- Aidée d’une douzaine d’enquêteurs indigènes qu’elle avait recrutés et formés elle-même, MllB Frère a exploré cent onze villages pris comme échantillons dans le pays Androy, au sud de Madagascar, le plus aride de toute File, et dont la population serait la plus primitive. L'auteur a surtout bien étudié les modes de vie et les mœurs familiales. Civilisation essentiellement patriarcale, en voie d’altération manifeste. Quoique semblant peureusement dissimulée dans ses villages enclos de plantes vulnérantes et à l’écart de tout chemin, la population est très mobile ; elle se déplace fréquemment à la saison sèche pour nourrir ses bœufs, symbole de richesse, mais sans utilité économique. Hommes et femmes s’absentent aussi pour des mois, cette instabilité géographique aggravant une instabilité matrimoniale déjà naturelle. Insouciance, indifférence devant les imprévus de la vie, et pourtant respect religieux de rites et préséances, tels sont les autres traits dominants de ce peuple sympathique. Enquête intéressante, mais un peu hâtive, qui en appelle d’autres, plus prolongées, pour éclairer la pensée et les origines de ces hommes. Bientôt, il ne sera plus temps.
- La voie rationnelle de la médecine chinoise,
- par le Dr Jean Ciîoaix. 1 vol. 17,5x26, 505 p., lig. en noir et en bichromie, pl. h. t. S.L.E.L., Lille', 1957. Prix, relié : 4 500 F; exemplaire de luxe : 5 000 F.
- Celte étude du fonctionnement de la pensée médicale chinoise traditionnelle est l’œuvre d’un homéopathe acupuncteur qui cherche à concilier médecine chinoise et théories occidentales étrangères à la médecine officielle (qualifiée de conformiste, dualiste, formelle, mécaniste, etc.) : biochimie cellulaire nouvelle (comprenez empirisme, déjà dépassé, de Lys-
- senko, antipastorianisme de Lepechînskaia), physiologie pavlovienne, médecine morphologique, néo-hippocratisme. Cet ouvrage « engagé » sous la bannière de la dialectique de Hegel et d’Engels présente les conceptions chinoises comme fondées sur la logique des contraires. Le lecteur, selon ses tendances, prendra position pour ou contre la thèse soutenue ici avec beaucoup d’érudition et de foi. Il ne pourra cependant s’abstenir de relever que le Dr Choain pousse à l’occasion des incursions dans le domaine de l’ésotérisme, qu’il établit des analogies formelles et surtout qu’il adopte de confiance, à l’instar de ses confrères acupuncteurs français, les interprétations de Soulié de Morant ; or, la médecine chinoise du terroir n’a jamais conçu une « Circulation de l’Énergie » qui en constituerait le fondement, pas plus qu’elle n’a imaginé des « méridiens » conducteurs de cette énergie ; le k’i n’est autre qu’un souffle matériel, un pneuma, contenu dans des king mô ou vaisseaux. Du fait de cette inadvertance, bien des conclusions deviennent caduques. Parler de « la six fois millénaire médecine chinoise » (p. 303), c’est encore se laisser égarer par le grand imaginatif que fut Soulié de Morant. Travail souvent intéressant pourtant, que toute personne curieuse d’acupuncture et soucieuse d’objectivité doit consulter avant de se faire, si elle l’ose, une opinion personnelle sur le mode d’action de cette thérapeutique.
- Origines de la civilisation japonaise, 1T* partie, par Charles Haguenauer. 1 vol. 21 x 27, xv-640 p. (+35 p. encartées : Liste des additions et corrections), 4 pl. h. t., fig., tableaux. Imprimerie nationale et Klincksieck, Paris, 1956. Prix, relié : 8 700 F.
- Ce travail monumental repose sur les trois bases de toute étude ethnologique sérieuse : anthropologie, ethnographie, linguistique. Un second tome traitera de l’archéologie. Par nécessité autant que par goût peut-être, l’auteur a insisté sur la linguistique, seule susceptible, dans l’état actuel des connaissances, d’apporter des résultats positifs. Les recherches anthropologiques et ethnographiques loin de se solder
- cependant par un échec, malgré la rareté des documents utilisables et l'imprécision dont ils sont entachés, contribuent à l’élimination de théories aussi contradictoires que scientifiquement défectueuses. Le terrain est maintenant déblayé, et même la construction de l’édifice définitif amorcée ; M. Haguenauer, dont on ne saurait assez louer la prudence et la probité, exécute sans appel des élucubrations qui assignaient à l’ethnie japonaise des origines « méridionales » ou pacifiques. La comparaison du « japonais commun » avec l’altaïque et V « al-taïque oriental » laisse apparaître de nettes affinités entre japonais et altaïque ; il semblerait que les tribus qui ont formé la nation nippon© se rattachassent lointainement à une ethnie altaïenne, mais l’arrivée de nombreux éléments hétérogènes, très difficilement identifiables, a brouillé les cartes. Pour être données comme de simples hypothèses de travail, ces conclusions n’en paraissent pas moins solides. Les longues années que M. Haguenauer a consacrées à cette question des origines (le présent ouvrage est fondé sur une thèse soutenue en 1947), la sûreté et la diversité exceptionnelles de ses connaissances, jointes à une remarquable pondération, lui conféraient le dangereux privilège d’embrasser le problème dans son intégralité. Cette somme, qui marquera une date dans les études japonaises, fait de son auteur le maître de la japonologie mondiale.
- Brésil aride, par F. Aubert de la Rüe (Coll.
- Géographie humaine, n° 29). 1 vol. 14x23,
- 248 p., 2 cartes, 16 pl. hors texte. Gallimard
- (N.R.F.), Paris, 1957. Prix : 990 F.
- Ce livre est à la fois une relation de voyage et une étude de géographie humaine. A ce titre, il apporte une documentation d’autant plus précise que son auteur, solidement informé en de nombreuses disciplines (géologie, botanique, ethnologie, sociologie) a su à la fois regarder et expliquer la région qu’il a méthodiquement visitée. Il s’agit du Nord-Est brésilien, connu sous le nom de caatinga et dans la littérature sous celui de sertao. Ce pays subtropical, souvent victime de la sécheresse, est néanmoins
- vient de paraître
- ChilHiC. science et industries
- TOME XII DE L’ENCYCLOPÉDIE FRANÇAISE
- sous la direction d’Albert Kirrmann, professeur à la Faculté des Sciences, directeur adjoint de l’Ecole Normale Supérieure. Avant-propos de Gaston Berger, directeur général de l’Enseignement supérieur, membre de l’Institut.
- Un important volume (25x30 cm) sous reliure mobile spéciale permettant les mises à jour ultérieures, deux séries de planches hors texte : 8 900 F (taxe locale incluse). Facilités de paiement.
- £N VENTE CHEZ TOUS LES LIBRAIRES ET 114, BOULEVARD RASPAIL, PARIS 6
- LAROUSSE
- DÉPOSITAIRE GÉNÉRAL
- p.415 - vue 419/527
-
-
-
- 416
- surpeuplé, ce qui lui donne un caractère à la fois attachant et paradoxal.
- Japanese Temples and Tea-Houses, par Werner Blaser. 1 vol. 24 x 31, 156 p., dessins, pi. in texte en noir et en coul. P. W. Dodge Corporation, New York, 1956. Prix : 12,75 dollars.
- Cet ouvrage prouve que dans des cas privilégiés, comme celui du Japon, il est possible d’accéder à la psychologie d'un peuple par l’analyse des caractéristiques originales de certains édifices typiques : en l'occurrence, temples et maisons de thé surtout, mais aussi demeures impériales et maisons d’habitation. Des éléments historiques, spirituels et sociaux ont façonné la conception qu'en ont eue leurs bâtisseurs. La cérémonie du thé, en rapport avec le shintoïsme et le bouddhisme zen, s’est chargée, du fait de son ritnel, d’une valeur spirituelle qui s’est communiquée au lieu même où elle s’accomplit ; tout ce qui a trait à cette cérémonie révèle la synthèse originale qui résulte des traditions chinoise et japonaise. Architecte et esthéticien, l'auteur montre comment les objets d’usage quotidien peuvent solliciter l’esprit et ne pas satisfaire seulement des besoins matériels. L’illustration, bien choisie et de bon aloi, prête son appui au texte pour dégager l'opposition entre l’âme extrême-orientale et l’âme occidentale ; la première vit en harmonie -avec la nature qu’elle accueille dans la pièce, à l'inverse de l’autre qui a perdu le sens du panthéisme et isole un espace pour l’ériger en un monde à part. Une belle étude de psychologie ethnique abordée sous un angle inhabituel, mais parfaitement valable.
- Les satellites artificiels américains, par John Shirley Hurst, directeur de l’Information de la Défense civile des États-Unis. Trad. de H. Claireau. 1 vol. 13,5x18, 192 p., 8 planches hors texte. Deux Rives, Paris, 1957. Prix : 750 F.
- Histoire des travaux, des discussions, des péripéties qui ont marqué l’apparition des premiers
- satellites américains. Résumé des enseignements qu’on en attendait. Petit livre écrit dans un style agréable.
- L’Industrie devant l’énergie nucléaire. 1 vol. 15,5 x 24, 306 p., ill. Publications de
- l’O.E.C.E., Paris, 1957. Prix : 1 500 F.
- On peut maintenant espérer que l’énergie nucléaire pourra prendre la relève des sources classiques d’énergie. Mais de nombreux problèmes restent à résoudre : la purification des produits utilisés, la mise au point d’équipements nouveaux, l’étude de substances difficiles à expérimenter, etc. On trouvera dans le présent volume les comptes rendus des communications des spécialistes à la première conférence d’information sur l’énergie nucléaire organisée en avril 1957 par l’O.E.C.E. Sujets traités : aspects techniques de l’énergie nucléaire ; aspects économiques ; utilisations industrielles des radioisotopes ; aspects industriels de l’énergie nucléaire ; développement de l’énergie nuoléaire.
- Les Transports maritimes, 1 vol. 15,5 x 24, 71 p. Publications de l’O.E.C.E., Paris, 1957. Prix : 550 F.
- Ce rapport préparé par le Comité des Transports maritimes en mai 1957 est le troisième de cette série. Il contient une analyse générale de l'évolution des transports maritimes et de la construction navale, et Indique les principales tendances marquées par le marché des frets en 1956. Les hausses spectaculaires des frets, aussi bien pour les cargaisons sèches que pour le pétrole, et l’influence exercée par la crise de Suez, font l’objet d’une étude particulière, de même que l’augmentation considérable des programmes de construction navale, notamment pour les pétroliers. Le rapport passe également en revue les grands problèmes qui influent actuellement sur l’activité des transports maritimes internationaux.
- Humanité et subsistances, par André Guer-rïn. Préface de Roger Heim. 1 vol. 16 x 23,5,
- 492 p. Dunod, Paris, 1958. Prix, relié : 4 600 F.
- Ce qui fait le très grand intérêt de ce livre, c’est qu’il pose, avec toutes ses données, le problème capital de la population du globe mise en parallèle avec les ressources alimentaires existantes et possibles. On se contente souvent d’enregistrer le fait de la sous-alimentation dont souffrent de très nombreuses régions. Parfois des solutions hâtives ou chimériques sont envisagées, soit par création de ressources nouvelles, meilleure répartition des aliments ou restriction des naissances. Ici chaque articulation du problème est énoncée et soumise à une critique objective, largement étayée par des chiffres et des enquêtes méthodiques sur les différents points abordés. Il est intéressant, pour mieux fixer les idées sur le contenu de l’ouvrage, d’indiquer la suite de ses cinq grands chapitres : Le monde mange-t-il à sa faim ? L’augmentation possible des ressources alimentaires ; L’évolution éventuelle de la population mondiale ; Population et subsistances : l'avenir ; Les remèdes au drame.
- Univers géant, par Samivel. 1 vol. 19 x 23,5, 124 p., 68 planches de photos en noir et en couleurs. Arthaud, Paris, 1958. Prix, cartonné : 1 800 F.
- L’auteur s’est avisé qu’une vie qui se déroule à une échelle bien plus réduite que la nôtre, celle des insectes et des fleurs, nous offre des spectacles aussi intéressants et même aussi grandioses que celle des grands monstres, voire des astres. Plus d’un naturaliste le savait déjà. Mais la vue de ces photos et la lecture d’un texte où l’auteur a mis tout son esprit et son enthousiasme sont bien agréables.
- PETITES ANNONCES
- (190 F la ligne, taxes comprises. Supplément de 100 F pour domiciliation aux bureaux de la revue).
- VIENT DE PARAITRE VIENT DE PARAITRE
- PRÉCIS MESURES
- D'ÉLECTROTECHNIQUE EN
- A L'USAGE DES INGÉNIEURS RADIOTECHNIQUE
- PAR
- B. L. GOODLET PAR
- Ancien professeur d’Électrotechnique des Universités de Cape Town et de Birmingham E. F ROM Y
- TRADUIT DE L'ANGLAIS PAR Docteur ès Sciences, Ingénieur E.S.E., Professeur à l'École supérieure d'Électricité.
- R. DESCHAMPS Ingénieur du Génie Maritime (C.R.), Ingénieur E.S.E. XXII-784 pages 16x25, avec 530 figures, 3e Vttion. Relié toile sous jaquette 9 800 F
- XrV-354 pages 14x22, avec 170 fig. Rel. toile sous jaquette. 3 300 F
- En vente dans toutes les bonnes librairies et chez En vente dans toutes les bonnes librairies et chez
- 92, rue Bonaparte Éditeur, Paris-6®. 92, rue Bonaparte XXÜKTC^D Éditeur, Paris-6®.
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 4e» trimestre ig5S, n° 3i50. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A, (3lo566), LAVAL, N° 3825. — 10-1958.
- p.416 - vue 420/527
-
-
-
- N° 3283
- Novembre 1958
- LA NATURE
- Fig. 1. — Maquette du tore en forme de 8 du « Stellarator », appareil servant à l’étude du confinement du plasma à l’Université de Princeton.
- (Photo U.S.I.S.).
- La deuxième Conférence internationale l’utilisation pacifique de l’énergie atomique
- La Conférence de Genève qui s’est tenue du ier au i3 septembre dernier faisait suite à la Conférence de 1955 où les participants de tous les pays eurent l’heureuse surprise d’entendre exposer de nombreux travaux tenus secrets pendant les dix précédentes années. Cette « déclassification » massive faisait en quelque sorte la somme des connaissances acquises en matière de sciences et de techniques nucléaires.
- Visant au même but, la deuxième Conférence ne pouvait cependant avoir un semblable retentissement : d’une part, l’intervalle de trois ans n’était pas suffisant pour que l’ensemble du domaine atomique eût évolué de manière aussi spectaculaire ; les atomistes, d’autre part, dans chacune de leurs spécialités, avaient été tenus au courant des progrès accomplis, grâce à un cycle de publications qui désormais échappaient au secret.
- On s’est en outre aperçu que la matière était trop vaste et le champ des recherches trop étendu pour donner lieu à un congrès unique et sans doute la prochaine Conférence qui ne se réunira en tout cas pas avant quatre ans devra être fractionnée, en évitant une confrontation générale de disciplines d’une excessive diversité.
- Mentionnons, sans que la liste en soit exhaustive, les principaux chapitres où se classent les 2 i35 communications qui ont été présentées à Genève :
- — Découvertes récentes en physique pure;
- — Fusion contrôlée;
- — Théorie des piles et constantes nucléaires;
- — Particules élémentaires ;
- — Combustibles nucléaires;
- — Expériences acquises en matière de piles;
- — Problèmes de sécurité et d’économie;
- — Chimie pure et effets chimiques des rayonnements ;
- — Séparation isotopique;
- — Traitement des combustibles irradiés;
- — Manutention et traitement des déchets radioactifs;
- — Utilisations industrielles, biologiques, agricoles et médicales des radioéléments (1) ;
- — Problèmes de protection;
- — Extraction et traitement des minerais;
- — Matériaux et technologie des piles.
- Pratiquement, le nombre des séances était insuffisant pour que tous les mémoires pussent être présentés oralement et discutés. Une sélection assez sévère en a donc réduit le nombre et c’est ainsi qu’environ 600 communications orales seulement ont été retenues, soit le quart du total. On ne pourra prendre
- 1. Rappelons que ce seul sujet a donné lieu, l’année dernière, à une vaste Conférence, organisée par l’UNESCO.
- p.417 - vue 421/527
-
-
-
- 418
- Fig. 2. — Étude du « pinch effect » sur le « Perhapsatron » de Los Alamos, appareil servant à l’étude préliminaire de la fusion contrôlée (Photo U.S.I.S.).
- Sur le « Perhapsatron », voir La Nature, avril 1958, p. 125.
- connaissance de l’ensemble des travaux que dans quelques mois, lorsque seront imprimés (en langue anglaise) les 34 volumes qui constituent les Actes de la Conférence. Une édition française en i5 volumes rendra compte de la Conférence sous une forme résumée.
- Pour compléter le tableau général de la manifestation de Genève, rappelons qu’elle a été suivie par 6 3oo délégués et observateurs et qu’elle s’accompagnait d’une très belle exposition scientifique et d’une abondante exposition industrielle.
- Il serait vain de vouloir tracer une synthèse de tout le matériel recueilli qui, par la force des choses, est incomplet et cependant... trop abondant et disparate. Nous nous bornons donc ici à souligner quelques points saillants, en attendant que deux ou trois sujets, particulièrement importants, soient repris et développés par des spécialistes.
- La fusion contrôlée. — Il s’agit là d’un des sujets sur lesquels La Nature devra revenir prochainement. La Conférence et l’Exposition scientifique de Genève ont en effet réservé une très large place aux expériences menées par les savants de plusieurs pays, en vue d’obtenir des réactions de fusion contrôlée. Ce fut même la section qui suscita le plus grand intérêt parmi les physiciens et les techniciens rassemblés dans le Palais des Nations.
- Leur curiosité avait déjà été éveillée, au printemps dernier, par les performances de l’appareil britannique Zêta. On sait à présent que des recherches analogues, utilisant des appareils similaires, sont poursuivies dans plusieurs pays, parmi lesquels l’U.R.S.S., la France et les États-Unis.
- C’est dans les laboratoires de cette dernière nation que les travaux, en quantité et en qualité, semblent avoir été les plus remarquables. Nous n’aurons pas à revenir sur les bases théoriques dont ils s’inspirent et qui ont déjà été exposées ici (La Nature, mars et avril 1958). Mais les particularités nouvelles des appareils mériteront une description détaillée.
- On doit en attendant insister sur un point capital que de nombreux atomisles ont mis en relief au cours de la Conférence : les expériences actuelles 'de fusion contrôlée 11e prétendent pas conduire, dans un avenir prochain, au résultat pratique, qui consisterait à exploiter industriellement l’énergie des atomes légers. Selon le Dr. Edward Teller (U.S.A.), ce but ne saurait être atteint avant d’avoir résolu toute une série de problèmes : celui du confinement du plasma par magnétostriction et miroirs magnétiques semble en voie d’être maîtrisé, mais la stabilité du plasma ne paraît pas encore en vue. Par la suite, il iaudra encore atteindre le stade de la réaction aulo-entrete-nue. Et au bout de celle dernière conquête expérimentale, les physiciens transmettront aux ingénieurs une tâche « peu enviable », celle de transposer à l'échelon industriel un outillage et des procédés d’une complexité sans précédent. Cette transposition, a ajouté le Dr. Teller, ne peut être raisonnablement envisagée avant le début du siècle prochain.
- De bien plus grandes satisfactions sont attendues sur le plan de la recherche pure : on considère qu’avec les travaux actuels s’inaugure tout un chapitre nouveau, celui de la physique des plasmas, considérés comme un quatrième état de la matière.
- Particules élémentaires. — De sensibles progrès ont été enregistrés dans la recherche fondamentale qui vise à une connaissance approfondie (elle est encore fragmentaire) des particules élémentaires qui entrent dans la composition de l’atome. L’effort n’est pas seulement de détecter et de classer ces particules, mais aussi de définir leurs réactions entre elles. Mésons K, pions, anlinucléons, antineulrino, « particules étranges » ont été tour à tour évoqués.
- Le terme « fission non neutronique » a été employé à diverses reprises et, dans son allocution de clôture, M. Francis Perrin, qui présidait la Conférence, a annoncé qu’un physicien du C.E.R.N. venait de constater une désintégration prévue par
- Fig. 3.— Le « Magnétron », appareil utilisé à l’Université de Berkeley pour accélérer les ions de deutérium.
- L’appareil crée un champ magnétique en forme de solénoïde et un champ électrique, tous deux compris entre une chambre à vide et une électrode axiale (Photo U.S.I.S.').
- p.418 - vue 422/527
-
-
-
- 419
- la théorie, mais encore jamais directement obtenue : celle du méson % en électron et neutrino, sans passer par le stade intermédiaire du méson p..
- Dans ce même domaine, plusieurs communications ont été consacrées aux problèmes de symétrie et à la non-conservalion de la parité, dont des preuves nouvelles ont été fournies. Une série de maquettes ont été présentées à la section américaine de l’Exposition, pour démontrer mécaniquement le principe de non-conservation de la parité.
- Les types « classiques » de réacteurs. — Les participants à la Conférence de 1965 avaient porté un intérêt tout particulier aux différentes formules de réacteurs de puissance qui avaient été proposées et décrites par les alomistes. La plupart de ces formules étaient de véritables révélations pour les profanes, étonnés de voir le grand nombre des combinaisons possibles (environ 3oo). Mais en même temps, on pouvait constater que 8 types, à caractéristiques bien déterminées, avaient été retenus et se trouvaient en cours d’expérimentation.
- Trois ans après, on s’aperçoit avec un égal étonnement que les types sélectionnés sont toujours sur les rangs, aucun n’ayant du être éliminé pour raisons majeures. Toutefois, trois d’entre eux ont pris nettement la tête et se maintiennent au programme tracé pour les prochaines années. Ce sont :
- i° Le réacteur à uranium naturel, modéré au graphite et refroidi au gaz carbonique. 11 a été adopté à la fois par la Grande-Bretagne et la France qui jusqu’à nouvel ordre lui restent fidèles, tout en prévoyant, pour chaque nouvelle unité, des modifications assez importantes qui ne dérogent pas cependant au principe général. Notons que les réacteurs les plus anciennement en service, ceux de Calder Hall, ont fonctionné jusqu’ici de manière satisfaisante.
- 20 Le réacteur P.W.R. à uranium enrichi, modéré et refroidi par l’eau sous pression. Il s’est également confirmé, avec des performances encore plus impressionnantes que le précédent : c’est lui, en effet, qui équipe les sous-marins N'autilus, Skate et Sea-Wolf (où il a remplacé un autre modèle de réacteur auquel on a dû renoncer). Toute une flotte, comprenant, outre les sous-marins, un croiseur et un porte-avions, se construit aux États-Unis, selon la même formule. La centrale électrique de Shippingport est elle aussi équipée d’un P.W.R. et une maquette en vraie grandeur du cœur de ce réacteur a été présentée à l’Exposition de Genève (fig. 4).
- 3° Le réacteur à eau bouillante, désigné aux États-Unis par les lettres B.W.R. et également « chauffé » à l’uranium enrichi et refroidi à l’eau naturelle. Il est en construction aux États-Unis et en U.R.S.S.
- Les combustibles. — On remarquera que les trois formules précédentes sont hétérogènes, c’est-à-dire que le combustible et le modérateur y forment des masses distinctes. D’une manière très générale, on considère que les réacteurs hétérogènes présentent une difficulté technologique qui leur est commune et qui concerne le combustible. Qu’il s’agisse de l’uranium ou du plutonium (et encore davantage pour ce dernier) les « pilo-logues » et les ingénieurs doivent compter avec l'allotropie de ces deux métaux, c’est-à-dire leur aptitude à changer de forme et de propi’iétés selon les températures auxquelles ils sont exposés. La Conférence de Genève a mis en relief différentes solutions proposées pour pallier cette difficulté. Elles méritent d’être examinées en détail. Notons simplement en attendant la tendance qui s’affirme de remplacer l’uranium par son bioxyde U02, tandis que le plutonium serait utilisé soit à l’état solide par un alliage avec l’aluminium, soit à l’état liquide en étant associé à un métal à bas point de fusion.
- Accessoirement, on voit apparaître dans quelques réacteurs expérimentaux le deuxième combustible existant à l’état naturel, à savoir le thorium. Ne contenant pas de matière fissile, il intervient dans les charges, en association avec l’uranium.
- Fig. 4. — Maquette en vraie grandeur du cœur du réacteur en service dans la Centrale nucléaire de Shippingport.
- cPhoto U.S.I.S.).
- Innovations en matière de réacteurs. — Nous ayons signalé que les principaux types de réacteurs qui figurent aux divers programmes nationaux sont hétérogènes. Ainsi qu’on peut le constater dans l’étude que M. Grenon consacre aux réacteurs homogènes (voir La Nature, octobre ig58, p. 377, et le présent numéro, p. 423), ces réacteurs, bien que présentant théoriquement. des avantages considérables, ont jusqu’ici (t intimidé » les constructeurs d’unités à l’échelle industrielle, en raison des phénomènes de corrosion qui résultent en général de l’application de celte formule. Un autre facteur défavorable peut intervenir qui est l’excessive immobilisation en combustible, due à la circulation de la solution combustible-modérateur dans les circuits extérieurs. ,
- Une équipe française d’atomistes du C.E.A. et de la Société Grenobloise d'Études et d'Applications hydrauliques a rendu compte à Genève de ses recherches en vue de réaliser en première étape un réacteur homogène expérimental (fig. 5), désigné sous le nom de « Phœbus », avec l’intention d’établir en deuxième étape le projet d’un réacteur de puissance.
- La conception est particulièrement originale. 'Le combustible serait mis en suspension dans le liquide modérateur (eau légère ou lourde) en l’enrobant dans des billes de verre de très petites dimensions (de l’ordre du micron) afin d’éliminer les risques de corrosion et d’abrasion. Le réacteur serait en outre à la fois homogène et bouillant, la vapeur étant concentrée dans une cheminée axiale grâce à un dispositif cyclone (c’est-à-dire un tourbillon permanent), engendré par une injection tangentielle. On éviterait ainsi, dans une très large mesure, la circulation extérieure et le mélange combustible-modérateur, restant concentré dans le cœur du réacteur, correspondrait à un investissement minimal.
- p.419 - vue 423/527
-
-
-
- 420
- Fig. 5. — Réacteur homogène à ébullition.
- I, réservoir tampon ; 2, pompe ; 3, réchauffeur ; 4, dispositif d’injection ; 5, coeur du réacteur ; 6, récupération' du combustible ; 7, récupération de la vapeur,; 8, purification; 9, tambour de vapeur; 10, recombinaison;
- II, transformateur de vapeur; 12; extracteur d’incondensables; 13, turbine ; 14, condenseur ; 15, pompe ; 16, réservoir de vidange rapide ;
- 17, barre de sécurité.,
- (Photo Cadoux, Genève).
- D’assez graves obstacles doivent également être surmontés dans une autre catégorie de réacteurs, les surrégénérateurs ou breeders. Le principe de ces réacteurs a été exposé ici (La Nature, décembre 1906, p. 457) et l’on sait l’extrême importance qui leur est attribuée, car c’est grâce à eux, pense-t-on, qu’il sera possible de récupérer toute l’énergie contenue dans les matières fertiles, uranium 238 et thorium. Cependant, on doit s’apercevoir que la mise au point de ces réacteurs piétine : celui de Dounreay, déjà en construction lors de la première Conférence de Genève, 11’a pas encore divergé (on attend cet événement pour le printemps prochain) et il semble que les difficultés auxquelles on se heurte sont en rapport avec l’absence de modérateur et l’usage exclusif des neutrons rapides.
- A Genève, des exposés de MM. Smith (Grande-Bretagne), Kazachkovsky (U.R.S.S.) et Avery (U.S.A.) ont montré que les atomistes s’orientent vers une formule mixte, alliant les neutrons thermiques (c’est-à-dire ralentis) aux neutrons rapides. La légère diminution du facteur de surrégénération serait largement compensée par d’incontestables avantages, parmi lesquels une commande plus facile du réacteur et une sécurité plus grande.
- La séparation isotopique. — Des membres de la délégation française ont exposé en détail le procédé de diffusion gazeuse mis au point à Saclay et réalisé dans une installation-pilote, comprenant 12 cellules de diffusion. Rappelons qu’il s’agit d’obtenir de l’uranium enrichi en matière fissile U 235, le métal n’en contenant au naturel qu’une fraction de 0,7 pour 100.
- Or le procédé de diffusion gazeuse est utilisé sur une très large échelle dans les trois grandes puissances atomiques (U.S.A., U.R.S.S., Grande-Bretagne). Ce fut donc un événement inattendu que de voir les techniciens français décrire ce procédé dont leurs collègues étrangers possèdent déjà une solide expérience. Mais pourquoi n’en avaient-ils pas pris depuis longtemps l’initiative? Le fait est que la diffusion gazeuse, jusqu’à sep-
- tembre dernier, n’avait jamais été « déclassifiée », si bien que les équipes de Saclay ont dû réinventer le procédé en partant de zéro. Les considérations politiques qui ont inspiré le maintien du secret et à l’opposé la déclassification française ont été longuement commentées dans les couloirs du Palais des Nations.
- Les principales conclusions à tirer de ce « coup d’éclat » est que la France s’est nettement affirmée par là comme la quatrième puissance atomique, car la fabrication sur son sol d’uranium enrichi va lui permettre d’édifier son industrie nucléaire en toute indépendance, sans être tributaire de fournitures étrangères de matière fissile. Il est parfaitement inexact, contrairement aux affirmations de journaux français et étrangers, que la possession d’U 235 (surtout à de très faibles con-
- Fig. 6. — Maquette de Vinstallation-pilote de diffusion gazeuse.
- (Photo La Photothèque).
- centrations) implique la fabrication de bombes atomiques. Ajoutons que si cette intention se manifestait, l’explosif existe déjà sous la forme du plutonium produit à Marcoule.
- D’autres exposés ont été présentés concernant la séparation isotopique, mais ce fut pour décrire les procédés par centrifugation et par tuyère qui n’ont pas encore dépassé le stade du laboratoire.
- Traitement des combustibles irradiés. — Il a été longuement discuté à Genève des traitements chimiques appliqués aux combustibles ayant séjourné dans les réacteurs. C’est là une opération de toute première importance, car elle doit permettre à la fois la récupération du plutonium obtenu par irradiation des barreaux d’uranium, celle de l’uranium appauvri en U 235 et l’élimination des différents produits de fission qui entravent à la longue la bonne marche des réacteurs.
- Or, bien que oe traitement des combustibles irradiés soit déjà appliqué à l’échelle industrielle par plusieurs pays, dont la France à Marcoule, il apparaît à la lumière des discussions de Genève, qu’il est susceptible de nombreux perfectionnements. Nous devons rappeler qu’il a donné lieu à un projet d’une entreprise commune entre pays européens, Eurochemic, sous l’égide de l’Organisation européenne de coopération économique (O.E.C.E.).
- p.420 - vue 424/527
-
-
-
- Développements industriels. — A l’examen des nombreux mémoires consacrés à des travaux de physique pure ou à des points technologiques de détail, il apparaît nettement que l’énergie nucléaire appartient encore bien davantage à la recherche qu’à la réalisation industrielle. Précisons d’ailleurs que la recherche offre 'un éventail assez vaste qui va des éludes de laboratoire ne visant aucun prolongement technique jusqu’aux travaux rendus nécessaires par les applications en cours. Dans cet embranchement de la recherche figurent la préparation des combustibles nucléaires, celle des matériaux de structure des réacteurs et une foule d’appareillages annexes répondant à des exigences nouvelles et pour lesquels les industries classiques sont constamment appelées à fournir un effort très important. Cela est vrai aussi bien pour la construction mécanique que pour l’électronique, la métallurgie, l’industrie chimique, l’outillage de précision, etc.
- Cette dominance de la recherche explique en partie pourquoi les programmes nationaux se développent avec une certaine lenteur. A cela il faut ajouter la circonspection bien compréhensible avec laquelle on aborde le projet et l’exécution des grands ensembles, tels que les centrales nucléaires.
- Celte prudence s’est reflétée, à Genève, dans plusieurs exposés généraux, ceux de M. Pierre Ailleret pour la France, de M. Eme-lianov pour l’Union Soviétique, de M. Roddis pour les États-Unis et de Sir John Cockroft, directeur de l’Atomlc Energy Authority britannique, qui a accepté de faire, à l’issue de la Conférence, un bilan général des acquisitions mondiales à ce jour en y ajoutant quelques prévisions pour l’avenir.
- Fig. 7. — Le « manipulateur esclave », robot auxiliaire de l’industrie atomique américaine.
- Les bras et les « mains » du manipulateur reproduisent avec une fidélité rigoureuse les mouvements de l’opérateur, avec une force amplifiée seulement deux fois, afin de ne pas briser les objets fragiles.
- (Photo U.S.I.S.).
- Fig. 8. — Boite à gants servant aux manipulations dangereuses.
- (Photo C.E.A.).
- Le bilan actuel n’est manifestement pas très substantiel. Le nombre, en effet, des réacteurs de puissance fournissant à ce jour du courant électrique se réduit à treize : un en Union Soviétique, trois (ceux de Calder Hall) en Grande-Bretagne, un en France (G. i) et huit aux États-Unis qui sont avant tout des prototypes, conçus à une échelle très réduite. Au total, ces treize unités ne représentent ensemble qu’une puissance de 200 MW électriques.
- Ce chiffre doit évidemment s’accroître considérablement dans les toutes prochaines années. On admet par exemple que l’Europe de l’Ouest disposera vers ig65 d’une puissance installée de io ooo MW. Elle le devra en majeure partie au programme britannique (le plus imposant de toute la planète) qui se développe déjà par la construction de centrales d’environ 3oo MW à Bradxvell, Berkeley et Hunterston, suivies de la centrale de Ilinkley, sur le canal de Bristol, dont les deux réacteurs totaliseront 5oo MW.
- La France s’est engagée dans un programme de moins grande envergure qui débute par des puissances modestes pour s’acheminer progressivement vers des unités plus importantes. Les deux réacteurs de Marcoule (G. 2 dont on attend prochainement la montée en puissance, G. 3 en voie d’achèvement) développeront chacun 3o MW. A Chinon, E.D.F. 1 est prévu pour une puissance de 63 MW, E.D.F. 2 pour 170 MW.
- On estime que les États-Unis disposeront en 1963 d’un total de 1 3oo MW, qui comprendra une grande centrale de 276 MW, actuellement en projet à Indian Point.
- L’U.R.S.S. a trois centrales en construction à Voroneje, à Leningrad et dans l’Oural. Chacune d’elles est prévue pour une puissance d’environ 4oo MW. Une centrale de 600 MW, implantée en Sibérie, a été annoncée officieusement pendant la Conférence de Genève.
- Sir John Cockroft a commenté, ainsi d’ailleurs que M. Ailleret, l’envergure relativement modeste des programmes élaborés par les quatre plus grandes puissances atomiques. 'Le point sensible réside dans le volume considérable des investissements requis par les centrales nucléaires, investissements qui grève-
- p.421 - vue 425/527
-
-
-
- 422 : =
- roui' par la suite le prix du kWli. Si là Grande-Bretagne a net-teriient pris la tête, c’est que son électricité lui est en majeure partie fournie par des centrales thermiques au charbon et au fuel, à un prix moyen de 8 mils au kWh. Il n’est pas trop aventuré de prévoir que le kWh nucléaire sera ramené à ce prix entre 1965 et 1970.
- En France, les conditions sont déjà sensiblement différentes, puisque notre pays dispose encore de réserves assez abondantes d’énergie hydraulique et de gaz naturel qui permettent la production de kWh relativement bon marché. Quant aux États-Unis et à l’Union Soviétique, il est clair que leurs importantes ressources en énergie classique les dispensent de hâter leur équipement électrique, nucléaire. En toute logique, ces deux pays ne feront démarrer un programme étendu que lorsqu’un de leurs prototypes justifiera une exploitation économique de l’atome. Cette perspective paraît encore lointaine. L’exemple de Sliippingport est à cet égard très caractéristique : le kWh de cette centrale coûte 70 mils, alors qu’en de nombreux points du territoire américain le gaz naturel ou l’hydraulique fournissent de l’électricité à 2 mils le kWh.
- On pourrait penser, avec une certaine déception, que les perspectives ainsi offertes à l’énergie nucléaire ne sont guère en rapport avec les efforts déployés en vue de ses utilisations pacifiques. Mais peut-être le problème économique a-t-il été envisagé sous un angle plus ou moins erroné : on admet par exemple que les prix s’abaissent à mesure que le volume des unités augmente, ce qui en principe est exact. Mais on envisage généralement le problème à l’échelle des pays industrialisés, où l’énergie classique est en général produite dans d’excellentes conditions. Passant au contraire dans les pays sous-deve-loppés, on se trouvera sans doute devant de nombreux cas où un réacteur de petites dimensions, épargnant d’onéreux transports de combustibles, pourra être « compétitif » vis-à-vis d’une petite centrale à moteur Diesel.
- Les participants de la Conférence de Genève n’ont pu manquer d’être impressionnés par la très rapide installation, à l’Exposition scientifique, d'u réacteur expérimental américain « Argonaute », sachant par ailleurs que l’industrie des États-Unis offre également un petit réacteur portatif de puissance, l’A.P.P.R., développant 10 MW. M. Krassine (U.R.S.S.) a fait état d’un réacteur, également portatif, à l’uranium enrichi modéré au béryllium.
- Connaissant d’autre part les succès de la propulsion navale par réacteurs nucléaires, on se demande, dans plusieurs pays, si le P.W.R. ou tout autre modèle ne pourraient être aussi bien adaptés à la marine de commerce qu’à la marine de guerre. En soi, le prix de revient de l’énergie est évidemment bien plus élevé qu’en utilisant le Diesel ou la chaudière au fuel, mais il se peut qu’en de nombreux cas cela soit compensé par des facteurs tels que l’absence des soutes à combustibles, une meilleure utilisation du personnel, une vitesse et une autonomie accrues.
- Signalons en tout cas que plusieurs navires atomiques pacifiques, en construction ou en projet, ont élé présentés à Genève : le brise-glace Lénine qui doit être prochainement mis en service, le Savannah, navire américain de 21 800 t, capable de transporter 60 à 100 passagers à la vitesse de 20 nœuds, et un navire pour le transport des émigrants, étudié au Japon. Nous rappellerons également l’existence en France de la société Propatome, fondée cette année dans le but de susciter une marine commerciale atomique.
- Les déchets radioactifs. — Parmi les problèmes annexes, celui des déchets radioactifs a fait l’objet, à Genève, de plusieurs exposés. On s’est élevé à plusieurs reprises contre la solution sommaire qui consiste à déverser ces déchets dans la mer, et c’est le stockage terrestre qui a été le plus souvent préconisé. Les Américains ont signalé qu’il existe déjà sur leur territoire un stock de 245 millions de déchets liquides. La sécurité com-
- mande de les faire passer, de quelque manière, à l’état solide. Diverses méthodes ont été envisagées : calcination, addition d’argile, de lignite ou de ciment. Le Dr. Watson (Canada) a proposé d’incorporer les déchets, après concentration, dans une masse de verre, ce matériau semblant devoir assurer le maximum de sécurité.
- Explosions pacifiques. — M. Johnson (U.S.A.) a décrit les modèles de bombes thermonucléaires « propres » qui limitent dans une large mesure, selon lui, les dangers de contamination radioactive. Leur emploi à des fins pacifiques pourrait dès lors être envisagé : travaux de terrassements pour la construction de ports et de barrages, libération de minerais par explosions dans des gisements souterrains, régénération de bassins pétroliers en faisant exploser une charge à la base de certains puits. M. Johnson a même t'ait allusion à des projets (décrits d’ailleurs en 195C par l’ingénieur français Camille Rougeron) tendant à créer, à de grandes profondeurs, des chaudières souterraines où serait retenue l’énorme énergie calorifique due à l’explosion. Cette énergie serait par la suite soutirée sous forme de vapeur sous pression, qui servirait à actionner des turbines.
- Aspects biologiques. — Une large place a élé donnée, pendant la Conférence, aux usages médicaux des radioéléments ainsi qu’à leur emploi dans la stérilisation des aliments. Ce sont là des sujets assez rebattus sur lesquels nous ne nous étendrons pas. Mais un intérêt particulier doit être accordé à une série de travaux poursuivis dans plusieurs pays en vue de modifier, par mutations, les caractères héréditaires des différentes céréales. Les résultats les plus substantiels semblent avoir été acquis sur l’orge par le professeur suédois Gustaffson. 'Les mutations du riz ont élé décrites par le Dr. Ouang (Chine), celles du blé par le Dr. Swaminalhan (Inde).
- Dans le domaine des recherches biologiques, M. Hughes (U.S.A.) a mis en relief le rôle de plus en plus important dévolu au tritium (isotope de l’hydrogène). Ce corps présente en effet de nombreux avantages, celui surtout de pouvoir s’intégrer à toutes les cellules vivantes, ces dernières étant toujours faites de molécules contenant des atomes d’hydrogène. Le tritium en outre émet des radiations qu’il est possible de détecter photographiquement. Sa période enfin (12,5 jours) est assez courte, tout en permettant des expérimentations d’une certaine durée.
- Nous terminerons sur une note moins sereine en signalant une suite d’observations, malheureusement concordantes, qui prouvent que, d’une manière générale, les animaux de laboratoires soumis aux rayonnements sont victimes d’un processus de vieillissement accéléré. Selon une statistique belge, leur durée de vie est réduite dans une proportion de 4o pour 100, mis à part les cancers et autres lésions qui interviennent en de nombreux cas.
- En attendant que ces phénomènes soient analysés de manière plus approfondie, on ne peut que partager les inquiétudes exprimées par plusieurs biologistes présents à Genève sur les conséquences possibles d’une élévation du taux de la radioactivité dans le monde.
- Yves Mériel.
- Visons en liberté
- Un rapport présenté à la Société de Mammalogie de Grande-Bretagne expose que les visons échappés des fermes d’élevage dans les Iles Britanniques causent des ravages dans les poulaillers et les rivières où ils s’attaquent aux truites. Les fermiers de l’Ouest du pays s’en plaignent amèrement et les écologistes observent avec intérêt quelques populations restreintes qui s’installent et se reproduisent le long des cours d’eau de la même région (Information U.I.C.N.).
- p.422 - vue 426/527
-
-
-
- LES RÉACTEURS HOMOGÈNES
- 2. Réacteurs homogènes de puissance
- Fig. 1. — Réacteur H.R.T. : vue plongeante sur le hall réacteur avant la fermeture des fosses par des dalles de béton.
- Au centre, le compartiment réacteur ; dans la fosse, en bas Sl gauche, un des deux échangeurs de chaleur (Photo O.R.N.L.).
- Nous avons vu dans une première partie (La Nature, octobre 1958, p. 377) les réacteurs homogènes de recherche, connus sous le nom de water-boilers. Nous allons voir maintenant comment la conception de ces réacteurs peut être étendue à la production de l’énergie, et citer les réalisations principales en ce domaine.
- Nous ferons tout d’abord une distinction entre deux types d’ « énergie ». L’une, que nous appellerons par simplicité « énergie militaire », sera obtenue sinon au mépris du prix de revient, du moins sans que le coût, de construction de l’ensemble producteur soit une considération majeure. Pour atteindre le but, on emploiera des matériaux fissiles enrichis, des matériaux de structure dont l’absorption parasite des neutrons sera compensée par un investissement supplémentaire en combustible fissile, et on adoptera des principes de fonctionnement qui font fi de l’économie des neutrons et de la régénération du combustible., Ces réacteurs à des fins militaires seront du type moteur ou du type transportable. Parmi les exemples les plus célèbres empruntés à la classe des réacteurs hétérogènes, citons les réacteurs à eau sous pression qui équipent les sous-marins américains Nautilus, Sea-Wolf, Skate, etc., et le
- réacteur portatif A.P.P.R. (Army Power Package Reactor), lui aussi à eau sous pression, de l’Armée de terre américaine.
- Des éludes de réacteurs homogènes à « énergie militaire », entreprises par les chercheurs de Los Alamos, pourtant forts de leur expérience avec les rvater-boilers, n’ont pas conduit à des réalisations exploitables, l’échec étant dû principalement à de terribles problèmes de corrosion.
- L’autre type d’énergie, que nous appellerons « énergie civile », sera au contraire obtenue au moyen d’appareils aussi économiques que possible. On recherchera l’investissement minimal en combustible fissile, l’emploi de matériaux aussi peu absorbants que possible, et on multipliera les efforts pour obtenir la régénération et même la surrégénération du combustible. C’est dans cette voie, comme nous allons le voir, que se sont orientés les chercheurs du Laboratoire national d’Oak Ridge aux U.S.A., bientôt suivis par d’autres groupes de chercheurs répartis dans divers pays. Nombreux en effet ont été les savants et les économistes à être tentés par les avantages indéniables des réacteurs homogènes, énumérés au début de notre premier article; tous les efforts n’ont pas été, hélas, couronnés de succès, et la fortune assez inégale des divers projets de réac-
- p.423 - vue 427/527
-
-
-
- teurs homogènes n’a pas encore conduit à une réalisation spectaculaire ni décisive.
- Des diverses combinaisons de matériaux, des divers types possibles, seuls ont été réellement étudiés et réalisés, à quelques exceptions près (prototypes à acide phospliorique comme modérateur, ou encore à fluorure fondu comme fluide porteur), des réacteurs homogènes de puissance utilisant l’eau, légère ou lourde selon les cas, à la fois comme fluide porteur, comme modérateur et comme « caloporteur ». Alors que les réacteurs homogènes de recherche fonctionnent tous à température peu élevée, inférieure toujours à ioo° C, il est indispensable pour produire de l’énergie dans des conditions de rendement thermodynamique qui ne soient pas désastreuses, d’augmenter largement les températures de fonctionnement. Or, pour ce faire, l’eau présente malheureusement un gros désavantage : la pression de la vapeur augmente très rapidement avec la température (1), ce qui oblige à la contenir dans des récipients épais et coûteux. Malgré ses avantages neutrohiques et d’autres avantages thermiques (chaleur spécifique élevée entre autres) nous ne pourrons que répéter avec Weinberg qu’il est bien dommage pour le pilologue que les divinités aient donné à l’eau un point critique de 375° C...
- Conception d’un réacteur homogène aqueux pro= ducteur d’énergie. — Si donc, indépendamment de la température que l’on fixera à 25o ou 3oo° C en faisant appel à la technique des récipients et tuyauteries sous pression, on cherche à extraire d’un réacteur homogène, type water-boiler, des puissances importantes, le volume et l’absorption de l’échangeur deviennent vite prohibitifs pour la région active où se reproduisent les neutrons et où sont produites les fissions énergétiques. Il vient donc naturellement à l’esprit de faire circuler la solution chaude dans un échangeur de chaleur extérieur à la partie active. Cette circulation sera assurée par une pompe étanche à rotor immergé, analogue à celles utilisées pour les réacteurs hétérogènes à eau sous pression. Nous avons vu par ailleurs que le recul des produits de fission et les rayonnements y intenses produisent une décomposition radiolytique de l’eau en gaz hydrogène et oxygène; il sera donc nécessaire de prévoir ou bien une recombinaison interne catalytique de ces gaz radiolytiques, ou bien un séparateur de gaz situé dans le circuit extérieur, fonctionnant d’une manière continue et entraînant vers un dispositif de traitement chimique (recombinaison et stockage) les gaz de radiolyse évolués, auxquels se joignent les produits de fission gazeux.
- Deux principes d’extraction de chaleur sont possibles, selon que l’on admet ou non l’ébullition du fluide. Les chercheurs d’Oak Ridge ont opté pour la pressui'isation, qui empêche l’ébullition et évite certains phénomènes liés aux bulles dans le réacteur, phénomènes pour lesquels on craignait lors des premières études il y a environ huit ans (donc avant la démonstration de Borax, premier réacteur à ébullition) une influence désastreuse sur la stabilité du réacteur. Un surpresseur applique au circuit cet excédent de pression.
- Ainsi se présente (fig. 2) le schéma de principe du circuit d’un réacteur homogène ,de puissance à solution pressurisée, avec son cœur actif, le surpresseur, le séparateur de gaz, l’échangeur de chaleur et la pompe de circulation. Il nous reste, pour être complet, à voir le principe du réflecteur et les possibilités de régénération du combustible. Un réflecteur, en eau lourde par exemple, permet une économie appréciable de neutrons, allant jusqu’à réduire de moitié environ la masse critique du réacteur nu initial. Toutefois, le réflecteur pose un certain nombre de problèmes mécaniques, tels que l’extraction de la chaleur qui y est produite (absorption des rayonne-
- 1. Rappelons, par exemple, qu’à 250" C la pression de vapeur de l’eau est de l’ordre de 42 kg/cm2, et à 300° C de l’ordre de 80 kg/cm2, pressions déjà fort importantes dans le domaine industriel.
- ments y) et qui nécessite un circuit du même type que pour le cœur, et l’égalisation des pressions entre le cœur et le réflecteur. Pour que le réflecteur ait une efficacité maximale, il est souhaitable que la paroi qui sépare cœur et réflecteur soit aussi mince et peu absorbante que possible, la dernière raison conduisant généralement à utiliser le zirconium ou un de ses alliages, beaucoup moins absorbants que l’acier pour des qualités mécaniques sensiblement équivalentes. Mais- la paroi devant être mince pour éviter les captures parasites de neutrons, quelques millimètres au plus pour des diamètres de cœur compris entre 80 et i5o cm, la nécessité d’égalisation des pressions de part et d’autre, pour éviter des contraintes destructrices, est impérieuse : cœur et réflecteur seront donc soumis à la même pression par deux surpresseurs équilibrés entre eux par des organes mécaniques (de réalisation d’ailleurs délicate). Signalons que, très souhaitable pour des raisons économiques d’investissement en matériau fissile, le réflecteur n’est pourtant pas indispensable, et que des réacteurs à une région ont été proposés, comme plus simples que les réacteurs dits à deux régions, de réalisation plus complexe.
- Reste à voir enfin, pour terminer cet aperçu général sur les réacteurs homogènes aqueux pour la production de puissance, le problème de la régénération du combustible par l’intermédiaire d’un matériau fertile comme l’uranium 238 ou le thorium 232, qui se transforment respectivement, après absorption d’un neutron, en plutonium 239 et'uranium 233, tous deux matières fissiles, comme on sait. Deux solutions sont possibles : ou bien mélanger le matériau fertile au matériau fissile dans le cœur, ce qui aboutit à une simplification mécanique évidente puisque dans ce cas on fait un réacteur à une région, donc à un seul circuit et ne posant pas de problème d’équilibrage des pressions, mais on est conduit alors à des investissements
- Interface eau-vapeur
- » Gaz extraits
- Surpresseur
- Séparateur de gaz
- Echangeur de chaleur
- de circulation
- Fig. 2. — Schéma de principe d’an réacteur homogène à une région.
- La solution froide pénètre dans le cœur, y subit des fissions et en sort chaude pour aller porter sa chaleur à l’échangeur. La circulation est forcée par la pompe, et les gaz produits sont extraits à l’aide du séparateur alors que le surpresseur les comprime et réduit encore leur influence.
- en matière fissile plusieurs fois supérieurs à ceux de la solution à deux régions, puisque dans ce cas on est ramené, au point de vue neutronique, à un réacteur homogène à uranium faiblement enrichi. On sait l’effet désastreux de la solution homogène dans ce cas : elle a conduit historiquement aux réacteurs hétérogènes. Ou bien, seconde solution, avoir un cœur contenant la matière fissile et un réflecteur contenant la matière fertile : les neutrons qui s’échappent du cœur viennent frapper et transformer les atomes fertiles. Cette deuxième solution, mécaniquement plus compliquée puisque reposant sur les principes d’un réacteur à deux régions, est beaucoup plus séduisante au point de vue neutronique. Il semble d’ailleurs que, dans le domaine des réacteurs à neutrons thermiques, seul le cycle uranium 233-thorium 232 (parmi les
- p.424 - vue 428/527
-
-
-
- 425
- six combinaisons possibles entre les trois matériaux fissiles et les deux matériaux fertiles) permettra la surrégénération du combustible, qui est un des buts vers lequel doit tendre l’énergie atomique.
- Dans un réacteur homogène à deux régions (et a fortiori pour un réacteur à une région), les matériaux de structure absorbants sont réduits par l’absence des barreaux gainés au seul récipient qui sépare les deux régions, ce qui influe très favorablement sur l’économie de neutrons, ainsi que les possibilités de purification en continu permises par l’état fluide du combustible en circulation.
- Homogeneous Reactor Experiment n° 1 ou H.R.E. 1 (Oak Ridge). — Mis en construction dans le courant du mois de septembre xqSo, critique pour la première fois en avril iq52, puis démonté après deux ans de fonctionnement très satisfaisant, les buts assignés ayant été remplis, II.R.E. i est le premier en date des réacteurs homogènes de puissance.
- Le but de ce réacteur était essentiellement de démontrer la sécurité et la viabilité des réacteurs homogènes aqueux à deux régions. Construit sur les principes des réacteurs à solution aqueuse (eau légère) pressurisée, avec réflecteur en eau lourde, donc réacteur à deux régions, II.R.E. i a été plus principalement un test nucléaire qu’un test d'engineering, n’ayant fonctionné à pleine puissance (soit i ooo kW thermiques) qu’un petit nombre d’heures. Avec ce réacteur par contre ont été effectués de nombreux essais nucléaires, tels que : montée en puissance très rapide (de quelques watts à io ooo kW en des temps de l’ordre de la seconde), simulation de pannes de pompe, de pannes d’échangeur, etc.
- H.R.E. i, et H.R.E. 2 que nous verrons par la suite, ayant des circuits très semblables, nous pensons qu’il vaut mieux différer leur description pour H.R.E. 2, réacteur actuellement en fonctionnement, et nous citerons uniquement les principaux résultats obtenus lors du fonctionnement de II.R.E. 1.
- L’analyse du comportement cinétique de réacteurs à combustible mobile est compliquée par le fait que les émetteurs de neutrons retardés sont emmenés avec le combustible dans le circuit extérieur et l’échangeur de chaleur, où une fraction non négligeable des neutrons retardés est émise et perdue pour le système du réacteur au point de vue du contrôle. L’effet des pertes de neutrons retardés sur les périodes du réacteur à circulation peut être estimé grossièrement à partir de l’équation cinétique du réacteur stationnaire, si des valeurs effectives corrigées des rendements de fission des émetteurs de neutrons retardés sont employées. D’ailleurs une description précise doit inclure le schéma d’écoulement et la variation de densité des émetteurs de neutrons retardés; aussi ne nous appesantirons-nous pas sur ce problème que nous avons malgré tout jugé utile de signaler.
- Le fait que le combustible fissile circule a pour conséquence la nécessité de contrôler à tout moment les conditions qui régnent dans le circuit, pour éviter par exemple de créer des conditions correspondant à l’entrée dans la partie critique de masses d’uranium supérieures à la masse critique pour la température de fonctionnement. H.R.E. x ayant magnifiquement servi à préciser les problèmes de contrôle et de sécurité neutronique des réacteurs homogènes en général, ce sont ses résultats que nous allons décrire.
- Le contrôle de la réaction en chaîne est basé non pas sur des barres qui, présentes dans LI.R.E. 1, disparaissent complètement dans les réalisations ultérieures, mais par variation de la concentration du combustible, ce qui est aisé pour un réacteur à combustible fluide et devient beaucoup moins intéressant comme on peut le comprendre (bien que parfois envisagé ou essayé) dans un réacteur hétérogène, d’où l’avantage de ce premier type. „
- Le condensât de l’eau-vapeur entraînée par le séparateur de
- —il Gaz de fission incondensables ||Vapeur *gaz
- Pot de
- recombinaison
- 7Condenseur
- eau pure
- Vanne B'A’.
- Vannefi
- =3==
- Stockag1
- Vanne C
- Solution t vapeur* gaz (fission * radiol/se)
- I Séparât eur-
- '-purificateur
- Surpresseur
- Solution
- Séparateur
- de gaz
- Réserve
- Pompe
- Pompe de réinjection
- Echangeur de chaleur
- Fig-. 3. — Schéma de principe du circuit de contrôle de concentration
- de la solution.
- Le séparateur de gaz extrait de la solution de la vapeur, des gaz de radiolyse et des gaz de fission. La solution va directement au récipient de réserve. Après recombinaison et condensation des gaz de radiolyse en eau pure et évacuation des gaz de fission incondensables, les vannes B et G étant fermées et la vanne A ouverte, l’eau revient au récipient de réserve, d’où une pompe de réinjection reprend la solution pour la rendre au circuit : le cycle est fermé et rien ne change. Le jeu de vannes A, B, G permet de varier la concentration dans le récipient de réserve, donc dans le circuit du réacteur : fermant A et C, alors que B est ouvert, l’eau s’accumule dans le récipient de stockage, la concentration augmente dans le récipient de réserve et dans le circuit. Fermant A et B, on dilue au contraire avec C ouvert la solution de réserve et du circuit.
- gaz ou recombinée dans un pot à catalyse (recombinaison catalytique externe des gaz de radiolyse) est renvoyé soit à des récipients de stockage du combustible (se reporter à la figure 0), soit à des réservoirs de réserve. L’accumulation de l’eau condensée dans ces réservoirs de stockage fournit un moyen d’augmenter la concentration en combustible dans les réservoirs de réserve de celui-ci, la quantité totale d’eau et de combustible dans le système réacteur + réservoirs étant naturellement invariante. Or, le combustible est pompé d’une manière continue dans les récipients de réserve pour être injecté dans le système haute pression à l’aide d’une petite pompe à diaphragme. Il est donc possible de faire varier d’une manière continue la concentration en combustible du fluide qui circule dans le système, en jouant sur la quantité d’eau pure maintenue dans le réservoir de stockage, et ceci est équivalent (par le simple jeu d’une vanne) aux mécanismes compliqués des barres de contrôle et de compensation d’un réacteur hétérogène.
- Fig. 4. — Courbe théorique et courbe expérimentale montrant la variation de la concentration critique.
- Température °C
- 0 2 5 50 75 100 125 150 175 200 225 250
- p.425 - vue 429/527
-
-
-
- 426
- A chaque température moyenne du cœur correspond une concentration critique en uranium, celle-ci étant d’autant plus grande que la température est plus élevée. La figure 4 donne à titre d’exemple la variation de concentration en combustible en fonction de la température pour le cœur de H.R.E. i qui était une sphère d’acier de 45 cm de diamètre intérieur (volume de quelques dizaines de litres). Cette figure, avec ce que nous venons de voir sur le moyen de variation de la concentration et ce que nous avons expliqué dans notre première partie sur les coefficients de température pour les réacteurs, fait comprendre tout le comportement des réacteurs homogènes.
- On voit rapidement par exemple, et ceci est important pour le démarrage du réacteur, que la masse critique est multipliée par un facteur de l’ordre de 2 entre 25 et 25o° C. On voit d’autre part que la température de fonctionnement du cœur est contrôlée par la concentration de combustible; l’opérateur a donc à sa disposition un moyen intéressant pour ajuster la température de la solution à la valeur souhaitée. Voyons ceci plus en détail. Supposons que l’opérateur désire faire fonctionner le réacteur à 25o° C pour produire de la vapeur dans l’échangeur de chaleur, vapeur qui sera ensuite envoyée dans la turbine pour produire avec un turbogénérateur de l’électricité. La vanne de la turbine étant fermée, ceci revient à ne pas utiliser l’échangeur, c’est-à-dire à ne pas extraire de chaleur. L’opérateur augmente la concentration en uranium dans le circuit de la façon mentionnée plus haut; le système du réacteur cherchera de lui-même, eu égard au coefficient de température, sa température d’équilibre où il est juste critique. Si la concentration est supérieure à la valeur critique pour la température considérée, le système va diverger et l’énergie produite échauffera la solution; si la concentration est inférieure à la valeur critique à la température, considérée, la réaction en chaîne s’arrête, la solution se refroidit par pertes thermiques vers l’extérieur, et de nouveau une température est atteinte pour laquelle le système retrouve sa criticalité.
- Température moyenne pour laquelle le réacteur est critique à la concentration qui règne dans le circuit.
- Puissance du réacteur (unités arbitrairesJ
- Figr. 5. -—• Variation de la puissance du réacteur (à débit constant) pour une même température moyenne de la solution dans le cœur en fonction des variations de température d’entrée et de sortie.
- On voit ainsi comment, par ajustements successifs, l’opérateur amène le réacteur à la température voulue, soit 25o° C, en augmentant petit à petit la concentration en uranium (opération généralement effectuée en quelques heures pour des raisons de contraintes thermiques, l’ajustement « neutronique » étant lui quasi immédiat). Le réacteur étant à 25o° C, l’opérateur ouvre lentement la vanne d’admission à la turbine. Cette vanne, laissant fuir la vapeur produite dans l’échangeur de chaleur, démarre en somme celui-ci (fig. 2). La solution en sortant sera plus froide, disons à 24o° C (fig. 5, point A); mais la concentration en uranium n’ayant pas changé, la température moyenne du cœur restera la même, et ceci par une augmentation de la température de sortie. L’effet de l’augmentation de la charge de la turbine est automatiquement compensé par ce système qui se régule lui-même et fournit ainsi de l’énergie « à la demande ». La figure 5 montre ainsi comment augmente la puissance produite, cette puissance étant
- Turbogénérateur
- Fig. 6. — Schéma de circulation du réacteur H.R.T.
- Condenseur
- Tambour de vapeur
- Tambour de vapeur
- Pompe à condensât
- Pompe
- d'alimentation
- Pompe Q d'alimentation
- -Panne de ^détente
- Panne de détente
- '"'"ç^Dêaérateur> 'vEchangeur dei^çhaleur
- Echangeur de Chaleur à détente£
- à détente
- "Générateur de vapeur^
- Générateur de ^-^yapeur
- Pompe de réinjection
- Récipient de l'enveloppe j JJ p. Pompe J
- Vanne de vidange
- Vanne de vidange
- Tuyaux de
- Récipient de réserve
- Récipient de réserve
- Evaporateur
- p.426 - vue 430/527
-
-
-
- 427
- Fig-. 7. — Pupitre de commande et tableau de contrôle de H.R.T.
- Sur les panneaux du tableau de contrôle, de part et d’autre des panneaux centraux d'affichage, on aperçoit les circuits figurés en leur totalité ; à gauche, circuit du cœur ; à droite, celui de l’enveloppe.
- (Photo O.R.N.L.).
- égale (aux pertes près) soit au produit débit circuit principal x chaleur spécifique solution x différence de température entre l’entrée et la sortie du réacteur, soit, ce qui revient au même, au produit débit vapeur à la sortie de l’échangeur x entropie de la vapeur.
- Nous conclurons ce résumé des enseignements de H.R.E. i en rappelant la magnifique sécurité de ce réacteur, due à la valeur élevée de son coefficient de température. Là encore nous trouvons une indéniable supériorité des réacteurs homogènes, c’est la rapidité de réponse à un accroissement de puissance; ceci se comprend aisément puisque dans ce cas combustible et modérateur sont intimement mélangés, alors que dans un réacteur hétérogène les échanges thermiques ne peuvent se faire qu’à travers des barrières matérielles successives.
- Homogeneous Reactor Test (H.R.E. 2 ou H.R.T.).
- — La très belle démonstration de H.R.E. i a incité les chercheurs d’Oak Ridge à poursuivre dans cette voie qui semblait si bien tenir ses promesses. La deuxième étape choisie fut la construction, non plus d’une expérience à caractère neutronique comme H.R.E. i mais d’un véritable pi’ototype de centrale nucléaire homogène de puissance, et c’est pourquoi le H.R.E. 2 fut nommé aussi Homogeneous Reactor Test ou H.R.T., que nous allons décrire maintenant en précisant que H.R.T. est un prototype complet d’une centrale, avec tous les organes de celle-ci, mais à moindre capacité naturellement.
- H.R.T. est un réacteur à deux régions; c’est dire que nous aurons deux circuits de conception commune, l’un dit circuit du cœur, l’autre circuit du réflecteur, ces deux circuits étant indépendants mais maintenus par deux surpresseurs (couplés mécaniquement) à une même pression pour éviter la rupture du mince récipient en alliage de zirconium (zircalloy-2) séparant cœur et réflecteur.
- Chacun de ces deux circuits, cœur et réflecteur, est lui-même constitué d’un circuit principal haute pression et de circuits secondaires basse pression dont nous avons déjà pu nous faire une idée puisque nous avons parlé des réservoirs de stockage et de réserve qui en sont les pièces essentielles. Le combustible, qui ne circule naturellement que dans le circuit du cœur (sauf accident) est de l’uranium enrichi à plus de 90 pour 100 en uranium 235, dissous dans de l’eau lourde sous forme de sulfate d’uranyle à quelques grammes d’U 235 par litre. Cette
- solution, maintenue fortement acide avec un excès d’acide sulfurique, contient également un peu de sulfate de cuivre pour favoriser la recombinaison partielle, à l’intérieur même du réacteur, des gaz de radiolyse qui y sont produits. La stabilité et l’agressivité sous radiations de cette solution a été, et reste d’ailleurs, un des gros problèmes auxquels doit faire face le développement de ce type de réacteurs.
- La figure 6 montre un schéma simplifié des circuits de H.R.T. alors que le tableau I donne les caractéristiques essentielles de ce réacteur étudié et construit à Oak Ridge.
- Tableau I. — Caractéristiques du réacteur homogène H.R.T.
- A DEUX régions
- Cœur Réflecteur
- Puissance thermique .... 5 000 kW 220 kW
- Pression de fonctionnement . i4o kg/cm2 i4o kg/cm2
- Récipient : diamètre intérieur . 81 cm i52 cm
- » épaisseur . . . 0,96 cm n,43 cm
- » matériau .... zircalloy-a acier au carbone plaqué inox.
- » volume 290 1 1 i5o 1
- Puissance spécifique .... 17 kW/1 o,i4 kW/l
- Liquide en circulation.... UOaSO,, D20 D20
- Concentration (U a35/D20) . o,oog6 0
- Débit de circulation .... 1 5i2 1/mn à256°C 85i 1/mn à 278° C
- Température à l’entrée 206° C 278° C
- Température à la sortie . Volume de gaz de radiotyse pro- 3oo° C 282° C
- duit. ... . 26,88 1/s o,364 1/s
- En nous reportant à la figure G, nous voyons que la solution de sulfate d’uranyle enrichi dans l'eau lourde pénètre par la partie inférieure du cœur et sort par la partie supérieure, après s’être échauffée de 266 à 3oo° C pendant son passage dans le cœur où a lieu la réaction en chaîne productrice d’énergie. De là, la solution s’écoule à travers le séparateur de gaz qui lui enlève ses gaz de radiolyse avec un peu de vapeur et de solution entraînée. Puis la solution chaude passe à travers un échangeur de chaleur à tubes, la vapeur étant produite à l’extérieur des tubes pour être envoyée, à travers un tambour de
- p.427 - vue 431/527
-
-
-
- 428
- Sortie du coeur
- Joint de dilatation
- Accès à l'enveloppe.
- Sortie de l'enveloppe
- prainage h Purge-*
- •Récipient du cœun gj en zirca/loy 1
- *~-'Placage en \ acier inoxydable'
- ]c\er au carbone
- 'Supports
- Entrée de §J/P^
- /\enveloppe
- Drainage et purge
- Drainage du sommet '
- Entrée de l'enveloppe
- Entrée du cœur
- Fig. 8. — Vue en arraché des récipients du cœur et de l’enveloppe de H.R.T.
- vapeur, vers la turbine du lurbogénératcur. La solution refroidie de 3oo à 256° C est reprise après l’échangeur par une pompe à rotor immergé, qui la renvoie dans le cœur pour y subir à nouveau les lissions énergétiques. Le surpresseur, branché à la sortie du cœur, applique à l’ensemble de ce circuit une surpression de l’ordre de 6o kg/cm2 pour éviter les phénomènes de cavitation ou d’ébullition locale qui endommageraient le système. On voit que ce circuit réel correspond point par point au schéma de principe que nous avions donné au début de cet article.
- Les gaz séparés dans le séparateur de gaz sont tout d’abord refroidis à basse tempéralure et détendus à faible pression (quelques kg/cm2 au plus) à travers un échangeur-détendeur, et envoyés dans le réservoir de réserve qui récupère ainsi la solution entraînée. A la base de ce réservoir est un évaporateur qui engendre un certain volume de vapeur destiné à diluer et entraîner les incondensables, tels que les gaz de radiolvse 0„ et H2, et les produits de fission gazeux vers les pots de recombinaison catalytique. De ce pot de recombinaison, les gaz de
- Fission vont vers un lit de charbon actif pour stockage et décroissance, alors que l’eau recombinée est condensée et renvoyée au réservoir de réserve, maintenant ainsi un bilan constant dans le système. La solution en réserve est reprise par une pompe de réinjeclion à haute pression qui réintroduit dans le circuit principal une quantité équivalente (moins les gaz de fission, ce qui constitue un premier traitement chimique) à celle qui fut enlevée par le séparateur de gaz. La possibilité de dériver l’eau recombinée et condensée vers un récipient de stockage permet, comme nous l’avons vu, de faire varier à volonté la concentration dans le réservoir de réserve et conséquemment dans le circuit principal.
- Les circuits pour l’eau lourde du réflecteur sont identiques par principe à ceux du cœur. Seules les quantités en cause sont différentes, comme le montre le tableau I, et le circuit réflecteur ne contient naturellement pas d’uranium.
- De tels circuits peuvent paraître complexes. Ils le sont effectivement mais, d'une part, l’expérience a montré leur viabilité et, d’autre part, le bilan est somme toute positif puisqu’ils permettent de tirer pleinement parti des avantages de l’homogénéité. Ces avantages sont, rappelons-le, la suppression des barreaux de combustible, la facilité de contrôle et la grande sécurité (on l’a vu ci-dessus pour II.R.E. i), l’excellente économie de neutrons devant permettre la surrégénération du combustible, enfin l’économie qui découle de deux facteurs principaux : absence de matériaux parasites vu la très simple structure de la région critique, et possibilité d’extraction en continu des produits de Fission avides de neutrons qui sans cela empoisonneraient lentement le réacteur. Ce traitement chimique est automatique pour les gaz de fission comme on l’a vu (représentant environ un tiers de l’empoisonnement); un petit circuit annexe, non figuré sur le schéma, permet la séparation simple des produits de Fission solides précipités.
- Fig-. 9. — Réacteur H.R.T. : détail de soudure du cœur en zircalloy.
- On voit la soudure longitudinale du cône de 30° d’ouverture. Des procédés et. des machines à souder spéciales furent mis au point pour cette construction particulièrement délicate, la première du genre effectuée avec du zircalloy (Photo O.R.N.L.).
- p.428 - vue 432/527
-
-
-
- 429
- Une des difficultés principales de réalisation pour un tel ensemble réside en la nécessité d’avoir une étanchéité absolue de tous les organes d’une part, en la construction du système cœur plus enveloppe d’autre part. En ce qui concerne l’étanchéité absolue, problème nouveau pour l’industrie, cette exigence n’est pas propre aux piles homogènes : toutes les piles qui font circuler des fluides actifs requièrent cette étanchéité à des degrés divers (de quelques grammes à quelques milligrammes autorisés à s’échapper quotidiennement du système) ; aussi ne nous appesantirons-nous pas sur ce problème général de la nouvelle industrie atomique.
- La figure 8 montre le système des récipients cœur-enveloppe, et laisse deviner la difficulté de construction. Signalons que le récipient du cœur, en zircalloy-2 (alliage de zirconium et d’étain) fut le premier récipient de ce genre qu’ait construit l’industrie, compte tenu des propriétés mécaniques du zircal-loy-a encore assez mal connues. La figure 9 montre une des phases de celte construction, une soudure longitudinale du côriê de 3o°, première section reliant la canalisation d’entrée au cœur sphérique à l’aide d’un second cône analogue de qo° d’ouverture.
- La figure 10 et la figure de la couverture de cette rerue présentent l’ensemble cœur-enveloppe terminés, en cours d’installation dans la fosse du réacteur.
- Une fois le système cœur-enveloppe en position dans la fosse, un écran blindé anti-explosion est installé autour, suivi d’un récipient cylindrique en acier et béton formant la première protection biologique. On voit le sommet de ce récipient sur la figure 11; les canalisations de sortie du cœur et de l’enveloppe ont été connectées aux deux surpresseurs horizontaux comme on peut le voir.
- La fosse du réacteur est entourée de fosses semblables où sont situés les circuits haute et basse pression du cœur et de l’enveloppe, avec les échangeurs, les pompes, les vannes. La figure 12 montre à titre d’exemple un « coin » d’une telle
- Figr. 10. — Réacteur H.R.T. : ensemble des récipients cœur-réflecteur terminé, prêt à être abaissé dans la fosse réacteur.
- Les serpentins spiraux sur le pourtour du récipient servent au refroidissement de la paroi épaisse (Photo O.R.N.L.).
- p.429 - vue 433/527
-
-
-
- 430
- Fig. 12. — Détails d’une des fosses adjointes à celle du réacteur H.R.T., montrant les vannes haute pression à commande automatique et laissant entrevoir l’en-chevêtrement des canalisations.
- (Photo O.R.N.L.).
- Tableau II. — Principaux projets de réacteurs homogènes aqueux
- Cette liste, donnée uniquement titre indicatif, mentionne les principaux projets connus pour lesquels des recherches déjà importantes ont été effectuées ; il n’est pas tenu compte des propositions qui n’ont jamais dépassé l’étape du dossier de calculs. On se reportera à l’introduction de notre
- premier article pour voir à quel point le champ a été encore peu exploré.
- Nom et pays Type Combustible Puissance Caractéristiques principales
- H.R.E. 3 (U.S.A.) 2 régious comme H.R.T. ( pressurisées i SChUCL, D20 60 MW th But : démonstration de l’utilisation de ThOs dans l’enveloppe pour la surrégénération du combustible.
- H.R.E. 4 (U.S.A.) i région pressurisée UOs, ThOî, D*0 5 MW th But : ouvrir une nouvelle voie réduisant les problèmes de corrosion et prouvant la viabilité de l’emploi des suspensions.
- P.A.R. (U.S.A.) Westinghouse i région pressurisée U03, ThOü, D,0 i5o MW él Serait la première centrale homogène de puissance.
- U.R.S.S. Premier projet présenté à Genève ig55 ; silence à Genève 1958. Caractéristiques et état de développement inconnus.
- Grande-Bretagne 2 régions pressurisées S0„U02, D20 ou SO4PUO2, DgO i5 à 4o MW th Projet inspiré de la formule Oak Ridge.
- Pays-Bas 2 régions pressurisées UOï, DsO ou U02, H20 200 kW th (' ) But : démonstration de la formule homogène et prototype pour expériences nucléaires et traitement chimique.
- France i région ébullition avec vortex axial pour séparation vapeur UOsThOs, D20 ou billes en verre à uranium dans HaO ou D»0 1 000 kW th (1) But : ouvrir une nouvelle voie homogène, avec séparation directe de la vapeur dans le cœur par mouvement cyclone. Voir dans ce même numéro, p. 420, un schéma de ce projet.
- 1. Puissance de la première réalisation proposée.
- p.430 - vue 434/527
-
-
-
- 431
- fosse où sont rassemblées certaines des vannes étanches du système haute pression. La figure i présente une vue d’ensemble des fosses dans le hall du bâtiment réacteur, alors que la figure 7 montre le tableau de contrôle.
- État de développement des réacteurs homogènes aqueux. — Alors que les projets et réalisations de réacteurs hétérogènes se multiplient, où en sont les réacteurs homogènes ? Compte tenu des avantages incontestés de ces réacteurs, la réponse est surprenante : le développement des réacteurs homogènes est en régression, sans que l’on puisse pourtant en conclure positivement que leur avenir soit condamné. Nous pensons utile d’expliquer un peu ce phénomène.
- Après le remarquable succès de H.R.E. x, comme ajxrès tout succès de type de réacteur, des projets nombreux ont vu le jour, tant aux États-Unis qu’en U.R.S.S., en Grande-Bretagne, en Hollande, en France même; projets s’inspirant franchement de la formule d’Oak Ridge ou au contraire proposant des voies nouvelles, comme ce fut le cas du projet français. Quelles qu’aient été les fortunes de ces projets, un point leur fut commun : tous gardaient les yeux fixés sur le grand aîné, le projet d’Oak Ridge, actuellement dans sa deuxième phase avec H.R.T. Or, le succès espéré de H.R.T. fut presque un échec. Malgré l’admirable travail réalisé par les chercheurs d’Oak Ridge, ce réacteur a connu et connaît encore des déboires graves qui en ont considérablement retardé la mise en opération. Paradoxalement, aucun de ces déboires ne met en cause les avantages de la formule homogène; liés à des problèmes de corrosion et à la difficulté mécanique de l’ensemble cœur-réflecteur dans lequel un trou important s’est trouvé produit (corrosion accélérée ou fragilisation d’une soudure suivie de rupture), ces déboires ont effrayé, peut-être un peu trop d’ailleurs, les responsables des programmes atomiques des divers pays, et les ont amenés à annuler pour certains, à retarder et mettre en veilleuse pour d’autres, les divers projets homogènes.
- C’est le cas pour la société américaine Westhingouse qui, à
- la tète du projet le plus ambitieux, retarde sa décision de construction. C’est le cas pour les autres pays, la France également.
- Quelle fut la contre-réaction d’Oak Ridge ? Fermement attaché à la formule homogène, le Laboratoire national d’Oak Ridge en continue et même en intensifie le développement, en poursuivant dans la voie tracée et en ouvrant une voie nouvelle, apparemment plus simple, et jalon peut-être nécessaire après tout sur cette longue route des réacteurs homogènes commerciaux : un H.R.E. 4 est en cours d’étude (H.R.E. 3, version à haute puissance de FI.R.T., étant légèrement retardé jusqu’à une meilleure compréhension de tous les problèmes liés à l’exploitation de H.R.T.) ; ce sera un réacteur à une région, seulement, de 5 MW de puissance, utilisant de l’oxyde d’uranium et de thorium comme combustible.
- #
- * *
- Nous pensons utile de présenter en un tableau sommaire les divers projets homogènes qui furent proposés et étudiés (tableau II). Aucune décision définitive ne semble prise quant à ces projets par les responsables des programmes atomiques. Nous ne tenons pas d’ailleurs à ouvrir le débat sur l’opportunité ou la valeur absolue de ces décisions. Il est vraisemblable que l’éclipse des réacteurs homogènes est momentanée. Nous l’attribuons au fait que les problèmes qu’ils posaient ont d’abord été sous-estimés, ce qui par choc en retour a conduit à surestimer les difficultés. Nous nous l'isquons donc à prévoir que les réacteurs homogènes seront redécouverts et que l’exploitation de projets tels que les montre le tableau II permettra effectivement le plein épanouissement des avantages indiscutables de ces réacteurs, qui restent une des voies les plus séduisantes de l’industrie atomique.
- Michel Grexon,
- Ingénieur au Département des études de piles du C.E.A.
- Les effets biologiques des basses températures
- Cette intéressante question a été le sujet de l’adresse présidentielle du docteur A. S. Parkes à la section de Zoologie du Congrès de la Brilish Association, tenu à Glasgow en août 1908, dont un résumé a paru dans la revue Nature (8 août 1958). Les effets biologiques du froid ont depuis longtemps intéressé les savants et l’on peut citer parmi les précurseurs Réaumur, Robert Bovle, Spallanzani. L’emploi actuel de la neige carbonique et des gaz liquides a étendu considérablement les possibilités expérimentales sur les effets du froid, soit sur le corps d’un animal dans son ensemble, soit sur des tissus ou cellules Isolés.
- Les animaux à température variable montrent cependant une certaine régulation thermique en rapport avec la température ambiante. Les Invertébrés, et surtout les insectes, peuvent supporter des températures bien inférieures à o° ; cette résistance dépend en partie de la possibilité de surfusion des liquides organiques ou, dans certains cas, de la résistance à la glaciation de l’eau contenue dans le corps. Les hétéro-thermes d’un rang plus élevé n’ont pas cette résistance et les histoires de poissons et grenouilles gelés, puis l'amenés à la vie, doivent être considérées comme des contes.
- A l’inverse, les animaux à sang chaud maintiennent presque toujours leur température entre 37 et 4i° C, ce qui, dans la plupart des régions du monde, est nettement au-dessus de la température ambiante. Un certain nombre d’animaux à tem-
- pérature constante hivernent et leur comportement se rapproche alors de celui des hétérothermes. Mais, pour la majo-i-ité des animaux homéothermes non hibernants, on considérait que la mort était fatale dès que la température de leur corps était abaissée au point où les mouvements respiratoires et les battements du cœur cessent. Or, les expériences d’hibernation artificielle ont montré qu’un rat ou un hamster peuvent être réactivés après qu’on a fait descendre la température de leur corps au-dessous de zéro. Quand la température atteint ce point, les liquides du corps de l’animal peuvent entrer en surfusion ou commencer à geler. Le premier processus est relativement bénin tandis que le second est mortel quand la gelée a atteint la moitié de l’eau du corps.
- Les expériences sur les tissus permettent plus de généralisation. Parmi les Invertébrés, certaines cellules peuvent survivre à des températures très basses, tandis que presque tous les tissas normaux de Vertébrés meurent quand ils atteignent le point de congélation. Mais on a découvert que certaines substances, notamment le glycérol, protègent les tissus contre les effets de la gelée; particulièrement les spermatozoïdes, les globules rouges du sang, les glandes endocrines peuvent rester vivants longtemps à température très basse. Il est possible que de nouveaux pei’fectionnements dans les méthodes permettent de dessécher les tissus dans cet état et de les garder alors longtemps à la température ordinaire. L. C.
- p.431 - vue 435/527
-
-
-
- 432
- Première détermination de la structure d'une protéine globulaire
- L’étude de la structure des substances qui jouent un rôle dans la chimie des êtres vivants n’est pas simple- La difficulté va croissant avec la complexité et la taille de la substance : elle devient très grande dans le cas des protéines, ces macromolécules géantes qui sont les constituants essentiels des organismes : ce sont les principes azotés les plus hautement caractéristiques de la matière vivante. En les hydrolysant on obtient un mélange complexe de corps qui sont en majorité des acides aminés. Certaines cristallisent facilement, par exemple l’hémoglobine et la myoglobine.
- On a l’habitude de distinguer trois étapes dans notre connaissance d’une protéine : structures primaire, secondaire et tertiaire. La structure primaire correspond à l’ordre suivant lequel les acides aminés sont alignés dans les chaînes polypeptidiques. On sait qu’il est bien défini, et on peut l’atteindre par des études chimiques. La structure secondaire correspond à la forme prise par chaque chaîne polypeptidique; ce peut être une hélice, par exemple. On a déterminé la structure secondaire de nombreuses protéines fibreuses : la kératine, la soie, le collagène, etc., mais elle n’avait pas été trouvée pour des protéines globulaires. La structure tertiaire correspond à l’agencement dans l’espace des chaînes polypeptidiques. Il semble bien que seuls les rayons X peuvent permettre d’atteindre le deuxième et le troisième stade. Mais jusqu’à présent ils n’avaient donné de résultats que pour les molécules fibreuses et non pour les protéines globulaires, qui sont les plus importantes du point de vue du métabolisme. La raison en est l’extrême complexité de ces substances : la myoglobine, par exemple, contient i 200 atomes, sans compter les atomes d’hydrogène, alors que la molécule organique la plus complexe dont on ait déterminé la structure, la vitamine B12 ou cyanocobatamine, en contient seulement 93 (La Nature, avril 1956, p. i34).
- Il est donc tout à fait remarquable de pouvoir signaler que des savants anglais de Cambridge viennent d’obtenir pour la première fois la structure d’une protéine globulaire typique, la myoglobine. Son nom indique tout de suite une parenté
- N Fe /V
- Fig. 1. — Schéma du protohème.
- avec l’hémoglobine, et, en effet, elle aussi possède la propriété fondamentale de pouvoir se combiner de façon réversible avec l’oxygène moléculaire. Son rôle n’est pas de transporter l’oxygène, mais de l’emmagasiner temporairement dans les cellules. En particulier, cette fonction de la myoglobine devient très importante chez les animaux plongeurs comme les baleines, les phoques, les pingouins, etc. Les tissus rouges de ces animaux en contiennent de grandes quantités-
- L’hémoglobine et la myoglobine sont toutes deux des hétéro-protides, c’est-à-dire qu’elles sont organisées autour d’un noyau, ou copule, non protéinique. Cette copule est constituée de grou-
- Fig. 2. — Schéma de la structure de la myoglobine.
- En quadrillé, le noyau hème ; en grisé, chaînes principales. (D’après Kendrow et coll., Nature, n° 4610).
- pements hème : quatre pour l’hémoglobine (sa copule s’appelle le protohème et est schématisée sur la figure 1) et un pour la myoglobine; Thème est un complexe fer-porphyrine, la porphvrine étant un composé polypyrollique. Rappelons que la chlorophylle est identique au protohème, à ceci près que le fer y est remplacé par du magnésium. La myoglobine est moins complexe que l’hémoglobine : sa copule ne contient qu’un groupement hème, et son poids atomique est beaucoup moins élevé, 17 000 au lieu de 67 000. C’est pour cette raison que les chercheurs anglais se sont attaqués à la structure de la myoglobine après avoir eu quelques insuccès avec celle de l’hémoglobine qui s’était montrée trop difficile.
- Il y a cinq ans encore, on ne possédait aucun moyen de trouver à l’aide des rayons X la structure d’une protéine cristallisée. Une découverte de Perutz allait changer les choses. Ce savant a montré en effet que Ton pouvait attacher de gros atomes aux molécules de protéines, en des sites spécifiques. On peut ainsi obtenir une figure de diffraction différente dans chaque cas. La méthode classique des « séries-différences de Patterson » s’applique alors et Ton peut trouver la répartition dans l’espace de la densité électronique, ce qui donne une bonne représentation de la molécule.
- La myoglobine cristallise dans le système monoclinique ; il y a deux molécules par maille. La figure 2 montre les régions de forte densité électronique : ce sont les chaînes principales, et le noyau hème. Ces chaînes principales forment deux couches reliées par des ponts et de nombreuses ramifications de chaînes secondaires. Les caractères les plus remarquables de cette structure sont sa complexité et son manque de symétrie, plus grands que ne le laissait prévoir la théorie.
- A. A.
- Pour un Parc international dans les Ardennes
- Le Groupement européen Ardennes-Eifel, qui réunit des représentants de la France, de l’Allemagne, de la Belgique et du Luxembourg, et dont le siège est à Bruxelles, a élaboré un projet de réserve en Ardennes, dans le massif de la Croix-Scaille. Ce territoire formerait un ensemble homogène d’environ 10 000 ha, dont 0 000 en France et 4 000 en Belgique. Il consiste en un plateau: peu élevé et boisé, mais en partie recouvert de fagnes, où s’accroche en plein sol cambrien une flore de haute montagne, sinon boréale, qui s’y perpétue depuis le Quaternaire ; des ravins plus: riants coupent çà et là ce paysage sévère. Le projet devrait comprendre : 1° Une réserve dirigée d’environ 1 000 ha destinée à préserver ou reconstituer le biotope composé d’une flore rare et d’oiseaux menacés de disparition dans la contrée, tels que le petit, coq de bruyère ([Tetrao terix) et la gelinotte ; réserve située en. grande partie sur sol français, qui ne serait accessible qu’aux gardiens et naturalistes. 2° Une zone de protection, ou a pré-parc » .qui entourerait la réserve (environ 9 000 ha), accessible aux touristes sous certaines conditions et surveillée par les Eaux et Forêts. Le projet est patronné par l’Union internationale pour la conservation de la Nature, dont le Bulletin publiait cette information.
- p.432 - vue 436/527
-
-
-
- Cachalots pris
- dans les câbles sous-marins
- Dans un travail publié en ig33 (Discovery Reports, ig33, vol. 7), Laui-ie rapporte le cas d’un cachalot trouvé mort, entortillé dans un câble sous-marin, au large des côtes du Pérou. C’est le second capitaine du navire câblier AU America qui donna lui-même les détails à l’auteur, précisant que lorsque le cachalot apparut à la surface, Je câble faisait un tour mort sur la caudale, puis passait dans « l’angle de la mâchoire » de l’animal. Cet événement eut lieu en 1931, et le cachalot du Alt America devint célèbre, car le câble en cause s’était trouvé rompu à une profondeur de 5oo brasses (une brasse = i,83 m), cette rupture ayant, selon toute vraisemblance, été provoquée par le Célacé.
- Ainsi, sur ce seul exemple, s’était établie la réputation des cachalots d’être aptes à la plongée exceptionnellement profonde. Il était admis que cette espèce pouvait couramment se rendre à i km en dessous de la surface de la mer. Cependant les conclusions tirées de cet accident n’avaient pas été unanimement acceptées, et nombreux étaient les biologistes marins qui formulaient à ce propos de sérieuses réserves. Tout d’abord, un fait isolé ne constitue pas une base solide sur laquelle on puisse édifier une théorie sérieuse. Ensuite, on a fait observer que ce cachalot, mort, reposait bien sur le fond de la mer par 5oo brasses, entortillé dans un câble sous-marin. Mais avait-il trouvé effectivement sa lin à cette profondeur, pris comme dans un gigantesque collet ? Portier avait suggéré qu’au cours de ses évolutions a l’animal a pu rencontrer le câble qui franchissait une sorte de gorge sous-marine, prenant appui sur deux parois abruptes; il s’est empêtré dans ce câble, qu’il a cassé : il s’est noyé et est tombé sur le fond, d’où on l’a retiré ». On a fait valoir aussi la possibilité, pour le cadavre, d’avoir été entraîné par des courants jusqu’au moment où il s’était pris dans le câble; de plus, on concevait mal comment un gros cétacé peut s’enroider dans un câble reposant sur le fond; c’est là un argument que Portier avait émis dans sa discussion sur ce cas assez étrange. Et comme une hirondelle ne fait pas le printemps, et qu’il est bien difficile de savoir les circonstances exactes d’un accident survenu par 5oo brasses de fond, les biologistes marins et les océanographes observaient la plus grande prudence quant aux profondeurs pouvant être atteintes par les cachalots.
- Il était toutefois reconnu que parmi les gros cétacés, les cachalots détiennent incontestablement les records de plongée profonde. On sait qu’ils se nourrissent de grands céphalopodes (calmars) vivant très loin de la surface; Portier a suggéré que ces gigantesques mollusques peuvent se trouver bien au-delà de la ligne des ioo brasses. D’autre part, la chair du cachalot est de couleur très foncée, en raison de la présence, dans les muscles, d’un pigment respiratoire, la myoglobine. Ce caractère se retrouve également chez certains phoques grands plongeurs (Mallhews) et c’est là une indication dont il faut tenir compte.
- Un biologiste américain, Bruce C. Heezen, de la Columbia Univérsity (New-York), a récemment entrepris de rechercher, dans les archives des compagnies câblières américaines, si d’autres accidents semblables à celui du AU America avaient été signalés. Le résultat de son travail a été publié d’abord dans Deep Sea Research (vol. 4, 1967) puis dans Norsk Hval-fangst-Tidende (The Norwegian Whaling Gazette, décembre 1957, n° 12). Il a bien voulu m’autoriser à en reproduire l’essentiel, me communiquant en même temps les illustrations originales qui accompagnaient son article. Je lui en exprime ici mes plus vifs remerciements.
- Quatre compagnies câblières américaines ont fourni à Bruce C. Heezen des informations précises : Commercial Cable. Wes-
- tern Union, Commercial Pacific et Ail America Cable. Leur activité couvre une très vaste surface : Atlantique Nord (jusqu’en Europe et aux Antilles), Côte Est des États-Unis, le Pacifique (jusqu’en Chine), Côte Ouest d’Amérique Centrale et d’Amérique du Sud.
- Au total, quatorze exemples de câbles endommagés par des cétacés ont été décomptés par Heezen, qui a en outre établi une classification des circonstances de ces accidents. Mais avant de les énumérer il convient de signaler une cause d’erreur très fréquente provenant de la difficulté d’interpréter correctement le mot « whale ». En effet, ce terme, que l’on traduit communément en français par « baleine », a en réalité une acception beaucoup plus large, et s'adresse à tous les cétacés. De sorte que, pour nous en tenir aux cétacés de grande taille, « whale »• peut tout aussi bien sous-entendre un cétacé à fanons (baleines franches, baleinoptères = baleeen-ivhate) qu’un cachalot (sperm-whalc). La distinction 11’est pas toujours faite; aussi un doute sur l’identité exacte de l’animal subsisle-il obligatoirement lorsqu’il est seulement question de « whale », sans autre indication. Nous avons d’ailleurs aussi, en français, un mot tout aussi vague pour désigner un cétacé : c’est « souffleur », qui n’a aucun sens précis et peut s’appliquer à n’importe quel cétacé, puisqu’ils émettent tous, évidemment, un souffle.
- Voici donc comment Heezen présente le résumé de ses observations, après avoir compulsé les rapports de mer des différents navires eâbliers en cause. 11 faut remarquer, en passant, que beaucoup de rapports antérieurs à 1900 n’ont pu être consultés.
- Régions. — Huit cas entre i3° N et i3° S le long de la Côte Pacifique du Continent américain; un près de la Nouvelle-Écosse; un dans le Golfe Persique; un dans les eaux de l’Alaska; un au large du Cap Frio, au Brésil; un au large de la Côte Ouest et un autre au large de la Côte Est de l’Amérique du Sud.
- Profondeurs. — Six cas à environ 5oo brasses avec un maximum à Ü20 brasses; trois à environ 200 brasses; trois à 65 brasses; deux à des profondeurs non spécifiées.
- Saisons. — Cinq carcasses de cétacés ont été trouvées pendant les mois de février, mars et avril, et deux en juillet. Des squelettes ont élé trouvés en août et décembre, mais rien n’a permis de deviner à quel moment l’animal s’est pris dans le câble.
- Position du câble autour de l’animal. — Dans la plupart des cas, le câble faisait un tour sur la mâchoire inférieure et autour de la caudale (lig. 1 et 2). Dans quelques cas, le câble n’intéressait que la caudale, et dans d’autres la mâchoirè'linférîeure seulement.
- Espèces. — Tous les cétacés clairement identifiés étaient des cachalots, mais ceux provenant d'eaux peu profondes peuvent être des cétacés à fanons (baleinoptères). Un mégaptère a été ainsi trouvé dans les eaux de l’Alaska par une profondeur relativement faible (Gilmore, 1955).
- Etat de la carcasse. — Dans sept cas, les carcasses étaient en bon état. Dans chacun de ces cas la réparation du câble avait été effectuée de 2 à 7 jours après constatation de l’avarie. Dans un autre cas (00-70 brasses) la carcasse était en partie décomposée après deux jours seulement, et dans un autre encore (70 brasses), la décomposition se révéla très avancée au bout de deux semaines. Deux fois, le squelette seul fut retrouvé, les chairs s’étant complètement décomposées.
- Avaries causées aux câbles. — Dans un seul cas seulement les
- p.433 - vue 437/527
-
-
-
- 434
- fils de protection étaient rompus. Dans tous les autres cas, l’isolant était écrasé entre les fils de protection, et dans quelques cas seulement le conducteur de cuivre était brisé.
- Types de câbles endommagés. — Les trois types classiques de câbles : lourd, moyen et léger, ont été avariés. La résistance d’un câble en bon état est respectivement de 20, 12 et 10 « long tons » (1 long ton = 1 016 kg).
- Etat du câble à Vendroit de Vaccident. — Dans la plupart des cas, le câble a été endommagé par des cétacés à côté ou à l’endroit même d’une précédente réparation. Cela amène à supposer que le câble avait beaucoup de mou au point où l’accident s’est produit.
- Témoignages et documents. -— Iieezen a très exactement recueilli les extraits de presse ou les parties des journaux de bord des navires câbliers qui mentionnent des cétacés pris dans des câbles. En voici quelques exemples :
- parasites, l’avait rompu d’un coup de queue en s’y empêtrant de façon à rester prisonnier. »
- Voilà un exemple (il y en a d’autres) de l’imprécision du mot whale. S’agit-il d’un baleinoptère, d’un cachalot? Rien ne permet de le deviner. La profondeur était relativement faible. Quant à l’explication de la façon dont l’accident s’est produit, nous verrons plus loin les commentaires de Iieezen.
- IL — Autre exemple, extrait d’une lettre écrite au Times (de Londres) :
- « i4 août 1884. — Messieurs, A titre de curiosité, j’ai l’honneur de vous transmettre quelques passages des lettres que nous recevons de notre directeur pour la côte Ouest d’Amérique du Sud et du capitaine de notre navire câblier. D’après ces extraits, il semble que le cétacé ait volontairement attaqué le câble, et pavé sa témérité de sa vie, car il se trouva prisonnier pendant sept jours avant que la mort ne fasse son œuvre (sic).
- « Voici ce que dit le capitaine de notre navire :
- I. — Le plus ancien article sur ce sujet semble bien être celui publié dans le Scientijic American Supplément du 9 mars 1878. L’accident eut lieu en 1877 ou 1878, et M. Isaac Walton, « superintendant of Telegraphs » pour le Golfe Persique, le relate ainsi au gouvernement de Bombay :
- « Le câble de Kurrachee à Owadur, long de 3oo milles environ, se trouva subitement hors de service dans la soirée du 4 courant (mois et année non spécifiés). Le vapeur de la Compagnie, V Amberwitch, commandé par le capitaine Bishop, ayant embarqué son état-major d’ingénieurs et d’électriciens sous la direction de M. Ily. C. Mace, appareilla le lendemain pour réparer l’avarie située, après essais et vérifications, à 116 milles de Kurrachee.
- « L'Amberwitch arriva sur place à 2 heures dans l’après-midi du 6. La mer était grosse, et il y avait une brume épaisse, mais le câble fut croché sans difficulté à un quart de mille du point de rupture.
- « Les sondages effectués indiquaient un fond irrégulier, avec
- (( — Ayant viré 21 milles de câble, un immense cétacé (whale toujours...) apparut à la surface, enroulé dans notre câble. Il pouvait. avoir 70 pieds de long (21 m environ). Dans sa lutte pour se libérer, le câble avait pénétré dans son flanc, et toutes ses entrailles sortaient, accompagnées d’un flot de sang. Dans les derniers mouvements de son agonie, il rompit le câble, et son cadavre resta flottant au vent du navire. Le câble était enroulé sur lui-même comme un fil d’acier sur une longueur de deux brasses ; et en six endroits différents, il semblait avoir été mordu de façon à interrompre toute communication. Il ne fait aucun doute que le cétacé ne soit la cause de l’avarie. »
- « Notre directeur écrit de son côté :
- « — La cause de la rupture, comme le signale le rapport du capitaine Morton, est un grand cétacé {whale) qui s’entortilla dans le câble et y resta sept jours. L’interruption est un événement malheureux, mais il est pour nous, cependant, satisfaisant de constater que le câble ne s’est pas rompu spontanément, et que ses différentes parties ont été trouvées en aussi bon état que lors du jour de la pose. 12 août 1884. Signé : Robinson Kendal, directeur, The West Coast of America Telegraph Co., Ltd. »
- une « chute de 70 à 00 brasses. En virant le câble, une résistance anormale se fit sentir, comme s’il s’était coincé dans un rocher; mais au bout d’un certain temps on vit apparaîtré à la surface, entortillé dans le câble, le corps d’un énorme cétacé (whale). Il était solidement tenu par deux tours et demi du câble, immédiatement au-dessus de la nageoire caudale. Des requins et d’autres poissons avaient en partie dévoré la carcasse, qui était en pleine décomposition, la mâchoire se détachant en arrivant à la surface. La caudale, d’une largeur de 12 pieds (3,60 m environ), était en parfait état de conservation et. recouverte, à son extrémité, de nombreuses « coquilles ». Ce cétacé avait dû se frotter contre le câble pour se débarrasser de ses
- Toujours ce mot whale... De quoi s’agit-il? Un cétacé de 70 pieds ne peut guère être un cachalot, la taille-limite de cette espèce se situant en moyenne vers 18 m; mais il peut exister des individus plus grands. L’estimation de 70 pieds n’est peut-être pas très exacte non plus. D’autre part, un baleinoptère n’a
- Fig. 1. — Dessin
- exécuté sur les indications du capitaine P. R. Harne.
- Cachalot de mars 1931, au large de l’Êquateur, par 545 brasses (cas VI du texte).
- (Illustrations obligeamment communiquées par M. Bruce C. IIeezen).
- p.434 - vue 438/527
-
-
-
- 435
- guère le moyen, avec ses fanons, d’endommager un câble en le mordant. Quant à l’agonie de sept jours... D’autre part, la profondeur d’eau n’est pas indiquée. Il ressort de ce témoignage qu’un gros cétacé inconnu est mort pour s’être empêtré à une profondeur indéterminée, dans un câble télégraphique sous-marin.
- III. — Le Nautical Magazine (1900) imprime : « En 1892, le câble du Brésil manifesta, à 70 milles de la côte, une avarie nécessitant réparation. On dit que le cadavre d’un grand cétacé (whale) a été trouvé empêtré dans le câble. Lorsque celui-ci fut amené à la surface, on constata qu’il formait, autour du cétacé, un système de noeuds compliqués sans doute provoqués par les mouvements d’agonie de l’animal. »
- Malheureusement, auciïn renseignement n’est fourni en ce qui concerne la profondeur et le lieu de l’accident. Le « cétacé » n’est pas identifié non plus.
- IV. — The Electrical Review (vol. 41, n° io34, p. 38a) du 17 septembre 1897 contenait la note ci-après : « Un correspondant de Rio de Janeiro, écrivant le 25 août 1897, nous informe que le 22 août, alors que le câblier Norseman relevait un câble au large du Cap Frio, il amena à la surface un cétacé (whale) qui s’était entortillé dans ledit câble. Le câble n’était pas rompu, mais le conducteur était brisé. D’après son état, on pouvait supposer que le cétacé avait séjourné sous l’eau deux ou trois semaines : sa tête se détacha spontanément pendant la manœuvre. Il avait été attaqué par des requins. Sa caudale mesurait i4 pieds (4,20 m) de large. Profondeur : 66 brasses. Fond d’argile et vase molle. Latitude : 23°i7/3o// S, longitude : 4i°4o'3o" 0. »
- V. — Harnmel (New-York). Saint-Pierre. — Le 25 juillet 1919, ce câble fut endommagé le long du bord ouest du Détroit de Cabot. La réparation fut effectuée le jour même. Quand le câble atteignit la surface, on s’aperçut qu’un cétacé (whale) était empêtré dedans. La sonde accusait ii3 à i52 brasses à l’endroit de l’avarie; latitude : 46°o5' N; longitude : 5804o' O. m
- VI et VII. — Voici maintenant l’histoire du cachalot du AU America, celui dont il a été question au début de cet article (et qui figure sous deux numéros dans le travail de B. C. Heezen) :
- « Câble de Buenaventnra (Colombie) à Santa Elena (Equateur). Cette section devint défectueuse le 3 mars ig3i et fut remise en état le 10 mars 1931. Le câblier AU America passa le message suivant : « Avarie trouvée à 10 milles de notre position d’hier; cause : oétacé ('whale) enroulé dans le câble ».
- Position exacte de l’avarie : latitude i°io' N; longitude : 8o°o8'3o// 0. Profondeur : 545 brasses; soit environ i5 milles marins dans le Nord-Ouest d’Esmeraldas.
- Le New-York Times du 26 avril 1931 publia l’article suivant :
- « Un cétacé pris dans un câble se noie au fond de la mer. Balboa, C. 7., 19 avril 1931. Le record de pêche de la saison actuelle, un cétacé de 90 t, a été établi par le capitaine
- P. R. Flarne, commandant le câblier Ail America, alors qu’il recherchait la cause d’une interruption dans le fonctionnement du câble de la AU America Cable Company entre Balboa et Esmeraldas (Équateur). Le monstre fut tiré d’une profondeur de 3 000 pieds, au large de la côte colombienne, à l’aide des treuils dont le navire est muni.
- « Le cétacé était mort, s’étant noyé, selon l’avis du capitaine I-Iarne, après s’être empêtré dans le câble. La théorie du capitaine Harne, basée sur des observations antérieures semblables, est que le cétacé était à la recherche de sa nourriture au fond de la mer; il ramassa le câble avec sa mâchoire inférieure et, en tournant sur lui-même pour se libérer, il s’empêtra de façon telle qu’il fut bientôt ligoté étroitement. Lorsqu’il fut amené à la surface, on constata que trente brasses de câble étaient enroulées autour de son corps.
- « Aucune trace d’attaque par des poissons carnivores n’a été relevée sur la vaste carcasse. D’après le capitaine Harne, cela s’explique par le fait que le cétacé, protégé par une épaisse couche de lard, peut résister plus efficacement que n’importe quel poisson aux énormes pressions des grandes profondeurs; et que ces poissons n’ont pu, en conséquence, arriver jusqu’au cachalot mort, retenu à trois quarts de mille de la surface (x). »
- ce Pour libérer le cétacé, il fallut couper le câble et faire une épissure afin de relier les deux bouts. »
- Dans une lettre à Wilbur G. Sherman à propos de cet incident, A. Hyatt Verrill écrit :
- « Au cours d’une récente conversation avec le capitaine Harne, il me montra vos lettres de l’été dernier lui demandant des précisions au sujet du cétacé qu’il a trouvé pris dans un câble au large de l’Équateur. Ce cétacé était un cachalot, de 45 pieds de long (i3,5o m) environ; c’était un mâle, avec des dents exceptionnellement grandes. Le câble faisait un tour mort sur la mâchoire inférieure, un autre autour d’une pectorale et encore un autre sur la caudale. Le câble reposait sur le fond, par 54o brasses, au large d’Esmeraldas (Équateur). Pour dégager le corps du cachalot, il fallut couper le câble de chaque côté, puis faire une épissure afin de le remettre en service. »
- Enfin Laurie, citant le New Bedford Standard, écrit dans le Nantucket Inquirer and Mirror du 9 avril 1932, à propos de ce cas :
- « On m’a rapporté qu’en ig3i un cachalot mort avait été trouvé au large de la côte péruvienne, empêtré dans un câble sous-marin qui avait été rompu à une profondeur de 5oo brasses. Le second capitaine du câblier Ail America me précisa que, lorsque le câble apparut à la surface, on put voir qu’il passait dans l’angle de la mâchoire du cachalot et qu’il formait en outre une boucle autour de la queue. Il résulte de ces observations que le cachalot s’est probablement pris dans le câble alors qu’il était à la recherche de sa nourriture, sans doute en poursuivant des céphalopodes. »
- La figure 1 représente la façon dont ce cachalot était pris.
- 1. Inutile de souligner tout ce que la fantaisiste explication du capitaine Harne a de simpliste.
- Fig. 2. — Dessin
- exécuté d’après les déclarations du capitaine J. Hack.
- Cachalot trouvé au large du Pérou, en juillet 1940, par 470 brasses, (cas XII du texte). Voir aussi la figure 4.
- p.435 - vue 439/527
-
-
-
- 436
- Fig. 3. — Croquis montrant les différentes phases (hypothétiques) par lesquelles peut passer un cachalot
- avant de s’empêtrer dans un câble.
- r»e gauche à droite : 1° Le cachalot nage en frôlant le fond, mandibule pendante et fouillant les sédiments, a la recherche de sa. nourriture r 2° La mandibule s’engage dans une boucle du câble, posé sur le fond avec beaucoup de mou ; 3° Le cachalot, dans sa lutte pour se dégage), prend ses pectorales et sa caudale dans le câble ; 4° Complètement ligoté, 1 animal meurt au tond de la nier.
- (Illustrations obligeamment communiquées par M. Bruce C. Heezen).
- VIII. — Câble de Balboa (C. 7) à Sanla Elena (Equateur). — Réparation effectuée en avril igSa. Le câble fut viré au large de la côte colombienne. Il retenait un cachalot mâle de 45 pieds (i3,5o m). Le câble faisait un tour sur la mâchoire inférieure et entourait ensuite une nageoire pectorale, le corps et la caudale. Profondeur : 54o brasses. Ce cas est cité d’après le livre de Carson (The Sea around us, Oxford Univ. Press, ig5i), mais il n’a pas été retrouvé dans les rapports de la compagnie câblière.
- IX. — Câble de Paila (Pérou) à Chorillos (Pérou). — Au cours d’une réparation effectuée le i5 mars 1932 (l’avarie s’était manifestée le i3 mars, soit deux jours auparavant), « un cétacé (vohale) mort apparut en surface, pris dans le câble qui faisait un tour mort sur sa mâchoire inférieure. » Latitude : 8°55'2i" S; longitude : 8i°i8'o9" O. Profondeur : 255 brasses.
- X. — Câble de Chorillos (Pérou) à Iquique (Chili). — Môme accident que VII et IX ci-dessus : un cétacé (whale) mort avec
- le câble passant sous la mâchoire et autour de la queue. Latitude : ]2046'48" S; longitude : 770 kaoo" 0. Profondeur : 44a brasses, 21 février 1933.
- XI. — Câble de Salina Cruz (Mexique) à La Libertad (San Sal-
- vador). — Lne interruption dans le fonctionnement du câble survint le 21 mars ig35. Mais le câblier AU America étant occupé ailleurs, il ne put venir effectuer la réparation que deux semaines plus tard. Le câble avait été complètement rompu par les mouvements du cétacé qui, au bout de deux semaines d’immersion, se trouvait dans un état de décomposition avancée lorsqu’il émergea. Latitude : i2°58'36" N ; longitude :
- 89°28/5i// O. Profondeur : 68 brasses.
- XII. — Câble de Paita (Pérou) à Chorillos (Pérou). — Même opération : en virant le câble, un cétacé cette fois bien identifié, car il s’agit d’un cachalot, apparaît à la surface. Le câble faisait un tour sur la mâchoire et un autre tour sur la tête. La description donnée par le capitaine Hnck a permis de faire
- Fig. 4. — Photographie du cachalot mâle trouvé au large du Pérou le 30 juillet 1940.
- Vue partielle. L’animal flotte à la surface, le câble enroulé autour de sa mâchoire inférieure. Un des bouts du câble est à bord du navire-câblier, l’autre descend encore jusqu’au fond de la mer. Le cliché, légèrement voilé, a été un peu retouché (cas XI1 du texte).
- p.436 - vue 440/527
-
-
-
- 437
- un dessin exact (fig. 2); de plus, un membre de l’équipage a pris deux photos dont une est reproduite ici (fig. 4). Latitude : ê°2$' S; longitude : 8i°o8/ 0. Profondeur : 470 brasses.
- XIII. — Câble de Santa Elena (Equateur) ù Chorillos (Pérou).
- — Le 3o décembre 1944, une mâchoire de cétacé fut trouvée
- prise dans le cable. Latitude : 9007'i8" S; longitude :
- 8o°oo/oo" 0. Profondeur : 56o brasses. Aucune interruption dans le fonctionnement du câble.
- XIV. — Câble de Santa Elena (Equateur) à Chorillos (Pérou).
- — Avarie au câble le 10 août 1955. Le navire câblier AU America vint effectuer la réparation le i4 octobre 1955, et releva, en môme temps que le câble endommagé, une mâchoire de cachalot. La ligure 5 est la reproduction d’une photographie qui montre la mâchoire et le câble, et remise par le capitaine à M. J. IL F. Pet ch. Latitude : 9°oo/oo// S ; longitude : 8o°o6'3i" 0. Profondeur : 620 brasses; c’est le record pour un accident de ce genre.
- Enfin, on peut signaler deux autres incidents ne mettant sans doute pas en cause les cétacés :
- i° The Electrical Review du i5 novembre 1901 signale que dans le câble l’eliant Sidney (Australie) à Nelson (Nouvelle-Zélande), immergé par 33o brasses, on trouva une dent profondément enfoncée dans la partie protectrice extérieure. Un zoologiste identifia, sans doute passible, une dent de requin.
- 20 Le câble Malaga-Lisbonne ayant dû être réparé le 29 août 1961 par le câblier Mirror, le capitaine J. C. West constata que l’avarie était due très probablement à l’action d’un animal marin qui s’était heurté au câble et y avait provoqué des coques et des nœuds extrêmement compliqués. Il subsistait autour du câble une masse de chair impossible à identifier, d’un poids approximatif d’une livre, et dégageant une odeur puissante. Le capitaine pense qu’en raison de la gi’ande profondeur à laquelle l’accident s’est produit (1 200 brasses) on ne peut mettre en cause l’action d’un cétacé, et il suggère que l’avarie a pu être causée1 par un Octopus (ou un calmar). Eh raison des dégâts causés à ce câble presque neuf, le capitaine estime que l’animal devait être très grand et très vigoureux.
- Discussion. — De l’étude des rapports qui précèdent, Bruce C. Ileezen conclut que l’on doit attribuer aux cétacés les avaries subies par les câbles. Ils ont été pris sur le fond de la mer et non à des profondeurs intermédiaires pendant le cours des réparations. Le genre d’avaries constatées sur les câbles, et la relation existant d’une part entre la date de l’avarie et celle de sa réparation, et d’autre part l’état de décomposition des carcasses, confirment cette conclusion.
- L’hypothèse de cétacés morts en eau peu profonde et entraînés vers les abysses par des courants sous-marins doit être rejetée en raison des considérations qui précèdent. De plus, un courant assez puissant pour déplacer un gros cachalot serait tout aussi capable de rompre le câble. D’ailleurs, l’action de courants n’expliquerait pas la façon dont les cachalots sont entortillés dans le câble; elle n’expliquerait pas non plus le fait qu’aucune rupture de câble en liaison avec la présence d’un cétacé ne s’est produite au-delà de 620 brasses de profondeur.
- Il n’est guère possible de savoir, d’après les informations présentées ici, comment un cachalot peut arriver à se prendre dans un câble sous-marin. L’explication la plus plausible est celle-ci : le cachalot nage à la recherche de sa nourriture, en effleurant le fond : en a rase-mottes », si l’on peut dire; ce faisant, il laisse pendre sa mâchoire inférieure, largement — position, que l’on a constatée maintes fois — et celle-ci peut même pénétrer dans les sédiments qui recouvrent le fond. Dans ces conditions, il peut arriver que cette mandibule s’engage dans la boucle d’un câble mouillé avec beaucoup de mou (fig. 31. L’animal continuant à nager, le tour mort se souque sur ,1a mâchoire, et tandis que le cachalot se débat, d’autres boucles se
- Fig. 5. — Mâchoire inférieure de cachalot et câble endommagé, remontés d’une profondeur de 620 brasses.
- Pérou, 14 octobre 1955 (cas XIV du texte).
- {Illustrations obligeamment communiquées par M. Bruce C. Heezen).
- forment autour du corps, de la tête, des nageoires ou de la queue. Dans son combat, il mord le câble, endommageant l’isolant, mais il n’a pas assez de puissance pour briser l’ensemble dont la force de rupture est de l’ordre de 8 à 20 t. Dans certains cas, cependant, le conducteur en cuivre a été cassé, en particulier s’il s’est formé une coque.
- La fréquence de ces accidents au large des côtes de l’Équateur et du Pérou pendant le mois de mars peut être en relation avec la migration saisonnière des cachalots (Townsend, ig35), mais le nombre de cas n’est pas encore assez grand pour que l’on en puisse tirer une conclusion définitive.
- La grande fréquence de ces accidents vers 5oo brasses de fond peut être due à la présence de nourriture à cette profondeur. Elle peut aussi provenir du mou supplémentaire présenté par le câble. Le long de talus sous-marins abrupts, il est difficile de déterminer la profondeur exacte, et pour que le câble qui repose sur le fond né subisse pas une tension exagérée, les commandants des câbliers peuvent donner du mou supplémentaire lorsqu’ils effectuent des réparations dans ces régions.
- L’auteur ne prétend pas connaître la physiologie des cétacés, ni comment ils peuvent supporter de tels changements de pression. Néanmoins, il semble maintenant prouvé que les cachalots nagent souvent près du fond par des pi’ofondeurs qui atteignent 620 brasses. Il apparaît comme plausible que les cachalots viennent s’empêtrer dans les câbles sous-marins alors qu’ils sont à la recherche de leur nourriture, leur mâchoire inférieure étant pendante et effleurant les couches superficielles de sédiments. 11 est possible également que le cachalot attaque le câble, le prenant pour une proie.
- Telles sont les conclusions de Bruce C. Heezen. On ne peut évidemment qu’v souscrire, en espérant que des observations ultérieures permettent d’élucider les questions restées encore non résolues.
- Paul Budker, Sous-directeur au Muséum.
- p.437 - vue 441/527
-
-
-
- L/échelle des distances de TUnivers encore révisée
- La découverte par Slipher du déplacement vers le rouge des raies spectrales et du spectre continu des nébuleuses extra-galactiques est sans aucun doute le fait astrophysique le plus important du dernier demi-siècle. Aucun de nos lecteurs n’ignore que l’on attribue généralement ce déplacement spectral à l’effet Doppler provoqué par un mouvement de récession des nébuleuses lointaines : si cette hypotèse est admise, l’Univers est en expansion et toutes les galaxies s’éloignent les unes des autres avec une vitesse relative proportionnelle à leur distance. La constante fondamentale de l’Astrophysique, nommée constante de Hubble, n’est autre que le rapport de la vitesse d’éloignement des nébuleuses à leur distance à notre propre Galaxie. Sa détermination présente donc une grande importance astronomique et philosophique; elle se heurte malheureusement à d’énormes difficultés et comporte de nombreuses étapes où les erreurs peuvent s’accumuler, nous en verrons des exemples. Rappelons comment est effectué le calcul de la constante de Hubble, calcul dont le principe a été indiqué par Hubble lui-même :
- i° La première étape est une étude approfondie des Céphéides de notre Galaxie, étoiles très brillantes dont l’éclat varie périodiquement, sans doute par suite de contractions et expansions régulières de l’ensemble de l’astre. La période de cette variation est étroitement liée à la luminosité intrinsèque moyenne de l’étoile, les Céphéides les plus lumineuses étant celles dont l’éclat varie le plus lentement. On exprime la luminosité intrinsèque sous la forme de la magnitude qu’aurait l’étoile si on l’observait à une distance de io parsecs (i parsec = 3,26 années-lumière), c’est-à-dire la magnitude absolue M. Celle-ci est liée à la magnitude apparente m par la formule :
- m = M — 5 + 5 log10 d,
- où d est la distance de l’étoile. Il faut donc déterminer la distance pour établir la relation période-magnitude absolue des Céphéides.
- 2° Cette relation est très probablement valable pour les Céphéides des nébuleuses extragalactiques; on peut l’appliquer en particulier à la détermination de la magnitude absolue des Céphéides de la Nébuleuse d’Andromède, notre plus proche voisine, étoiles visibles avec les grands instruments et dont on connaît la période. Comme il est possible de mesurer d’autre part leur magnitude apparente, on déduit de la relation que nous avons écrite plus haut la distance de la Nébuleuse d’Andromède. Hubble l’avait trouvée égale à 75o ooo années-lumière, mais on dut la porter à i 5oo ooo années-lumière lorsque les propriétés des Céphéides furent mieux connues (*) et plus récemment à i 8oo ooo années-lumière.
- 3° La connaissance de cette distance permet elle-même de déterminer la magnitude absolue des Supergéantes B, les étoiles les plus brillantes connues, aisément observables dans la Nébuleuse d’Andromède mais mal connues dans notre propre Galaxie : cette magnitude est d’environ — 6,4-
- 4° Ces supergéantes sont observables dans les nébuleuses lointaines qui forment l’amas de galaxies 4e la constellation de la Vierge ou d’autres amas de galaxies. Dans les cas les plus favorables, on peut mesurer leur magnitude apparente, d’où l’on tire la distance de la galaxie envisagée.
- 5° La constante de Llubble, elle-même est déduite d’une étude statistique du déplacement spectral relatif (AX/X où X est la longueur d’onde de la raie non déplacée et AX son déplacement) en fonction de la distance, déterminée par le procédé que nous venons d’examiner. La proportionnalité de ces quantités est tout à fait remarquable, bien que des écarts puissent exister aux très
- Voir : La nouvelle échelle de distance des galaxies, par Jean Bufay, La Nature, juillet 1954, p. 241.
- grandes distances comme le laissent pressentir des travaux récents. On admettait ; il y a très peu de temps encore, une vitesse de récession des nébuleuses lointaines égale à 180 km/s par million de parsecs. Avec les plus grands télescopes, on peut prendre le spectre de galaxies pour lesquelles le déplacement spectral correspond à des vitesses supérieures à 6o ooo km/s, et photographier des objets qui sont sans doute plus lointains : la valeur de 180 km/s par million de parsecs attribuée à la constante de Hubble porterait donc les limites de l’Univers observé optiquement à environ 33o millions de parsecs, soit plus d’un milliard d’années-lumière.
- Tout cela avait été établi d’une manière que l’on considérait comme à peu près définitive depuis la dernière révision de la constante de Hubble. Or une communication de Sandage au Congrès de Cosmogonie et Cosmologie Solvay, qui s’est tenu au mois de juin dernier à Bruxelles, vient de tout remettre en question. L’éminent astronome américain ne propose-t-il pas de ramener la constante de Hubble à 76 km/s par million de parsecs ? On conçoit que son intervention ait produit l’effet d’une bombe, et que les remous qu’elle a provoqués parmi les astronomes ne sont pas près de s’apaiser.
- Sandage étaye son argumentation sur le fait qu’une grave erreur se serait produite lors de la détermination de l’échelle des distances. Cette fois, ce ne sont plus les Céphéides qui sont en cause mais les supergéantes bleues sur lesquelles repose la dernière étape du calcul. Les points brillants que l’on avait repérés dans plusieurs galaxies de l’amas de la Vierge ne seraient pas des supergéantes bleues, comme on le croyait jusqu’ici, mais des régions d’hydrogène ionisé analogues à celles que l’on observe dans notre Galaxie (nébuleuse d’Orion). Ces nuages de gaz interstellaire, ionisés par le rayonnement ultraviolet d’une étoile chaude qu’ils renferment, peuvent être considérablement plus brillants que l’étoile excitatrice : il n’est pas impensable que leur magnitude absolue globale atteigne — 10, s’ils sont excités par une supergéante bleue. Ils ont un aspect sensiblement ponctuel dans des objets aussi éloignés que les nébuleuses de l’amas de la Vierge, ce qui explique qu’on ait pu les prendre pour des étoiles. Il conviendrait donc d’admettre pour la distance de ces nébuleuses un chiffre plus élevé, ce qui amène la valeur de la constante de Hubble à 76 km/s par million de parsecs.
- A l’heure actuelle, les avis sont très partagés quant à la valeur qui doit être adoptée pour cette constante fondamentale. Celle avancée par Sandage paraît trop faible à la plupart des astronomes. Il est pourtant certain qu’elle conduit à une estimation de l’âge de l’Univers plus satisfaisante que les 5,5 milliards d’années qui découlaient de la constante d’expansion donnée par Hubble : d’après lui, la Terre, formée il y a environ 4,6 milliards d’années, aurait été à peine plus jeune que l’Univers lui-même. La nouvelle valeur de la constante de Hubble porte à environ i3 milliards d’années l’âge de l’Univers : on conçoit qu’il ait pu se passer beaucoup de choses avant la création de la terre, en particulier des processus capables de synthétiser, par réactions nucléaires successives, les éléments lourds qui sont présents dans notre globe.
- De toute façon, il faut rester extrêmement prudent dans l’interprétation des données structurales de l’Univers. Il est affligeant de constater que la constante fondamentale de l’Astrophysique soit aussi mal déterminée : « On la change toutes les semaines ! », disait un des participants au Congrès Solvay. C’est pourtant sur elle que reposent toutes les théories cosmogoniques, dont on saisit la fragilité, parfois même la prétention, lorsqu’elles comportent des données numériques trop précises qui sont souvent le résultat de bien pénibles calculs.
- J. Lequeux.
- p.438 - vue 442/527
-
-
-
- Le plus grand lac artificiel du monde :
- Kariba
- 439
- En Afrique centrale, exactement dans les Rhodésies, est en train de s’accomplir une oeuvre considérable peu connue en Europe. On a beaucoup parlé du barrage d’Assouan projeté sur le Nil, des barrages russes de la Volga et américains du Colorado ou de la Columbia. Un lac artificiel qui laissera loin derrière lui les réalisations similaires va étendre ses eaux prochainement sur le cours du Zambèze, créant au cœur de l’Afrique une tache bleue vaste comme neuf lacs de Genève (fig. i). La Nature avait été, dès janvier ig54 (n° 0225, p. 18-24), parmi les premiers organes de la presse scientifique à attirer l’attention sur le gigantesque projet du barrage de Kariba. Aujourd’hui, cet ouvrage est en cours de construction à une allure rapide.
- Le plan Kariba. — Le Zambèze est surtout connu pour ses admirables chutes Victoria, découvertes par Livingstone en i855 (fig. 2). L’exceptionnel attrait de ce site unique interdisait de penser à le gâcher par tout plan important d’utilisation hydroélectrique. D’ailleurs, il ne serait pas possible de stocker l’eau : on devrait se contenter de produire du courant selon les possibilités du débit, c’est-à-dire qu’en saison sèche (six mois sur douze), l’usine serait beaucoup moins active qu’en saison humide.
- Or, quelque 5oo km à l’est des chutes, le Zambèze s’encaisse dans un défilé qui entaille profondément la pénéplaine africaine composée de roches dures. Les berges sont en pente accentuée, la largeur du lit se rétrécit à moins de 5o m. Toutes les conditions sont donc réunies pour la construction relativement aisée d’un mur de béton barrant la vallée : c’est la gorge de Kariba (fig. 3), entre Rhodésie du Nord et Rhodésie du Sud.
- Dès 1898, l’attention s’était portée sur ce site, au moment où l’on cherchait un endroit commode pour faire enjamber le Zambèze au chemin de fer qui devait relier le Cap au Caire. Finalement, on se décida pour la gorge des chutes Victoria. En 1914, Kariba fut encore l’objet de recherches techniques destinées à créer un réservoir pour l’irrigation. En 1925, enfin, débutèrent les premières études portant essentiellement sur la
- Lac Tanganyika
- CONGO
- BELGE
- Lac Bangwelo
- 1030m
- KA Zambèze ut »
- Kafue
- ARIBA
- WAltitude du lac 510m
- SALISBURY »
- ® j
- mom /
- JLivingstone,
- \ Chutes Victoria
- \
- 100 200 300 Km 'vVankie
- \ Bulawayo V 1300m °
- AFRIQUE
- UNION
- R I C A I N E
- S U D - A F
- Fig. 1. — Situation du lac artificiel de Kariba.
- production de houille blanche. Les besoins des Rhodésies en force motrice exigeaient en effet (particulièrement dans le cas du Copperbelt, grand producteur mondial de cuivre), la mise sur pied d’un programme sérieux d’investissements énergétiques.
- En 1947, les ingénieurs hésitaient entre le plan Kariba et le
- Fig. 2 et 3. — A gauche : Les chutes Victoria sur le Zambèze. — A droite : La gorge de Kariba en période de hautes eaux.
- (Photos Ronald D. K. Hadden, aimablement communiquées par le Fédéral Information Department of South Rhodesia)
- p.439 - vue 443/527
-
-
-
- 440
- plan Kafue. La Kafue, à quelque distance au nord du site de Kariba, est un affluent du Zambèze dont le cours encaissé se prêle également à la construction d’un barrage. Une polémique s’engagea, qui dura plusieurs années, afin de déterminer l’ordre de priorité souhaitable : Kafue serait plus vite terminé, mais produirait moins de courant; Kariba prendrait plus de temps, mais serait nettement plus important. 11 s'ajoutait une difficulté juridique sur les modalités de la répari ition du financement entre les deux états, rhodésiens.
- Mais un gouvernement fédéral ayant vu le jour en nj53, et deux techniciens français connus, MM. Coyne et Bellier, ayant rédigé un rapport concluant à la meilleure rentabilité du projet Kariba, priorité a été donnée à ce dernier en ig55. Les travaux ont alors immédiatement commencé.
- Cela ne signifie pas l’abandon du projet Kafue. Celui-ci sera exécuté plus tard et s’intégrera dans un vaste « complexe » zambézien. A un moment où la coopération eurafricaine est à l’ordre du jour, ce sont les bases d’an intense développement futur que les Rhodésiens jettent maintenant.
- La puissance installée à Kariba atteindra i 200 000 kW (Kafue 4oo 000 kW seulement). La centrale se placera donc parmi les plus puissantes du monde, dépassée seulement par les usines américaines de Grand Coulee et du Hoover dam, canadiennes de Kitimat et du Saint-Laurent, et soviétiques de la Volga et de l’Angara. Kariba sera la plus puissante centrale du continent africain (compte non tenu d’Assouan).
- La production de courant électrique doit débuter dès la fin de 1959, à la mise en place du premier groupe de turbo-géné-ratrices. A l’achèvement définitif, en 1970, la production atteindra 8 milliards kWh/an. Ce chiffre, qui représente quatre fois la production de Donzère-Mondragon, donne une idée de l’importance de l’œuvre. Kariba se placera aux côtés de Stalingrad
- Fîg-, 4. — Travail au batardeau.
- et de Kouibichev sur la Volga, après les barrages géants américains dont le principal, le Grand Coulée dam, fournit annuellement i3 milliards de kWli. Il suffirait à lui seul à alimenter en énergie toute la Fédération Rhodésies-Nyassaland, dont la consommation prévue sera alors (1971) de l’ordre de 7 milliards kWh, au lieu de 2 à l’heure actuelle.
- Les conditions naturelles. — L’emplacement exact du barrage se situe 4 km après le début du défilé de Kariba. Il eût été possible d’implanter l’ouvrage à l’issue de la gorge, en vue d’obtenir une plus grande hauteur de chute; mais des considérations géologiques ont fait rejeter cette solution, le sous-sol ne présentant pas de garanties de solidité suffisantes.
- La voûte de béton, haute de iao m et longue de 5oo, ne sera épaisse à la base que de 27 m. Elle aura un volume total supérieur cependant à 1 000 000 m3. Cette fragile voûte, arc-boutée sur les deux rives granitiques, solidement enrochée par des fondations de plus de 00 m, équilibrera une masse d’eau évaluée à 120 milliards m3 ! Cette énorme accumulation, correspondant à un poids total de quelque 120 milliards de tonnes, dépassera de très loin toutes les retenues artificielles existantes. Jusqu’à présent, en effet, le premier rang revient à la retenue du Hoover dam sur le Colorado, appelée par les Américains lac Mead, dont le volume est de 02 milliards m3. En France, la première place doit revenir à la retenue de Serre-Ponçon sur la Durance (moins de 1 milliard m3). La comparaison de ces divers chiffres est éloquente en elle-même.
- L’importance exceptionnelle de ce volume est due à la profondeur des eaux : une centaine de mètres en moyenne sur 5o km de largeur et 200 de longueur. Une véritable mer intérieure sera ainsi formée, dont la surface (5 200 km2) équivaudra à neuf fois celle du lac Léman. Cent retenues de Kariba suffiraient à couvrir la France entière, six inonderaient sous 100 m d’eau tout le territoire belge ! 'L’eau emmagasinée pourrait alimenter la consommation de Paris jusqu’en l’an 2600!
- Il est nécessaire de stocker une telle masse liquide parce que les impératifs climatiques l’exigent. L’alternance régulière des saisons humides et sèches impose de retenir suffisamment d’eau pour faire fonctionner l’usine toute l’année. Déjà, on calcule qu’en saison sèche, le niveau du lac baissera d’une dizaine de mètres. D’autre part, il est indispensable de se prémunir contre le risque d’années sèches successives, ainsi que le cas s’en présente de temps en temps en Afrique.
- En même temps, le régime du Zambèze sera régularisé et maintenu en aval de Kariba à une valeur constante de x 200 m3/s tout au long de l’année. Actuellement, le débit oscille entre des valeurs moyennes de 46o m3/s (saison sèche, de juin à décembre) et 6 000 m3/s (saison des pluies, de janvier à mai), avec des pointes de 12 000 et plus. Les dangers relatifs aux crues seront donc écartés radicalement; tout le cours inférieur du Zambèze profitera de cette régularisation. Les bienfaits, en particulier en ce qui concerne l’irrigation et la navigation, en seront appi’éciables, jusqu’en territoire portugais (Mozambique). Ce dernier a eu à souffrir gravement des inondations catastrophiques du début 1958.
- L’évaporation enlevant 10 pour 100 de la tranche d’eau annuelle, et G pour 100 se trouvant déversés directement pardessus le barrage, la proportion des eaux turbinées se montera à 84 pour xoo du débit du Zambèze. Le pied de l’ouvrage et le début de la section aval seront bétonnés, afin d’empêcher l’érosion.
- Les travaux. — Le travail a donc débuté en ig55. Vu la hauteur de l’eau en saison des pluies (fig. 3), il a été nécessaire de procéder d’abord, pendant les saisons sèches de 1955 et 1956, à la construction d’un barrage de protection circulaire ou batardeau, dit coffer dam (« barrage-coffre »), sur la rive gauche du fleuve. Cet ouvrage provisoire devait permettre de poursuivre ultérieurement les travaux à l’abri des eaux (fig. 5 et 6).
- p.440 - vue 444/527
-
-
-
- 44 i
- Fig. 5 et 6. — Le batardeau de la rive gauche, en cours de construction (à gauche), et en cours d'achèvement en période de basses eaux en automne 1956 (n droite).
- En même temps, un tunnel dé dérivation, destiné à être emprunté par les eaux, était commencé sous la rive droite : long de 720 m sur une section de 12, ce souterrain a été achevé dès le début de 1957.
- Pendant la saison des pluies de 1967, c’est-à-dire de janvier à mai-juin, on a poursuivi les travaux à l’abri du batardeau; celui-ci a été démoli au début de la saison sèche (juillet 1967), au moment même où le tunnel de dérivation était mis en service. Il fut alors possible de travailler d’arrache-pied- à la construction du barrage proprement dit dans le lit 'à sec du fleuve. Un second batardeau a été rapidement aménagé à cet endroit, afin de protéger les travaux quand reviendrait la période des hautes eaux.
- D’importants retards ont été pourtant provoqués par la crue exceptionnelle du début de 1968, qui causa des destructions sur les chantiers et fit s’effondrer les ponts qui joignaient les deux rives : le 2 mars, le débit du Zambèze dépassa i4 000 m3/s; les eaux ne commencèrent à baisser lentement qu’à partir du 7. Tous les travaux avaient été interrompus, y compris ceux de la centrale souterraine de la rive droite.
- Si le rythme de la construction peut s’accélérer dans les derniers mois de l’année 1958, il est possible que le mur de béton soit, en janvier 1969, assez élevé pour permettre de commencer la mise en eau. Cette opération ne prendra pas moins de cinq années (1959-196/1). Mais, dès i960, à l’achèvement de la première tranche de travaux, la centrale commencera à fonctionner à puissance réduite (peut-être même fin 1959). On a dit plus haut que l’ouvrage serait probablement terminé en 1970, avec ses deux centrales souterraines (une sur chaque rive, disposant au total de 12 génératrices de 100 000 kW chacune). Des lignes à haute tension (33o 000 V) relieront Kariba aux mines de cuivre et aux centres urbains des deux Rliodésies.
- Des centaines de kilomètres de routes ont déjà été construits en l’espace de trois années. Plus de 10 000 personnes, dont 2 000 Européens, vivent dans une petite ville créée de toutes pièces, disposant d’écoles, de banques, d’un hôpital. Les logements réservés aux ouvriers africains ont été l’objet d’une attention particulière.
- En tout, la réalisation du plan Kariba aura nécessité, d’ici i960 seulement, l’utilisation de 43o 000 t de ciment, 5o 000 t de produits pétroliers (une centrale Diesel alimente en énergie les chantiers et la cité) et plus de a5 000 t d’acier. Plu-
- sieurs ponts et un aérodrome ont été construits. En ce qui concerne la santé publique, la lutte contre la maladie du sommeil a conduit à éliminer totalement la mouche tsé-tsé de ta région; aucun cas de trypanosomiase n’a été constaté depuis le début des travaux. 80 cas de paludisme seulement, parmi des milliers de travailleurs, ont été enregistrés. L’eau potable est fournie par une station moderne montée de toutes pièces.
- La France a des intérêts particuliers dans la réalisation du plan Kariba. Deux des trois organismes-conseils sont des sociétés parisiennes, MM. Coyne et Bellier et la Sogei (Société Générale d'Exploitations Industrielles). La firme grenobloise Nevrpic a d’autre part été chargée de la fourniture de portes d’évacuation de crues pour une valeur globale de 800 millions F; elle a, par ailleurs, exécuté dans ses ateliers un modèle réduit du site de Kariba. Les rapports déposés par les techniciens français ont été consultés avec grand intérêt, étant donné « la considérable expérience que l’on s’accorde à attribuer aux hydroéleclriciens français dans le monde », déclare une publication officielle du gouvernement rhodésien. Des firmes italiennes et anglaises ont obtenu également d’importants contrats.
- Les conséquences économiques et humaines. —
- La demande croissante d’énergie électrique explique l’intérêt porté à Kariba. Sait-on que la valeur totale des produits miniers extraits du sous-sol de la seule Rliodésie du Nord a atteint en 1966 la somme de 160 milliards F? Outre le cuivre (3e rang mondial;, pour le raffinage duquel des usines géantes sont en construction près de la frontière congolaise, il faut citer le vanadium, le manganèse, le plomb, le zinc, le cobalt... Les entreprises sont ici à l’échelle mondiale (Anglo-American Co., Rhodesian Sélection Trust, etc.) : elles réclament du courant électrique à cor et à cri. Leurs centrales thermiques en sont réduites à brûler du bois !
- Il en va de même en Rliodésie du Sud : les mines de chrome (3e rang mondial), d’amiante, de wolfram, d’étain..., les usines de transformation de Salisbury et Bulawayo exigent sans cesse davantage d’énergie. La consommation totale des deux pays sera triplée d’ici dix ans.
- Il importait donc de parer au danger d’asphyxie qui guettait l’économie de la jeune Fédération d’Afrique centrale. Kariba apporte une solution élégante et grandiose, solution que la construction de nouvelles centrales thermiques était incapable
- p.441 - vue 445/527
-
-
-
- de fournir : en effet, les mines de houille sont arrivées à une production maximale et les transports à partir des mines de Wankie auraient demandé line refonte complète du système ferroviaire.
- D’ailleurs, la construction de nouvelles usines thermiques aurait coûté 125 milliards F pour arriver au même résultat que Kariba. Or, ce dernier plan ne revient guère plus cher (i4o milliards F) et il offre, de plus, l’avantage de produire le kilowattheure environ trois fois moins cher.
- L’irrigation n’est pas oubliée : la région riveraine et les zones de l’aval s’enrichiront sérieusement (canne à sucre, riz, maïs). La pèche fournira annuellement quelque i5 ooo t de poisson, pour une valeur totale de 2,2 milliards F; on s’efforcera de multiplier les espèces intéressantes, notamment la brème, aux dépens des prédateurs actuellement nombreux dans le Zambèze. 'L’apport alimentaire ne sera pas négligeable dans un pays où l’élevage reste insuffisant en raison des vastes étendues encore infestées par la mouche tsé-tsé. .
- Des coupes systématiques de bois sont effectuées dans la zone destinée à être recouverte par les eaux du futur lac. La valeur de ce bois est intéressante, certes, mais ces coupes sont également nécessaires pour permettre le chalutage sur le fond.
- Des recherches zoologiques, botaniques, géographiques sont entreprises afin de tout connaître d’une région qui disparaîtra
- bientôt sous les eaux. Dès i960, des promenades touristiques seront organisées sur les flots que borderont des plages artificielles et des hôtels de repos.
- Reste un délicat problème : celui des populations à transplanter. Au nombre de 5o 000 individus, les indigènes Tonga sont restés fidèles à un genre de vie très primitif : ils vivent de maigres récoltes extensives, d’un élevage occasionnel de moutons et de chèvres étiques, et ils ignorent complètement la pêche. On a prévu de les installer dans de nouveaux villages reconstruits en « dur » sur les bords du lac, lac à l’existence duquel les indigènes ne croient guère encore ! Tout cela entraîne, on le devine, des difficultés d’ordre psychologique.
- La Fédération Rliodésies-Nyassaland a obtenu le concours de la Ranque Internationale, des firmes minières du Copperbelt, de banques et de sociétés diverses... Elle a réussi ainsi à financer son plan entièrement, donnant un bel exemple à d’autres pays africains : Kariba produira autant de kilowatts-heure qu’en produirait Assouan.
- Celte expansion pacifique se réalise dans le silence, par le travail d’un petit peuple courageux. Relie leçon de coopération entre Rlancs et Noirs, pour le bien commun des uns et des autres, dans cette Afrique où, peut-être, nos lendemains se font.
- Paul Wagbet.
- Le Congrès international cTallergologie
- Le Congrès international d’allergologie qui s’est tenu à Paris entre le 19 et le a5 octobre a réuni plus de 1 4oo personnes appartenant à 42 nations. Ce seul fait démontre l’extrême importance que revêt dans le monde l’étude des maladies d’origine allergique ainsi que leur prévention et leur thérapeutique. Ceci n’empêche — et c’est là ce qu’il convient surtout de souligner — que l’allergie est un domaine encore mal exploré, très imparfaitement connu par une large fraction du corps médical et à plus forte raison du grand public.
- Le terme allergie, à vrai dire, est souvent employé dans les milieux cultivés où, semble-t-il, on lui attribue un sens imprécis qui oscille entre une sorte de groupement marginal de maladies d’origine énigmatique et les intolérances individuelles, connues précédemment sous le nom d'idiosyncrasies.
- La délimitation du domaine allergique est pourtant relativement nette. Elle exige seulement de se référer à quelques notions de base, désormais classiques, que nous rappellerons brièvement.
- Au cours d’une croisière océanographique, en 1901, Pierre Portier et Charles Richet avaient recueilli le venin très actif sécrété par certains Cœlentérés de l’Atlantique. De retour dans leurs laboratoires, ils eurent l’idée d’essayer ce venin sur des animaux, afin de voir notamment s’ils pourraient être immunisés contre lui par des injections préventives à faible dose. La première expérience tentée sur un chien eut un résultat aussi inattendu que paradoxal : alors que la première injection n’avait produit que des effets insignifiants, la deuxième foudroya littéralement l’animal. Ce phénomène brutal qui fut baptisé anaphylaxie révélait un processus physiologique, ignoré jusqu’alors et qui s’opposait diamétralement au processus de l’immunité.
- A partir de cette observation capitale, les recherches se sont orientées vers la cause de ce « renversement de l’immunité » qui équivaut à ce qu’on a pris l’habitude d’appeler une sensibilisation. La terminologie s’est entre temps modifiée, anaphylaxie et choc anaphylactique caractérisant plutôt les agressions dramatiques, comme celle dont fut victime le chien de
- Portier et Richet, alors que l’ensemble des phénomènes d’antiimmunité, qu’ils fussent graves ou bénins, ressortissaient du terme allergie, créé entre temps.
- Et voici (en comprimé) le mécanisme physiologique de l’allergie : il débute comme celui de l’immunité par la création d'anticorps! qui se combinent, en les neutralisant, avec les antigènes (substances agressives) qui s’introduisent dans l’organisme. Mais s’il s’agit d’antigènes allergiques (ou allergènes) les anticorps produits ont une structure spéciale qui leur permet de se fixer sur les cellules des différents tissus. Soumis de nouveau à l’intrusion des allergènes, ces anticorps réagissent en exerçant sur la cellule une action qui a pour conséquence une décharge d'histamine. Cette dernière substance, mise en mouvement, attaque les fibres musculaires lisses de divers organes. C’est cette répercussion histaminique qui se traduit par toute la gamme des symptômes allergiques sur la peau et les appareils vasculaire, digestif et respiratoire.
- Cet exposé est descriptif et non explicatif. La cause fondamentale du phénomène réside évidemment dans la structure spéciale de l’anticorps dû à l’attaque initiale de l’allergène. Et cette cause est de toute évidence chimique. Elle doit être détectée et analysée chimiquement, ce qui représente d’ailleurs un immense travail, étant donné la très grande variété des substances allergènes.
- Un exemple isolé démontrera la nature chimique des réactions allergiques : la novocdine, analgésique bien connu, a maintes fois provoqué de semblables réactions, allant jusqu’aux plus graves chocs anaphylactiques. Il a suffi de « retoucher » la molécule de la novocaïne, pour créer des analgésiques aussi efficaces et même davantage qui se sont révélés inoffensifs.
- Mais on mesurera l’étendue du champ qui s’offre aux biochimistes en énumérant les principales substances à caractère allergénique : poussières, pollens de différentes fleurs, spores de moisissures, poils de chats et chiens de différentes races, plumes, médicaments (en grand nombre), détergents de synthèse, textiles, etc.
- A cela, on doit ajouter que la chimie « extérieure » des aller-
- p.442 - vue 446/527
-
-
-
- 443
- gènes interfère avec la chimie interne des personnes qui les reçoivent. Car il est à présent établi que les individus présentent une plus ou moins grande prédisposition allergique. Cette prédisposition est transmise héréditairement; de manière schématique, on peut affirmer que le gène allergique existe chez 5o pour ioo des enfants dont la mère est allergique, 3o pour ioo lorsque cette hérédité émane du père, 70 pour 100 si les deux parents sont également allergiques.
- Cette prédisposition génétique est un élément de grande importance. Elle ne rend cependant pas compte, à elle seule, de l’évolution possible des affections allergiques. Les sensibilités individuelles à la naissance sont généralement spécifiques et l’on peut fort bien imaginer que tel enfant, allergique au pollen, n’en connaîtra aucun inconvénient s’il est destiné à être marin, ce qui lui évitera d’être souvent exposé aux émissions printanières de pollen. Mais en regard de cette « prédisposition annulée », on se trouve bien plus souvent devant le cas suivant : un enfant prédisposé est soumis dès le berceau à l’agression allergénique la plus banale, celle de la poussière, dont les effets seront par exemple des « croûtes de lait ». Ce premier signe étant négligé, la sensibilité de l’enfant s’élargira progressivement à d’autres allergènes jusqu’à le rendre vulnérable à la presque totalité de ces substances. Parvenu à l’âge adulte, il sera devenu un cc inapte », souffrant soit d’eczéma chronique, soit d’emphysème, d’asthme bronchique, etc.
- Et ceci nous conduit aux tableaux statistiques fort peu rassurants qui ont été présentés pendant le Congrès d’allergologie. Une évaluation générale fait apparaître que 10 pour 100 de la population des pays de race blanche présente (au moins une fois dans la vie) les symptômes d’une affection allergique grave. Environ 4o pour 100 des individus sont atteints d’affections bénignes ou transitoires.
- Mais comme le diagnostic de l’allergie est en de nombreux cas omis par un grand nombre de cliniciens, cette statistique globale ne peut être confirmée par des chiffres rigoureux. On doit se contenter d’indications partielles qui n’en sont pas moins significatives. Aux Etats-Unis, selon le docteur Arbesman, il y aurait 2 millions d’asthmatiques, 7 millions de malades du rhume des foins et 3 millions de personnes souffrant d’œdèmes, urticaires, eczémas et affections diverses d’origine allergique. Le total (x2 millions) représente 7 pour 100 de la population.
- La Grande-Bretagne ne possède pas un dénombrement général de ses allergiques. On peut seulement faire ressortir le taux de morbidité de l’asthme bronchique, la manifestation la plus grave de l’allergie : o,85 à 1 pour 100 de la population.
- La Belgique, explorée par sondage, aurait 76 pour 100 de ses affections pulmonaires déterminées par une cause allergique, ce qui par conséquent déborde largement le chiffre des tuberculeux respiratoires. La même estimation a été faite, à peu de chose près, en Grande-Bretagne.
- Pour la plupart, les affections allergiques n’ont pas directement d’incidence sur la mortalité. Seul, l’asthme bronchique doit être retenu comme cause importante de décès et la statistique y ajoute la bronchite chronique, car on soupçonne qu’en de très nombreux cas la cause initiale, d’ordre allergique, nJa pas été décelée par le médecin. C’est ainsi qu’en Italie, le nombre des décès allergiques aurait atteint en 1953 le chiffre de 34 par xoo 000 habitants. La Belgique aurait eu, en 1954, 22 décès par 100 000 habitants pour la même cause.
- L’aspect le plus significatif de l’allergie réside dans le nombre des journées perdues pour cette raison par les travailleurs de toutes corporations, car la caractéifistique des maladies allergiques est de s’étendre indifféremment à tous les âges et de toucher par conséquent la tranche active de la population qui est par ailleurs épargnée par les maladies qui affectent surtout l’enfance ou la vieillesse. Le docteur Williams (Grande-Bretagne) a présenté une statistique de 1954, selon laquelle l’allergie aurait fait perdre 7790000 journées de travail, soit
- 2,8 pour 100 du total : chiffre supérieur à celui de l’ulcère duodénal et gastrique (2,4 pour 100) et de la pneumonie (0,7 pour 100).
- Le docteur Arbesman (U.S.A.) signale pour son pays une perte annuelle de 24 760 000 journées de travail pour asthme et rhume des foins. L’allergie coûterait aux Etats-Unis 4 millions de dollars (soit 1,8 milliard de francs) par an.
- Récapitulant toutes les incidences démographiques, économiques et sociales de l’allergie, le docteur Ilalpern (France) démontre que l’allergie vient au troisième rang (après les affection cardiovasculaires et le cancer) des fléaux qui pertui'bent les nations et rongent leur potentiel humain. Aucune statistique n’a pu être établie pour la France, mais il est parfaitement légitime d’interpoler et d’admettre que les chiffres des pays voisins sont approximativement applicables à notre pays.
- A la fois au point de vue sanitaire et au point de vue économique, la politique à suivre est nettement tracée. Etant donné que l’allergie est une maladie qui se manifeste la plupart du temps pendant la première enfance et l’enfance pour s’aggraver progressivement par la suite, le premier moyen de lutte serait un dépistage précoce, méthodiquement organisé. Par la suite, il serait indispensable de mettre les allergiques dans des conditions telles que le mal ne se développe pas. On souhaiterait par exemple que les enfants prédisposés ne soient pas maintenus dans l’atmosphère polluée des villes et puissent faire leurs études dans des sanatoriums transformés en établissements d’enseignement.
- Ces premières mesures impliquent des investissements importants, mais qui se révéleraient très l'entables à la longue. Cependant, posé sous son aspect financier, le problème a fait reculer les responsables de la Santé publique, si bien que l’importance de l’allei'gie a été systématiquement minimisée. La Sécui'ité sociale ne rembourse pas les frais médicaux qu’entraîne la détection allergique. Elle refuse en outre d’admettre les affections allergiques parmi les maladies pi’ofessionnelles et un grand nombre de travailleurs dont la prédisposition génétique n’a pas été mise à jour (faute dont ils ne sont pas responsables) n’ont aucun droit à indemnité lorsqu’ils ont été exposés à l’une des nombi-euses substances allergènes qui sont pi’oduites par diverses opéi'ations industrielles.
- Aucune législation ne s’oppose à la fabi'ication ni à la vente des colorants, détergents, textiles, produits cosmétiques et pharmaceutiques qui ont des propriétés allergènes. Il faut reconnaître que les enquêtes à ce sujet sont longues, difficiles et se heurtent souvent à d’inquiétantes contradictions : c’est ainsi que les antibiotiques (y compris la streptomycine et la pénicilline) sont des allergènes, tout en jouant un rôle capital dans la thérapie des maladies infectieuses. Ceci n’empêche que l’allergie médicamenteuse pouri’ait être combattue par une étude chimique approfondie, ainsi que nous l’avons signalé plus haut.
- La situation en France se présente donc de manière assez défavorable, en dépit des efforts du professeur Pasteur Yallery-Radot et du docteur Ilalpern qui ont organisé un cours d’allergologie, destiné aux médecins et qui peut permettre à ces derniers d’intervenir par la suite avec une solide base d’information dans la prévention et le traitement des maladies allergiques.
- Cette initiative ne représente encore qu’un début : tant sur le plan clinique que sur le plan expérimental, la France aurait besoin que l’enseignement et la pratique de l’ailergologie y soient considérablement développés. En regard, nous signalerons l’existence aux États-Unis de deux sociétés groupant 1 5oo allergologues foxmés dans les centres d’allergologie qui fonctionnent dans le cadre de différentes universités. L’éducation du public a été entreprise par l’Allergy Foundation of America et le gouvernement fédéral a créé récemment, en vue de la recherche, le National Institute of Allei'gy and Infections Diseases. Gaston Coiien.
- p.443 - vue 447/527
-
-
-
- L'étude des températures anciennes par le dosage des isotopes de l'oxygène
- On sait que l’on estime maintenant l’âge de la terre par l’étude des roches qui contiennent de l’uranium et que la présence d’isotopes radioactifs dans un éclat d’os permet de fixer l’âge d’une station préhistorique. 11 s’agit maintenant d’une étude basée sur le rapport des isotopes de l’oxygène dans des coquilles fossiles, qui permet de donner le reflet de la température des mers dans lesquelles elles ont vécu. Les détails concernant cette remarquable découverte ont été rapportés dans un article de Cesare Emiliani paru dans le numéro de février 1968 du Scientific American. Comme bien d’autres découvertes, celle-ci est en partie due au hasard. En décembre 19.46, le chimiste Harold C. Urey, de l’Université de Chicago, fit à Zürich une conférence sur les isotopes, faisant valoir que les isotopes d’un corps, bien que supposés identiques chimiquement, ne se comportent pas exactement de la même façon, même dans des réactions chimiques. Par exemple, quand un verre d’eau s’évapore, les trois isotopes de l’oxygène (oxygènes 16, 17 et 18) ne disparaissent pas avec la même rapidité; la vapeur entraîne une quantité un peu plus forte de l’isotope- le plus léger, qui est l’oxygène commun 16. Par suite, au bout d’un certain temps, l’eau sera un peu enrichie en oxygènes 17 et 18, plus rares. Urey en conclut que l’eau des océans, soumise depuis longtemps à ce processus, doit être un peu plus riche en ces éléments que l’eau douce. Le cristallographe suisse Paul Niggli, à son tour, en déduisit que les substances précipitées dans ces eaux devaient montrer la même différence dans le rapport des isotopes de l’oxygène. Il suggéra que l’analyse isotopique des dépôts de carbonates dans les coraux et les squelettes calcaires des animaux aquatiques pourrait indiquer si ces animaux ont vécu dans l’eau douce ou dans l’eau de mer.
- A son retour à Chicago, Urey trouva que l’abondance relative des isotopes de l’oxygène dépend en partie de la température de l’eau à l’époque où le carbonate a été déposé. Il dit ainsi : « Je me trouvai soudain avec un thermomètre géologique dans les mains. » Il fallut cependant encore quatre ans pour établir une technique pratique permettant l’utilisation de ce nouvel instrument de travail. Les différences à calculer sont trop petites pour être mesurées avec les instruments habituels. Une différence de i° C dans la température de l’eau ne produit qu’une différence de 0,02 pour ioo- dans le rapport de l’oxygène 18 à l’oxygène 16 dans le carbonate. Les spectromètres les meilleurs ne permettent de mesurer qu’une différence de 0,2 pour 100, ce qui correspondrait à une différence de io° C dans la température de l’eau, soit à peu près celle qui existe entre les eaux des climats arctiques et tempérés. Une autre difficulté à vaincre fut l’établissement d’une échelle de températures par l’étude de coquilles actuellement vivantes et élevées au laboratoire dans des conditions connues. Or les coquilles vivantes contiennent non seulement des carbonates mais aussi une petite quantité de protéines et la difficulté consistait à éliminer l’oxygène de ces protéines pour ne pas fausser les calculs. La préparation des coquilles pour l’analyse présenta ce que Urey appela par fa suite « le problème chimique le plus dur qu’il ait jamais rencontré ».
- Une fois ces difficultés surmontées, les premiers résultats à tirer de la méthode purent être envisagés. Urey attaqua d’abord la question avec les Bélemnîtes, Mollusques des temps secondaires, voisins des Ammonites, présentant un squelette interne calcaire en forme de cigare ou de fuseau. Les fossiles de ce squelette se trouvent très abondamment depuis le Lias jusqu’au Crétacé supérieur. Ces animaux vivaient dans les mers chaudes ; leur squelette montre des lignes de croissance concentriques ; par l’étude des couches de la coquille ainsi formées, des changea mts saisonniers de la température pendant la croissance
- de l’animal ont pu être révélés. On a pu môme préciser qu’une béiemnite était née en été, avait vécu quatre ans et était morte au printemps. Ce fut la première preuve de la valeur pratique du thermomètre géologique de Harold C. Urey. Un autre problème envisagé a été celui de la disparition des Dinosauriens ; l’analyse d’un grand nombre de fossiles d’Europe et d’Amérique du Nord semble apporter la conclusion d’un refroidissement de la température à la fin du Crétacé qui peut avoir joué un rôle important dans cette disparition.
- Mais l’étude la plus importante sur les climats anciens a été basée sur les Foraminifères de la période tertiaire. On sait que les plus importants parmi ces fossiles sont les Nummidiles, animaux unicellulaires pouvant atteindre la taille énorme de 12 cm de diamètre; ils ont une coquille calcaire et ont joué un rôle considérable dans la faune des mers tertiaires. Les matériaux pour cette étude ont été fournis par l’Expédition océanographique suédoise de 19/1.7-1948. L’outillage spécial de cette expédition a permis de prélever au fond des océans des carottes de près de 2 m de long. L’étude des Foraminifères provenant d’une profondeur de 10 000 pieds dans le Pacifique équatorial a permis de reconnaître les changements de climat qui se sont produits dans cette région. Il y a 02 millions d’années, la tem-pératui'e des eaux profondes était de 5i° F (i4° C) ; elle tombait à 44° F (6°5 C) il y a 22 millions d’années et était à peu près ce qu’elle est maintenant, c’est-à-dire 3° C, il y a un million d’années.
- Une autre série de recherches concerne les périodes glaciaires. Les Foraminifères ont encoi’e été employés, mais seulement les espèces de surface permettant de x’econstituer les variations de températixre de sux-face des océans. Ce travail fut basé sur l’étude d’échantillons de sédiments provenant de l’Atlantique, de la mer des Cai’aïbes et de la Méditen-anée. L’analyse isolo-pique des espèces trouvées à différents niveaux des cai’ottes, par suite ayant vécu à des époques plus ou moins anciennes, permit d’établir des coui'bes de températures indiquant les fluctuations clixxiatiques. Il restait encore à dater ces cycles de température par l’analyse du carbone radioactif. Par cette méthode, Urey pense pouvoir dater le début de la première grande glaciation de 3oo 000 ans au lieu de 5oo 000, chiffre généralement admis par les géologues. Coxxcernant l’oi'igine des glaciations il semble pouvoir apporter un appui à l’hypothèse du physicien serbe Milutin Milankovitch, lequel suppose que, par des fluctuations dans l’orbite terrestre et son axe de rotation, les changements périodiques dans la réception de la chaleur solaire ont provoqué de longues périodes a étés frais et liiyers humides, alternant avec des périodes à étés chauds et hivers froids. Dans une période à étés frais, la glace couvre une sux’face bien plus étendue que dans la période actuelle. Milankovitch a calculé que les étés les plus frais reviennent à intervalles de 4o 000 ans environ. L’analyse des fossiles indique que les points de basse tempéi'a-ture des océans correspondent bien à cet intervalle de 4o 000 ans.
- Enfin, le dernier essai concei’ne une intéressante application à l’origine de l’Homme. Les Anthi’opoïdes d’Afrique du Sud ont apparu avant la première glaciation et ont vécu jusqu’à la fin de la première période interglaciaire, c’est-à-dire entre 4oo 000 et 200 000 ans. Le Pithecanthropus, le Sinunthropus et l'Allan-thropus sont considérés par Urey comme une espèce apparue pendant la première période intei’glaciaire, il y a 200 ou 25oooo ans; il appelle cette forme Homo erectus. Le crâne de Swanscombe appartenait probablement à une sous-espèce différente, ancêtre de l’homme moderne; il date de la deuxième période interglaciaire, soit environ ia5 000 airs. Les restes de Fontéchevade, le plus ancien fossile appartenant certainement à
- p.444 - vue 448/527
-
-
-
- 445
- l’homme moderne, sont datés de la troisième période interglaciaire, soit environ ioo ooo ans. Comme l’Homme de Néan-derthal a dû apparaître vers la même époque, il doit être considéré comme un rameau parallèle à l’Homme moderne. Essai mal réussi, il a disparu pendant la dernière glaciation, il y a environ 5o ooo ans, et a duré environ 2 000 générations. L’évolution de VHomo erectus à l’Homme de Swanscombe a demandé environ S ooo générations et celle de l’Homme de SAvanscombe à l’Homme moderne x ooo générations seulement. C’est une
- évolution rapide et on trouverait des chiffres analogues pour les autres animaux supérieurs. Ainsi, le thermomètre géologique de Urey ouvre la voie à de nombreuses recherches. Il éclaire sur les cycles climatiques de longue durée, il permettra de savoir comment les sédiments se déposent au fond des océans, à quelle profondeur vivent les animaux marins et la rapidité de leur croissance; il renseignera aussi sur les déplacements des pôles et beaucoup d’autres questions.
- L. C.
- ANTIGELS POUR MOTEURS
- A l’approche de l’hiver, la protection des moteurs contre le gel va de nouveau requérir l’attention. C’est l’occasion de résumer l’essentiel d’une étude du laboratoire national américain de Washington, le National Bureau of Standards, dans laquelle sont passées en revue les principales propriétés physiques des divers produits employés comme antigels (1).
- La fonction d’un antigel est de prévenir le gel du liquide réfrigérant du moteur; mais plusieurs autres exigences doivent être satisfaites avant qu’un antigel puisse être considéré comme étant apte à remplir cette fonction. Ces exigences peuvent être classées en deux catégories, majeures et mineures. Les exigences majeures sont : action antigel aux plus basses températures auxquelles le moteur puisse être exposé; absence d’action corrosive sur les matériaux du système réfrigérant et stabilité chimique dans les conditions de fonctionnement du moteur ; conductibilité électrique faible; viscosité pas trop élevée de façon à ne pas gêner l’écoulement; chaleur spécifique et conductibilité thermique des solutions aussi élevées que possible; absence de formation de mousse en présence de petites fuites d’air. Les exigences mineures sont : ne pas abaisser exagérément le point d’ébullition de l’eau; faible coefficient de dilatation; ininflammabilité; absence de toxicité et d’odeur désagréable. Aucun produit ne remplit toutes ces conditions; mais il est toutefois possible de trouver des solutions à base d’alcools et de glycol qui satisfont à la plupart des exigences majeures.
- Antigels à base d'alcools. — L’alcool méthylique est l’antigel le plus courant, bien qu’on utilise également de petites quantités d’alcools éthylique et isopropylique. Le point d’ébullition des solutions antigels à base d’alcool est plus bas que
- 1. Automotive antifreezes, par F. L. Howard, D. B. Brooks et R. E. Streets. National Bureau ot Standards, Circuler 576, 1956, 23 p. (Importante bibliographie sur le sujet, 191 références).
- celui de l’eau, l’écart augmentant avec la concentration en alcool ; on doit faire attention à l’emploi de cette solution dans les régions froides et d’altitudes élevées. L’action corrosive est pratiquement nulle lorsque les solutions sont correctement inhibées. Aux températures de fonctionnement, les chaleurs spécifiques des solutions d’alcool diffèrent, peu de celle de l’eau; les viscosités sont également peu différentes. Les risques d’in-ilummabilité et de toxicité sont pratiquement inexistants dans une voilure bien entretenue.
- Antigels à base de glycols. — Les solutions d’étliylène-glycol (glycol) et de propylène-glycol (propanediol-1.2) ont une température d’ébullition supérieure à celle de l’eau; les pertes des solutions par évaporation sont pratiquement négligeables. Une inhibition convenable des solutions de glycol permet la protection contre la corrosion du système réfrigérant des véhicules bien entretenus. L’antigel à base de glycol provoque un léger retrait des tuyaux de radiateurs, d’où la nécessité de vérifier le serrage des colliers. Les chaleurs spécifiques des solutions de glycol sont inférieures à celle de l’eau aux températures voisines de la congélation, et les viscosités sont plus élevées; ces solutions ont donc tendance à chauffer plus rapidement; elles sont par contre ininflammables aux températures de fonctionnement.
- Par suite de leurs points d’ébullition plus élevés, les solutions de glycol s’évaporent moins rapidement que les solutions à base d’alcool; des fuites de la solution antigel dans la chambre de combustion ou le carter d’un moteur peuvent causer des dommages sérieux par temps froid; le mélange avec l’huile du moteur est néfaste.
- Antigels à base de sels. — Les antigels à base de sels (chlorures de calcium, de magnésium ou de sodium) ont pu paraître intéressants à une certaine époque, étant donné leur bas prix
- Tableau I. — Propriétés principales des produits réfrigérants
- Produits Densité (g/ern3) Soluble dans l’eau Influence sur le point d’ébullition de l’eau Action corrosive avec inhibiteur Conducteur électrique Chaleur spécifique Viscosité (aux basses températures) Inflam- mabilité
- Eau 1,00 — — négligeable non si elle est pure élevée faible non
- Alcool méthylique o,79 oui abaissement » non moyenne » oui
- » éthylique 0,81 » » » )) » )> oui
- » isopropylique .... 0,78 » )) )> )) » » oui
- Glycol I,H 1 ,o4 )> élévation y> » » » non
- Propanediol ...... » )) » » » » non
- Glycérine 1,26 1, i4 à 1,26 » » modérée » )) moyenne non
- Sels )> )) (réfrigérant forte nulle sous cer- oui )) faible non
- Pétrole 0,78 à o,84 non à point d’ébul-lilion élevé) taines conditions d’emploi non faible oui
- p.445 - vue 449/527
-
-
-
- 446
- de revient et leur efficacité .pour, abaisser le point de congélation de l’eau. L’action corrosive de tels antigels, même avec des produits purs, leur conductibilité électrique élevée et leur aptitude à former des dépôts de cristaux de sels hydratés dans le radiateur les rendent toutefois indésirables.
- Antigels à base d’huile minérale (pétrole). — Ces types d’antigels ne sont pas miscibles dans l’eau. Convenablement raffinés, ils se congèlent à très basses températures et n’attaquent pas les parties métalliques du système réfrigérant; mais ils présentent l’inconvénient d’attaquer plus ou moins les tuyaux de radiateur en caoutchouc naturel ou synthétique; ils sont également inflammables. Leur capacité calorifique est plus faible que celle des autres antigels, ce qui est un désavantage lors de brusques réchauffements de la température; leur température d’ébullition assez élevée (entre 200 et 260° C) est aussi un inconvénient supplémentaire qui peut avoir de sérieuses conséquences en cas d’échauffement excessif du moteur.
- Divers. — Divers autres produits peuvent également être utilisés comme antigels (miel, sucre, glycérine, propanediol-i.3) ; ils sont plus ou moins satisfaisants et ne sont pratiquement pas employés.
- Une protection efficace contre le gel est fonction de la concentration requise pour une température donnée. Une protection pour une température plus basse que celle que l’on prévoit est toutefois une assurance supplémentaire ; cependant, si l’on emploie des antigels à bas point d’ébullition, une protection excessive devient nuisible, l’abaissement du point d’ébullition entraînant une perte de solution par débordement lors de l’ébullition ou par évaporation.
- Les effets plus ou moins corrosifs des divers antigels sont atténués par l’addition d’inhibiteurs (organiques ou inorganiques) de corrosion, ce dernier terme englobant les corrosions chimique et électrolytique et l’érosion.
- En cas d’utilisation d’un antigel d’une année sur l’autre, on doit faire attention aux changements de ses propriétés à l’usage et, en particulier, aux pertes d’efficacité des inhibiteurs. On considère qu’un antigel laissé dans le système réfrigérant pendant l’été se détériore plus rapidement dans les conditions de conduite de cette saison. On recommande également d’utiliser une eau douce (eau de pluie ou eau distillée) pour préparer les solutions antigels, ainsi qu’en été avec un inhibiteur de corrosion.
- H. M.
- Recul des glaciers de la Nouvelle-Zemble
- Le rétrécissement de la surface recouverte de glace est général, à notre époque, dans l’Océan Arctique (Voir : Le climat se réchauffe-t-il? La Nature, janvier iq58, p. 19). Ainsi les observateurs soviétiques ont constaté, comme nous le dit la revue Priroda, un recul sensible des glaciers sur la côte nord-ouest de la Nouvelle-Zemble. La Nouvelle-Zemble se compose de deux îles allongées, séparées par un détroit. L’île septentrionale est recouverte, dans sa partie centrale, d’un véritable bouclier glaciaire. Des langues de glace, partant de ce bouclier, descendent, en suivant les vallées, vers la mer et remplissent plusieurs fjords. Or, en comparant les cartes établies d’après les photographies prises en 1933 et en xg52 respectivement, on constate que des fjords, voire de véritables golfes, existent maintenant là où, en 1933, on n’apercevait qu’une surface glacée uniforme. Ainsi, le golfe des Étrangers est maintenant complètement dégagé, alors qu’il n’existait pratiquement pas il y a 25 ans. Une étude plus détaillée de l’évolution de ce golfe nous fait savoir que le glacier le recouvrant commençait, en 1933, à 5 km à peine du promontoire situé à l’entrée du golfe, tandis qu’en 1952 son bord se ti’ouvait déjà à i3 km du même promontoire. Il avait
- donc reculé de 8 km en 19 ans, ce qui correspond, en moyenne, à un recul annuel de 420 m. Depuis 1962, ce retrait des gla-ciei'S n’a cessé de continuer. Selon des observations visuelles, leur bord a reculé de 2 km encore en l’espace de 3 ans.
- Un recul similaire des glaciers a été constaté dans les autres fjoi’ds de la Nouvelle-Zemble. Ce recul s’accompagne de l’apparition de nombreux icebergs, dont la hauteur au-dessus du niveau de la mer ne dépasse cependant pas 16 m.
- Le recul général des glaciers s’explique par l’élévation de la tempéi'ature moyenne de l’Océan Arctique, élévation due à l’intensification de la circulation atmosphérique et à l’activation du Gulf-Stream.
- Pour terminer ce bref aperçu, il est intéressant de signaler que là où, au xix® siècle et en 19x2 encore, la glace barrait entièrement le passage, c’est-à-dire au nord du golfe des Étrangers (75°35/ latitude nord), l’auteur de l’article de Priroda a pu naviguer, en juillet et même en septembre 1955, sans aucune difficulté et sans rencontrer de blocs de glace flottants.
- C. M.
- LES THERMISTORS
- Les Thermistors, semi-conducteurs constitués par des mélanges d’oxydes de manganèse, de nickel, de cobalt, de cuivre, de fer ou d’uranium dont les propriétés varient avec la composition chimique et le traitement thermique qu’on leur a fait subir, sont de plus en plus utilisés à l’état de rondelles, de disques ou de billes ayant jusqu’à 2,5 mm de diamètre.
- Le fait que leur résistivité diminue quand augmente la température (leur coefficient de température de l’ordre de 4 pour 100 par degré centigrade est cent fois plus élevé que celui des métaux qui, lui, est positif) constitue leur propriété essentielle : présentant une résistance élevée (en tant que semi-conducteurs) quand on les met sous tension, ils s’échauffent par effet Joule et leur résistance diminue.
- Ce n’est que vers 1930 que ce phénomène, entrevu il y a plus
- de xoo ans par Faraday, a été mis en application par la Société américaine Bell, et grâce aux thermistors de grands progrès ont été réalisés dans l’exploitation des téléphones.
- Cette importante variation de résistance en fonction de la température conduit à les utiliser pour la détermination des températures et ils sont employés couramment à cet effet dans les ballons-sondes, les moteurs automobiles, les missiles. Leur grande sensibilité aux différences de température (ils peuvent détecter une différence de o,ooi°) a incité à les employer pour les mesures physico-chimiques : calorimétrie, mesure de débits, mesure du vide (jauge genre Pirani) où ils se substituent aux simples résistances ohmiques; c’est encore le cas dans les cellules de conductibilité, de plus en plus employées dans la pratique de la chromatographie. II. G.
- p.446 - vue 450/527
-
-
-
- Le plus petit Mammifère de France la Pachyure étrusque
- 447
- La Pachyure étrusque (Suncus etruscus Savi) est le plus petit Mammifère européen. C’est un Insectivore de la famille des Soricidés, famille à laquelle appartiennent également certains petits Insectivores français plus connus : Crocidures (genre Crocidura), Musaraignes (genre Sorex), Crossopes ou Musaraignes aquatiques (genre Neomys).
- La Pachyure étrusque est un charmant petit animal difficile à observer dans la nature en raison de sa petite taille et de son extrême agilité. Parfois, en soulevant une pierre, le naturaliste a la bonne fortune de découvrir une petite boule de poils gris et, s’il est assez prompt, s’il sait mettre à profit les quatre ou cinq secondes de temps d’arrêt qui caractérisent l’animal surpris, il peut le capturer. Pourtant, la plupart des zoologistes n’ont pu faire connaissance avec cette espèce que dans les collections des laboratoires ou des muséums. Les cadavres sont si petits qu’ils disparaissent rapidement, rongés par les nécrophages ou emportés par les Carnivores. Cependant l’animal n’est pas rare. La preuve en est donnée par l’examen des pelotes de réjection des Rapaces. Lorsqu’un Rapace a capturé et absorbé un petit Mammifère, il ne peut digérer ni les poils ni le squelette. Ces restes sont rejetés sous forme de pelotes que l’on peut recueillir près du gîte de l’Oiseau. C’est ainsi que la Chouette effraie, Tyto alba, très friande d’insectivores, dépose les siennes dans des greniers, des clochers, des bâtiments abandonnés.
- La Pachyure étrusque occupe en France la région méditerranéenne. Sa présence a été signalée également en Charente et même en Vendée. L’espèce habite le Sud de l’Europe, on la retrouve en Asie et en Afrique (Égypte, Tunisie, Algérie, Maroc et jusqu’au Sud du Sahara où une capture a été signalée en Nigéria).
- L’aspect extérieur rappelle tout à fait celui d’une jeune Musaraigne avec laquelle la Pachyure a pu parfois être confondue. Le museau est très allongé, la queue épaisse comportant à la fois des poils courts et des vibrisses que l’on distingue parfaitement sur les photographies. Le crâne, vu de profil, est très aplati. Par sa morphologie externe, l’animal s’apparente au genre Crocidara (Musaraignes) mais les particularités de sa dentition l’ont fait classer dans un genre différent.
- Les photographies que nous publions évoquent, mieux que toutes les descriptions, la petitesse étonnante de ce Mammifère. La femelle adulte représentée ici pesait 2 g et mesurait 68 mm du museau à l’extrémité de la queue (longueur tête + corps : 4i mm; longueur de la queue : 27 mm). Le dos était gris foncé, le ventre clair avec une ligne de démarcation nette sur les flancs.
- L’acuité de l’odorat semble exceptionnelle. La Pachyure circule entre les pierres en reniflant continuellement pendant que vibrent les longs poils qui ornent son museau. Une proie est localisée dans un rayon inférieur à
- Fig. 1. — La Pachyure étrusque.
- Individu capturé en août 1955 par M. Vasserot et conservej vivant deux mois.
- (Photo Vasserot).
- 10 cm. Très voraces, les Pachyures attaquent et tuent tous les Insectes qui passent à leur portée. Les Orthoptères (Mantes religieuses, Sauterelles, Grillons) sont spécialement appréciés. C’est par la tète de la proie que commence le repas. En quelques instants, l’Insecte est dévoré, il n’en reste plus que les pattes et les ailes et, pour peu que la Pachyure soit particulièrement affamée, les ailes peuvent même disparaître. Il arrive que notre Mammifère miniature s’attaque à des Insectes nettement plus gros que lui. Nous l’avons vu, en cage, hésiter longuement puis finalement capturer une grosse Sauterelle verte. Notre Pachyure a maîtrisé également une fois un Hanneton adulte.
- 11 est vrai que lors d’une seconde expérience, elle refusa obstinément d’attaquer un Hanneton, manifestant même des signes de panique et fuyant pour se cacher sous les pierres lorsque le Coléoptère agitait ses ailes pour l’envol. De cette expérience malheureuse, il ne faudrait pas conclure à la pusillanimité de notre Mammifère. A Montpellier, le docteur Ilarant a placé un jour dans la cage d’une Pachyure un Lézard ocellé, Lacerta lepida, long d’une douzaine de centimètres. Il écrit : « Mis en présence l’un de l’autre, les deux antagonistes, l’Insectivore et le Reptile, se regardaient d’un air si menaçant que pour sauver l’existence de notre Musaraigne nous avons cru devoir intervenir en rendant le Lézard inoffensif. »
- C’est que l’appétit, proportionnellement à la taille, est tout à fait exceptionnel. Le même auteur rapporte que son exemplaire en cage consommait en une journée : trois Mantes religieuses, deux forts Criquets et un Grillon. A titre d’exemple, voici le menu pendant quelques jours de l’individu représenté ici et qui, rappelons-le, pesait 2 g : le 26 juillet iq55 : 18 Grillons, soit G,3o g; le 28 : i3 (Grillons et des débris de viande, soit 5,4i g; le 29 : i3 Grillons, soit 4,55 g; le 3o : i3 Grillons, des débris de viande, un ver de terre, soit 6,77 g.
- Cette nourriture était offerte par petites quantités à des intervalles rapprochés ; sans quoi l’animal tue tous les Invertébrés mis à sa disposition, n’en consomme que la partie qui lui est nécessaire et peut fort bien demeurer affamé à côté d’un Coléoptère mort. Par contre, la Pachyure peut absorber des Vertébrés morts. Elle mit deux heures à consommer le Lézard ocellé dont il est question ci-dessus. Plusieurs fois, nous avons
- p.447 - vue 451/527
-
-
-
- 448
- placé de petits Mammifères morts dans la cage (Midots, Apo-demus sylvaticus, et Campagnols roux, Clethrionomys glareo-lus), la Pachyure ne s’y est jamais intéressée.
- En raison de la taille des proies, Koch et Vasserot (1957) se demandent si la salive du Suncus 11’aurait pas des propriétés venimeuses analogues à celles observées chez les Sorex cinereua et surtout chez Blarina brevicauda, espèce américaine. La sécrétion des glandes sous-maxillaires de cette dernière espèce est toxique pour les Souris et les Escargots (Pearson, 1942, cité par Grassé).
- Notons également que mis en présence d’insectes protégés chimiquement, comme Graphosoma lineatum, l’animal, selon Koch et Vasserot, attaque normalement mais donne ensuite les signes d’une réelle souffrance et se plaque au sol en une attitude très caractéristique décrite par ces auteurs. Après une première attaque malheureuse, l’animal a un comportement de fuite, dès deux centimètres de distance, en présence de l’insecte protégé.
- L’observation des petits Mammifères permet généralement de constater dans leur activité journalière clés sorties du refuge plus fréquentes à certaines heures. Il est courant de parler d’animaux nocturnes (le Hérisson), diurnes (l’Écureuil), crépusculaires (le Mulot). Le bel appétit de notre Insectivore, joint au fait qu’il consomme en général peu de nourriture à la fois, nécessite des sorties à la recherche des proies à toutes les heures, de jour comme de nuit. Il nous a été tout à fait impossible par l’observation de déceler chez l’animal captif une pointe d’activité à une heure déterminée.
- *
- * *
- Outre une nourriture abondante, la Pachyure a besoin pour subsister d’une température assez élevée. C’est, dans la région méditerranéenne, un animal de maquis et de garrigue. En Afrique, on le retrouve dans les savanes. En cage, lorsqu’on établit un gradient thermique, la Pachyure se place plus volontiers là cù le substratum de la cage présente une température voisine de 26°. Mais, affamée, elle peut quitter son abri pour des températures comprises entre 5° et 3o°.
- On sait fort peu de choses sur la reproduction. Une femelle capturée en aoiit 19/19 en Charente était geslante et portait
- Fig. 2. — Autre posture du même animal.
- (Photo Vasserot).
- 5 fœtus à la moitié environ de leur développement. Il est probable qu’il y a au moins deux portées par an. La longévité d’un individu en captivité, capturé adulte, a été de 12 mois, ce qui correspond, sans doute, à une durée totale de la vie inférieure à 18 mois.
- Il reste encore beaucoup à découvrir sur cette espèce. Il faut préciser son aire de répartition, connaître ses conditions de vie dans la nature et son observation au laboratoire présente plus qu’un intérêt de curiosité. Les recherches sur le métabolisme d’un animal homéotherme de cette taille soulèvent des problèmes passionnants. Quoi qu’il en soit, cette petite boule de poils qui ne semble pas être autre chose qu’un tube digestif avec un nez au bout est certainement un des Mammifères les plus curieux de la faune française.
- Marie-Charlotte Saint-Girons et Claude Delamare Deboutteville .
- Volcans sous-marins dans l'Arctique
- Les zones ou ceintures des manifestations sismiques correspondent généralement aux ceintures des volcans. D’autre part, dans l’océan Arctique, la ceinture sismiquement active s’étend, autant qu’on peut le savoir, au voisinage immédiat de la chaîne .montagneuse sous-marine Lomonosov. Or, d’après la revue soviétique Priroda-, des symptômes d’une certaine activité volcanique ont été relevés dans cette chaîne sous-marine-Ces symptômes ont été constatés par une expédition soviétique qui séjourna un certain temps au-dessus de la chaîne Lomonosov. Dans la nuit du 21 novembre ig56, une première secousse ébranla le camp établi par l’expédition. Deux autres secousses furent ressenties les jours suivants. A la troisième secousse, la plus forte, une fissure se produisit dans la glace, qui coupa le camp- en deux. La largeur de cette fissure atteignait par endroits 5o m. En même temps, les explorateurs ressentirent une forte odeur d’hydrogène sulfuré. Le fait que le camp se trouvait presque exactement au-dessus d’une montagne sous-marine figurant sur la carte bathymétrique laisse supposer que cette montagne est un volcan et que les secousses
- ont bien été provoquées par une éruption sous-marine. L’hypothèse d’un volcan de boue semble devoir être écartée, car l’expulsion de boue s’effectue généralement d’une façon continue, sans à-coups.
- L’éruption sous-marine dans la chaîne Lomonosov serait la première manifestation volcanique enregistrée à des latitudes aussi élevées. C’est en cela surtout qu’elle présente un intérêt indéniable. Ce volcan ne serait pas le seul volcan actif dans la région en question, car la composition minéralogique des dépôts prélevés sur le fond du bassin arctique semble témoigner d’une activité volcanique encore récente dans la région du pôle Nord. Les trois points où ont été recueillis ces dépôts et le volcan de la chaîne Lomonosov sont disposés suivant un arc de grand cercle, qui se confond presque avec un méridien. Or, si l’on prolonge cet arc vers le sud, on constate qu’il suit presque une ligne que les géologues soviétiques considèrent comme correspondant à une dislocation, très longue et très profonde, de l’écorce de la Terre.
- C. M.
- p.448 - vue 452/527
-
-
-
- 449
- L’aérodynamique supersonique et hypersonique impose de nouvelles formes aux avions
- Les formes des avions transsoniques, capables de franchir la vitesse du son et de voler pendant un certain temps à des nombres de Mach légèrement plus grands que i, sont bien connues, avec les ailes en flèche ou en delta, les fuselages en pointe très effilée, et les empennages entièrement mobiles.
- Mais lorsque l’on veut atteindre des vitesses nettement supersoniques, de l’ordre de Mach. i,5 ou 2, qui sont les objectifs de tous les bombardiers et intercepteurs actuels, et plus encore aux vitesses « hypersoniques » qui sont celles des engins balistiques à grand rayon d’action et seront demain celles des véhicules spatiaux, les formes précédentes- perdent toute valeur, et des études tant théoriques qu’expérimentales en soufflerie ont dû être entreprises pour rechercher la configuration optimale d’avions destinés à de telles vitesses.
- Le' régime supersonique. — Nous savons déjà (La Nature, décembre 1954) qu’au passage du nombre de Mach 1 la traînée des ailes et des différents organes d’un avion subit une augmentation due à l’apparition d’ondes de choc. Si, une fois dépassée cette zone de vitesses, les traînées élémentaires gardent une valeur à peu près constante, un nouveau terme prend naissance dans la traînée totale de l’avion : la traînée d’interaction ou d’interférence, qui résulte, comme son nom l’indique, d’interactions entre les écoulements autour du fuselage d’une part, et autour de l’aile et des empennages d’autre part. Ces phénomènes aérodynamiques peuvent aller jusqu’à doubler la valeur que l’on obtiendrait en additionnant les traînées des différents éléments pris isolément. On voit donc tout l’intérêt qu’il y a à étudier des formes telles que ces effets d’écoulement soient réduits le plus possible.
- Dans ce but, une recherche de grande envergure fut menée dans les souffleries américaines du N.A.C.A. (l’analogue sur une plus grande échelle de l’O.N.E.R.A. français). Cette recherche mit en évidence l’influence prépondérante de la répartition longitudinale des aires des sections transversales du corps, et donna par suite naissance à ce que l’on a appelé la loi des aires (fig. 1), loi qui peut s’énoncer ainsi : les corps qui ont la même répartition longitudinale des aires de leur section transversale ont aussi la même augmentation de traînée transsonique. Ainsi, si l’on arrive à déterminer la courbe de répartition optimale, il n’y aura plus qu’à lui adapter le dessin de l’avion. Cette étude
- S(x)
- classique
- Courbe
- optimum
- Fig. 1. — - Évolution longitudinale de la section d’un avion.
- On voit d’une part la courbe qui correspond à un avion classique étudié pour les vitesses transsoniques, et d’autre part celle qui conduit à l’aug-j -.entation de traînée la plus faible. Le nouveau dessin des avions à grande vitesse tend à se rapprocher au maximum de cetle dernièi'e courbe.
- a été faite sur des corps de révolution ; elle a conduit à une courbe du type de celle représentée sur la figure 1, où on peut voir également la courbe qui correspond à un avion classique. Pour supprimer les décrochements et rapprocher les deux courbes le plus possible, les aérodynamiciens ont été amenés à creuser le fuselage au droit des ailes, d’où le nom de « taille de guêpe » qui a été donné à cette nouvelle forme aérodynamique; en outre la pointe du fuselage est encore plus effilée. Cet artifice fut utilisé pour la première fois sur le Convair F. 102 où il donna d’excellents résultats; depuis, il est systématiquement appliqué sur tous les avions supersoniques.
- Pour des avions qui doivent voler à des vitesses nettement supersoniques, la forme en delta ou en flèche de l’aile ne présente plus d’intéi'êt particulier, car le temps de vol dans la zone de vitesses où la traînée est élevée sera faible. Ce sont alors les ailes droites qui s’imposent, avec une forme rectangulaire ou trapézoïdale comme le North-American X-i5, déjà décrit dans cette revue (mai 1958, p. 179).
- D’autre part, étant donné que la traînée des corps effdés due aux ondes de choc diminue lorsque l’allongement augmente, des fuselages très longs seront les mieux adaptés. Mais, l’augmentation de la longueur se traduit par une augmentation de la surface latérale, donc de la traînée de frottement. Il y a donc un compromis à établir qui conduit à des allongements de 16 (rappelons que l’allongement est le rapport longueur/diamètre du maître-couple).
- Les vitesses hypersoniques. — On désigne sous ce nom des
- vitesses supérieures à un nombre de Mach fixé arbitrairement à 5. C’est donc surtout le domaine des engins et des satellites ou autres engins spatiaux. Cependant, cette limite correspond à des phénomènes aérodynamiques nouveaux et bien caractéristiques que nous allons examiner dans ce qui suit.
- Altitude en Km/s
- Trop lent
- Trop chaud
- 15000
- 5000
- 10000 ; Vitesse en Km/h *
- Fig. 2. — Domaine du vol continu, limité à la partie inférieure par la température prise par le revêtement de l’avion, et à la partie supérieure par l’insuffisance de la portance vis-à-vis du poids.
- Remarquons tout d’abord que le domaine de vol en vitesse et en altitude est assez limité contrairement à ce qu’on pouri’ait croire. Il se réduit en fait à un étroit couloir représenté sur la figure 2 dont les frontières dépendent évidemment des connaissances acquises tant en aérodynamique que dans le domaine des matériaux. La frontière supérieui'e coiTespond à la vitesse minimale à laquelle le vol continu est possible, c’est-à-dire pour
- p.449 - vue 453/527
-
-
-
- 450
- laquelle la portance est capable d’équilibrer le poids; aux très grandes vitesses, cette portance doit d’ailleurs être augmentée de la force centrifuge, qui reste la seule en action aux vitesses atteintes par les satellites. La frontière inférieure correspond à la température maximale que peut supporter le matériau.
- On voit donc qu'actuellement les vitesses supersoniques ne sont compatibles qu’avec des altitudes élevées. Considérons par exemple une ogive d’engin se déplaçant à de telles vitesses. L’écoulement autour du corps peut se scinder en trois régions de propriétés essentiellement différentes (fig. 3) :
- — Une onde de choc détachée à l’avant du corps, et à travers laquelle s’effectuent de larges variations de pression, de densité et de température;
- — La couche-limite, pellicule d’air très mince qui entoure le corps et joue ici le même rôle que dans les écoulements supersoniques ;
- — Une région intermédiaire entre la couche-limite et le sommet de l’onde de choc et qui est portée à une température et une pression très élevées. Les conditions sont telles que l’état physique et chimique de l’air se modifie. Dans les molécules, les atomes commencent par vibrer, puis, si la tempéi’ature augmente encore, les molécules d’oxygène et d’azote qui sont diatomiques se dissocient et deviennent mono-atomiques; enfin, ce sont les atomes eux-mêmes qui s’ionisent, c’est-à-dire perdent des électrons. Tous ces phénomènes sont endothermiques, c’est-à-dire qu’ils tendent à abaisser la température de cette zone intermédiaire. Les échanges thermiques entre l’écoulement
- Couche limite
- Onc/e de choc
- Fig. 3. — Schéma d’écoulement autour d’une ogive d’engin aux vitesses hypersoniques.
- Explications dans le texte.
- et le corps deviennent particulièrement importants dans la couche-limite. Nous avons déjà vu qu’à la traversée de cette couche l’air se ralentit pour atteindre une vitesse relative nulle à la paroi du corps (L’augmentation de portance des avions, La Nature, août 1957, p. 322); on peut dire alors que, pour une molécule voisine de la paroi, toute l’énergie cinétique s’est transformée en chaleur, et la température Ta que prendrait théoriquement la paroi, dite « température d’arrêt », est alors donnée par l’expression :
- V2 / v — 1 \
- T“ = T" + 05 = T‘(' + iT-M!)
- où y désigne le rapport des chaleurs spécifiques à pression et à volume constants de l’air et M le nombre de Mach. A titre d’exemple, pour un nombre de Mach de 17, la température d’arrêt serait de 6 ooo° C.
- Fort heureusement, il se produit entre les faces intérieures et extérieures de la couche-limite des échanges de chaleur qui font que la valeur précédente de l’écart Ta — T0 est multipliée par un facteur correctif r, inférieur à l’unité, et dénommé « facteur de récupération ».
- Fig. 4. — Le Lockheed X. 17, engin à trois étages de recherche aux grandes vitesses.
- Le premier étage monte les deux suivants à 90 km d’altitude, puis l’engin bascule, pique vers le sol et les deux derniers étages servent à accroître sa vitesse vers le bas, la portant à 18 000 km/h.
- ([Photo U.S.I.S.).
- En outre, il faut tenir compte du rayonnement de la paroi vers l’air ambiant qui tend encore à abaisser les températures de paroi.
- Le problème de la « ré-entrée ». — Ces phénomènes n’ont pas une grande importance lorsque l’avion vole à des altitudes très élevées où règne un vide presque total et où, par suite, le frottement de l’air sur les parois est relativement faible. Il en va tout autrement lorsque l’avion ou l’engin rencontre de nouveau à la descente les couches denses de l’atmosphère. Disons d’ailleurs, pour fixer les idées, que l’atmosphère commence à avoir de l’influence dès que la pression atteint quelques millimètres de mercure. Cette phase du vol a été dénommée «c ré-entrée » et elle se présentera également pour le retour des satellites.
- Le problème qui se pose alors est de concevoir une structure telle qu’elle ne soit pas complètement vaporisée au cours de cette phase de ré-entrée. Les ingénieurs se sont efforcés d’agir dans deux voies différentes : d’une part, recherche de matériaux résistant à des températures les plus élevées possibles; d’autre part, étude de formes aérodynamiques conduisant à un abaissement des températures de paroi. C’est cette deuxième solution que nous examinerons en détail ici.
- p.450 - vue 454/527
-
-
-
- 451
- Il est évident, en premier lieu, que plus la masse de la structure sera grande, plus grande sera la quantité de chaleur absorbée pour une augmentation de température donnée. On voit donc qu’il y a intérêt à avoir des revêtements épais, donc des profils épais; nous en avons eu un exemple avec le North-American X-i5, dont les ailes de 20 cm d’épaisseur au bord de fuite étaient loin de celles en lame de couteau des avions supersoniques comme le Lockheed F. io4 dont les bords d’attaque doivent être protégés par des manchons de feutre lorsque l’avion est au sol, pour éviter des blessures au personnel d’entretien.
- Mais on peut encore abaisser le taux de transfert de chaleur en modifiant convenablement la forme des éléments les plus critiques de l’avion; ceux-ci sont les bords d’attaque des ailes et les nez de fuselage qui sont frappés perpendiculairement par les molécules d’air. Or, le calcul montre que, dans ces conditions, plus le profil est pointu, plus la quantité de chaleur transmise est élevée; on doit donc avoir recours à des nez très arrondis,
- presque sphériques, qui contrastent aussi étrangement avec les longues pointes qui terminent les avions supersoniques.
- Ces résultats ont été vérifiés en vol sur des engins hypersoniques expérimentaux tels que le Lockheed X. 17 (fig. 4); cet engin à trois étages a déjà atteint un nombre de Mach de i4 à près de 11 000 m d’altitude. Sa tâche essentielle est de communiquer des renseignements sur les températures du nez qui sont mesurées par des thermocouples.
- On voit donc qu’à la vitesse à laquelle progresse la technique, le « mur de la chaleur » est bien près d’être vaincu; d’ores et déjà, les Américains ont réussi à récupérer des cônes de nez d’engins balistiques après des ré-entrées dans l’atmosphère à plusieurs milliers de km/h. Mais il faudra encore attendre quelque temps avant que l’on puisse garantir à l’homme une température acceptable à l’intérieur d’un engin spatial.
- Jacques Spincourt.
- Une fraiseuse asservie par bande magnétique pulvérise les records de production aéronautique
- Il y a quelques années (La Nature, août 1964, p. 299), nous avions décrit les procédés d’usinage nouveaux utilisés dans l’industrie aéronautique; ceux-ci continuent toujours de progresser, et une nouvelle fraiseuse asservie par bande magnétique vient de pulvériser les records de production à l’usine Lockheed aux États-Unis. Cette machine est une fraiseuse Gidding and Lewis à axes multiples; elle est équipée d’un système d’asservissement électronique et a dépassé d’environ 75 pour 100 tous les records de production.
- Des signaux déterminant constamment les paramètres de la machine, les changements d’outils de coupe et les ordres particuliers à chaque opération sont enregistrés sur une bande magnétique à i4 voies; à partir de ces signaux, l’asservissement commande toutes les opérations que doit effectuer la machine. Le rôle de l’opérateur se borne uniquement au réglage, puis à la mise en marche; l’usinage se poursuit alors sans intervention humaine jusqu’à ce que le travail soit entièrement terminé.
- La fraiseuse est actuellement utilisée pour l’usinage de pièces destinées à l’intercepteur à grande vitesse Lockheed F. io4 « Starfighter » (fig. 1). Lorsqu’elle sera utilisée à plein régime, elle permettra une diminution totale des temps de production égale à 21 jours, pour l’ensemble de la fabrication d’un appareil.
- L’utilisation de la machine se traduit aussi par une proportion de rebuts très réduite, due à la grande précision de l’asservissement, d’où économies encore plus grandes de temps et de prix. C’est ainsi que des longerons de près de 4 m de longueur ont été usinés avec une précision de ± 0,01 mm, alors que les machines classiques ont des tolérances 10 fois plus grandes.
- Enfin, l’entretien est très simple et la sécurité de fonctionnement presque totale. Cette machine peut être utilisée également pour usiner des gabarits à former dès cames et des matrices avec une précision accrue, un gain de temps et un prix de revient plus faible qu’avec les procédés actuels.
- J. S.
- p.451 - vue 455/527
-
-
-
- 452
- La céramique guanche
- témoin de l'ancienne civilisation des Canaries
- A l’ouest de la côte du Sud marocain et du Nord du Rio de Oro, l’archipel des Canaries s’épanouit en une délicieuse oasis dans l’Océan atlantique. Il comprend sept grandes îles et quelques îlots dont la superficie totale est de 7 167 km2. Ténérilïe, la plus vaste avec ses 1 g46 km2, possède egalement le point culminant au Pic du Teyde dont le sommet atteint 3 711 m. Viennent ensuite par ordre de grandeur : Fuerlevenlura et l’îlot Lobos, Grande Canarie, Lanzarote et les îlots du Nord, 'La Palma, La Gomera et Hierro. A l’intérieur des îles, une multitude de volcans élèvent des bouches menaçantes. Certains de ces cratères sont remarquables, tel celui de La Palma avec ses 12 km de circonférence.
- Les Canaries se trouvent dans la région des alizés, vents de nord-est qui entraînent très haut de nombi’eux nuages. Certains versants s'offrent directement à l'influence des vents, tandis que d’autres, tournés vers le continent africain, restent à l’abri. Grâce à leur altitude, Ténériffe, Grande Canarie et La Palma participent à trois types de climats : chaud et sec jusqu’à 5oo et 600 m au nord et 1 000 m au sud, nuageux seulement sur les versants nord et nord-est, et enfin une zone continentale à partir de 2 000 m environ. Ce qui implique en même temps des types de végétation diversifiés et nettement délimités en hauteur et selon les versants. La situation et le climat exceptionnels des îles leur ont valu le nom de « Fortunées » ou de « Bienheureuses ». Selon Strabon, ce sont les Phéniciens qui leur aui’aient donné ce nom. L’archipel a certainement été habité et connu depuis une époque très reculée, mais l’antiquité ne nous apporte aucune précision et l’on s’enfonce très vite dans la brume des récits légendaires empruntés aux prêtres de Saïs et transmis par Solon. Par là, on pénètre dans le merveilleux et on touche même au mystère de l’Atlantide.
- Il est fort possible que llannon, commandant une flotte carthaginoise, y ait abordé au cours de son périple d’Afrique en l’an 43o av. J.-C., mais le premier voyage aux Canaries dont nous ayons une certitude historique fut effectué par un Fran-
- çais d’origine génoise, Lancelot Maloisel, à la fin du xme siècle. Depuis lors et jusqu’à la conquête espagnole dont le terme fut la prise de Ténériffe le 29 septembre i4q6 après une résistance farouche des indigènes, les îles furent assez souvent visitées mais, outre de nombreuses incursions normandes, il faut surtout retenir le nom de Jean de Béthencourt qui, parti de La Rochelle le 1e1' mai 1402, s’empara de Lanzarote, Fuerteven-tura et Ilierro, et se fit investir roi des Canaries par le roi Henri III de Portugal à qui il avait fait l’hommage de ses nouvelles conquêtes. Le 3o juin 1454, tout à fait arbitrairement, l’Espagne, malgré les protestations du Portugal, prononçait la déchéance des Béthencourt, et s’emparait des îles dont elle achevait la conquête. Sous la poigne vigoureuse du conquérant, les indigènes survivants furent totalement christianisés et his-panisés, et rien ne subsista des structures archaïques. Pour avoir un aperçu de ce que fut cette ancienne civilisation, il faut consulter de vieilles chroniques espagnoles auxquelles il est bon toutefois de puiser avec prudence.
- Les Quanches. — Les hommes qui vivaient dans les Canaries avant l’arrivée des Européens sont connus sous le nom de Guanches. Ce terme recouvre essentiellement l’élément humain le plus ancien et le plus représentatif. De type Cro-Magnon, il eut probablement pour ancêtre l’homme de Mechta-el-Arbi. Mais, comme l’attestent les importantes études anthropologiques entreprises depuis la deuxième moitié du xixe siècle, la population autochtone, lors de l’arrivée des Européens, était déjà fortement métissée. Des vagues successives d’étrangers auraient sensiblement modifié au cours des siècles les traits spécifiques des Guanches et leurs institutions, ce qui expliquerait les particularismes insulaires que constatèrent les témoins espagnols.
- Le Guanche était de forte stature, de peau assez claire, parfois même très blanche, avec des taches de rousseur. Il était, dit-on, brave et doux, confiant et d’une absolue bonne foi. Ce. n’est que
- p.452 - vue 456/527
-
-
-
- 453
- dans ses rapports avec l’Européen qu’il devint méfiant. D’abord pasteurs, les Guanehes consacraient la majeure partie de leur temps à leurs troupeaux de chèvres et de brebis. Ils pratiquaient également la pêche en bord de mer, et une agi’iculture réduite au minimum : blé, orge, petits pois ou fèves. L’élevage fournissait l’essentiel de l’alimentation : lait, beurre, fromage, viande bouillie dans le lait, rôtie, grillée ou frite dans le beurre ou la graisse. A cela on peut ajouter le lapin sauvage très répandu dans les îles. A Grande Canarie, de plus, on appréciait fort le cochon de lait et les jeunes chiens châtrés. Le blé, torréfié puis écrasé à l’aide d’une meule en pierre de lave, était consommé sous forme de poudre appelée gofio, fort appréciée encore de nos jours.
- Les Guanehes s’abritaient surtout dans des grottes naturelles, en des endroits escarpés, souvent considérés aujourd’hui comme presque inaccessibles. Là où les grottes faisaient défaut, l’in: digène construisait des cabanes à demi enfouies dans le sol. A Grande Canarie, toutefois, il existait des maisons en pierres bien ajustées, dont l’intérieur était lambrissé de planches de pin. Cependant il n’entrait pas dans la coutume des Guanehes de construire des maisons, et celte activité architecturale représentait une technique d’importation.
- Dans tout l’archipel, le pouvoir des rois était héréditaire, mais en maintes circonstances ils étaient tenus de prendre conseil de leurs nobles. La famille, de type patriarcal, reposait sur l’institution du mariage. Ténériffe était la seule île où se pratiquait la polygamie. Entraînés depuis leur plus jeune âge à des jeux de force et d’adresse, les hommes étaient d’ardents guerriers. Leur arme la plus redoutée était les pierres qu’ils lançaient avec une puissance et une sûreté extraordinaires.
- On sait peu de choses sur les croyances et céi'émonies religieuses. Celles-ci se pratiquaient en des endroits spéciaux toujours élevés. Dans tout l’archipel existait un culte des hauts lieux. L’un des noms de l’être suprême, Atguochafunalaman, voulait dire « Celui qui soutient le ciel et la terre ». La présence de la divinité était donc ressentie aux sommets privilégiés et sacralisés, point de jonction du ciel et de la terre. Les Guan-ches vénéraient également le Soleil et la Lune sous le nom de
- « Magec » et d’ « Acaman ». En contrepartie, tout ce qui leur inspirait de la crainte était habité par le génie du mal, « Gaviot » pour Grande Canarie, « Guayota » pour Ténériffe.
- A défaut d’une chronologie exacte de la préhistoire canarienne, on l'elève avec assez de précision trois courants de culture parfaitement distincts : méditerranéen, atlantique et surtout africain, ce dernier ayant eu l’influence la plus sensible. Les fouilles archéologiques de ces dernières décennies ont été particulièrement fructueuses. De remarquables momies ont été découvertes qui révèlent une technique de l’embaumement très évoluée. Le manque de stratification ne permet pas de dater les objets. ,En maints endroits, en surface, des pierres taillées ont étgjramassées, et les ateliers où l’on travaillait le basalte et l’obsidienne, découverts en l’état où ils avaient été abandonnés.
- Les indigènes se vêtaient de peaux, cousues à l’aide de fines lanières de cuir et de poinçons en os. Ces derniers ont été trouvés en abondance, ainsi que des spatules en os qui devaient servir au travail des peaux, qui habillaient les vivants et recouvraient les morts. Des .objets en bois nous sont aussi parvenus auxquels on a conservé leur nom indigène : anepa pour les bâtons décorés, probablement attributs royaux; magado et banol pour ceux utilisés comme arme.
- A Grande Canarie, on a retrouvé de nombreuses idoles de terre cuite, parmi lesquelles des figures féminines assises, et des plaques sur lesquelles sont modelés des seins, où l’on veut 1 reconnaître une déesse de la fécondité méditerranéenne. Dans des idoles mixtes, homme et animal, ou représentant simplement une tête de chien, on a cru voir des êtres démoniaques, les tibisenos qui, selon les superstitions indigènes, apparaissaient squs forme de chiens. On a trouvé aussi des statuettes et symboles phalliques en pierre.
- Outre les peintures géométriques de certaines cavernes de Grande Canarie, on a trouvé des pierres gravées à Hierro et à La Palma. On y voit une grande diversité de thèmes géométriques simples et entremêlés : rosettes, labyrinthes, spirales, méandres, motifs circulaires, etc., qui se retrouvent sur les céramiques que nous décrivons plus loin. Les caractères d’écri-
- p.453 - vue 457/527
-
-
-
- 454
- ture disposés verticalement et,connus sous le nom de letreros de El Julan, découverts à Hierro, sont censés être reliés à quelque rite pastoral religieux. On en ignore les auteurs.
- La céramique guanche. — Parmi toutes les découvertes que nous ont apportées les fouilles effectuées jusqu’à ce jour, la céramique représente l’élément le plus intéressant. D’une île à l’autre, la diversité des formes et la décoration, malgré l’absence de réels documents historiques qui n’autorise pas les affirmations catégoriques, nous permettent, grâce à la connaissance que l’on a des populations dites primitives, de faire quelques hypothèses vraisemblables.
- Dès l’arrivée des Espagnols, aux formes anciennes de la céramique s’en sont substituées de nouvelles importées par un envahisseur qui a voulu d’emblée s’imposer dans tous les domaines. Mais la technique de fabrication restait la même et l’on peut de nos jours encore voir se perpétuer le travail de l’argile tel qu’il était pratiqué par l’ancêtre de la potière (fig. 3). L’art de la céramique est strictement de tradition familiale et se poursuit de mère en fille. A Ténériffe, il ne reste désormais que trois familles pour maintenir cet artisanat. Mais naturellement la poterie actuelle, vidée de toute représentation symbolique, comme il arrive chaque fois que meurent les mythes et les symboles anciens, phénomène encore accentué ici par la brutalité d’une intervention extérieure, reste simplement liée à des fins domestiques dans l’économie insulaire.
- L’argile est encore utilisée sous sa forme grossière et le montage au colombin n’a pas varié. Les formes introduites par les Espagnols ont imposé vraisemblablement quelques variantes dans le processus technique originel, en particulier le rapide mouvement giratoire que, d’une main, la potière moderne imprime à la boule d’argile initiale tandis que, de l’autre main refermée en poing, elle la creuse à petits coups rapides. Cette technique ne vaut que pour des vases à fond plat, ce qui l’exclut pour la fabrication des anciennes poteries guanches de
- Fig. 3. — Herminia Perez, une des dernières potières de Ténériffe.
- (Photos G. Sévy).
- Fig. 4. — Une vue des « canadas » qui entourent le pic de Teyde à,Ténériffe, dans un rayon de 10 km.
- Ténériffe. Cependant la filiation est certaine, et la vieille tradition artisanale qui se perpétue ainsi remonte très loin avant la conquête.
- Les vases modernes comportent parfois des traits qui peuvent donner l’illusion d’un ornement; il s’agit là d’une marque de fabrique plutôt que d’un dessin élaboré.
- Chez les Guanches comme dans la plupart des sociétés archaïques, l’argile est par excellence la matière où s’expriment les croyances et les impulsions fondamentales du groupe. La fonction de fabriquer n’est pas seulement créatrice d’objets utilitaires, elle veut être, bien souvent, la répétition d’un acte primordial des âges mythiques d’où sortit la première poterie. Le geste traditionnel est, dominé par la présence du génie ou héros civilisateur. Toute civilisation primitive comprend un système d’actes sacrés, qui à l’origine du monde présidèrent à l’initiation des connaissances arlisanales. Les grandes forces naturelles ont participé et se sont intégrées à l’origine aux éléments purs utilisés au moment de la révélation des techniques. Toute fabrication reproduit la cérémonie originelle et suscite la présence des mêmes forces. L’étude de la céramique ancienne s’est donc révélée d’une haute valeur dans la découverte des différents stades de la mentalité humaine.
- Dans l’état actuel des études canariennes, on ne saisit pas encore clairement les influences qui ont modifié les formes initiales dans certaines îles. Des croyances à peu près identiques sont exprimées par des représentations différentes, qui marquent une évolution de la pensée abstraite et l’éclosion d’un goût artistique certain. Chacune des intrusions étrangères préhispaniques semble n’avoir perturbé qu’un point précis de l’archipel, sauf en ce qui concerne 'Lanzarote et Fuerteventura, dont l’unité culturelle résulte de leur proximité et d’un relief médiocre qui rend les rivages plus accessibles.
- Deux îles paraissent exemptes d’influence extérieure : la Gomera et Ténériffe,. dont la poterie est beaucoup plus archaïque. La Gomera n’a pas encore fait l’objet de fouilles importantes.
- A Ténériffe, l’unité de la céramique est remarquable. Sôn apparence rudimentaii’e recouvre un symbolisme lié à des images affectives élémentaires. L’aborigène dut être fortement
- p.454 - vue 458/527
-
-
-
- 455
- impressionné par la présence gigantesque du volcan, multipliée par ses bouches secondaires en divers points de l’île. Gomment ne pas croire qu’il ait tenu chez ces êtres nécessairement superstitieux le rôle d’une divinité ambivalente, détentrice d’un feu sacré, menaçante ou bénéfique ? Sans doute était-elle invoquée et lui sacrifiait-on dans toute manifestation où l’usage du feu était nécessaire.
- La céramique étant par excellence l’œuvre du feu, elle participe d’un élément sacré redoutable. Mais le volcan n’est-il pas la totalité de l’île et l’argile dont est fait le vase qui naît aux mains de la potière n’est-elle pas arrachée à son flanc P L’eau douce elle-même qui, au printemps, coule en cascades dans des gorges immenses comme un don d’abondance, n’est-elle pas
- b
- Fig. 6. — Céramique guanche de Ténériffe.
- A gauche, hauteur : 12 cm. A. droite, hauteur : 20 cm.
- un signe de sa générosité ? Le Teyde, être tutélaire, prête à l’homme ses flancs pour qu’il y prospère ; l’homme en revanche est tributaire de la divinité qui le protège et lui donne asile. Rien de ce qui constitue la poterie n’est étranger au volcan omniprésent. Elle participe de sa chair sexualisée et fécondée par l’eau et le feu qui lui donne sa forme définitive, et l’anime d’une force secrète qui la rendra précieuse aux usagers. Un rituel strict devait entourer la fabrication de chacun des vases qui, en définitive, était une image de la nature immédiate, du volcan lui-même, éprouvé dans une intuition de fécondité initiale, dans son ambivalence sexuelle. La forme des céramiques révèle la volonté de représentation qui animait la potière (fig. 6 a). C’est l’image de la matrice primordiale, et le sens phallique du manche est assez clair, semble-t-il, car c’est toujours en soi que l’homme primitif puise les représentations qu’il se fait de l’univers qu’il redoute.
- Cette céramique caractérisée par une forme ovoïde (fig. G b) ne présente pas de fond plat. Son instabilité, irrationnelle au premier abord, se justifie si l’on tient compte des conditions de vie probables des Guanches. Ils ne disposaient pas de table, et sans doute le sol, la plupart du temps rocheux dans les lieux de résidence, n’était pas suffisamment nivelé pour y poser les objets d’utilisation quotidienne. Ils devaient donc faire usage d’un trépied naturel constitué de trois pierres sur lequel se posait la poterie (on connaît d’autres populations exotiques qui utilisent des trépieds manufacturés). On ne sait si la forme de l’objet a suscité l’utilisation d’un trépied ou si elle en provient. Quoi qu’il en fût, il est facile de concevoir quelles représentations symboliques ont pu découler de ces formes suggestives, quel contenu l’imagination de l’homme leur a attribué et enfin à partir de ce contenu comment il a développé, perfectionné la forme. De fonctionnel, le contour du vase, devient symbolique. On comprend alors que la ligne devienne signe et anime tout un monde surnaturel que l’homme tente ainsi de se rendre favorable dans la moindre de ses démarches.
- Les habitants de Ténériffe, étant pasteurs, demeuraient l’hiver près des côtes aux températures clémentes, et dès le printemps ramenaient leurs troupeaux sur les hauteurs proches, autour du volcan Teyde à plus de 2 000 m dans un décor inoubliable (fig. 4 et 5). Entre les points extrêmes des lieux
- p.455 - vue 459/527
-
-
-
- 456
- de migration, les distances - sont - relativement coui’tes, mais dans l’esprit de l’homme, la rupture devait être grande et ce mouvement d’alternance imposé par la transhumance nécessaire, inclut sans doute un rite de passage des terres basses aux terres hautes sacralisées par la présence immédiate du Teyde, et inversement.
- A chaque départ de l’un des deux endroits de résidence, les céramiques étaient laissées sur place et soigneusement dissimulées pour être dès le retour remises en usage. Chaque céramique paraît avoir été liée au lieu de fabrication comme issue d’un rite de nature différente, inscrit dans le rythme binaire qui divisait en deux l’année du Guanche. Peut-être y eut-il à l’origine une raison pratique : les risques que comportait le transport à dos d’homme, en des chemins escarpés, d’objets fragiles. Pour la durée de leur absence, les Guanches plaçaient leurs vases séparément, dans d’habiles cachettes. 'Le plus souvent on les découvre entre des pierres volcaniques, en des positions où la moindre maladresse pour les retirer risquerait de les briser, tant elles s’y trouvent insérées avec soin. De telles précautions paraissent excessives pour conserver des objets qui peuvent être aisément remplacés. La matière première est abondante et les sources proches. A moins qu’il s’agisse d’une offrandé à la divinité du lieu.
- Seuls les vases retrouvés dans les terres basses portent des traces de feu; ils ont donc servi à la cuisson des aliments. On a l’impression qu’un interdit rigoureux s’attachait à ceux des hauts lieux. La proximité du Teyde en était-elle la cause ? Il
- est vraisemblable qu’un rituel spécial devait être respecté au niveau de l’immense plate-forme d’où s’élève, en un dernier élan, la bouche menaçante du volcan.
- Sur les flancs du volcan, on découvre de véritables cimetières de poteries, réduites en fragments, et qui jonchent le sol en grande quantité. Ces endroits, situés sur des pentes raides entre des monceaux de lave déchiquetés, sont peu faciles d’accès et les traces d’habitat les plus proches sont souvent à plusieurs kilomètres. Il est possible qu’au cours de cérémonies périodiques, des céramiques aient été brisées en ces lieux privilégiés, en offrande à la divinité du feu. S’il s’agit de céramiques ayant accompli leur destinée auprès des hommes, il se peut que ce soit là un geste de restitution de la matière, considérée comme ayant été empruntée au volcan.
- La céramique guanche de Ténériffe ne possède aucun ornement, en dehors des fines incisions qui marquent le bord sur tout son pourtour et la distinguent des fragments non décorés découverts dans les îles de Ilierro et La Gomera.
- A La Palma, l’île la plus occidentale de l’archipel, l’incision devient décor (fîg. 7) et forme sur un fond noir, de la couleur même du matériau utilisé, de fines arabesques qui s’imbriquent, alternent et se développent en des rythmes équilibrés; l’ornement est si riche qu’il donne parfois l’impression d’une délicate prolifération végétale. Le profil des vases est en général sphérique et la base légèrement courbe. Ils rappellent dans leur ensemble les céramiques découvertes dans des sépultures méga-
- lithiques de l’époque du bronze atlantique, au point qu’on pourrait les confondre. Il n’existe aucune preuve certaine qu’une influence dans ce sens se soit produite, mais il ne faut pas exclure la possibilité d’incursions d’éléments nordiques.
- Des thèmes d’inspiration semblables à ceux de La Palma se retrouvent dans les îles de Lanzarote et de Fuerteventura
- Fig'. 8. — Céramique de Lanzarote.
- En haut, surface rouge, dccor incisé ; hauteur : 18 cm. En bas, dessins noirs sur fond rouge ; hauteur : 22 cm.
- (fîg. 8 a), mais les formes sont différentes et le décor s’inscrit sur fond rouge (fig. 8 b). Ces îles sont les plus proches du continent africain. L’élément berbère domine dans le métissage et donne encore plus de poids à l’idée d’une influence nord-africaine. Nous avons déjà noté que les deux îles ne paraissent guère différer dans leur complexe culturel.
- Relativement grands et d’une assise parfaite, les vases les plus caractéristiques peuvent contenir une quantité importante de liquide; or, dans l’économie de ces îles au relief plat, exposées à une chaleur torride, la conservation de l’eau douce a dû être un des problèmes essentiels. Une influence utilitaire pressante peut déterminer les formes. Dans l’imagination créatrice de la potière, soutenue et dirigée peut-être par les impératifs socio-religieux du groupe, l’eau devient l’élément prépondérant et inspire le décor incisé qui ruisselle en un symbolisme transparent.
- Des motifs et des contraintes matérielles ont sans doute pesé différemment sur l’esprit des habitants de La Palma, et il se peut qu’en ces points extrêmes de l’archipel, les origines culturelles aient été différentes. Il est alors remarquable que des signes identiques s’y révèlent parfois, comme issus de la germination d’une même pensée.
- Cependant ce pouvoir de signifier, par un décor en quelque sorte différencié de l’objet, marque une nette évolution psychologique de l’homme. A Ténériffe, l’esprit du Guanche ne se détache pas de la matière et l’objet fabriqué est tout entier symbole. Ailleurs, la séparation est réalisée entre une céramique fonctionnelle et le symbole qui de l’extérieur pénètre la matière, sans en modifier le profil.
- p.456 - vue 460/527
-
-
-
- 457
- Fig-, 9. — Céramique de Grande Canarie.
- Dessins noirs sur fond rouge ; diamètre : 22 cm.
- Quand nous passons à Grande Canarie, le décalage est plus subtil encore. Nous parvenons à la fine pointe de la culture canarienne anléhispanique. L’homme est mieux organisé et plus efficace dans sa lutte pour l’existence. L’esprit, qui se libère peu à peu des contraintes domestiques, s'éveille à la contemplation. Par une rêverie désintéressée, l’artiste naît. En dehors de son rôle utilitaire parfaitement adapté, la céramique devient l’objet d’un plaisir pour l’œil (fig. 9 et xi). La potière ne pourvoit plus seulement aux besoins de la tribu, mais elle fait œuvre d’art.
- A cette céramique remarquable, il faut ajouter les pinladeras (fig. 10) faits de terre cuite et qui sont des objets typiques et exclusifs de Grande Canarie. Ce sont des sceaux à motifs géométriques, très intéressants par la variété des décors. Leur signification n’a pas été précisée. On croyait autrefois que ces objets servaient à décorer la peau de jeux de couleur, d’où leur nom. Marcy les identifia comme étant des sceaux individuels, marquant la propriété. Le Dr Wôlfel croit pouvoir établir un parallèle entre ces cachets et les sceaux géométriques d’Egypte, de Crète et de Mésopotamie. De même, les cérami-
- Fig. 10. — « Pintaderas » de Grande Canarie.
- I.es dessins et les teintes sont analogues à ceux des céramiques.
- ques évoquent celles d’Asie Mineure, d’Égypte et aussi d’Amérique. Leurs formes stylisées aux lignes équilibrées deviennent objet de contemplation et l’homme, disponible et purifié de toute intention pragmatique, peut oublier la fonction du vase, au bénéfice d’un plaisir esthétique.
- ‘Le grand nombre des formes marque la diversité de l’inspiration et chacune de ces formes détermine un type d’anse différent qui souligne l’harmonie générale. Certains vases sont
- Fig. 11. — Céramique de Grande Canarie.
- Eu haut, dessins rouges sur fond ocre clair ; hauteur, à gauche : 15 cm ; à droite : 12 cm. En bas à gauche, dessins rouges sur fond noir ; hauteur : 22 cm En bas à droite, traits noirs sur le col, traits ocre clair sur fond rouge sur la panse ; hauteur : 25 cm.
- munis d’une simple spatule (fig. 11 a et b), légèrement relevée vers le haut,, et dont la base élargie est perforée, telle une oreille vouée à l’ornement. La surface des céramiques est recouverte d’une décoration qui révèle un sens vif et profond de l’harmonie. On n’y compte que trois couleurs, rouge, noir et ocre clair, qui alternent et s’opposent dans un grand nombre de thèmes. Toute une conception de l’univers et de l’homme frémit et s’affirme sous le délicat dessin où reviennent les mêmes signes. Toute la surface externe du vase sert de support à l’élaboration stylisée des thèmes où se condensent les croyances intimes du groupe. Là encore, l’imagination a travaillé sur des forces cosmiques dominantes : l’eau (fig. xi a et b) et les astres (fig. 9 et 11 c) par exemple, apparaissent en quelques traits symboliques, mais chargés d’une signification redoutable.
- Tout en restant attaché à la représentation des signes nécessaires dont le réseau enferme éti’oitement l’esprit qui commande le geste, l’artiste donne au symbole une forme esthétique qui, par le sortilège d’une véritable mutation spirituelle, apporte au mythe un éclat et une intensité singuliers.
- Dans ce complexe culturel remarquable, l’influence méditerranéenne à un stade déjà très évolué n’est guère douteuse. Ce qui reste étrange, ce sont les ressemblances que l’on peut établir avec certaines céramiques d’Amérique du Sud. Il est possible qu’il n’y ait là qu’une simple convergence.
- Le problème des origines demeure posé, comme celui des interférences culturelles que fait soupçonner ce patrimoine archéologique. Il faut attendre l’apport des fouilles actuellement en cours.
- Gabriel Sévy.
- p.457 - vue 461/527
-
-
-
- 458
- MICROBIOLOGIE DU PETROLE
- Le pétrole est, comme on-le sait, le résultat de la transformation de substances organiques accumulées principalement dans les anciens dépôts marins recouverts et protégés par d’épaisses couches imperméables. Dans la revue soviétique Priroda de mars ip58, Mme Guinsburg-Karaguitcheva rappelait que des facteurs de nature microbiologique semblent jouer un rôle essentiel dans cette transformation. Dès 1924, en effet, la présence de bactéries vivantes, de microspirilles surtout, fut constatée dans le pétrole, tout autant que dans les eaux minérales sulfureuses. Des analyses ultérieures confirmèrent cette découverte : des bactéries vivantes existaient dans tous les pétroles.
- D’autre part, l’un des signes caractéristiques de la présence du pétrole dans les sous-sols de la Terre est l’émanation de gaz combustibles, composés généralement de méthane et d’autres hydrocarbures, accompagnés parfois d’azote, de gaz carbonique et même d’hélium. Or, l’émanation de gaz combustibles accompagne également les processus biochimiques, ce qui semble confirmer qu’un processus de ce genre se déroule effectivement lors de la formation du pétrole.
- De nombreuses recherches furent entreprises, au cours de ces dernières années, par les spécialistes soviétiques pour élucider l’origine de ces gaz combustibles dont la production paraît stimulée par la microflore des couches pétrolifères.
- Il a été établi notamment que la transformation anaérobie de toutes les espèces de substances organiques aboutit avant tout à la formation et à l’accumulation de gaz dont la composition définitive et l’état dépendent de la nature des substances elles-mêmes, des processus bactériens secondaires survenant
- dans les dépôts, ainsi que des réactions chimiques qui se produisent vraisemblablement, sous une pression sans cesse croissante, lors de la formation du pétrole. Ces gaz peuvent être à la source de la constitution des hydrocarbures.
- Simultanément avec ce processus de formation d’hydrocarbures, une accumulation de résidus non saponifiables de matières grasses et d’acide naphténique se produit dans les dépôts, et ces résidus se transforment également en hydrocarbures. C’est ainsi que pourraient s’expliquer la constitution et l’accumulation des hydrocarbures qui composent le pétrole; ils résulteraient donc d’une transformation biochimique, ou plutôt bactérienne, de toutes les substances organiques renfermées dans les dépôts étudiés. Les traces d’acides gras, de combinaisons à base d’azote et de soufre et, enfin, de divers résidus d’organismes animaux et végétaux que l’on rencontre constamment dans les couches pétrolifères témoignent, d’ailleurs, de l’existence des substances organiques qui ont probablement donné naissance au pétrole dans la région explorée.
- D’autre part, la formation et l’accumulation de gaz dans une couche pétrolifère doivent être ininterrompues. Leur interruption provoquerait une dégazéification rapide. Or, elles paraissent essentiellement tributaires de processus biochimiques. Ainsi, quelle que soit, en définitive, la voie suivie par la nature dans la formation de ces hydrocarbures (voie du méthane, des matières grasses ou des hydrates de carbone), ces processus biochimiques doivent encore se dérouler intensivement à l’époque actuelle. La preuve en est la présence de substances bitumineuses dans les dépôts marins d’aujourd’hui. C. M.
- BIOLOGIE
- Après les excès odieux des théories racistes, fondées sur une science illusoire, ou plus simplement sur des préjugés intéressés, une réaction était inévitable : on a nié purement et simplement que les races humaines pussent différer par leurs aptitudes, mais cette position, qui se veut généreuse, n’est pas mieux fondée scientifiquement. Pour savoir si les races diffèrent par autre chose que les proportions du squelette et la couleur de la peau, il faut entreprendre une étude minutieuse et approfondie. C’est là une œuvre longue et difficile. Elle est à peine commencée.
- Signalons dans ce sens un effort lucide et méthodique, qui a eu pour point de départ une série de mesures effectuées sur une centaine de soldats noirs, à Marseille, en 195S. Le principal auteur de cette enquête, M. Georges Heuse, en a réuni les données dans un petit livre, Biologie du Noir (‘), où il a d’ailleurs confronté les résultats avec ceux qu’ont obtenus nombre de ses prédécesseurs sur les Noirs d’Afrique ou d’Amérique.
- Un des mérites de ce travail est de faire pleinement ressortir combien l’anthropologie raciale différentielle est encore peu avancée. Sur nombre de points, les études n’ont été que partielles et ne peuvent donner lieu à des interprétations solides. Les méthodes mêmes ont été souvent trop disparates ou ont porté sur des sujets placés dans des conditions trop différentes pour que des comparaisons utiles puissent être faites. Cependant, on peut déjà faire quelques constatations qui semblent significatives.
- Tout individu se développe sous deux influences, celle de son patrimoine héréditaire et celle du milieu, dans lequel il faut inclure le climat, la nourriture et les influences de toutes sortes, y compris les contaminations et les influences sociales. Ce qui est vrai de l’individu l’est aussi d’une population. Et, à cet égard, la nature a placé l’Africain dans une situation que l’Européen d’aujourd’hui peut avoir du mal à comprendre. Le milieu tropical favorise quantité de maladies endémiques, principalement parasitaires. En outre, le sol, appauvri par un lessivage intense, ne fournit pas une nourriture satisfaisante : le taux du calcium, par exemple, y est notablement déficitaire. Il en résulte que, dans la plupart des populations africaines, une bonne santé est exceptionnelle, et qu’il est difficile de savoir dans quelle mesure une particularité physiologique, relevée sur un grand nombre d’individus, doit être considérée comme normale, ou pathologique.
- 1. Biologie du Noir; matériaux et recherches, par Georges Heuse. 1 vol. 12,5x17,5, 348 p., 6 fîg. Éditions Problèmes d’Afrique Centrale, 34, rue de Stassart, Bruxelles, 1957
- DU NOIR
- La biochimie ne semble pas séparer, dans l’ensemble, la race noire et la race blanche. Les taux de l’azote, protéinique ou non, du cholestérol, du sucre sanguin, ne semblent pas différents pour le Noir et pour le Blanc. Le taux du calcium, au contraire, montre une infériorité significative, et c’est ici le milieu, la carence alimentaire que l’on peut incriminer. Cependant, la race noire s’est adaptée à cette carence, car si son sang contient moins de calcium, il en élimine moins, et le Noir ignore pratiquement le rachitisme.
- De même, la concentration urinaire et sudorifique, qui en pays tempéré est la même pour le Noir et pour le Blanc, est bien moindre pour le premier sous les Tropiques. L’organisme du Noir lutte plus efficacement contre l’abaissement du taux des sels dans le sang. En revanche, la fonction hépatique semble révéler une insuffisance permanente. Ici l’adaptation n’est pas achevée, les fonctions du foie sont perturbées sous les Tropiques pour toutes les races, bien que les signes cliniques en soient très atténués pour le Noir.
- Le rythme respiratoire du Noir est un peu plus rapide, ce qui est peut-être en relation avec les dimensions un peu plus faibles de ses poumons. Le rythme cardiaque est, au contraire, plus lent et ce fait serait en relation avec un caractère neurologique général : le système neuro-végétatif serait disposé à la vagotonie, le tonus du sympathique étant au contraire atténué. L’étude des réflexes montre un seuil de réaction plus élevé, le Noir ne réagissant qu’à des stimulus plus énergiques, sa vitesse motrice étant plus faible que celle du Blanc, et les temps de réaction étant plus longs. Il semble qne cette hypotonie soit due à une activité moindre des glandes surrénales.
- Voilà donc, entre autres, quelques données différentielles qui paraissent acquises ou très vraisemblables. Elles donnent l’impression que la grande race noire est en voie d’adaptation à ses conditions de vie, plutôt qu’elle n’y est adaptée. On n’en souscrit que mieux à une observation générale que M. Georges Heuse énonce dans ses conclusions et qui vise toute la biologie raciale. C’est que les différentes variables de tous ordres qui caractérisent une race ne présentent que rarement entre elles des corrélations évidentes et ne s’expliquent donc pas toujours l’une l’autre. C’est là une démonstration de la structure parcellaire, chromosomique, de l’hérédité. Ajoutons que c’est une raison pour conférer à la génétique toute l’importance qu’elle doit avoir dans ces études.
- J. G.
- p.458 - vue 462/527
-
-
-
- 459
- LE CIEL EN DÉCEMBRE 1958
- SOLEIL : du 1er au 22 (à 0h) sa déclinaison décroît de _— 21°42' à —23°27' (minimum), puis revient à —23°5' le 1er janvier 1959 ; la durée du jour passe de Sh32m le 1er, à 8hllm le 22 (minimum), puis revient à 8h15m le 31 ; diamètre apparent le 1er = 33'29",8, le 31 = 32'35",0. — LUNE : Phases : D. Q. le 4 à lh24®, N. L.
- le 10 à 17h23m, P. Q. le 17 à 23h52m, P. L. le 26 à 3h54m ; périgée
- le 9 à 0h, diamètre app. 33'4" ; apogée le 20 à 21h, diamètre app. 29'30". Principales conjonctions : avec Uranus le 2 à 8h, à 5°31' S. ; avec Neptune le 7 à 21h, à 0°24' S. ; avec Jupiter le 8 à 1811, à 1°32'jN. ; avec Mercure le 10 à lo11, à 2°31' N. ; avec Vénus le 11 à 6h, à 5°6' N. ; avec Saturne le 11 à 8h, à 3°41' N. ; avec
- Mars le 22 à oh, à 4°5' S. ; avec Uranus le 29 à 12h, à 5°2L' S.
- Principales occultations : le 23, de 8 Taureau (mag. 3,9) immersion à 22h31m,3 et de 64 Taureau (mag. 4,8) immersion à 23hôm,7 ; le 28, de A1 Cancer (mag. 5,7) émersion à 20h25m,6 ; le 29, de
- GAUTHIER-VILLARS
- 55, quai des Grands-Augustins, PARIS-6*
- J. ROULLEAU et R. TROCHON
- MÉTÉOROLOGIE GÉNÉRALE
- in-8° (16 x 25).
- Tome I : Structure verticale de l’atmosphère. L’atmosphère et les phénomènes de rayonnement, 149 pages, 46 figures, 1952. 960 F
- Tome II : Stabilité verticale de l’atmosphère. Vent et turbulence atmosphérique. Nuages et piécipitations. 178 pages, 84 figures, 1958 ............T........................... 1 700 F
- a Cancer (mag. 4,3) immersion à 4h8m,8 et émersion à 5h7m,8. — PLANÈTES : Mercure, étoile du matin dans la seconde moitié du mois, se lève le 27 à 5h51m, soit lh54m avant le Soleil ; Vénus, apparaît un peu le soir dans le crépuscule à la fin du mois ; Mars, dans le Bélier bel astre rouge encore visible la majeure partie de la nuit ; le 17, diamètre app. 15", 1 et mag. — 1,1 ; Jupiter, dans la Balance réapparaît le matin, se lève le 15 à 4h49m, soit 2h50m avant le Soleil ; Saturne, dans le Sagittaire, est invisible, en conj. avec le Soleil le 20; Uranus, dans le Cancer, se lève dans la soirée ; le 15, position : a = 8h15m, 8=+ 16°40', diamètre app. 3",8 ; Neptune, dans la Vierge, est visible plus de 4 heures avant le lever du jour, le 15, position : a = 14MS™, 8 = — U°57'. — ETOILES VARIABLES : minima. observables d’Algol (2m,2-3m,5) le 3 à 2h,7, le 5 à 23h,5, le 8 à 20h,4, le 11 à 17h,2, le 23 à 4h,4, le 26 à lh,2, le 28 à 22h,l, le 31 à 18^,9 ; minima de ji Lyre (3m,4-4in,3) le 10 à 5h,8, le 23 à 4h,l ; minimum de 8 Balance (4m,8-5m,9) le 25 à 7h,0 ; maxima de 8 Céphée (3®,7-4“,6) le 4 à 19h,4, le 10 à 4*\2, le 15 à 13h,0, le 20 à 21h,8, le 26 à 6h,6, le 31 à 18h,9’ ; maximum de T Céphée (5m,2-ll“,2) le 1er, de R Aigle (5m,l-12m,0) le 17. — TEMPS SIDÉRAL : au méridien de Paris à 0h (T. U.) : le 1er : 4H6IU44S, le 11 : 5h26m9s ; le 21 : 6hom35s, le 31 : 6h45m0s.
- Phénomènes intéressants. — Solstice d’hiver le 22 à 8ti40m. — Surveiller l’activité solaire. — On remarquera la bonne visibilité de Mercure le matin, à partir du 15, la planète se lève lll45m avant le Soleil et peut être recherchée facilement à l’œil nu. — Lumière cendrée de la Lune, le soir, du 12 au 16. — Étoiles filantes : du 9 au 13 (maximum le 12) : Géminides, radiant Castor. — On observera les belles constellations d’hiver : Taureau, Gémeaux, Cocher, Orion, Grand et Petit Chiens.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. T ARTOIS.
- LES LIVRES NOUVEAUX
- Mathematics for Science and Engineering, par Philip L. Alger. 1 vol. 15,5x22,5, xi-355 p., fig. McGraw-Hill, Londres et New York, 1957. Prix, relié : 43 sh.
- Cet excellent ouvrage présente les mathéma-liques dans un but utilitaire, celui d’apprendre aux étudiants à s’en servir dans leurs travaux journaliers au laboratoire comme dans l’industrie. Après un rappel de notions que certains jugeront peut-être élémentaires, on aborde les séries, le calcul numérique, les différentielles et intégrales, les probabilités, etc. Nombreux exercices.
- L’aérodynamique, par Jacques Laciimtt, ingénieur civil de l’Aéronautique, 1 vol. 11,5x17,5 de la collection Que suis-je ?, 120 p., 55 fig. Presses Universitaires de France, Paris, 1957. Prix : 180 F.
- Excellente introduction aux principaux chapitres d’une science plus que jamais à l’ordre du jour. Après un bref historique et un chapitre sur les phénomènes généraux, on aborde successivement : l’aérodynamique des corps fuselés et l’aile aux basses vitesses, puis aux grandes vitesses ; les essais et les souffleries, l’aérodynamique de l’avion, pour terminer par un bref chapitre sur l’aérodynamique de l’automobile.
- Polar Atmosphère Symposium, 2e partie : lonospheric section, éditée par K. Weekes. 1 vol. 16x25,5, 212 p., fig, Pergamon Press, Londres, 1957. Prix : 60 sh.
- Le sujet de cet ouvrage est d’une grande actualité, puisqu’une fraction très importante des travaux de l’Année Géophysique Internationale est consacrée à l’ionosphère, particulièrement dans les régions polaires. On trouvera ici de nombreux renseignements sur l’état do la question vers le milieu de l’an dernier. Une lre partie est consacrée aux mouvements d’ensemble et à la turbulence des conciles ionosphériques et présente un nouveau modèle d’ionosphère qui tient compte des observations effectuées à l’aide de fusées. La 2" section traite des perturbations ionosphériques qui semblent presque toujours liées à l’activité solaire ; enfin, quelques pro-
- blèmes connexes sont examines dans le dernier chapitre. Ce livre, d’un niveau d’ensemble élevé, intéressera surtout les géophysiciens et les spécialistes de la propagation des ondes radioélectriques.
- Mécanique appliquée, par R. Ouziaux et .1. Perrier. 2 vol. 16x25, nombreuses figures. Dunod, Paris, 1958. Tome I : Mécanique des fluides. 480 p. Prix, broché : 2 800 F. — Tome II : Thermodynamique. 132 p. Prix, broché : 780 F.
- Cet ouvrage, qui comportera quatre volumes (les tomes III et IV seront consacrés aux machines alternatives et volumétriques et aux turbo-machines) peut remplir plusieurs rôles : soit d’éliminer la perte de temps que constitue la dictée d’un cours, soit de compléter le cours oral réservé aux problèmes fondamentaux par
- A NOS LECTEURS
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- certains développements secondaires ou certaines descriptions qui ne peuvent y trouver place. Dans le lir tome, les auteurs ont développé en détail la mécanique des fluides sous sa forme classique, s’attachant cependant à bien montrer qu’elle est essentiellement un domaine de la physique et non des mathématiques,. C’est pourquoi ies raisonnements abstraits ont été évités cloque fois que cela était possible, que des applications concrètes accompagnent les développements théoriques, et que de nombreuses valeurs numériques indiquent les ordres de grandeur des divers phénomènes. Un certain nombre de problèmes pratiques permettent de faire le lien entre bases théoriques et réalisations techniques ; par exemple : le calcul pratique des conduites, la théorie de la lubrification, l’étude de l’aile, etc. La théorie de Prandtl est étudiée. Important chapitre sur les méthodes expérimentales où sont décrits les appareils de mesures les plus modernes. Le 2e tome traite de la thermodynamique appliquée. Les auteurs ont repris l’exposé des principes en essayant de leur donner une forme générale s’appliquant à tous les cas ; l’ouvrage fait le lien entre les bases théoriques et l’étude des machines thermiques. Là encore, de nombreuses interprétations concrètes sont proposées au lecteur. Les diagrammes thermodynamiques sont étudiés en détail, en vue de leur utilisation pour le calcul des machines thermiques. Des exemples numériques favorisent la compréhension et l’utilisation pratique de ces diagrammes.
- Basic Physics, par A. R. Meetham. 1 vol.
- 14x22, xir-144 p., nombreuses fig. Pergamon
- Press, Londres, 1957. Prix, relié : 21 sh.
- De son propre aveu, l’auteur de ce petit livre s’est proposé d’y rassembler l’essenliel de ce que devrait savoir en physique F « honnête homme » du xx" siècle. Il y a parfaitement réussi, mais on ne peut tirer le maximum de profit de cet ouvrage que si l’on possède déjà ies connaissances du niveau du baccalauréat. La plupart des domaines do la physique sont abordés d’une façon simple mais moderne ; on peut regretter l’absence de quelques chapitres consacrés à l’acoustique et surtout à la physique nucléaire et à ses applications.
- p.459 - vue 463/527
-
-
-
- 460
- Solid State Physics. "Vol. V. Collection dirigée par Frederick Seitz et David Turnbull. 1 vol. 16x23,5, 455 p. Academie Press, Inc., New York, 1957. Prix, relié : 11 dollars.
- Les éditeurs ont voulu rassembler dans cette collection une série d’articles d’auteurs spécialisés couvrant la physique de l’état solide. Chaque contribution est une revue d’un domaine particulier en principe destinée à informer les autres physiciens, non spécialistes. La documentation bibliographique et les références aux travaux originaux sont abondantes. Les sujets traités dans ce volume V sont : Effets galvano-magnétiques et thermo-magnétiques dans les métaux ; Luminescence dans les solides ; Représentation des groupes spatiaux ; Niveaux d’impureté peu profonds dans le silicium et le germanium ; Effet des moments quadrupolaires dans l’étude des solides par résonance magnétique nucléaire.
- Atomic Physics, par Max Born. 6° édition. 1 vol. 15x22,5, xiv-445 p., fig. Blackie and Son Ltd, Londres, 1957. Prix, relié : 40 sh.
- Cet ouvrage est demeuré depuis 25 ans, avec six éditions successives, le meilleur manuel d’initiation à la physique moderne. L’auteur est un de ceux qui ont puissamment contribué au développement de la physique pendant ces dernières décennies ; avec Heisenberg, Dirac et quelques autres, il a profondément influencé la mécanique ondulatoire par ses conceptions originales et fécondes. Il possède en outre un remarquable don d’exposition. En quelques chapitres courts et très clairs, Max Born expose la théorie cinétique des gaz, la structure atomique, la dualité onde-corpuscule, les spectres atomiques, le spin des électrons, les bases de la physique nucléaire, les statistiques quantiques et la structure moléculaire. Les calculs un peu longs sont tous renvoyés dans des appendices où l’auteur donne quelquefois des démonstrations extrêmement rapides et originales de formules maintenant classiques. Ouvrage à recommander tout particulièrement aux étudiants qui commencent des études supérieures de sciences physiques ou chimiques.
- Nuclear Masses and their Détermination,
- edited by professor H. Hinterberger. 1 vol. 14x22, 270 p., 124 flg. Pergamon Press, Londres, 1957. Prix, relié : 84 sh.
- Bien que des calculs théoriques aient été effectués sur l’énergie de liaison de l’hélium et d’autres noyaux légers, une partie importante de nos renseignements sur les forces nucléaires provient de la détermination expérimentale des masses nucléaires, ce qui confère à leur détermination une importance capitale. On a ici les conférences et discussions du premier congrès sur la détermination des masses nucléaires (Mayence, 1956), qui a permis la confrontation des résultats obtenus dans divers centres d’étude dans le monde. Sujets traités : masses atomiques et structure nucléaire ; résultats obtenus avec la spectrométrie de masse ; résultats obtenus à partir des réactions nucléaires et des énergies de réaction ; comparaison des résultats des deux méthodes ; détermination des masses atomiques à l’aide de la spectrométrie des ondes très courtes (1 mm à 300 mm) ; instrumentation.
- Technische Temperaturmessungen, par Hein-rich Lindorf. 2° édition. 1 vol. 15x21, 243 p., 142 fig., 21 tables. Girardet, Essen, 1956. Prix, relié : 22,80 DM.
- La mesure des températures intéresse de très nombreuses techniques et ceci explique qu’en quatre ans la précédente édition ait été épuisée. On trouvera dans cet ouvrage la description des divers appareils qui permettent de mesurer les températures, soit par contact, soit par rayonnement, soit par des méthodes plus spéciales, comme les « montres de Seger » utilisées dans l’industrie céramique, ou les changements de couleurs, ainsi que les méthodes de mesure. Ouvrage bien illustré.
- Einführung in die Ultrarotspektroscopie,
- par W. Brüger. 2e édition. 1 vol. 15x21, xii-404 p., 166 fig. Steinkopff, Darmstadt, 1957. Prix, broché : 49 DM ; relié : 52 DM.
- Le grand développement de la spectroscopie infrarouge et les qualités de l’ouvrage expliquent qu'en trois ans la première édition ait été
- épuisée. La nouvelle édition remise à jour constitue une excellente mise au point comportant un grand nombre de références et traitant successivement la théorie du spectre infrarouge des gaz, l’appareillage et les techniques, lea méthodes de travail pratiques et les applications.
- Proceedings of the second international Congress of Surface activity. 4 vol.
- 16x25,5, nombr. fig. Vol. I : Gas/Liquid and Liquid/Liquid Interface, x-521 p. Prix, relié : 90 sh. — Yol. II : Solid/Gas Interface, vm-348 p. Prix, relié : 75 sh. — Vol. III : Electrical phenomena and Solid/Liquid Inter-face, x-621 p. Prix, relié : 100 sh. — Vol. IV : Solid/Liquid Interface (washings, - etc.) and Cell/Water Interface, vm-352 p. Prix, relié : 75 sh. Butterworths Scientific Publications, Londres, 1957. L’ensemble des 4 volumes : 16 livres ou 50 dollars.
- Les mémoires présentés au deuxième congrès international sur les phénomènes de surface ont été rassemblés en quatre volumes. Le premier concerne les problèmes inhérents aux interfaces gaz-liquide et liquide-liquide et traite plus spécialement des films solubles ou non, des écumes et des micelles ; le second se rapporte aux interfaces solide-gaz et contient de très intéressants mémoires sur l’adsorption. Le 3e volume comporte une douzaine de mémoires traitant des phénomènes électriques en relation avec les phénomènes de surface ,et une cinquantaine de travaux portant sur le flottage des minerais, l’adsorption en solution, la lubrification, etc. Le 4e volume est plus éclectique : le problème du lavage et des détergents fait l’objet de plusieurs études ainsi que celui des suspensions de natures diverses, et différentes communications sont consacrées aux phénomènes de surface en chimie biologique, notamment aux problèmes de l’olfaction.
- An introduction to junction transistor theory, par R. D. Middlebrook. 1 vol. 15,5x23,5, xxiv-296 p., fig. John Wiley and Sons, New York, 1957. Prix, relié : 8,50 dollars.
- Ouvrage fondamental pour la compréhension
- NOUVEL ATLAS
- DES
- CHAMPIGNONS
- par
- Henri ROMAGNESI
- Agrégé de T Université,
- Attaché au Muséum National d'Histoire Naturelle,
- Lauréat de l'Institut
- Le TOME II est paru... 6 300 F
- Format 22,5 X 29, reliure pleine toile sous couverture de luxe 75 planches en 10 et 12 couleurs
- Rappel : Tome I....... 5 550 F
- BORDAS
- Editeur
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7*
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d'Etat.
- Brevet de Technicien d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du |our » Cours du soir
- Section d'enseignement " à domicile "
- {Joindre timbre pour notice)
- WÊÊÊÊÊÊIÊÊÊÊÊÊÊÊÊOÊÊÊÊÊÊÊÊKIÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊM
- ---- VIENT DE PARAITRE --------------------------------
- COLLECTION c LA NATURE ET L'HOMME >
- LE MYTHE
- DES
- CITÉS LACUSTRES
- et les problèmes de la construction néolithique | PAR O. PARET I
- TRADUIT ET ADAPTÉ PAR PRÉFACE DE 1
- A. POUGETOUX A. LEROI-GOURHAN 1
- 160 p. 15,5x22,5, avec 71 fig. Br. sous couvert, illustrée.... 850 F 1 En vente dans toutes les bonnes librairies et chez 1
- 92, rue Bonaparte DURTOX) Éditeur, Paris-6e. I
- p.460 - vue 464/527
-
-
-
- 461
- des transistors à jonctions. Ainsi que Le fait remarquer l'auteur, un jour viendra peut-être où la connaissance des phénomènes internes aux transistors sera aussi peu utile à leur utilisateur 'que l’est actuellement celle des phénomènes de base dans les tubes à vide ordinaires. On n’en est pas encore là et l’ouvrage de M. Middlebrook intéressera certainement les ingénieurs qui utilisent les transistors aussi bien que ceux qui les construisent.
- Centenaire de la Société Chimique de France (1857-1957). 1 vol. 17x25,5,' 250 p., Masson, Paris, 1957. Prix, broché : 1 000 F.
- La reproduction de la conférence prononcée par Armand Gautier lors du cinquantenaire de la Société Ghimique de France, en 1907, permet de saisir l’évolution de la Chimie en France de 1850 à 1900. Pour la suite, le développement de la chimie en disciplines spécialisées a obligé à présenter des exposés distincts : chimie générale, organique, thérapeutique, etc. Nombreuses biographies parfaitement à jour. Document précieux pour l’histoire des sciences.
- Les moments dipolaires, par J. Bàrriol.
- 1 vol. 15,5x24, 186 p., 67 fig. Gauthier-Villars, Paris, 1957. Prix, broché : 3 000 F ; cartonné ; 3 300 F.
- Les monographies de chimie physique nous présentent une revue des différents phénomènes en étroite relation avec la présence dans certaines molécules d'un moment électrique permanent. Un chapitre est consacré aux relations entre les moments dipolaires et les structures et un autre au problème de la polarisabilité à l’état cristallin. L’auteur examine en détail les méthodes de mesure.
- Kristallchemie und Kristallphysik metal-lischer Werkstoffe, par Franz Halla. 3e édition. 1 vol. 17x24,5, xvi~737 p., 365 fig. Johann Ambrosius Barth, Leipzig, 1957. Prix, broché : 50 DM ; relié : 52 DM.
- Traité moderne de la physico-chimie du métal traitant par conséquent tous les problèmes qui se rapportent à ce vaste sujet : structure des métaux et des alliages, cristallisation, cristaux réels et leurs imperfections, thermodynamique des transformations concernant les change-
- ments de formes métalliques et les alliages, déformations plastiques, propriétés électriques, magnétiques, corrosion, etc. Ouvrage fort bien présenté, rassemblant une riche documentation.
- Physico-chemical effects of Pressure, par
- 8. D. Hamann. 1 vol. 14,5x22,5, x-246 p., fig. Butterworths Scientific Publications, Londres, 1957. Prix, relié : 42 sh.
- L’auteur a pensé qu’entre les ouvrages consacrés à la physique des hautes pressions et ceux qui concernent l'utilisation de ces pressions en chimie industrielle, il y avait place pour une étude des applications de la pression dans les divers domaines de la chimie physique ; il examine donc non seulement les effets volumétriques de la pression mais l’influence de celle-ci sur les changements de phase, sur la vitesse du son, sur les phénomènes optiques et électriques, sur la cinétique et sur les équilibres chimiques, etc.
- Experimental inorganic chemistry, par K. E. Dodd et P. L. Robinson. 2e édition. 1 vol. 15,5x23, xn-424 p., 162 fig. Elsevier, Amsterdam, 1957. Prix, relié : 42 sh.
- Edité en 1953, l’ouvrage de Dodd et Robinson déjà épuisé vient d’être réimprimé. Il s’agit en réalité moins d’un guide de manipulations que d’un ouvrage où sont examinées et commentées les principales techniques utilisées dans un laboratoire de chimie minérale moderne et où sont en particulier indiquées les préparations d’un très grand nombre de gaz et d’acides minéraux. Ouvrage d’une grande utilité pour un laboratoire.
- Chemical Reaction Engineering. 1 vol. 19x25, vm-20Ô p., nombr. fig. Pergamon Press, Londres, 1957. Prix, relié : 80 sh.
- Ce premier volume d’une collection de monographies de génie chimique contient 13 communications présentées au symposium tenu à Amsterdam en 1957. Chaque communication, dans la langue originale, est précédée d’extraits en anglais, allemand et français, qui comportent malheureusement des imperfections de traduction. Ensemble de mises au point parfaitement à jour sur les problèmes posés par le développement de plus en plus grand du génie
- chimique. Il s’agit surtout de questions théoriques, les questions purement technologiques étant pratiquement inexistantes. Les auteurs ont cherché à montrer les relations entre les sciences fondamentales et le génie chimique. Trois communications jouent le rôle d’introduction dont une du professeur Letort sur la cinétique des réactions chimiques (la seule communication française). Les autres sont consacrées aux réactions hétérogènes, aux problèmes des distributions non uniformes des concentrations, et aux réacteurs.
- Safety in the Chemical Laboratory, par par H. A. J. Pieters et J. W Creyghton 2° édition. 1 vol. 14x22, xiv-305 p., 54 fig. Butterworths Scientific Publications, Londres ; Academie Press Inc., New York, 1957. Prix, relié ; 40 sh.
- On se propose un peu partout de développer de plus en plus les réflexes de sécurité afin de lutter contre les accidents trop nombreux qui conduisent à une perte considérable d’heures de travail. Le laboratoire de chimie constitue une source considérable de dangers qu’il est d’ailleurs aisé d’éviter, à la condition de les connaître. Ce livre, dont une première, édition était parue en 1951, présente les diverses causes d’accidents qui peuvent exister au laboratoire et la façon de les éviter ou de limiter leurs conséquences.
- Identification des substances organiques,
- par Stig Veibel. Adaptation française par R. Panico. 1er Tome de la collection des Monographies de Chimie organique. Compléments au Traité de Chimie organique. 1 vol. 17,5x25,5, 310 p., 26 fig. Masson, Paris, 1957. Prix, broché : 3 000 F ; cart. toile : 3 800 F.
- Commencé en 1931, le Traité de Chimie organique en vingt-trois volumes de Y. Grignard, G. Dupont et R. Locquin a été terminé en 1955. Malgré l’échelonnement de la publication, il demeure l’ouvrage de base en langue française indispensable à toute étude de chimie organique. Toutefois, révolution extrêmement rapide de nombreuses questions au cours des vingt dernières années fait que des mises au point se sont montrées indispensables. C’est le but que se proposent d’atteindre ces Monographies, sous
- VIENT DE PARAITRE
- MONOGRAPHIES DUNOD
- PHYSIQUE DES GAZ COMPLÈTEMENT IONISÉS
- par L. SPITZER Jr.
- TRADUIT DE L’AMÉRICAIN PAR J. E. BLAMONT xvi-112 pages 11x16, avec 9 figures. Relié toile souple. 850 F
- CATALYSE HETEROGENE
- par
- J. E. GERMAIN
- viu-230 images 11x16, avec 68 figures. Relié toile souple.... 1 250 F
- U CYCLE DU (ARBORE DANS IA PHOTOSYNTHÈSE
- par
- J. A. BASSHAM M. CALVIN
- TRADUIT DE L’ANGLAIS PAR J. DAUTA x-112 pages 11x16, avec 25 figures. Relié toile souple. 850 F
- INTRODUCTION
- A LA
- THÉORIE DES GAZ IONISÉS
- par J. L. DELCROIX Préface de Y. ROCARD
- xii-170 pages 11x16, avec 35 figures. Relié toile souple..
- 1 100 F
- LE PRINCIPE DE SIMILITUDE
- EN
- GÉNIE CHIMIQUE
- par W. MATZ
- TRADUIT DE L’ALLEMAND PAR R. KREMPFF
- xvi-172 pages 11x16, avec 29 figures. Relié toile souple....
- 980 F
- En vente dans toutes les bonnes librairies et chez
- 92, rue Bonaparte, Paris-6S DUNOD Editeur, C.C.P. Paris. 75-45
- p.461 - vue 465/527
-
-
-
- 462
- la direction des professeurs G. Dupont, R. Loc-quin et G. Ourisson. Chaque volume, sera consacré à un groupe de questions connexes pour lesquelles ce qui a été dit dans le Traité est maintenant dépassé.
- Le premier tome de la nouvelle collection est consacré à l’analyse fonctionnelle. Celle-ci constitue l’une des préoccupations majeures du chimiste organicien, puisque la caractérisation des. fonctions chimiques est indispensable à la détermination des formules développées. Or, i! suffit de se rappeler que l’on connaît plusieurs centaines de milliers de composés organiques pour comprendre que l’analyse fonctionnelle constitue une technique toujours délicate. Aussi devons-nous féliciter M. Stig Yeibel de faire profiler les chimistes de sa longue expérience en la matière puisqu’il a organisé et développé depuis trente ans, à l’Université de Copenhague, un enseignement en vue de l’identification des corps organiques par leurs groupements fonctionnels. Trois éditions danoises et une édition anglaise ont d’ailleurs confirmé la valeur de ce manuel.
- L’ouvrage comporte quatre parties : vérification de la pureté de la substance, recherche des éléments et détermination quantitative de certains d’entre eux (remarquons que l’analyse élémentaire n’est pas traitée dans cet ouvrage ; elle fera l’objet d’un prochain volume de la collection), examen préliminaire et réactions générales qui permettent souvent de limiter le choix des groupements fonctionnels possibles, et enfin la détection et le dosage des groupements fonctionnels qui constitue la partie la plus importante de l’ouvrage (240 p.) où les différentes fonctions sont passées en revue de manière systématique.. Les méthodes sont exposées avec beaucoup de soins : préparation des réactifs, quantités à utiliser, conduite des essais, etc. De nombreuses remai*ques sur la spécificité, Les précautions à prendre aident constamment le chimiste au cours de l’identification. bibliographie complète jusqu’à 1956.
- Savons et détergents» publié par la Société
- suisse de Chimie analytique et appliquée.
- 1 vol. 15x21, 140 p., 5 tables. Masson, Paris,
- 1957. Prix : 1 360 F.
- En 1938 fut créée au sein de la Société suisse de Chimie analytique et appliquée, une commission avec mission de grouper les méthodes d’analyse et d’appréciation des savons et détergents. Un premier recueil en langue allemande parut en 1943, mais devant l’essor prodigieux après la guerre des détergents synthétiques, une 2e édition complètement refondue parut en 1955, dont voici la traduction française. Après une brève introduction sur les définitions relatives aux savons et aux produits analogues et sur l’échantillonnage, problème toujours extrêmement délicat, la plus grande partie de l’ouvrage est consacrée aux méthodes d’analyse. Toutes les données actuelles de la chimie analytique (pli, oxydo-réduclion, formation de complexe, réactifs colorés, etc.) ont été mises à profit par les auteurs qui ont sélectionné un ensemble de méthodes extrêmement modernes, sûres, et dans lesquelles les séparations fastidieuses, inévitables autrefois, ont été réduites au minimum.
- Applications industrielles de l’azote aux
- États-Unis. 1 vol. 15,5x24, 136 p. O.E.C.E.,
- Paris, 1957. Prix : 650 F.
- Les pays de l’O.E.C.E., exportateurs d’engrais azotés, ne voient pas sans quelque crainte divers pays, jusqu’ici importateurs, s’équiper pour produire eux-mêmes leurs engrais, et la préoccupation de trouver de nouveaux débouchés a conduit l’O.E.C.E. à envoyer une mission aux États-Unis pour y étudier les composés azotés à usages industriels, l’emploi de l’urée pour l’alimentation animale, le conditionnement et l’emballage de l’azote technique, etc. Après quelques considérations générales, tendant à prouver que le développement considérable du marché de l’azote aux États-Unis est dû en particulier à l’organisation de la commercialisa-lion dans les diverses firmes et à la recherche systématique de nouvelles utilisations, le rapport passe en revue les principaux produits azotés quant à leur fabrication, mais surtout quant à leurs applications.
- Engineering Materials Handbook, par
- C. L. Mantell. 1 vol. 16x24, 1 936 p., ill,
- McGraw-Hill, New York et Londres, 1958.
- Prix, relié : 167 sh.
- Ce très important ouvrage est l’œuvre de quelque cent cinquante spécialistes. Divisé en 43 chapitres, il traite des matériaux, même les
- plus modernes : métaux, alliages, produits minéraux, organiques, plastiques, etc. Il donne pour chacun d’eux leurs propriétés physiques, mécaniques, chimiques, ainsi que leurs caractéristiques numériques, leur résistance à la corrosion, leurs applications pratiques et leurs formes commerciales. Les ingénieurs, les constructeurs et les bureaux d’études trouveront rassemblée dans cet ouvrage une documentation très complète, sur tous les matériaux qui sont actuellement à la disposition de l’ingénieur.
- Handling and Uses of the Alkali Metals.
- 1 vol. 15,5x23,5, 177 p., fig. American Chemical Society, Washington, 1957. Rel.
- Un colloque, tenu à Dallas en avril 1956, avait pour objet l’examen de la manutention et de l’utilisation des métaux alcalins qui prennent de plus en plus d’importance. On sait que le sodium est utilisé notamment pour le transfert des calories dans certaines piles atomiques. Vingt mémoires intéressants ont été présentés, sur le lithium, le sodium et le potassium. Leurs textes et les discussions ont été rassemblés dans cet ouvrage.
- La pratique des traitements thermiques des métaux industriels, par G. de Smet. 1 vol. 16x25, 490 p., 95 fig. Dunod, Paris, 1957. Prix, rel. : 3 300 F.
- Cette 5° édition, . entièrement revue et augmentée, comporte un très grand nombre de paragraphes nouveaux qui en font un ensemble complet, accessible aux praticiens et aux métallurgistes. On sait que, pour mettre en évidence et porter à son maximum telle propriété ou telle caractéristique d’un métal, il faut amener celui-ci à un état bien défini, choisir un traitement thermique bien déterminé. Un traitement final mal appliqué, ou simplement mal contrôlé, ferait perdre toutes les garanties que l’on est en droit d’exiger d’un acier de qualité. L’auteur expose cette technique en termes simples et donne la solution pratique des problèmes de traitements thermiques, à partir de la fusion du minerai, tant pour les alliages ferreux que pour la majorité des métaux industriels, y compris les aciers à outils. Vaste documentation sur les principaux fours, la pyrométrie, les essais des métaux et le contrôle des pièces traitées.
- Prospection électrique par courants continus, par P. Lasfargues. 1 vol. 16,5x21,5, 290 p., 162 fig. Masson, Paris, 1957. Prix : 3 000 F.
- Ce premier volume des manuels de prospection géophysique dont M. J. Goguel dirige la publication est consacré aux méthodes d’exploration utilisées surtout pour les études de mines, de
- COLLECTION ARMAND COLIN
- Nouveautés :
- Pétrole et gaz naturel dans le monde.
- Les paysages agraires.
- Rappels :
- L'aluminium.
- La fabrication du papier. Les Moussons.
- Les Centrales nucléaires. Les Océans.
- 360 F
- C.A.C.
- travaux publics et d'hydrogéologie : sondage électrique, cartes de potentiel, de résistivités, polarisation spontanée, polarisation induite (cette dernière encore au stade des études). Malgré de nombreuses variantes de mise en œuvre elles présentent une grande unité. Elles sont étudiées dans leurs principes théoriques et dans les détails de ' leurs applications pratiques. Les méthodes d’interprétation dps résultats ont été particulièrement développées.
- Yeasts, par W. Roman. 1 vol. 16x25, 246 p., 18 fig., 44 tabL Dr. W. Junk, La Haye, 1957. Prix, relié : 25 florins.
- Étude des divers types de levures industrielles : de boulangerie, de brasserie, de vins et de fruits, de saké et de produits similaires, des levures alimentaires et thérapeutiques. Chaque groupe est traité par un spécialiste qui expose leur morphologie, leur biologie, leur composition et leur culture, spécialement en vue de leurs productions industrielles et de leurs applications pratiques.
- Actions chimiques et biologiques des radiations. Collection dirigée par M. IIaïssinsky. Troisième série : Radiolyse de liquides organiques, par Milton Bouton (trad. M,,,a A. Bernas) ; Polymérisations amoi'cées par les radiations ionisantesj par A. Ciiapiro et M. Maget ; Effets des rayonnements de grande énergie sur les polymères, par A. Charlesby (trad. M‘nc C. Vermeil). 1 vol. 16,5x24,5, 222 p., 59 fig. Prix, broché : 4 000 F ; cart. toile : 4 800 F.
- Cette troisième série résume l’ensemble des connaissances acquises dans un domaine nouveau et déjà très étendu, celui de l’effet des radiations ionisantes sur les molécules organiques, depuis les plus simples jusqu’aux hauts polymères. Les modifications chimiques qui en résultent sont extrêmement variées et souvent complexes : décompositions, réarrangements, oxydations et réductions, polymérisation, réticulation, etc., dont les mécanismes sont multiples. Un champ immense s’ouvre aux applications, tant au laboratoire que dans l'industrie. Cet ouvrage, le premier qui rassemble l’essentiel des travaux en ce domaine, sera bien accueilli par le biologiste comme par le chimiste organicien.
- Actions chimiques et biologiques des radiations. Quatrième série : Les peroxydes organiques en radiobiologie. 1 vol. 16,5x24,5, 156 p., 49 fig. Masson, Paris, 1958. Prix, broché : 2 800 F. ; cart. toile : 3 600 F.
- Compte rendu, présenté par M. R. Latarjet, du « Colloque sur les peroxydes organiques formés par les radiations et leur rôle en radiobiologie », tenu à Paris en janvier 1957. Les exposés des 21 participants sont publiés dans leur langue, anglais ou français, avec les discussions in extenso. Les peroxydes organiques sont les premiers composés stables ou métastables qui aient pu être mis en évidence apres irradiation des milieux organiques. Ces études ont cherché à répondre à deux questions : Quel rôle ces peroxydes jouent-ils dans les processus lésionnels P Comment peut-on intervenir à leur niveau après l’irradiation ?
- Chromotaxia, Code mycologique et pédologique des couleurs, par Marcel Locquin, attaché au Muséum. 1 vol. 13,5x21,5, 68 p., avec 36 filtres et une planche hors texte, sous enveloppe en plastique inaltérable. Connaissance, Science et Culture, 10, rue de Franque-ville, Paris (16e), 1958. Prix : 3 800 F (étranger : 4 300 F).
- La comparaison des couleurs et leur définition posent des problèmes ardus pour le naturaliste et les différents codes de couleurs que l’on peut se procurer ne résolvent qu’imparfaitement le problème. L’auteur a cherché une méthode originale. Chromotaxia, dit-il, n’est pas un livre mais un instrument de physique. Le texte n’est fait que pour guider l’utilisation des 36 filtres, spectrophotométriquement contrôlés, dont on pourra se réapprovisionner avec la garantie que les éditions successives seront toujours identiques à l’original.
- Traité de Paléontologie, publié sous la direction de Jean Piveteau, membre de l’Institut, professeur à la Sorbonne. Tome VI, 2e volume: Mammifères, Évolution, par R. Lavocat, C. Decuazeaux, R. Vaufrey, J. Piveteau, J. Viret, R. Saban, R. Hoffstetter, G. Guth, S. ScnAUB. 1 vol. 16,5x25, 962 p., 1 040 fig., 1 planche. Masson, Paris, 1958. Prix, broche : 15 500 F ; cart. toile : 16 500 F.
- p.462 - vue 466/527
-
-
-
- 463
- Nous avons déjà annoncé brièvement la publication de ce 2e volume du tome VI, en analysant le tome VII (La Nature, octobre 1958, p. 412). Le ltr volume, qui est encore à paraître, donnera les généralités sur les Mammifères et amorcera l’histoire paléontologique des divers ordres. Ce 2° volume présente la plus grande partie des ordres : Condylarthres, Litoptermes, Notongulés, Astrapothériens, Tubulidentés, Pen-tadontes, Dinocérates, Pyrothériens, Xénongulcs, Proboscidiens, Barythériens, Embrithopodes, Ilyracoïdes, Siréniens, Desmotilia, Périssodac-tyles,. Tillodontes, Téniodontes, Édentés, Pholi-dotes, Lagomorphes, Simplicidentés, Insectivores, Dermoptères, Chiroptères. On sait que les méthodes modernes ont fait progresser un chapitre presque entièrement nouveau de la paléontologie : la paléoneurologie ; on en a ici, pour la première fois dans un tel traité, des études détaillées. L’écologie y trouvera aussi une large place. Illustration abondante et soignée, presque tous les ordres étant représentés par leurs éléments les plus caractéristiques. Après le 1er volume des Mammifères et le tome IV (Agnathes et Poissons), qu’on espère proches, ce remarquable traité sera complet.
- Le Monde des Insectes, par Paul Pesson.
- 1 vol. 22x28, 206 p., 80 pl. et 16 hors-texte
- en couleurs. Collection La Nature vivante.
- Horizons de France, Paris, 1958. Prix, relié :
- 3 600 F.
- Ce beau volume est avant tout remarquable par son illustration composée de planches en héliogravure qui sont, non seulement très belles en général, mais constituent souvent des documents biologiques fort intéressants. Parmi beaucoup d’autres, on peut citer des chenilles processionnaires vivant sur le Colalier au Cameroun, la planche en couleurs présentant des chenilles mimétiques, la ponte d’Orgya gono-stigma, les larves de moustiques et l’éclosion du Culex pipiens, la capture d’une araignée par un Pompîle, les colonnes de fourmis Magnans, la loge royale d’une termitière. Mais la valeur du texte, dû au professeur Pesson, ne le cède en rien à la beauté de l’illustration : il donne une excellente idée d’ensemble du monde des insectes. Après un aperçu sur l’ancienneté et l’évolution du groupe, des chapitres sont consacres aux grandes lignes de la physiologie, à la
- sexualité et au développement, à la vie sensorielle et, enfin, aux rapports avec l’homme. Un tableau de la plus récente classification termine ce travail qui joint l’intérêt scientifique à une rare richesse de présentation.
- Les chiens, par Jacqueline de Chimay. 1 vol. 18.5x23,5, 96 p., 80 photos en noir, 12 hors-texte en couleurs. Hachette, Paris, 1957. Prix, cartonné : 990 F.
- Tant par le texte que par l’illustration, ce joli volume de la collection Tout par Limage nous offre une vue d’ensemble sur la gent canine depuis l’Antiquité jusqu’aux plus récentes fantaisies des amateurs de chiens miniatures. De chaque race l’auteur a tenté aussi un portrait psychologique où se retrouvent bien des qualités et des défauts humains.
- Les Oiseaux, par Jean Doust. 1 vol. 18,5x23,5, 96 p., nombr. photos en noir et en couleurs. Collection Tout par Virnage. Hachette, Paris, 1957. Prix, cartonné : 990 F.
- L’auteur, sous-directeur du laboratoire de Mammalogie et Ornithologie du Muséum, est un de nos meilleurs connaisseurs de la faune et de la biologie aviennes. Pour cet album où de ravissantes photographies montrent les oiseaux dans leur grâce, leur pittoresque ou les différents aspects de leur activité, ü a écrit un texte simple, clair, qui constitue une introduction à la biologie de cette classe, étudiant le vol et la marcbe, la nutrition, la reproduction, les modes de vie, les migrations, la répartition, les oiseaux et la mer, les oiseaux et l’homme.
- Les Insectes, par B.-O. Landin. Planches en couleurs de E. Hahnewald. 1 vol. 12x18, 106 p. Fernand Nathan, Paris, 1958. Prix : 885 F.
- 256 espèces d’insectes sont représentées avec de courtes notices descriptives. D’un format pratique, ce petit album pourra servir aux débutants pour tenter leurs premières déterminations.
- Les Poissons, par Ilans Hvass et Jean Guibé. 64 planches en couleurs de N. Norvil. 1 vol. 12x18, 112 p. Fernand Nathan, Paris, 1958. Prix : 885 F.
- Gomme l’atlas sur les Insectes, ce petit volume reproduit les planches qui ont servi aux éditions suédoises, norvégiennes, finlandaises et danoises. 192 poissons de mer et d’eau douce sont décrits çl représentés. Guide pratique pour une initiation élémentaire à la connaissance des poissons.
- Anthropologie structurale, par Claude Lévi-Strauss. 1 vol. 14x20, 454 p., 23 fig., 13 ill. h. t. Plon, Paris, 1958. Prix : 2 400 F. Un ouvrage d’ethnologie dû à la plume de M. Lévi-Strauss fait date. Celui-ci nous présente dix-sept textes, dont deux sont inédits, groupés sous cinq rubriques ; langage et parenté, organisation sociale, magie et religion, art, problèmes de méthode et d’enseignement. L’auteur a sélectionné, parmi la centaine d’essais qu’il a déjà publiés, ceux qu’il estime les plus dignes de survivre ; beaucoup d’entre eux étaient devenus difficilement accessibles. Certains furent rédigés en anglais ; ü en résulte, ainsi que M. Lévi-Strauss le signale dans la préface, une impression d’hétérogénéité ; impression plus apparente que réelle d’ailleurs, car la thèse sous-jacente confère à ces textes leur unité : user, lans le domaine ethnologique, des méthodes d’analyse structurale inventées par les linguistes et qui se sont révélées si fécondes. On peut admettre ce point de vue ou le rejeter, mais si l’on souhaite se tenir au courant des dernières tendances de la pensée ethnologique, on devra méditer ces pages où l’originalité le dispute à la solidité.
- L'empire du Prêtre Jean, par Jean Doresse. 2 vol. 14x20, 664 p., 58 fig. in texte, 41 pl. hors texte. Plon, Paris, 1958. Prix ; 2 700 F Le personnage légendaire du Prêtre Jean, qui hanta l’imagination de la chrétienté médiévale, n’est évoqué que dans un des chapitres du livre. Il s’agit en réalité d’une large étude, fort documentée, sur l’Éthiopie, vue sous l'angle de la géographie et de l’histoire (Antiquité et Moyen Age), mais surtout de l’archéologie. L’auteur, en effet, a dirigé pendant deux ans les fouilles entreprises par le Gouvernement impérial d’Éthiopie : les découvertes importantes accomplies à cette occasion ont permis d’éclairer le passé encore mal connu de cette terre africaine et de révéler toute l’importance d’un
- N. BOUBÉE & C,E
- 3, Place Sf-André-des-Arts, PARIS-VI0 Nouveauté :
- Lucien BERLAND
- Sous-Directeur honoraire du Laboratoire d'Entomologie Muséum National d’Histoire Naturelle
- AIIAS k HYMÉNOPTÈRES DE FRANCE
- Tome I. — Tenthrèdes. Parasites. Porte-aiguillon. Avec 34 fig., 6 phot. et 14 pl. en couleurs représentant 191 espèces ; sous couverture en quadrichromie pelliculée........ 1 800 F
- Tome II. — Porte-aiguillon (Fourmis, Guêpes, Abeilles, etc.). Avec 30 fig., 7 phot. et 14 pl. en couleurs représentant 175 espèces ; sous couverture en quadrichromie pelliculée . 1 800 F
- Rappel :
- Roger HEIM
- Membre de l’Académie des Sciences,
- Directeur du Muséum National d’Histoire Naturelle
- LES CHAMPIGNONS D'EUROPE
- 2 vol. reliés, avec 56 pl. en couleurs, 20 pl. photos et 930 dessins. Ensemble .......*....................... 7 500 F
- p.463 - vue 467/527
-
-
-
- 464
- art d’inspiration chrétienne longtemps maintenu -en vase clos par la barrière de l’Islam.
- Japon, par Paul Mousset. 1 vol. 16 x 21, n° 30 de la collection Les Albums des Guides bleus, 127 p., 64 pl. hélio, 8 pl. en couï., carte. Hachette, Paris, 1958. Prix, relié sous jaquette en coul. : 975 F.
- Un texte d'une trentaine de pages présente le Japon sous les angles humain et géographique. Pour vivant et intelligent qu’il soit, il n'a d’autre rôle que servir de préface aux illustrations. Techniquement irréprochables, ces photographies ont su éviter le double écueil du banal et du rebattu ; le Fouji Yama figure ici, évidemment, mais la prise de vue, avec les cascades de Shirotai au premier plan, a rénové le chromo. Si paysages et édifices ont reçu la part du lion et évoquent le Japon traditionnel, l’aspect moderne du pays n’a pas été négligé : tel coin de Tokyo avec des immeubles neufs, le monument aux morts dTIiroshima ou le mémorial érigé à Nagasaki au point de chute de la seconde bombe atomique rappellent que l’Empire du Soleil levant n'est pas seulement le décor où évoluent des geishas en kimono, et que l’ère des samouraïs appartient au passé.
- Mongolie, par Claude Arthaud et Fr. Hebert-Stevens. 1 vol. 18,5 x 23, 104 p., 93 photogr. dont 4 en coul. Arthaud, Paris et Grenoble, 1958. Prix, relié : 1 600 F.
- ERRATUM
- La carte des chemins de fer eurasiatiques que nous avons publiée dans notre numéro d’octobre (p. 395) comporte une erreur d’écriture : le chemin de fer qui relie Moscou au Turkestan y est appelé « Transarabien ». C’est évidemment Transaralien qu’il faut lire.
- Agréable présentation d’une des nations les moins connues du monde. Entrée depuis une trentaine d’années dans la voie de la modernisation accélérée, la Mongolie extérieure garde encore actuellement une bonne partie de ses caractères traditionnels, en raison de son économie toujours fondée essentiellement sur l’élevage nomadique restreint. Évocation du Gobi, de la capitale Oulan Bator, rappels historiques, esquisse de la vie dans les steppes, du bouddhisme lamaïque, aujourd’hui moribond, qui constitua jadis l’armature politique du pays, tels sont les éléments qui donnent accès à quelques notions claires sur cette république populaire. L’illustration soignée offre autant de variété que le permet une région aux horizons monotones et désolés.
- Les fusées, par Jean Pellandini. 1 vol. 11,5 x 17,5, 128 p., 17 fig. Collection Que sais-je P, Presses Universitaires de France, Paris, 1958. Prix, broché : 180 F.
- L’origine des fusées est très ancienne, puisque les auteurs latins parlent à plusieurs reprises d’engins militaires autopropulsés. Mais l'engouement pour les fusées date en fait des années 1925-1930. Les Allemands ont fait figure de pionniers dans ce domaine, et la plupart des engins actuels sont issus de leurs réalisations. Outre une étude historique, ce petit livre bien documenté contient de nombreux renseignements sur les problèmes que pose la réalisation des fusées, ainsi que sur leurs applications à la guerre ou à la prospection de la haute atmosphère.
- La surpopulation dans le monde, par Gaston Bouthoul. 1 vol. 14 x 23, 269 p. Payot, Paris, 1958. Prix : 1 200 F.
- La population mondiale s’accroît dangereusement, alors que le sol cultivable de la Terre est limité, et môme réduit chaque année par l’érosion. L’auteur, vice-président de l’Institut international de Sociologie et secrétaire général de l’Institut international pour l’étude scien-
- tifique des guerres, n’hésite pas à dénoncer le rôle primordial de la surpopulation dans nos difficultés actuelles. Certains gouvernements prévoyants ont recommandé le contrôle des naissances, car ils sont sans illusions sur les possibilités de développement de la production alimentaire et de sa planification. Ils pensent à ce mot de Bergson : « Laissez faire Vénus et vous aurez Mars ».
- Paix ou guerre atomique, par Albert Schweit-zer. 1 vol. 12x19, 64 p. Albin Michel, Paris, 1958. Prix : 180 F.
- Trois appels du célèbre docteur Schweitzer, Prix Nobel de la Paix : La renonciation aux expériences nucléaires ; Le danger de la guerre atomique ; Les négociations au sommet.
- PETITES ANNONCES
- (190 F la ligne, taxes comprises. Supplément de 100 F pour domiciliation aux bureaux de la revue).
- Fondation Emanuele PATERNO’ et MM. Ernst Boris CHAIN et Salvatore PALADINO résidant en Italie, serait désireuse d’assurer en France l’exploitation par concession de licence ou cession du brevet ci-dessous :
- N° 1 030-658. Procédé d’aération et d’agitation, sans emploi de substances contre la formation d’écume, pour la fermentation des organismes aérobies en général, et des antibiotiques en particulier, et appareil relatif.
- Pour tous autres renseignements, s’adresser à MM. ROGER-PETIT et R. BLÉTRY, 2, boulevard de Strasbourg, Paris (10°).
- MASSON ET CR-
- ÉDITEURS, PARIS
- L'exploration des galaxies voisines
- PAR LES MÉTHODES OPTIQUES ET RADIO-ÉLECTRIQUES
- par
- Gérard de VAUCOULEURS
- L’auteur (dont on sait l’importance des travaux en physique et en astronomie) a voulu offrir au public scientifique ou simplement cultivé, un exposé complet et de première main sur l’ensemble des connaissances acquises sur le monde prodigieux des galaxies extérieures à notre système solaire. Ce premier ouvrage est un exposé méthodique des données optiques et radio-électriques sur les propriétés individuelles des galaxies voisines de la nôtre.
- Collection Évolution Des Sciences n° 13
- Un volume de 156 pages avec 47 figures, 6 tableaux et 18 planches hors texte..................................... I 600 F
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 4e trimestre 1958, n° 3i56. — Imprimé en France.
- IMPRIMERIE BARNÉOÜD S. A. (3lo566), LAVAL, N° 3843. — II-ig58.
- p.464 - vue 468/527
-
-
-
- N° 3284
- Décembre 1958
- LA NATURE
- Où en est VAmazonie brésilienne
- Fig-, 1
- (h gauche). — Le port de pêche au cœur du vieux Belém. — Fig. 2
- par les seringueiros (Photos E.
- (à droite). — Boules de caoutchouc brut, tel qu’il est préparé
- A CM EUT DE LA RÜe).
- Ce n’est pas l’Amazonie traditionnelle, providence des jeunes explorateurs avides de publicité, auxquels elle offre ses solitudes forestières et ses hautes rivières, refuges pour quelques temps encore des dernières tribus indiennes indépendantes, qui sera évoquée ici. La mode étant à l’assistance technique aux contrées sous-développées, le moment est venu de parler de la façon dont se présente, en 1958, ce territoire immense, encore en grande partie à l’abandon, qu’est l’Amazonie brésilienne, dont l’étendue représente près de dix fois celle de la France. Après la brève période de prospérité qu’il a connue il y a un demi-siècle, avec la production du caoutchouc sylvestre, Je bassin de l’Amazone semble devoir enfin sortir de la torpeur oit il était retombé, pour tenter de s’adapter aux exigences de la vie moderne.
- Un organisme fédéral, rattaché à la présidence de la République, a été créé par la loi du 6 janvier 1953 en vue d’assurer le financement et l’exécution d’un premier plan quinquennal ayant pour but la mise en valeur de la Vallée de l’Amazone. Il s’agit de la S.P.V.E.A. (Surintendance du Plan de Valorisation de l’Amazonie), siégeant à Belém. L’Amazonie définie par cette loi occupe 5 067 4go km2, soit 59,38 pour 100 de la superficie du Brésil. Elle englobe, en même temps que tout le bassin brésilien du grand fleuve, le système Tocantins-Araguaya, sauf quelques lointains tributaires méridionaux, une partie du rio Paraguay au Sud du 16e parallèle et également, de part et d’autre de l’embou-
- chure de l’Amazone, toutes les rivières côtières qui se déversent dans l’Atlantique entre la Guyane française et le 44e méridien à l'Est, dans l’état du Maranhâo. Ainsi délimitée, l’Amazonie brésilienne s’étend sur la totalité des états d’Amazonas et de Para, le Nord de Goias, la majeure partie du Mato Grosso et du Maranliâo. En font également partie tous les territoires fédéraux périphériques de l’Amapâ et du Rio Branco au Nord, de l’Acre, voisin du Pérou et du Rondonia en bordure de la Bolivie.
- La population amazonienne s’élevait en 1960 à 3 549 589 habitants. On l’estime aujourd’hui à 4 200 000, ce qui fait toujours moins d’un habitant au kilomètre carré. Sa répartition est d’ailleurs tiùs inégale et des zones fortement peuplées alternent avec des solitudes totales. Le chiffre cité ne tient pas compte de la population indienne, fixée très arbitrairement à 600 000 âmes. Les Caboclos. métis de Portugais et d’indiens, qui formaient jadis la majorité de la population des rives de l’Amazone, sont maintenant supplantés par les Cearenses. Ainsi nomme-t-on, non seulement les gens du Cearâ, qui fournissent le plus fort contingent, mais eenx aussi des états voisins, chassés du Nord-Est aride par la sécheresse et la famine, chez qui l’élément noir est parfois fortement accusé. Ces Nordestinos ont pris, depuis le boom du caoutchouc, une part importante à la colonisation de l’Amazonie, mais la plupart d’entre eux, chargés de famille, vivent misérablement et sous-alimentés, souvent dans un état de demi-servage vis-à-vis de seringalistas, propriétaires des peuplements
- p.465 - vue 469/527
-
-
-
- 466
- d’hévéas, pour lesquels ils récoltent le latex et préparent les boules de caoutchouc brut (fig. 2). Des éléments actifs et prospères sont les Libanais, qui accaparent une bonne partie du commerce, jusque dans les petits centres les plus reculés, et les colons japonais, dont les colonies agricoles sont dispersées en diverses parties du territoire.
- A Benjamin-Constant, son point d’entrée au Brésil, l’Amazone, sous le nom de Solimôes, coule à l’altitude insignifiante de 60 m. Il lui reste encore 3 4oo km à parcourir, avec un courant parfois assez violent qu’il doit à son énorme débit, avant de rejoindre l’Atlantique. Son lit est des plus irréguliers. Tantôt chenal unique, ailleurs encombré d’îles alluviales, il s’étale souvent en bras multiples et en lacs à travers une vaste plaine marécageuse inondable (varzea), noyée en divers points sur 100. km.de large au plus fort de la crue annuelle. Celle-ci dure enCirbn six mois et dépasse, chez certains tributaires, une dizaine de mètres de hauteur par endroits.
- Dans sa partie brésilienne, l’Amazone offre trois sections assez différentes. A l’Ouest, une plaine immense, s’étendant des derniers contreforts andins et allant en se rétrécissant progressivement jusqu’à proximité de Manaus. Là débute le sillon amazonien, le fleuve étant dès lors encadré de modestes collines, qui prennent un peu d’ampleur entre Monte Alegre et Almeirim, du côté nord, aux approches du plateau guyanais, dont quelques pitons se hissent à près de 900 m d’altitude. Plus en aval débute: la zone de l’estuaire, où convergent également le Xingü et le Tocantins, dont les eaux se mêlent à celles de l’Amazone et serpentent à travers un dédale d’îles basses. Marajô, la plus grande, dépasse l’étendue de la Suisse. Si l’Amazonie est une plaine sur la majeure partie de sa surface, des reliefs notables marquent cependant sa périphérie, ceux de la Serra Pacaraima (1 5oo m) et du massif de Roraima (2 810 m), aux confins du Vénézruela. Au Sud du bassin, c’est le Plateau brésilien, avec des hauteurs de 1 000 à 1 5oo m dans le Goias et le Mato Gi’osso.
- Sur ce puissant réseau fluvial s’étend, avec des aspects très divers, la plus grande forêt tropicale du monde (fig. 5), qui occupe environ les trois cinquièmes de l’Amazonie brésilienne; des savanes (fig. 7 et 8) et des palmeraies naturelles se partageant le reste, notamment dans la zone côtière de l’Amapa, le Rio Branco et le Mato Grosso (fig. de la couverture).
- Le climat est caractérisé par la constance de ses températures élevées mais non excessives, par sa grande humidité et ses pluies abondantes. Il y a place, néanmoins, pour une saison sèche plus
- ou moins accentuée et de durée variable suivant les régions, en moyenne de quatre mois. L’Est du bassin, dans la zone atlantique, a son climat tempéré par l’alizé, au point qu’à Belém, tout proche de l’équateur, la chaleur est généralement très supportable. Dans l’intérieur, des nuits relativement fraîches contrastent souvent avec des journées pénibles.
- L’essor économique que connaît depuis peu d’années l’Amazonie a pris, dès le début, l’allure d’un véritable rush. L’installation à Belém de la S.P.V.E.A., dispensatrice de larges subventions fédérales, y a contribué pour une part importante, mais d’autres facteurs sont entrés en jeu, en particulier la réalisation d’un vaste programme de recherches pétrolières dans la vallée de l’Amazone et dans certaines aires adjacentes, telles que le Maranliâo, conduites par Petrobras, organisme fédéral dont relève tout ce qui a trait à l’industrie des hydrocarbures. Les investigations minières, à peu près inexistantes jusque-là, ont été stimulées, d’autre part, grâce à la découverte du puissant gisement de manganèse de la Serra do Navio, en Amapn.
- Le rush que j’évoque se traduit par un afflux de gens, tant du Sud du Brésil que de l’étranger : fonctionnaires, hommes d’affaires, techniciens, aventuriers inévitablement aussi, qui ont du mal à se loger à Belém et à Manaus, dont la population a doublé. Belém, porte d’entrée et grand port de l’Amazonie, a maintenant 3oo 000 habitants. Un trafic considérable a transformé en artères trépidantes et enfumées de paisibles avenues ombragées de manguiers et bordées d’anciennes maisons joliment tapissées d’azulejos. Des gratte-ciel s’élèvent en divers points de cette ville qui s’étale sur une surface énorme progressant vers de misérables faubourgs environnés de marécages. De trop rares hôtels ne suffisent pas à loger les nouveaux venus et les gens de passage, amenés de toutes les directions par de nombreuses lignes aériennes.
- A 1 65o km de l’Atlantique, Manaus, fondé au xvme siècle, métropole et entrepôt des produits forestiers de l’hinterland amazonien, a vu sa population s’élever à i5o 000 habitants. Le confort de son hôtel Amazonas, conçu pour les touristes américains désireux d’avoir sans effort une vision de la forêt équatoriale, profite surtout aux techniciens qui peinent dans celle-ci et viennent là, à tour de rôle, se retremper quelques jours dans la civilisation. En ville, c’est la pénurie de logements qui sévit, de même jusque dans les petits centres les plus reculés du pays, dont les hôtels sommaires sont toujours bondés de voyageurs. Cet afflux de monde se traduit également par la difficultéd’obte-
- Fig. 3 (à gauche). — Comptoir de commerce près d’Almeirim, sur le bas Amazone. — Fig. 4 (à droite). — Caboclos dans une rue d’Obidos.
- (Photos E. A.UBERT DE LA RÜE).
- p.466 - vue 470/527
-
-
-
- 4(37
- Fig. 5 (en haut à gauche). — Plaine forestière du delta de l’Amazone, vue d’avion. — Fig. 6 (en haut à droite). — Confluent de l’Amazone et du Rio Negro, en aval de Manaus. Les eaux troubles et limoneuses de l'Amazone sont longues à se mélanger à celles sombres, mais limpides, de son grand affluent. — Fig 7 (en bas à gauche). — Savane arbustive à Palicoura rigida, Byrsonima crassifolia, etc., près de Porto Grande (Amapa). Fig. 8 (en bas à droite). — Savane à Mauritia vinifera, près d’Abuna (Rondonia) (Photos E. Aubert de la Rüe).
- nir une place d’avion ou un passage à bord d’un bateau fluvial pour se déplacer à travers l’Amazonie. Même les trains cahotants de la lointaine voie ferrée du Madeira-Mamore, qui unit Porto Velho à la Bolivie, sont littéralement pris d’assaut longtemps avant le départ !
- Cette soudaine activité surgie le long des rives de l’Amazone et le brusque afflux de la population qui en est résulté ont eu pour conséquence une hausse considérable du coût de la vie, aujourd’hui deux fois plus élevé dans toute l’aire amazonienne que dans le Sud du pays, d’où sont importées, par mer ou par air, la plupart des denrées alimentaires et des marchandises de toutes sortes.
- On ne pouvait songer, avec une main-d’œuvre rare et des crédits malgré tout limités, à développer dans un bref délai l’ensemble de l’Amazonie tellement attardée. La nécessité s’est imposée d’établir un progi'amme de priorités et de choisir, tout cl’abord, un certain nombre de secteurs favorisés par leur densitç de population ou leurs possibilités économiques, tout en améliorant les moyens de transport qui les desservent. L’Amazone et ses tributaires représentent le système fluvial le plus considérable et le plus parfait du globe, étalé en éventail et convergeant vers l’Atlantique; aussi les transports par eau demeurent-ils les plus pratiques et les moins coûteux. Des améliorations sont prévues, toutefois, en vue d’élargir et
- p.467 - vue 471/527
-
-
-
- 468
- Fig-. 9 (en haut à gauche). — Borba, sur une haute terrasse alluviale du rio Madeira. Vue prise en période de basses eaux (octobre) et montrant jusqu’où peut s’élever la crue annuelle. — Fig. 10 (en haut à droite). — Campement dans la forêt équatoriale : vallée du rio Araguari (Amapa). — Fig. 11 (en bas à gauche). — Un quartier flottant de Manaus, sur le rio Negro. — Fig. 12 (en bas à droite). — Savane conquise sur la forêt dans le Territoire de Rondonia. Les Palmiers Babaçu, recherchés pour leurs graines oléagineuses et leurs palmes qui servent à couvrir les
- habitations, ont été épargnés lors du défrichement (Photos E. Aubert de la Rüe).
- d’approfondir les chenaux navigables de certains affluents, tels que le Tocantins, le Madeira, le Rio Branco, le Purus, le Jurua et d’autres. Un progrès considérable a été réalisé par l’acquisition, en Hollande, de douze navires fluviaux rapides des plus modernes.
- Pour le moment, seuls l’Amapa, la région de Belém-Bra-ganza et le Maranhâo disposent de quelques routes et de pistes, ces dernières impraticables durant les pluies. Ailleurs, même autour de Manaus, n’existent que des tronçons de routes d’intérêt très local. Des routes importantes sont cependant prévues et en. cours de construction pour unir l’Amazonie au reste du
- pays. L’une d’elles reliera Belérn au Nord-Est par le Maranhâo, une autre permettra une jonction directe avec le Sud, par Anapolis sur le Tocantins, tandis qu’une dernière ira de Porto Velho à Cuiaba, chef-lieu du Mato Grosso.
- Dans le passé et jusqu’à ces dernières années, l’économie très rudimentaire de l’Amazonie était fondée sur l’exploitation désordonnée des produits forestiers, le caoutchouc en premier lieu. Au moment du grand boom que suscita sa récolte, de 1890 à 1911, la production annuelle s’élevait à près de 45 000 t, juste avant le déclin brutal dû à la concurrence des plantations asiatiques. Les grandes cultures d’hévéas que devait entre-
- p.468 - vue 472/527
-
-
-
- '.69
- Fig-, 13 (en haut à gauche). — Peuplement d’Avicennia formant la mangrove du Maranhao dans la vallée du rio Itapicuru. — Fig. 14 (en haut à droite). — Habitation de colon du Ceara sur le rio Mamore, à la frontière bolivienne. — Fig. 1S (en bas à gauche). — Culture sur pilotis près de Guajara Mirim (Rondonia). Pour les protéger des insectes, spécialement des fourmis, les cultures délicates sont souvent entreprises dans de vieilles pirogues surélevées. — Fig. 16 (en bas à droite). — Défrichement de la forêt tropicale par des colons japonais, près
- de Porto Velho (Photos E. Aubert de la Rue).
- prendre plus tard II. Ford à Bellerra et à Fordlandia, sur le Tapajos, aboutirent à un échec économique. Elles furent abandonnées après vingt ans d’efforts et des millions de dollars dépensés. La deuxième guerre mondiale suscita un renouveau d’activité dans les sevingais. Privés de la production asiatique, les Etats-Unis firent appel au Brésil et, 5o ooo Nordestinos furent hâtivement recrutés pour gagner ce que l’on a appelé la batalha da borracha, la bataille du caoutchouc. Ils réussirent, mais la moitié d’entre eux furent décimés par la faim, la malaria et les endémies tropicales. Le mirage du caoutchouc demeure malgré tout puissant et accapare une main-d’œuvre
- qui fait gravement défaut aux cultures vivrières trop délaissées. Dans les années précédentes, la collecte du latex produit environ 33 ooo t, entièrement absorbées par les usines de Sâo Paulo. Cette cueillette impose aux seringueiros de longs voyages sur les rivières les plus reculées et l’obligation de s’enfoncer dans les parties les plus lointaines de la forêt. Ils se heurtent là, parfois, aux Indiens primitifs et ces embuscades continuent à faire chaque année de nouvelles victimes de part et d’autre. La récolte se fait pendant la saison sèche, après quoi les seringueiros se hâtent de dépenser dans les petits centres leur maigre gain, s'endettant jusqu’à la campagne suivante.
- p.469 - vue 473/527
-
-
-
- 470
- Fig. 17. — Culture de manioc et d’ananas au milieu de la forêt détruite par le feu, près de Porto Velho.
- (Photo E. Albert de la Rue).
- La châtaigne du Parà (Bertholletia excelsa),' exportée aux États-Unis sous le nom de noix du Brésil, demeure la seconde des productions forestières. C’est la graine d’un arbre immense, qui peut en donner jusqu’à 5oo kg par an. Au total, on en récolte 3o ooo t chaque année, ce qui donne lieu à des migrations temporaires importantes, surtout dans les états de Parâ et d’Amazonas. La forêt amazonienne fournit également de l’essence de rose, extraite d’une Lauracée dont le bois, réduit en copeaux, est distillé dans quelque cinquante petites usines, en majorité situées également dans les deux états cités.
- Nombreux sont les palmiers qui fournissent des graines oléagineuses, mais peu donnent lieu à une récolte méthodique, en dehors de celles du babaçu, dont on tire une huile industrielle. Ce palmier est particulièrement abondant dans le Maranhâo et le Nord du Goias, où il envahit rapidement les terres en friche. Bien d’autres produits de cueillette sont encore demandés à la forêt, que l’industrialisation du pays ne saurait évincer.
- Il y a les bois enfin, appartenant à des essences extrêmement diverses et pouvant convenir aux usages les plus variés, mais d’une exploitation malaisée du fait de leur grande dispersion. Un recensement méticuleux s’impose et l’on procède en ce moment à ce travail préalable dans certains secteurs forestiers intacts, particulièrement intéressants et relativement accessibles. Signalons à ce propos qu’en bordure du fleuve et de ses principaux affluents, la forêt équatoriale primitive n’existe plus depuis longtemps, détruite par des défrichements et des coupes destinées à fournir en charbon de bois la population des villes et en combustible les navires fluviaux. Le plus souvent, ce n’est qu’une forêt secondaire, exubérante et riche en lianes, mais sans valeur économique, que le voyageur voit défiler le long des rives. Il faut s’enfoncer loin dans l’intérieur des terres pour trouver intacte la majestueuse forêt amazonienne.
- ' Le problème de l’alimentation est sérieux et cette immense contrée est actuellement incapable de nourrir sa faible population. On conçoit que la S.P.V.E.A. ait porté dans les débuts le principal de son effort sur l’extension des cultures, de l’éle-
- vage et l’amélioration de la pêche. Des quatre aliments de base du Brésil, riz, maïs, haricots et manioc, seul ce dernier est produit ici en quantité suffisante. Ge serait s’illusionner grandement de croire que toutes les terres que l’on arrachera à la forêt auront une vocation agricole. L’Amazonie, sur la plus grande partie de son étendue, offre des sols forestiers d’une fertilité fragile, voués à une stérilisation rapide dès qu’ils sont privés de leur couvert végétal naturel. Sans voir en elle le futur grenier du monde, comme on l’entend dire parfois, on peut admettre qu’elle suffira à satisfaire ses propres besoins alimentaires même fortement accrus, et qu’elle deviendra exportatrice de certaines denrées. Il existe là suffisamment de terres inondables, profondes et riches, facilement accessibles le long des grands rios, pour y établir des rizières et autres cultures vivrières annuelles. Pour l’instant, la principale zone agricole est la région bragantine, à l’Est de Belém, entre le rio Guama et le littoral. Les cultures se succèdent également le long des rives du cours moyen de l’Amazone, entre Alenquer et le confluent du Madeira en amont. Des colonies agricoles ont été établies ces dernières années en de nombreux endroits, jusque dans les territoires fédéraux les plus lointains et d’autres sont en formation. Les unes groupent des Nordestinos, d’autres des Japonais (fig. 16), dont il arrive continuellement de nouveaux contingents. L’essor agricole de l’Amazonie ne peut que profiter de la venue de ces jardiniers méticuleux, qui approvisionnent maintenant tous les principaux centres en légumes variés. Ce sont les premiers venus parmi ces cultivateurs japonais qui ont introduit le jute et le poivre. Ils ont planté le jute à Parintins en 1937 et ce fut une réussite, la production du bas Amazone atteignant aujourd’hui 35 000 t par an. Le Brésil avait grand besoin de celte plante textile pour faire des sacs afin d’exporter son café et des toiles pour l’emballage de son colon. Indroduit par les jésuites au xvne siècle, le poivre n’eut jamais d’importance économique. Les. Japonais en ont repris la culture sur des bases commerciales dans le Para et obtiennent une production annuelle de 1 3oo t.
- L’élevage demeure déficient et le cheptel bovin ne représente que 2 pour 100 de celui de tout le Brésil. Les savanes ne manquent pas, mais ce sont des pâturages de faible valeur. Les Brésiliens sont de gros mangeurs de viande et l’approvisionnement des centres urbains pose de sérieux problèmes. C’est de Pedro Afonso, sur le Tocantins, à 800 km au Sud de Belém, que l’on fait venir chaque jour, par avion, une partie de la viande nécessaire à la capitale du Paré. Le reste lui arrive de Pile de Marajô, dont les 900 fazendas comptent, en tout, près de 600 000 têtes de bétail. Des essais sont en cours, en vue d’améliorer les prairies naturelles de Prie par l’introduction de plantes fourragères étrangères. De son côté, le territoire du Bio Branco, avec ses immenses savanes, se consacre également à l’élevage et l’on y profite de la crue annuelle pour expédier par bateau le bétail à Manaus, la navigation étant ici précaire le reste de l’année.
- La pêche fluviale est une ressource alimentaire précieuse, accessible à toute la population de l’intérieur ; aussi lui demande-t-on beaucoup. Les espèces de poisson sont nombreuses, mais de qualités diverses, et les silures, à la chair molle et fade, sont les plus fréquemment capturés. Le plus réputé, sinon le meilleur, est l’énorme pirarucu (Arapaima gigas), dont le poids peut dépasser 100 kg. On s’efforce de donner aux pêcheries, la plupart en amont de Manaus, sur le rio Negro et le Solimôes, un caractère plus industriel afin de livrer aux populations du bas Amazone un produit salé et séché de meilleure qualité que précédemment, l’humidité du climat le détériorant rapidement. Un voyage sur le fleuve, à bord d’un navire transportant du pirarucu mal conditionné, est un véritable cauchemar !
- La récolte des œufs d’iguane en juin et celle des œufs de tortue en août, lorsque la décrue fait apparaître les bancs de
- p.470 - vue 474/527
-
-
-
- 471
- sable où ces reptiles font leur ponte, tend à se raréfier, tant ils ont été pourchassés dans le passé. D’une façon générale, toute la faune amazonienne a été décimée et j’ai pu remonter l’Amazone et le Madeira durant près de 20 jours, sur 3 000 km, sans voir d’autres animaux que de très rares perroquets ! Même les caïmans, qui pullulaient, ont été en grande partie anéantis, tant ils ont été chassés pour leur peau. L’industrie de la nacre, dont il existe divers ateliers à Belém, se procure les coquillages nécessaires dans les eaux du fleuve, autour de Santarem en particulier (iig. 19).
- On sait encore peu de choses sur les ressources du sous-sol, mais 'la nature ancienne des roches dont il est formé, sur de grandes étendues, laisse à penser qu’il peut renfermer d’intéressantes richesses minérales. Les indices épars, que de rapides prospections ont déjà fait connaître, confirment cette opinion. Les gisements en exploitation sont encore peu nombreux, mais le plus récemment aménagé s’annonce d’une grande richesse. Il s’agit de la mine de manganèse de la Serra do Navio, dans la vallée du rio Amapari en Amapâ. Une voie ferrée de 195 km, inaugurée en janvier igôj, l’unit au port de Santana, spécialement construit sur la rive nord de l’Amazone en vue d’une exportation annuelle de 700 000 t de minerai. Pour l’instant, les autres substances minérales connues en divers points de l’Amazonie sont exploitées de façon primitive par des garim-peiros, qui les extraient des alluvions à la bâtée. Ce sont essentiellement l’or, en Amapâ et dans la vallée du Gurupi, l’étain et la tanlalile en Amapâ, le diamant dans le Rio Branco, le Goias et le Rondonia, le quartz hyalin, recherché pour les instruments de physique, autour de Pium (Goias). De récentes prospections ont permis la découverte de bauxite et de minerai de chrome en Amapâ, d’étain dans le Rondonia et de puissantes couches de sel gemme dans la vallée de l’Amazone. La houille, enfin, est connue le long du rio Fresco, affluent du haut Xingu (Parâ).
- L’enthousiasme est grand en ce qui concerne les possibilités en pétrole du sous-sol amazonien. Petrobras poursuit activement les recherches parmi les terrains paléozoïques qui ont une grande extension en Amazonie centrale. Plusieurs forages profonds sont en cours, entre autres à Nova Olinda, sur le bas Madeira, où le pétrole a été rencontré pour la première fois le i3 mars 1955. D’autres forages sont pratiqués sur le rio Abacaxi et l’île de Trinidade, dans ce même secteur, de même que sur le rio Cupari, affluent du Tapajos, ainsi que dans le Maranhâo.
- Fig. 18. — Embarquement des peaux de bœuf à Caroltna, région d’élevage de la vallée du Tocantins (Photo E. Atjbert de la Rue).
- Fig. 19. — Coquillages de l’Amazone, après leur utilisation par une fabrique de boutons de nacre à Belém.
- {Photo E. Aubert de la Rüe).
- De nombreuses équipes géologiques et géophysiques procèdent, d’autre part, à des recherches le long des rios Utama, Maues, Purus, Trombetas et Curua do Sul, en quête de nouveaux points de forage. Peu de résultats positifs ont cependant été acquis jusqu’à présent.
- L’industrialisation de l’Amazonie est tout juste naissante, mais son expansion exigera d’ici peu une énergie électrique que l’on obtiendra facilement par l’équipement des chutes d’eau qui abondent sur certaines rivières. L’Amapâ, territoire particulièrement progressif, est en train d’aménager une grande centrale au Paredâo, sur le rio Amapari, afin de fournir le courant nécessaire à Macapâ, son chef-lieu.
- Une des plus récentes réalisations industrielles est la raffinerie de pétrole établie le long du rio Negro, juste en aval de Manaus, prévue pour traiter le pétrole brut, que l’on espère voir jaillir dans la vallée de l’Amazone. Elle est alimentée, en attendant, par les puits du Pérou.
- Plusieurs organismes scientifiques participent à l’essor de l’Amazonie. En premier lieu l’Institut national de Recherches en Amazonie, à Manaus, où fonctionne également un centre de recherches forestières, s’intéressant spécialement à la préparation de la cellulose. A Belém se trouve l’Institut agronomique du Nord, contrôlant plusieurs stations d’essais disséminées dans l’ensemble du territoire. Des organismes internationaux, tels que la F.A.O. et l’UNESCO, ont mis à la disposition des autorités brésiliennes des experts étrangers. Ils collaborent avec les techniciens du pays pour mener à bien les études qui doivent conduire à la réalisation de cette œuvre grandiose qu’est le développement du Bassin de l’Amazone et son intégration à la vie économique du Brésil. Il serait injuste de ne pas citer non plus le concours apporté à cette tâche par le Musée Goeldi de Belém, créé par un Suisse au début du siècle et rénové dernièrement. Avec sa bibliothèque, ses riches collections d’histoire naturelle, son très beau parc zoologique, qui permet aux cinéastes de filmer sans peine toute la faune sauvage du pays, ce musée offre une précieuse source de documentation sur le monde amazonien.
- E. Aubert de la Rüe,
- Maître de recherches au C.N.R.S.
- p.471 - vue 475/527
-
-
-
- La lutte contre la corrosion
- Protection cathodique et revêtements
- contre la corrosion de l’acier et du béton armé
- enterrés ou immergés
- Nous poursuivons notre enquête sur la corrosion par un article que M. Bernard Heuzé, directeur de la Société d’Êtudes contre la Corrosion, a bien voulu nous donner sur la protection des ouvrages en acier et en béton armé enterrés ou immergés. Rappelons que nous avons publié précédemment (La Nature, septembre 1958, p. 364) un exposé de M. P. Morissèt sur les revêtements métalliques contre la corrosion atmosphérique, où étaient expliqués les mécanismes de la corrosion électro-chimique.
- On sait que pour assurer la protection cathodique de l'acier, il est néeessaii’e et suffisant de le porter en permanence à un certain potentiel négatif par rapport au milieu environnant, de telle sorte que la surface métallique reçoive un courant continu de densité déterminée. Le seuil de potentiel à partir duquel la protection cathodique est pleinement efficace est de l’ordre de o,8 V pour l’acier. La densité de courant correspondante peut atteindre 5o et même ioo mÀ/m2 dans les conditions de dépolarisation les plus actives telles qu’on les rencontre polir de l’acier nu exposé à la mer, mais elle est souvent beaucoup plus modeste. L’acier ainsi protégé est en état de passivité : il ne subit aucune corrosion et reste donc indéfiniment intact quelle que soit l’agressivité à laquelle il est exposé, cela indépendamment de la qualité du revêtement qui peut lui être appliqué.
- Pour provoquer la protection cathodique d’un ouvrage en acier, on lui associe un dispositif anodique qui a pour rôle d’émettre le courant nécessaire. Les anodes fonctionnent soit spontanément si le métal constituant (zinc, alliage de magnésium) forme un couple électrique comunable avec l’acier, soit
- Fig 1. — Structure en béton au voisinage d’un tramway : tes armatures ont été détruites par corrosion électrolytique.
- au moyen d'une alimentation auxiliaire en courant continu (anodes en métal ferreux ou en graphite).
- Pour qu’un dispositif anodique soit satisfaisant, il faut qu’il assure la protection des surfaces métalliques dans leurs moindres détails : les chutes de tension qui accompagnent la propagation des courants dans le milieu environnant posent donc un problème de distribution et de répartition de la protection cathodique.Bien entendu, il n’admet de solution que dans les milieux qui présentent des propriétés électrolytiques : terrain, béton, eau douce, eau de mer, saumure, etc., et il ne peut être question d’adapter la protection cathodique aux structures aériennes.
- Dans le choix des moyens de conservation des ouvrages neufs, on ne saurait disjoindre l’étude du revêtement et celle de la protection cathodique. Il faut cependant se garder d’adopter d’emblée, peut-être par tradition, des dispositions qui seraient, en réalité, superflues ou mal dirigées.
- Les premiers dispositifs de protection cathodique, en France,, ont été réalisés a à chaud » sur des conduites enterrées en pleine corrosion, qu’il s’agissait de sauver. On a donc été obligé de les adapter purement et simplement aux conditions rencontrées. Du fait de l’expérience acquise, on a su ensuite prévoir les dangers et, pour faciliter la protection cathodique, on a perfectionné considérablement l’isolement apporté aux conduites par le revêtement.
- *
- # *
- A l’heure actuelle, le domaine initial des conduites en acier enterrées est largement dépassé : nous appliquons la protection cathodique à des réservoirs, des condenseurs, des gazomètres,, des conduites en béton armé, des ouvrages en palplanches ou en pieux métalliques placés en mer et exposés aux dangers particuliers du marnage, à des carènes de navires et de docks flottants, ce qui, tant du point de vue technique qu’économique, impose la coordination du revêtement et de la protection cathodique.
- Pour mettre ici en valeur quelques éléments de l’introduction qualitative et quantitative du revêtement dans la protection cathodique, et réciproquement, nous dirons tout d’abord quelques mots de la valeur anticorrosion propre des revêtements, puis de la protection cathodique.
- Nous examinerons ensuite certains aspects de la coordination du revêtement et de la protection cathodique, en faisant ressortir, pour différents types de revêiement, leur rôle de limiteurs de courants, de répartiteurs cle potentiel et d’accumulateurs de polarisation. Nous ferons une x'emarque à propos des incompatibilités et des dangers que peut présenter une mauvaise utilisation des revêtements.
- Enfin, nous rappellerons la nécessité de limiter, au moyen de revêtements, les interactions c’est-à-dire les répercussions d’un dispositif de protection cathodique, sur les ouvrages non protégés placés dans son voisinage.
- C’est surtout par des exemples que nous fixerons ces points de vue.
- p.472 - vue 476/527
-
-
-
- 473
- Fig. 2 et 3. — Corrosion à la mer.
- A gauche, palplanche métallique dont le revêtement a disparu en quelques mois sous la prolifération des coquillages. A droite, palplanche dont le revêtement est décollé pour une raison analogue ; il indique en outre un sérieux défaut d’accrochage du revêtement.
- Valeur anticorrosion propre des revêtements. —
- Aucun des revêtements usuels que l’on applique sur les ouvrages enterrés ou immergés n’est en mesure de constituer, du moins à longue échéance, une protection parfaite contre les dangers classiques de corrosion. Les revêtements à hase de brai sur les conduites enterrées ne peuvent s’opposer longtemps au passage des courants vagabonds, des courants qui résultent des piles géologiques, ni même aux attaques électro-chimiques locales. On sait par expérience que le pipe-line le mieux isolé peut subir de graves dommages en quelques mois, lorsqu’il avoisine des voies ferrées électrifiées, à proximité d’une sous-station, ou en quelques années, lorsqu’il traverse des terrains agressifs hétérogènes.
- De son côté, le revêtement de béton qui, en raison de son alcalinité, « passive » l’acier, ne le met pas, à coup sûr, à l’abri des mêmes dangers. La résistance des conduites d’adduction d’eau en béton armé, enterrées dans des sols même très agressifs, est bien connue comme étant extrêmement satisfaisante, mais il est des cas où des courants de piles géologiques et, bien entendu, des courants vagabonds, provoquent des sollicitations auxquelles le revêtement de béton finit par céder. La figure i en est un exemple : dans le voisinage immédiat de voies de tramways, les armatures ont été détruites progressivement par corrosion électrolytique.
- A la mer, la tenue des revêtements est encore plus sujette à caution : la flore et la faune marines, en particulier, s’attachent aux surfaces immergées et, ceci, d’autant plus aisément que les produits utilisés sont plus plastiques (fig. 2 et 3). L’immersion intermittente due au marnage et l’émersion consécutive constituent aussi une dure épreuve pour les revêtements. Mais il existe des procédés qui peuvent donner satisfaction. Les palplanches métalliques représentées par la figure 4, exposées dans les mêmes conditions que les précédentes, étaient métallisées au zinc. On voit que les coquillages les ont délaissées.
- En règle générale, les revêtements usuels, qu’ils soient peintures, brais, matières plastiques ou même béton, ne sont pas immuables et, bien souvent, les conditions d’exposition en ont trop rapidement raison.
- Valeur anticorrosion propre de la protection catho= dique. — La protection cathodique, par contre, appliquée seule sur de l’acier nu, a fait ses preuves. Elle stoppe la cori'osion tant qu’elle est maintenue, c’est-à-dire tant que la valeur convenable du potentiel par rapport au milieu immédiatement en contact est bien respectée.
- On peut dire que la protection cathodique n’a jamais été mise en défaut et que, si une installation a par hasard donné des déboires, c’est parce que les conditions de potentiel n’étaient, en réalité, pas atteintes, ou, cas particulier à distinguer, parce que la protection cathodique a été appliquée sur des ouvrages arrivés déjà à la limite de la sécurité.
- Fig. 4. — Palplanches métallisées au zinc et délaissées par les coquillages.
- p.473 - vue 477/527
-
-
-
- 4/4
- Coordination du revêtement et de la protection cathodique. — Sans préjuger d’éventuelles conditions restrictives, il faut donc considérer que la protection cathodique est la base, le principe n° i d’une méthode anticorrosion parfaitement efficace, alors que le revêtement, pris individuellement, ne peut y prétendre, du moins pour les ouvrages enterrés ou immergés. Cependant le revêtement présente, la plupart du temps, des avantages qui le rendent non seulement utile, mais nécessaire : on en jugera plus loin dans la simplification des installations de protection cathodique qui, en raison des interactions, peuvent devenir sans 'lui inextricables.
- Rôle des revêtements en général. — Le revêtement, en général, a âme triple influence sur lé conditionnement de la protection cathodique :
- — Il limite la surface qui reçoit le courant de protection cathodique;
- —- De ce fait, il améliore la répartition des potentiels de protection, car il modifie le champ de potentiel qui s’établit entre anode et cathode et lui assure une meilleure diffusion;
- — Enfin, il peut être un accumulateur de polarisation, du fait qu’il permet à la protection cathodique de persister en l’absence des courants qui ont provoqué la polarisation nécessaire.
- Nous subdiviserons à ce sujet les revêtements en deux groupes : ceux qui, au contact de la surface sur laquelle ils sont appliqués, ne possèdent pas de propriétés électrolytiques; et ceux qui possèdent de telles propriétés.
- Revêtement diélectbique. — Le premier groupe est celui des produits diélectriques : leur propriété est d’offrir une résistance élevée au passage du courant électrique, autrement dit, de constituer un isolant électrique. C’est le cas des brais, des matières plastiques et des peintures habituelles.
- La figure 5 a représente, à titre d’exemple, un élément de conduite enterrée, munie d’un revêtement de brai. A l’échelle
- microscopique, le revêtement n’est pas parfaitement homo-
- gène et, bien qu’il ait été contrôlé au balai électrique et réparé, il comporte encore des pores et, quelquefois, des défauts plus importants qui se sont produits accidentellement lors de la mise en fouille de la conduite.
- C’est en réalité le rapport entre les surfaces convenablement couvertes et les surfaces nues qui détermine la qualité
- du revêtement, parce que, vis-à-vis de la protection cathodique, sa valeur isolante. Le courant de protection cathodique suit en effet, pour rejoindre l’acier, deux types de trajets distincts : dans l’un, il traverse l’isolant lui-même et arrive sur l’acier sans discontinuité, car l’isolant est convenablement accroché, c’est-à-dire en contact intime avec la surface du tuyau; l’autre trajet, à travers le pore, mène le courant beaucoup plus facilement vers l’acier, car la veine est relativement conductrice, du fait qu’elle est constituée par l’eau et les sels ambiants.
- En pratique, l’intensité qui suit le premier trajet, à travers l’isolant, est extrêmement faible, car le brai présente une résistivité de plusieurs mégohms/cm. Elle est absolument négligeable vis-à-vis de l’intensité qui pénètre directement vers l’acier par les défauts. C’est pour cette raison que, du point de vue de la protection cathodique, seul compte le rapport entre les surfaces non revêtues et les surfaces cachées.
- Un revêtement hautement diélectrique par exemple, mais affecté de nombreux défauts, laisse finalement passer beaucoup plus de courant qu’un revêtement moyennement diélectrique mais homogène, qui serait d’ailleurs également supérieur en l’absence de protection cathodique. C’est l’homogénéité que l’on doit rechercher lorsqu’on fait un revêtement, et ceci est applicable à tous les types d’ouvrages, de façon à obtenir un bon isolement moyen.
- Le rôle du revêtement est ainsi bien défini, en tant que
- limiteur des surfaces à protéger et, par conséquent, du courant global que doit absorber la conduite pour sa protection cathodique. Il s’ensuit que le revêtement améliore la répartition de cette protection.
- IN’ous avons représenté sur la même figure (fig. b b) une conduite sur laquelle est appliqué un soutirage de courant, en supposant que l’anode n’est pas directive, autrement dit que son champ de potentiel est, au voisinage de la conduite, suffisamment amorti pour qu’elle ne produise pas une surprotection brutale. Du fait des chutes de tension dues à la circulation, dans la conduite, du courant qu’elle absorbe pour sa protection, les potentiels auxquels elle peut être portée par rapport au sol s’amortissent avec la distance au point de soutirage.
- Pour que la protection soit correcte, avec un potentiel que nous appelons VL, à une distance L du point de soutirage, il faut donc que le potentiel V0 en ce dernier point soit plus grand que VL. On peut appeler « portée » du soutirage la distance maximum L, telle que VL et V0 restent respectivement dans les limites choisies. Ces limites sont habituellement de l’ordre de 830 mV pour VL, et de 1,5 V pour Y0. D’où : VL/V0 = 0,57 (fig. 5).
- a
- l i \i/
- î
- mm
- vvvc
- \V
- jV\AhlA \ \\'\X\'\ \ \ VLmvŸri\,'f\ V\
- 3
- Longueur.
- I = B
- Fig. 5. — Faibles surfaces — grande portée.
- Explications dans le texte.
- Le rapport VL/V0 étant ainsi fixé, la portée L du poste de prcr
- tection est théoriquement de la forme L = Ay/lt, A étant une constante qui fait intervenir la résistance électrique du tuyau d’acier. La portée L du poste de protection ne dépend donc que de la résistance électrique moyenne R offerte par le revêtement au passage du courant.
- On voit que, pour un tube donné, ce qui fixe . A, on multiplie par deux la portée L d’un appareil de protection lorsqu’on multiplie par quatre la résistance au mètre carré du revêtement. On verrait de même que, conjointement, on réduit de moitié l’intensité qu’il est nécessaire de soutirer à la conduite pour sa protection cathodique.
- Considérons, par exemple, une conduite de 10 pouces, de 4 mm d’épaisseur. Avec un revêtement de 5 000 D par mètre carré, on peut en protéger 15 km, avec un soutirage de 5 A. Il suffit de lui appliquer un revêtement 4 fois plus résistant, c’est-à-dire de 20 000 il, pour pouvoir en protéger une longueur double, soit 30 km, avec un courant moitié moindre, soit 2,5 A seulement. Bien entendu, ces valeurs concernent la demi-conduite vue du point de soutirage : on les retrouve symétriquement de l’autre côté.
- Cet exemple illustre, non pas la nécessité de chercher des produits hautement diélectriques (le brai l’est suffisamment), mais bien d’exécuter correctement les revêtements, de façon qu’ils soient homogènes. Le même produit peut donner i ooo O/m2 ou même moins, s’il est mal appliqué, alors qu’il fournit 20 000 et même 4o 000 O s’il limite convenablement
- p.474 - vue 478/527
-
-
-
- 475
- Fig. 6. — Revêtement en ligne d’un pipe-line.
- la surface. C’est donc bien comme répartiteur de potentiel •qu’il faut également considérer le revêtement dans les dispositifs de protection cathodique.
- Remarques. — Quelques remarques maintenant sur le danger que peut présenter le décollement on le défaut Systématique d’accrochage des revêtements.
- Lorsqu’un revêtement est décollé (fig. 7 a), l’eau et les sels du terrain peuvent cheminer et constituer un danger électro-chimique local pour l’acier. Plus le revêtement est homogène et moins l’on a, malgré les apparences, la possibilité de réaliser la protection cathodique aux alentours d’un défaut local. Dans le cas représenté, par exemple, le courant subit un étranglement au passage du défaut, autrement dit il rencontre une résistance qui lui interdit d’arriver à densité suffisante sur la grande surface sous-jacente qu’il devrait protéger.
- Les chutes de tension se produisent entièrement sur le trajet des filets de courant, de telle sorte que le potentiel qui reste au contact même des surfaces à protéger est insuffisant pour la protection cathodique. Ce résultat est d’autant plus dangereux qu’il ne peut être décelé par les mesures effectuées en surface. Il y a là une difficulté que l’on ne doit pas perdre de vue, surtout pour l’emploi des revêtements en matière plastique ; il faut prévoir non pas un simple enrubannage à sec, mais un réel collage.
- Rappelons aussi que certains revêtements sont incompatibles avec la protection cathodique, soit parce qu’ils se saponifient en raison de l’alcalinisalion de la région cathodique, soit parce qu’ils se décollent sous l’effet de l’hydrogène naissant. Il faut choisir les peintures aine‘prudence, lorsque l’on compte les employer sous protection cathodique.
- Revêtement
- ffo/s aggloméré Béton
- Bois aggloméré
- Fig. 7. — Deux cas de revêtement dangereux. Explications dans le texte.
- Enfin, la figure 7 b représente l’exemple d’un cas très particulier dans lequel l’hétérogénéité pure d’un revêtement a causé des désagréments. Il s’agit de tubes en acier d’un chauffage central par radiation. Les tubes sont noyés dans un plancher en béton. Pour limiter la déperdition de chaleur vers le sous-sol, on a interposé un aggloméré de bois entre les tubes de chauffage et le béton primaire, puis on a coulé sur l’ensemble le béton de revêtement. Or, l’aggloméré a absorbé l’humidité du béton et, comme on aurait dû le prévoir, il s’est produit, sur la génératrice de contact des tubes avec lui, des corrosions qui ont amené, en quelques mois, leur percement. Il y avait là une incompatibilité : les attaques ont donné lieu à des cratères de corrosion électrolytique. Elles sont le fait de courants électro-chimiques qui ont circulé localement d’un compartiment à l’autre de la pile dont le compartiment anodique était constitué par l’aggloméré humide et le compartiment cathodique par le béton. La tension du couple électro-chimique ainsi développé était de l’ordre de 0,5 Y. Ici, heureusement, la protection cathodique est venue sauver la situation : on l’a appliquée, dès que les premières fuites se sont produites, fuites qui, d’ailleurs, aggravaient le danger puisqu’elles venaient imprégner encore davantage l’aggloméré. L’intensité qui a été utilisée au total pour la protection cathodique des tubes de chauffage dans 500 m2 de plancher environ est de 2 A.
- Revêtements non diélectriques. — Nous en arrivons maintenant au rôle du revêtement en tant qu'accumulateur de potentiel.
- Ce n’est, bien entendu, pas le revêtement diélectrique qui peut jouer le rôle d’accumulateur : les charges statiques n’ont aucune relation pratique avec la protection cathodique. Il s’agit par exemple des films calcaires qui se déposent dans certaines conditions à la surface de l’acier, sous l’influence du courant de protection cathodique. Ils peuvent apparaître secondairement dans les revêtements diélectriques ou, plus exactemént, dans les défauts des revêtements diélectriques. Ils ont la propriété de retarder la dépolarisation de l’acier, après que le courant de protection est supprimé.
- On s’en rend compte très bien sur les conduites qui sont soumises à la protection cathodique depuis un certain temps : lorsqu’on met hors service tous les postes de protection, on observe tout d’abord une variation de potentiel instantanée qui correspond à la disparition des chutes ohmiques, précédemment dues au passage du courant, puis le potentiel se stabilise et décroît alors très lentement, en valeur absolue. La dépolarisation complète demande souvent plusieurs heures et, parfois, plusieurs jours.
- Il faut bien remarquer que, même après .suppression du courant, la protection cathodique reste effective, tant que le potentiel, au cours de cette depolarisation, n’a pas franchi le seuil au-delà duquel l’acier se retrouve en danger de corrosion. Celle propriété est extrêmement marquée pour les revêtements en béton. La dépolarisation des aciers qu’ils recouvrent demande souvent plusieurs semaines pour marquer une avance appréciable.
- Il s’ensuit que, dans bien des cas, on peut obtenir une protection cathodique continue avec des soutirages de courant discontinus, fournis par exemple au moyen de génératrices éoliennes, ou au contraire imposés, comme c’est souvent le cas hors métropole, par l’arrêt des centrales Diesel électriques pendant la nuit. Nous utilisons d’ailleurs la rémanence des polarisations, dans un procédé breveté de protection cathodique à relaxation, suivant lequel le courant est envoyé sur les surfaces à protéger, pendant un délai déterminé, à partir du moment où leur potentiel franchit le seuil d’insécurité. Il permet, pour les grosses installations, de faire d’intéressantes économies d’énergie efc d’anodes.
- Sans nous étendre maintenant sur l’incidence des revêtements non diélectriques dans la limitation des surfaces, ainsi que la répartition et l’accumulation des potentiels, nous dirons simplement que leur rôle est très appréciable, : non seulement celui des revêtements de béton, mais également celui des fdms calcaires que produit, elle-même, la protection cat.hodique.
- Il faut par exemple 100 à i5o mA/m2 pour protéger de
- p.475 - vue 479/527
-
-
-
- Fig. 8 et 9. — Dock flottant (ci-contre) convenablement protégé par des chaînes d’anodes au magnésium dont on voit une (ci-dessous) au moment de sa mise en place par la grue.
- l’acier décapé, immergé en eau de mer. Mais il suffit de 4o mA/m2, si l’acier est recouvert du film calcaire, déposé par un traitement initial à forte densité de courant. Pour des surfaces recouvertes par 3 cm de béton, la densité de courant de protection cathodique n’excède pas quelques milliampères par mètre carré. Même avantage pour les ouvrages enterrés, d’où amélioration de la répartition des potentiels de protection.
- Citons, par exemple, le cas d’un pipe-line de 10 pouces traversant des vases malsaines imprégnées d’eau saumâtre et dont le revêtement était fort endommagé. Au cours d’un essai, nous lui avons appliqué un soutirage de 100 A. Initialement, cette intensité n’assurait la protection cathodique que sur 2 km environ. Les polarisations ont cependant gagné de proche en proche en raison de la formation du fdm calcaire, si bien qu’au bout de deux jours, une longueur 6 fois plus grande, soit 12 km, était parfaitement protégée.
- A l’heure actuelle, la protection est assurée sur ces 12 km, avec une intensité globale permanente, non pas de 100, mais de 30 A. Le film calcaire est donc venu au secours du revêtement à base de brai qui était déficient. L’opération sécurité se solde ici par une dépense annuelle de-300 000 F, avec l’économie d’un revêtement neuf que l’on avait tout d’abord envisagé de reconstituer, ce qui aurait coûté plusieurs millions.
- Revêtements constituant une protection cathodique. —
- Avant de donner quelques exemples de coordination du revêtement et de la protection cathodique sur des ouvrages immergés, nous dirons encore un mot des revêtements qui peuvent constituer, par eux-mêmes, une protection cathodique : la galvanisation, la métallisation au zinc par schoppage, pour ne citer que les plus courants.
- Ce sont, en somme, des procédés de protection cathodique dans lesquels l’anode de zinc est uniformément répartie et parfaitement directive, du fait qu’elle est placée contre la surface à protéger. On y reconnaît encore les trois rôles du revêtement :
- — Limiteur de surface, puisqu’il recouvre l’acier;
- — Répartiteur de potentiel, puisqu’il est élémentairement réparti en tous points de la surface;
- — Accumulateur, puisqu’il est lui-même l’anode susceptible de fournir le couraht de protection cathodique à l’acier qu’il dévoile dans ses propres failles.
- Son seul défaut, point de vue économique mis à part, est, au fond, de s’user lorsqu’il est poreux ou endommagé. Toutefois, on peut limiter son usure, en l’associant lui-même à une protection cathodique fournie par une anode extérieure.
- Quant aux peintures à base de zinc qui font actuellement leur apparition sur le mai’ché, il en est qui sont convenablement conductrices et constituent une réelle protection cathodique, au même titre électrochimique que les revêtements ci-dessus.
- p.476 - vue 480/527
-
-
-
- 477
- Exemples de coordination du revêtement et de la protection cathodique ; valeurs expérimentales. —
- La figure 8 représente un dock flottant de 20 000 t dont la carène offre une surface immergée de 8 à 9 000 m2 : sa longueur est de 200 m environ, pour une largeur de 4o m. Il n’est pas soumis, à proprement parler, à un marnage : la ligne de flottaison se déplace simplement et de façon épisodique, de 1 à 2 m, suivant que le dock flotlant est en lourd ou en lège.
- Le revêtement de la carène est constitué d’un brai appliqué à chaud. Il s’est endommagé en quelques mois, mais l’on obtient néanmoins la protection cathodique totale de la carène avec 70 A, soit moins de xo mA/rn2 de surface immergée. Cette intensité est tout simplement fournie par G chaînes d’anodes au magnésium (fig. 9) qui sont fixées par leur extrémité supérieure sur les flancs de la carène et pendent sous le dock. La répartition des potentiels de protection est excellente, bien que les anodes se trouvent relativement proches de la carène, car le revêtement isolant constitue un écran convenable.
- Si la carène n’était munie d’aucun revêtement, on pourrait la protéger avec un dispositif analogue, mais il faudrait multiplier le nombre des chaînes d’anodes pour obtenir une répartition de potentiels aussi bonne. L’intensité nécessaire serait alors de 3oo A environ, correspondant à une densité voisine de 4o mA/m2. 11 serait plus économique dans ce cas d’utiliser, non pas du magnésium, mais un redresseur ou un convertisseur fournissant du courant continu, à partir des installations électriques du dock, à des anodes en graphite ou en acier.
- Pour les palplanches enterrées, on ne peut généralement pas compter sur un revêtement, faute d’en trouver qui résiste au battage. La couche de goudron qui est bien souvent appliquée
- Fig. 10. — Tracé d’un rideau d’étanchéité autour d’une centrale
- thermique.
- aux palplanches pendant le stockage disparaît en majeure partie, ce qui est d’ailleurs sans inconvénient, car elle ne pi'ésente qu’une assez faible valeur isolante. La protection cathodique est donc utilisée seule pour mettre en sécui'ité les palplanches métalliques enterrées, conservées à titre définitif.
- La figure 10 représente par exemple le tracé d’un rideau d’étanchéité qui entoure une centrale thermique. Un côté de ce rideau sera récupéré ultérieurement lors de la réalisation d’une extension qui est prévue en seconde étape. On a donc eu à protéger seulement une surface de 3 000 m2. Après un traitement de choc effectué pendant quelques jours avec une densité de courant de 200 mA/m2, l’intensité permanente
- Fig. 11. — Wharf protégé cathodiquement par un redresseur de 600 A et une anode en acier de 70 t.
- nécessaire à la protection cathodique n’a pas dépassé 60 A, soit une densité de 20 mA/m2. Il a fallu environ 6 t d’anodes en alliage de magnésium, réparties en 12 postes distincts, pour constituer une réserve susceptible de fonctionner correctement pendant une première période de 10 ans.
- On a trouvé un grand avantage à conserver, à titre définitif, cet ouvrage léger en palplanches métalliques : on note, en particulier, une grande simplification dans l’ordonnancement et l’exécution des travaux, une excellente étanchéité et, enfin, l’acquisition d’une sécurité durable grâce à la protection cathodique, en dépit de l’impossibilité d’adopter un revêtement. Il est des cas où l’application et la réparation d’un revêtement peuvent être envisagées, mais où tous les produits essayés se montrent défaillants : sous les climats tropicaux, en particulier, les ouvrages exposés à la mer peuvent subir des attaques rapides que les procédés classiques sont incapables d’enrayer. Les bactéries sulfato-réductrices y participent fréquemment. Là encore, la protection cathodique est, à elle seule, d’un secours considérable.
- La figure ix représente un wharf de construction légèi’e, en pieux métalliques, qui, en Guinée, était soumis à de l'apides attaques. Les surfaces exposées comprennent : 4 000 m2 en fiche, 5 000 m2 en immersion permanente, 3 000 m2 exposés au marnage et 2 000 m2 exposés aux embruns. Avec une anode constituée par une péniche en acier hors d’usage de 70 l et
- Fig. 12. — Graphique indiquant la pénétration relative des attaques selon les conditions.
- Embruns
- Marnage
- moyen
- Sous -so/
- p.477 - vue 481/527
-
-
-
- 478
- Fig. 13. — Maquette établie pour étudier la répartition des potentiels de protection cathodique du wharf de la figure 11.
- un redresseur fournissant un courant continu de 6oo A, on met à l’abri la presque totalité du wharf.
- Il faut cependant compléter ce dispositif en revêtant les éléments soumis aux embruns et à la moitié supérieure du marnage. On conçoit, en effet, d’après la figure 12, contrôlée par nous expérimentalement dans une station d’essais du Nord de la France, que si la protection cathodique s’oppose parfaitement aux attaques sur les surfaces enterrées ou immergées en permanence, il lui faut, par contre, le secours d’un revêtement pour maintenir la polarisation dans la zone du marnage et qu’elle lui cède totalement le pas dans celle qui est exposée exclusivement à la corrosion atmosphérique. On a d’ailleurs toujours intérêt à faire descendre le revêtement le plus bas possible dans la zone de marnage.
- La figure i3 représente la maquette qui a été établie pour étudier au bassin électrique la répartition des potentiels de protection cathodique de ce wharf et préciser le projet de protection. Le choix judicieux des coefficients d’homothétie permet d’obtenir sur le modèle réduit une image exacte des potentiels de protection cathodique réels.
- L’écluse représentée par la figure 14 a été le sujet d’une coordination particulièrement intéressante. Les bajoyers sont constitués de palplanches métalliques qui offrent une surface immergée de 5 000 m2 et une égale surface en fiche du côté sas. Les faces extérieures des bajoyers et leur ancrage représentent 16 000 m2.
- Les conditions d’exposition et, en conséquence, les contingences de la protection anti-corrosion, sont intermédiaires entre celles du dock flottant qui n’est pratiquement pas soumis au marnage et celles du wharf qui le subit, au contraire, typiquement. L’écluse est soumise à un marnage artificiel dont la cadence est beaucoup plus élevée que celle des marées : la rémanence de la polarisation qui assure la protection cathodique des bajoyers est excellente lorsque l’eau atteint dans l’écluse son niveau le plus bas, car la phase d’émersion n’excède pas une heure environ. Il est inutile de protéger la face extérieure des bajoyers, les tirants et les rideaux d’ancrage (flg. 16), car les attaques auxquelles ils
- VF--’'’* “ »i- ! ’ ' Ancrage acier—J
- 1 —, - L 1
- Tirant acier
- > Palplanche acier
- •
- < i ,— Asphalte
- * . .. L —Radier béton
- \
- Fig. 16. Schéma de la protection de l’écluse de la figure 14.
- sont exposés de la part du terrain, qui est ici constitué exclusivement de sable, se limitent d’elles-mêmes, après formation d’une croûte superficielle protectrice.
- L’originalité de la solution adoptée pour la protection cathodique consiste dans le fait qu’on a utilisé un revêtement, non pas sur les bajoyers, mais sur le fond de l’écluse, dans le but de constituer un écran isolant qui emprisonne les courants dans le sas et limite l’intensité absorbée en pure perte par les surfaces extérieures. 200 t d’acier ont été employées dans le dispositif anodique qui, placé au fond de l’écluse, assurera ainsi 50 ans de service. L’intensité utilisée est de l’ordre de 350 A : elle est fournie par un redresseur tq cellules fer-sélénium à refroidissement naturel dans l’huile. Le réglage du débit s’effectue par un auto-transformateur. Le revêtement qui a été appliqué sur le radier procure une économie de courant de 150 A. Il est constitué par 15 mm d’asphalte anti-acide sablé.
- Au cours de l’étude qui a abouti au choix de cette solution, nous avions envisagé de métalliser au zinc les bajoyers ; cependant, des essais effectués sur maquette au bassin électrique nous ont montré que cette application est valable à la seule condition que l’on prévoie également un revêtement isolant sur le radier. Sans cette précaution, il faut, pour éviter l’usure du zinc, amener la surface en fiche des palplanches à un potentiel au moins égal à celui du zinc, soit —-1 100 mV environ (référence électrode S04Cu). On surprotégerait ainsi les surfaces en fiche, et ceci en pure perte puisque leur protection même est inutile. En outre, la densité de courant
- Fig. 14 et 15. — Protection cathodique d’une écluse en palplanches métalliques.
- Les bajoyers (parois intérieures), dont on voit un détail sur la photo de droite, sont en palplanches métalliques. Premier exemple d’une protection cathodique étudiée en même temps que la construction de l’ouvrage. Au bout de trois ans, on -n’a pas constaté de rouille sur les palplanches.
- (Photos G. Desreümaux, Malo-les-Bains).
- p.478 - vue 482/527
-
-
-
- 479
- /Inode
- Câble avec
- protection cathodique
- Conduite sans = protection cathodique
- Conduite
- Câble sans revêtement
- Potentiels.
- - Conduite
- *- Câble avec revêtement
- Potentiels.
- Fig. 17. — Schéma de l’interaction entre un câble avec protection cathodique et une conduite démunie de cette protection.
- nécessaire pour polariser de l’acier nu à — 1 100 mV s’élève à plus de 100 mA/m!, La densité est, en effet, une fonction exponentielle du potentiel.
- En définitive, la combinaison d’une métallisation au zinc des bajoyers avec une protection cathodique des surfaces en fiche aurait été plus exigeante en courant et plus onéreuse que la solution retenue.
- Interactions. — Il est bon de souligner enfin le rôle capital des revêtements dans la limitation des interactions produites par la protection cathodique. Les courants de protection cathodique présentent en effet, vis-à-vis des canalisations qui ne participent pas à cette protection, des 'dangers analogues à ceux des courants vagabonds.
- Le plomb et le feuillard du câble qui est représenté par la figure 17 sont supposés soumis à la protection cathodique. Il s’ensuit un champ de potentiel qui tend à soutirer du courant à la conduite croisée. Pour éliminer les dangers, il faut annu-
- ler ce champ de potentiel au voisinage immédiat de la conduite, mais attention, ce n’est pas sur la conduite qu’il faut placer un revêtement diélectrique, car on ne ferait ainsi que soustraire celle-ci au champ de potentiel, sans le faire disparaître. Le danger serait prêt à se réaliser dès que le moindre défaut se produirait dans le revêtement de la conduite. C’est, au contraire, sur le câble soumis à ,1a protection cathodique qu’il faut placer la gaine isolante, de façon à annuler effectivement le champ indésirable. En pratique, dans le cas d’un croisement, il est suffisant d’adopter l’isolement diélectrique sur une dizaine de mètres.
- Suivant ce principe, il faut retenir qu’il est indispensable d’isoler parfaitement les canalisations qui suivent des tracés urbains et que l’on désire protéger cathodiquement : sans cette précaution, on s’expose, soit à faire apparaître des corrosions sur les canalisations riveraines, soit à devoir généraliser la protection cathodique, si l’on veut faire disparaître ces corrosions.
- Le revêtement diélectrique est donc essentiel dans la lutte contre les interactions et l’on doit y apporter un soin tout particulier lorsqu’on projette un dispositif de protection cathodique pour un ouvrage existant ou futur.
- *
- * *
- En conclusion, le revêtement est un complément bien souvent indispensable de la protection cathodique pour les ouvrages enterrés ou immergés. Il faut toutefois le choisir et le répartir en toute connaissance de cause, après étude technique et économique des meilleures conditions de coordination.
- Ce point de vue est désormais largement partagé et l’avantage décisif que l’on en tire, lorsqu’on l’adopte avant construction des ouvrages, est bien souvent de les alléger au profit de l’économie, tout en parvenant à un meilleur coefficient de sécurité globale.
- Bernard IIeuzé,
- Directeur de la Société d’Études contre la Corrosion.
- HYMÉNOPTÈRES DE FRANCE
- La collection des Atlas d’Entomologie de Boubée vient de s’enrichir de deux volumes qui seront certainement accueillis avec le plus vif intérêt (’). Ces volumes traitent des Hyménoptères, le groupe d’insectes sinon le plus nombreux dans la faune française, du moins le plus varié, et celui pour lequel le besoin d’un ouvrage d’initiation se faisait le plus vivement sentir. La première partie comprend un assez long chapitre de généralités faisant connaître les principaux caractères morphologiques des Hyménoptères et de leurs larves ; les notions indispensables à l’étude systématique d’un groupe difficile sont très clairement exposées. La suite de ce chapitre aborde les grandes lignes de la biologie si intéressante des Hyménoptères ; on y trouve l’essentiel sur les mœurs, la parthénogenèse particulièrement fréquente dans ce groupe d’insectes et ce qu’on ne doit ignorer sur l’instinct des parasites et des Hyménoptères paralyseurs. L’étude systématique, but essentiel de l’ouvrage débute par un aperçu général de la classification’; les grandes superfamilles y sont clairement décrites avec, pour chacune, un dessin typique permettant au débutant de s’orienter dans ce complexe énorme qui, pour la France, ne compte pas moins de 1 000 genres et 12 000 espèces. Les familles traitées ensuite dans le premier tome sont les Tenthrèdes, les Térébrants ou porte-tarière- (Cynypoïdes, ïchneumons, Chalcidiens, Proctotrypoïdes) et le début des Aculéates ou porte-aiguillon, avec le commencement de la superfamille des Béthyloïdes. Le deuxième volume comprend, avec les Chrysides (fin des Béthyloïdes), les Scolioïdes
- 1. Allas des Hyménoptères de France, par Lucien Berland. Tomes I et II, •ensemble 350 p., 64 dessins, 13 photos, 28 planches en couleurs. N. Boubée, Paris, 1958. Prix, chaque lome : 1 800 F.
- (Scolies et Mutilles), les Fourmis, les Hyménoptères paralyseurs (Pompilides, Sphégides, Bembex), les Vespides et les Abeilles au sens large du mot. Dans cet énorme groupe, les tableaux de détermination ont été limités aux familles et un choix assez sévère a dû être fait pour les espèces citées. Dans le premier tome, qui contient la légion considérable des parasites, un bon nombre de Tenthrèdes et d’Ichneumons ont été cités et figurés ; quant aux innombrables Cynipoïdes, Chalcidiens et Proctotrypoïdes, seuls ont pu être retenus les types les plus représentatifs. Dans' le deuxième tome, l’auteur a pu s’étendre plus longuement et on pourra déterminer les principales espèces de fourmis, de chrysides, de guêpes et d’abeilles. Mais, même du point de vue systématique, la connaissance des Hyménoptères serait bien imparfaite si on se contentait de trouver leur nom. C’est pourquoi la description de chaque grande superfamille est suivie d’un paragraphe important consacré à la biologie ; on trouvera ainsi des renseignements sur les mœurs des fourmis, sur la vie dans la fourmilière, l’élevage des pucerons, sur l’évolution des sociétés de guêpes, l’architecture des guêpiers, les mœurs des abeilles solitaires et sociales. En outre, pour la plupart des espèces, la courte description est suivie de quelques lignes concernant la biologie. Dans l’ensemble, ces deux petits volumes donneront aux entomologistes non seulement la possibilité de déterminer la plupart des Hyménoptères qu’ils auront chance de rencontrer, mais ils leur fourniront l’occasion de se pencher sur le chapitre si passionnant de leurs mœurs. On peut dire qu’il fallait la profonde connaissance de ces insectes et le talent de Lucien Berland pour apporter au lecteur, sous un si faible volume, une source de documents aussi précieux. .
- L. C.
- p.479 - vue 483/527
-
-
-
- 480
- Enregistrement des pressions et des sons à l’intérieur du cœur
- L’électronique médicale fait actuellement d’importants progrès, en particulier dans le domaine de la Cardiologie, branche en pleine évolution.
- Les méthodes d’exploration cardiologique qui font appel à l’électronique sont les suivantes : la Phonocardiographie externe; l’Ëlectrocardiographie ; l’Angiocardiographie; l’Oxymétrie; le Cathétérisme; la Phonocardiographie endocardiaque.
- Nous voudrions attirer l’attention sur les deux dernières qui sont pratiquées depuis une dizaine d’années mais qui ont fait récemment de grands progrès. Grâce à l’apparition d’un appareillage nouveau, un domaine de connaissances inexploré et plein de promesses est devenu accessible aux chercheurs et aux spécialistes. Il leur permet de classer un grand nombre de symptômes jusqu’à présent inaccessibles et de préciser leur diagnostic comme l’exige la nouvelle chirurgie du cœur.
- L’appareil dont il s’agit, conçu en France, est le micromanomètre Allard-Laurens, qui a figuré parmi les présentations médicales du Pavillon français à l’Exposition de Bruxelles.
- Rappelons que le cathétérisme cardiaque est une méthode de diagnostic qui a pour but d'observer l’allure des pressions dans les différentes cavités du cœur et les gros vaisseaux afférents, au moyen d’un cathéter, tube en matière plastique
- Fig. 1. — Capteur de pression utilisé pour le cathétérisme.
- Le robinet supérieur permet d’effectuer les quatre manœuvres principales : prise de la pression dans le cathéter ; prise de la pression atmosphérique ; rinçage du cathéter par sérum en surpression ; rinçage de la cavité mano-métrique. La manette latérale est l’amortisseur hydraulique progressif.
- (Photos La Photothèque).
- opacifié aux rayons X par une charge de sels de baryum. Le trajet du cathéter, introduit par une veine du bras, est suivi par radioscopie. Gette intervention pratiquée par un spécialiste compétent est indolore. Le cathéter est rempli de sérum physiologique sous une pression égale ou légèrement supérieure à la pression du sang dans la cavité considérée. L’extrémité extérieure du cathéter communique avec un manomètre qui, à l’origine, était un simple tube à eau ou à mercure, mais qui est maintenant un capteur ou « transducteur » électronique dont l’information électrique est utilisée de diverses façons que nous étudierons plus loin. Les capteurs de pression utilisés pour cet usage (fig. i), doivent répondre aux conditions techniques suivantes :
- i° Être stérilisables par solution germicide, si possible par ébullition ;
- 2° Avoir une réponse en fréquence aussi élevée que possible, et une réponse parfaite aux phénomènes transitoires (par exemple, pression en forme de signaux rectangulaires, à fronts très raides). Gette condition implique à son tour des caractéristiques particulières : c) très faible variation du volume de la cavité
- précédant la membrane du capteur; b) section aussi forte que possible des conduits qui amènent le sérum sous pression et en particulier le conduit du cathéter; on est limité dans cette voie par le diamètre de la veine; l’examen s’impose souvent chez des enfants atteints de cardiopathies congénitales, dont les veines sont extrêmement petites;
- 3° Les manœuvres nécessitées par la mesure ne doivent jamais introduire de bulle d’air;
- i° La gamme des pressions doit couvrir — 5o, + 3oo mm de mercure avec un niveau de bruit de l’ordre de o,i mm de mercure; .
- 5° Les mouvements du cathéter sous l’effet des battements du cœur ou des manipulations ne doivent produire aucun signal parasite.
- On peut affirmer qu’avec celte méthode on n’atteindra guère de résultats meilleurs que ceux qui ont été atteints aujourd’hui avec les appareils les plus perfectionnés car l’amélioration des différents facteurs est limitée par la nature même de la méthode de mesure. Le système cathéter-capteur bien ajusté transmet au maximum ioo périodes par seconde.
- Abandonnant l’idée d’utiliser un cathéter rempli de sérum, on a cherché à placer le capteur électronique à l’intérieur du cœur au bout d’un câble de jonction. En même temps on éliminait ainsi la nécessité d’équilibrer la pression du sang à l’aide de sérum et le risque d’introduire des bulles d’air. Mais les veines utilisables, chez un adulte, ont un diamètre qui ne dépasse guère 2,5 mm. La réalisation du capteur devient alors extrêmement difficile. En transposant dans le domaine de la « subminiaturisation » les capteurs connus, on se heurte à l’absence de sensibilité, à l’augmentation du niveau de bruit de fond, de la dérive d’origine thermique, à une influence exagérée des mouvements latéraux du capteur de la sonde et du câble. La question a donc été reprise à son début, c’est-à-dire
- Fig. 2. — Tête sensible du micromanomètre intracardiaque.
- Diamètre : 2,4 mm ; longueur : 7 mm. On remarque l’ouverture latérale destinée à prélever du sang pour les dosages.
- p.480 - vue 484/527
-
-
-
- 481
- -au choix de la méthode électronique utilisée dans le capteur.
- Les principaux types de capteurs utilisent la variation de l’une des grandeurs suivantes : i° résistance; 2° capacité; 3° inductance ; 4° réductance ; 5° induction mutuelle; 6° équilibre d’un transformateur différentiel; 7° piézoélectricité. Des montages expérimentaux ont été. réalisés pour les méthodes 2, 3, 4, 5 et 6. La variation d’inductance a été retenue en raison de sa linéarité et de sa sensibilité.
- Plusieurs méthodes peuvent être utilisées pour mettre celte variation d’inductance en évidence : i° ponts à haute fréquence;
- 2° modification de l’accord d’un discrimi-nateur alimenté par une fréquence fixe; 3° modification de la fréquence alimentant un discriminateur à accord fixe.
- Apres essai des trois procédés, le troisième fut retenu. Il en résulta le micromanomètre Allard-Laurens dont les premiers prototypes furent essayés en 1951. Il fallut encore sept années de travail et d’expérimentation médicale pour aboutir à l’appareil actuel (fig. 2), dans lequel les imperfections résiduelles ont été patiemment éliminées. Actuellement des cardiologues français pratiquent quotidiennement chez l’homme des cathétérismes à l’aide de ce micromanomètre. Au cours de l’étude il apparut qu’en réduisant les dimensions du capteur, la réponse en fréquence augmentait. Elle atteignait rapidement les fréquences acoustiques. Actuellement le capteur reproduit de zéro à 5 ooo c/s avec une réponse atténuée à 8 ooo c/s. Il semblait que l’on fût enfin en présence d’un microphone endocardiaque. Malheureusement les vibrations acoustiques de la masse sanguine sont xoo fois plus faibles que les variations de pression dans les cavités cardiaques, ce qui entraînait deux difficultés : les bruits et souffles étaient noyés dans un bruit de fond intolérable ; les impulsions de pression de grande amplitude saturaient les amplificateurs de son à chaque battement du cœur.
- OSCILLO.
- COURBES
- ENREG.
- 4.TRACES
- AMPLI.
- b.f
- MAGNET.
- — Schéma de l’utilisation des informations du micromanomètre intracardiaque.
- Fig. 4.
- Ces deux difficultés viennent d’être surmontées et il est maintenant possible d’écouter de façon continue les sons intracardiaques, malgré la présence de très grandes variations de pression à basse fréquence. Le bruit de fond reste perceptible mais n’est plus gênant. Les sons intracardiaques varient suivant l’emplacement du micromanomètre. Ils sont constitués principalement par : le bruit d’écoulement normal du sang, rappelant celui d’un torrent; le bruit de fermeture des valvules, claquement sourd, perçu lorsque l’appareil est au niveau de celles-ci; les souffles, d’origine anormale, dont l’intensité passe par un maximum très net lorsque le micromanomètre se trouve au voisinage immédiat de la communication anormale qui le produit.
- Le nombre de renseignements que peuvent donner ces bruits est tel qu’il semble dès à présent nécessaire d’ouvrir un nouveau chapitre dans les méthodes de diagnostic cardiologique, que l’on pourrait intituler « Endophonocardiographie ». Bien entendu, on retrouve les bruits perçus au cours de l’auscultation externe, ce qui permet de confirmer ou d’infirmer les diverses hypothèses, encore discutées aujourd’hui, sur l’origine de certains bruits.
- Le micromanomètre Allard-Laurens permet d’observer trois phénomènes simultanés dans la même cavité cardiaque : la pression, le son et le dosage du sang. Ce dernier s’effectue, en prélevant un échantillon à travers un conduit qui débouche sous la tète sensible du micromanomètre. Il est intéressant d’enregistrer en même temps un électrocardiogramme et, éventuellement, un phonocardiogramme recueilli sur le thorax.
- Pour être complète, une installation de cathétérisme au micro-manomètre comprend, outre l’unité électronique (fig. 3) qui alimente les différentes sorties, un oscilloscope à quatre traces, un enregistrement sur papier à quatre plumes ou galvanomètres, une installation sonore à haute fidélité pour les fréquences très basses, un enregistreur sur bande magnétique de mêmes performances (fig. 4). 11 est en effet souhaitable de ne pas prolonger l’examen et de disposer d’enregistrements graphiques et sonores pour en dépouiller les résultats.
- On constate à quel point l’installation électronique d’un centre de diagnostic cardiologique peut devenir complexe. Nous n’avons pas mentionné pour le cathétérisme l’équipement radioscopique spécial ni les procédés de dosage du sang où des solutions électroniques sont parfois utilisées. Dans ce domaine, la France occupe une des premières places.
- En conclusion, les solutions électroniques des problèmes médicaux sont loin d’être épuisées. Au contraire, le champ d’application semble extrêmement vaste. L’électronique médicale n’a pas suivi le développement très intense de certaines branches de l’électronique. Un mouvement d’opinion particulier semble actuellement se dessiner pour en favoriser le développement.
- E. Allard,
- Ingénieur des Arts et Manufactures.
- E.C.G.
- pHONOr1
- p.481 - vue 485/527
-
-
-
- 482
- Des tombeaux préislamiques aux gravures rupestres de Mauritanie
- De nos jours, la Mauritanie représente pour la plupart un pays désertique aux énormes possibilités minières, pays dont les côtes, de triste souvenir, se révèlent toujours d’une exceptionnelle richesse ichtyologique, qui fournit chaque année plus de i5o ooo t de poisson. Ses minerais de fer, de cuivre aux teneurs élevées peuvent très certainement lui assurer un magnifique essor économique. Et ne serait-ce que par sa position géographique avec, au fond de la Baie du Lévrier, Port-Étienne, le seul poi’t vraiment abrité de toute la côte ouest d’Afrique, la Mauritanie, porte occidentale du Sahara, peut être appelée à jouer un rôle extrêmement important.
- Mais celte terre d’avenir est riche aussi en vestiges du passé, mal connus, ignorés même de beaucoup, éparpillés sur cet immense territoire grand comme i,5 fois la France. Ainsi, on trouverait des peintures rupestres aux environs de Kaedi. Nombreuses sont les pierres taillées du néolithique. Des armes en cuivre, hachettes, lances et plus spécialement pointes de flèches ont été ramassées à l’ouest de l’Adrar mauritanien dans la région d’Akjoujt, précisément où s’est installée la Micuma (Société des Mines de Cuivre de Mauritanie). Pièces assez rares se rattachant à celles de l’âge du bronze espagnol, elles marqueraient, d’après Mauny, les derniers siècles avant notre ère. Elles seraient caractéristiques d’une période mal connue : la transition entre l'âge de la pierre et celui où le fer aurait été transmis aux populations sahariennes.
- Si ce matériel extrêmement intéressant n’a été trouvé jusqu’ici que dans le Sud mauritanien, les tombeaux préislami-ques ont déjà été signalés en plusieurs points (Voir La Nature, septembre 19.Ô7, p. 352). Sur le gisement de fer de Fort-Gouraud, d’après le directeur de la Miferma (Société des Mines de Fer de Mauritanie), leur étude apporterait, intérêt assez inattendu, d’utiles enseignements sur l’importance de l’érosion qui a pu se produii’e sur ce gisement.
- Une concentration particulièrement intéressante de ces vestiges du passé se situe dans l’Ouest mauritanien, dans la partie nettement délimitée par les grandes dunes de l’Azefal de l’Akchar et plus précisément tout au long de la vallée du Khat-à-toui. On ne saurait traverser cette zone sans y ramasser tout un matériel de pierre (haches, couteaux, pointes de flèches aux modèles les plus variés) caractéristique de l’époque néolithique; sans observer des pieri’es dressées, des monolithes qui, s’ils n’atteignent pas les imposantes dimensions des menhirs européens, n’en font pas moins 2,65 m de haut, comme celui que nous avons pu trouver au nord de N’Talfa, et se révèlent souvent admirablement polis. Aux oglats de Sattel Ogmane, les beydanes vident l’eau de leurs delous destinée à abreuver leurs chameaux, dans une petite auge creusée à même un bloc de pierre qu’ils craignaient fort de nous voir emporter car, à n’en point douter, ils n’en auraient jamais fait une autre semblable. A proximité du puits d’Arouyeit s’observe, sur une résurgence rocheuse du socle, de curieuses petites cupules parfaitement creusées les unes à côté des autres sur l’utilisation desquelles bien des suppositions sont permises.
- Que de tombeaux préislamiques aussi aux modèles les plus variés! Tumuli, chouchels, tombeaux circulaires, tombeaux en V, tombeaux à portiques, bien des formes trouvées par MM. Voinot, Reygasse, Monod dans le Sahara central et d’autres qui ne semblent pas avoir été décrites par ailleurs, comme le magnifique tombeau polygonal de i5 m de diamètre et de 3 m de haut de la région de Lebnié que nous prenions de loin pour un mamelon rocheux au milieu de tous ceux qui jalonnent l’ancien fleuve desséché qu’est le Khat-à-toui. Types différents de monuments funéraires difficiles à classer même en fonction seulement de leur forme générale sans tenir compte des orne-
- mentations : cercles circonscrits, alignements, figures géométriques, pentagone de pierres dressées ou simplement posées qui les environnent et multiplieraient à l’infini le nombre de modèles de tombeaux. Édifices qui témoignent tous des réels talents de géomètre de leurs constructeurs, aussi habiles à tracer des cercles que des carrés, des polygones, des pentagones ou octogones. Dessins réguliers, toujours faits avec le plus grand soin et un souci manifeste de symétrie en utilisant des matériaux choisis de mêmes dimensions, régulièrement fichés dans le sol. Particularités qui désignent tout de suite les monuments anciens et les différencient facilement des actuels faits sans soin. Constructions dont on ne voit peut-être aujourd’hui que la charpente, car en effet, la découverte sur deux tombeaux différents, à plus de 100 km l’un de l’autre, d’une même sorte de plâtre teinté de rose trouvé d’abord dans le sable puis adhérent aux pierres constructives, pourrait laisser penser à la pose sur celle-ci d’un « enduit », tout comme les dolmens se sont trouvés à l’origine protégés par des tumuli, tout au moins en Europe car, d’après Reygasse, en Afrique du Nord les cages des dolmens toujours dégagées ne permettraient pas de l’affirmer.
- Il y a là matière passionnante à recherche, œuvre de spécialiste bien entendu, mais combien attrayante aussi pour le profane qui, averti de la chose et doué de quelque qualité d’observation, peut être amené à réaliser dans une semblable contrée de très intéressantes découvertes. Plus attirantes encore sont pour lui peintures et gravures rupestres et c’est pourquoi, parmi tous ces vestiges du passé, nous insisterons plus particulièrement sur celles que nous avons pu observer dans cette partie occidentale de la Mauritanie. Point de peintures mais plusieurs gravures rupestres relevées en trois points assez distants les uns des autres, les premières à Agada dans le nord du Khat-à-toui, les autres plus au sud, toujours sur les berges de celui-ci, à Stailet Yali et à Khnifissat.
- Ces dessins par percussion, toujours sur roches dures, se trouvent tantôt sur les parois latérales d’énormes blocs comme à Agada, tantôt sur les côtés des résurgences rocheuses ou bien même sur le plat de celles-ci, comme à Stailet Yali et Khnifissat.
- Fig. 1. — Relevé des dessins d’Agada.
- Ils ornent un gros bloc rocheux dont les bords sont indiqués.
- 'D’après L. Vincent-Guaz).
- p.482 - vue 486/527
-
-
-
- Fig-. 2 à S. — Les parterres gravés de Khnifissat.
- En haut à gauche, groupe de chevaux de 17 cm de long. En haut à droite, cheval et deux hommes se donnant la main. En bas à gauche, girafe et
- « licornes ». En bas à droite, chevaux (Photos L. Yinciïnt-C.uaz).
- p.483 - vue 487/527
-
-
-
- Exposés depuis des siècles aux intempéries, au vent de sable qui les efface, aux grandes différences de température qui arrivent à faire craqueler tous ces blocs, ils sont devenus souvent à peine visibles, impossibles à photographier, difficiles à calquer ou à reproduire. Us ne se détachent plus alors qu’examinés attentivement sous toutes les incidences. Néanmoins beaucoup, comme on pourra en juger par les pholographies, restent excellents. Les planches et vues jointes en donnent une idée.
- A Agada, ils sont groupés sur un panneau d’environ i m de haut et 90 cm de large, nettement compartimenté avec des limites parfaitement percutées (fig. 1). Le dessin supérieur, tracé sur 3o cm de haut et toute la largeur du panneau, représente, derrière un cheval de 25 cm de long, un homme qui semble se défendre contre deux animaux, l’un vu de dessus, l’autre de profil; celui-ci par sa queue laisse penser à un chacal. La meilleure représentation est celle du cheval. Il est difficile de préciser s’il est attaché; arrêté par un homme qui se trouve devant lui bras levés, on le dirait même « présenté » au bridon, mais son attitude est caractéristique. Son balancier cervical reporté vers l’arrière, sa queue redressée, ses aplombs traduisent bien la position d’un animal inquiété par ce qui se passe derrière lui. Alors que cette scène occupe tout le haut du panneau, le bas qui en est séparé par une bande de i3 cm, est divisé en deux parties dont seule celle de gauche est encore visible. Il y figure deux groupes d’individus. Dansent-ils ? Ou bien, comme pourrait le laisser penser l’attitude des deux premiers, lancent-ils quelque chose ? Le chacal vu de trois quarts antérieur qui recouvre la partie droite n’a vraisemblablement pas été fait en même temps; il est de proportions tout à fait différentes et déborde largement les limites du compartiment.
- 33 cm
- Fig. 6. — Relevé de dessins de bêtes à cornes à Khnifîssat.
- (D'après
- L. Vincent-Guaz) .
- Les dessins placés sur la croupe rocheuse de Stailet Yali sont beaucoup plus effacés; nous n’avons pu y distinguer que trois silhouettes : une girafe, deux chevaux, vraisemblablement une jument suitée (voir la figure 9, i€r type).
- A Khnifîssat par contre, bien que placés pour la plupart de la même façon, à plat sur les roches dures, constituant de véritables parterres gravés, ils sont plus nombreux et en meilleur état de conservation. Les photos donnent une excellente idée d’un de ces parterres couvrant environ 6 m2, à proximité des oglats de Khnifîssat. On y voit les altérations subies par la roche; pourtant dure, celle-ci arrive néanmoins à se craqueler, à s’écailler. Notons un groupe de chevaux de 17 cm de long (fig. 2), des êtres humains dont deux très nets, de 32 cm de haut, se donnant la main autour d’un cheval (fig. 3), une girafe tachetée de 96 cm de haut (fig. 4), un groupe de trois chevaux de 4i cm de hauteur au garrot et de 46 cm de longueur du poitrail à la croupe. El au milieu de tout cela, bien d’autres dessins, bien d’autres silhouettes dont beaucoup extrêmement « polies », à peine dessinées, antérieures vraisemblablement, laissent penser à la superposition de plusieurs planches de dessins qui très certainement ne sont pas contemporains.
- Sur la même ci’oupe rocheuse, tout autour, se trouvent plusieurs autres dessins isolés ou en petits groupes, surtout de chevaux. A 5oo m de ce magnifique parterre s’en situe un autre, composé lui uniquement d’animaux à cornes, celles-ci étant d’ailleurs extrêmement développées. Ne pouvant malheureusement pas le photographier, nous en avons copié, d’après nature, les trois priucipales silhouettes dont l’une, vue de profil, surprend par la précision des contours. La seconde représente peut-être un animal vu de dessus et de trois quarts arrière. Presque tous portent sur la tête des formations curieuses difficiles à définir (fig. 6).
- Toujours dans la même zone, nous avons pu observer des dessins en bandes sinueuses, d’une longueur de 2 ou 3 m ; fort abîmés, ils ne sont pas identifiables.
- Ce sont là quelques-unes des meilleures gravures rupestres que nous avons pu relever; très certainement, il en existe beaucoup d’autres, non seulement dans les régions que nous avons explorées, mais aussi tout le long des berges du Khat-à-toui, dans les îlots rocheux et les régions avoisinantes. Les Maures en connaissent quelques-unes. Mais une matinée nous a suffi pour en trouver de nouvelles et, sans aucun doute, une exploration complète de tout le Khat-à-toui permettrait d’en découvrir encore.
- Quoi qu’il en soit, ces deux stations d’Agada et de Khnifîssat permettent déjà de noter certaines particularités de ces dessins.
- Us se révèlent d’abord de factures différentes. En effet, les uns, faits par percussion des contours, silhouettent en quelque sorte, avec une précision parfois remarquable, l’animal considéré sur un seul plan (fig. 7). Sur certains plus de relief a été recherché par percussion des lignes maîtresses du corps et par représentation de tous les membres avec la perspective des trois dimensions. U est d’ailleurs curieux que le souci du relief n’intéresse souvent que le bipède postérieur, ce qui suffit à indiquer l’angle d’observation,.en traduisant, par exemple, nettement une vue de trois quarts antérieure pour la girafe de Stailet Yali et trois quarts postérieure pour la gazelle de Khnifîssat. D’autres, notamment ceux qui ont été photographiés, sont obtenus par une percussion uniforme de toute la surface corporelle. Ces silhouettes plus claires, se détachant mieux de la roche foncée, constituent en somme une sorte de projection d’animal vu de profil ou de ti'ois quarts antérieur comme pour le cheval de la figure 8.
- Les représentations les plus nombreuses sont animales. Beaucoup sont facilement reconnaissables, en particulier les chevaux, les girafes, les chacals, les gazelles. D’autres sont plus difficiles à identifier. U y a notamment parmi les animaux à cornes, comme on peut le voir sur la figure 4 (entre les jambes
- p.484 - vue 488/527
-
-
-
- 485
- Fig. 7 et 8. — Chevaux de Khnifissat.
- A gauche, dessin par percussion des contours.
- A droite, par percussion de toute la surface (Photos L. Vwcent-Cuaz).
- de la girafe et derrière elle) des animaux qui ne possèdent qu’une corne. Étranges bêtes, a licornes » peut-être comme celles de la grotte de Lascaux. Tous ces animaux sont représentés généralement de profil, mais aussi sous des angles différents de trois quarts antérieur ou postérieur. Ils se révèlent parfois extrêmement vivants; le calque du cheval d’Agada suffit à le prouver, il traduit parfaitement l’attitude de la bête inquiète (fig. i et 9 F).
- Les représentations humaines sont moins nombreuses; nous n’en connaissons que deux de nettes : celle que j’ai photographiée et celle d’Agada. Néanmoins le dessin traduit toujours avec réalisme une attitude ou un mouvement. Mais si les têtes animales sont aussi représentées, la tête humaine reste confuse.
- Enfin, devant ces dessins, il est curieux de voir les différences qui peuvent exister, sur le même parterre de gravures, entre les diverses représentations d’un animal donné. 'Le fait est surtout marquant avec le cheval pour lequel les dessins d’après nature ci-joints (fig. 9) reprennent les cinq principaux types. La plus simple figure de cheval, semble-t-il, est un rectangle curieusement divisé par sa grande médiane, le prolongement de ses deux côtés forme les membres et le balancier cervical tout aussi rectiligne. Avec la silhouette de la figure 7, le corps reste encore rectangulaire mais les quatre membres apparaissent; s’ils sont toujours rectilignes, l’encolure s’incline. Le 3e type, calque de la figure 8, souligne l’importance prise dans le dessin par le gai'rot, la croupe, le port de la queue pendant que le bipède postérieur s’infléchit.
- Les deux chevaux de la figure 5 (4° type) sont d’un modèle tout à fait différent; l’intérêt porte sur le corps caractérisé par l’ensellement de la ligne de dos, la ligne du ventre descendue et surtout sur le balancier cervical : l’encolure rouée à crinière nettement indiquée, voire taillée, la tête allongée en museau d'hippocampe. Enfin, combien moderne apparaît la silhouette
- Fig. 9. — Types différents de représentation du cheval dans les gravures rupestres de Mauritanie.
- K, 1er type : jument suitée de Stailet Yali. B, 28 type (voir fig. 2 et 7). C, 3” type (fig. 8). D et E, 4e type (trois quarts avant et profil de la figure 5). F, 5" type : cheval d’Agada (fig. 1).
- (D’après L. Vincent-Cuaz).
- p.485 - vue 489/527
-
-
-
- —......486 .......... =
- du cheval d’Agada (5e type). .Cette, évolution est d’autant plus intéressante qu’elle n’est plus fonction seulement de la conception de l’artiste, mais aussi et surtout de l’époque de chacun de ces dessins. Pour l’observateur qui ignore tout de leur âge, les derniers modèles se révèlent incontestablement les plus visibles, les mieux conservés et vraisemblablement donc les plus récents. D’une façon générale, ces dessins restent difficiles à dater. Comme le dit Reygasse, pour les nombreuses gravures rupestres du Sahara central, les plus anciennes peuvent appartenir à la période néolithique et les autres provenir de temps plus modernes. En effet, les trois silhouettes des chevaux de Khnifissat (lès seules de ce genre que nous ayons trouvées) offrent bien des ressemblances par leur encolure rouée, le détail de la crinière, la forme générale de la tète, leur museau d’hippocampe, avec les peintures trouvées par le capitaine Villalonga dans les sépultures,.de Kenadsa à Djorf Torba (Sud Oranais). Or, l’on pense que ces œuvres sont dues à une influence romaine très caractérisée. Et autant qu’il m’en souvienne, Reygasse a signalé avoir pu relever à Tit dans le Hoggar certaines gravures rupestres de chevaux qui s’apparentent de la même façon à ces peintures de chevaux pourtant relativement récentes.
- Seraient-ee là des traces de l’influence romaine qui aurait pénétré à travers le Sahara, non seulement jusqu’au Hoggar comme le pense Reygasse, mais aussi jusqu’en Mauritanie où les commerçants romains de Leptis magna, de Cydamus, de Carthage entretinrent peut-être de la même façon des relations intéressées avec les habitants de cette région ?
- On voit donc tout l’intérêt qu’offrent la recherche et l’étude de ces gravures rupestres, des tombeaux préislamiques et de tous ces vestiges du passé mauritanien. D’ores et déjà ils apportent la preuve d’une occupation bien plus importante que l’actuelle, ne serait-ce que par la quantité de tombeaux qu’elle a laissés en nombre bien supérieur à ceux réalisés après l’islamisation du pays.
- La Mauritanie, tout comme le Sahara, avec ses espoirs de demain, n’a donc pas toujours été ce qu’elle est maintenant. Le Khat-à-toui aujourd’hui si déshérité, où les troupeaux de chameaux et de chèvres meurent l’été faute d’eau, alors que la pluie le couvre de magnifiques fleurs de mimosées, s’il n’a pas formé un bras du Nil comme on a pu l’écrire, a vraisemblablement dû être cet immense fleuve que des cartes anciennes font déboucher dans le fond de la haie Saint-Jean. Très certainement des populations différentes ont vécu sur ses berges, d’une façon continue, en sédentaires; une prospection méthodique de tout le Khat-à-toui, la fouille des tombeaux préislamiques comme celui de Lebnié, apporteront sans aucun doute beaucoup à la connaissance du passé mauritanien.
- N’a-t-il été que le royaume des « Bafours », cés négroïdes à la force herculéenne dont le dernier aurait été tué d’après la légende maure par les Oulad Rousba dans les îles de Tidra ! précisément à proximité de son embouchure ? Que d’énigmes passionnantes qui font de celte Mauritanie une terre bien attachante !
- LOUIS VlNCENT-CUAZ,
- Docteur vétérinaire.
- Prévisions démographiques jusqu'à 1975
- La revue Études statistiques, publiée trimestriellement par l’Institut national de la Statistique et des Études économiques ;I.N.S.E.E.) présente dans son numéro d’avril-juin ig58 un travail fort intéressant de M. Febvay sur l'Évolution naturelle de la population française jusqu'en 1975.
- Le titre même de cette étude démontre qu’il s’agit d’une prévision démographique qui doit, on le conçoit, être établie avec une prudence toute particulière et dont les conclusions ne sont valables qu’en admettant différentes hypothèses. La principale
- 950 000
- 900000
- 600000
- 700 000
- Naissances enregistrées
- ____Naissances correspondant au niveau actuel
- de fécondité o Prévision
- 650 000
- 600000
- 550000
- 500000
- 1975 1980 1985
- ms 1950
- Fig. 1. — Évolution des naissances en France.
- (D'après M. Febvay, Etudes statistiques, avril-juin 1958).
- est qu’aucun événement grave (guerre, révolution, etc.) ne viendra bouleverser les facteurs démographiques et qu’aucune découverte médicale ne modifiera profondément la durée de la vie humaine. Le terme « évolution naturelle » implique en somme que le processus complexe amorcé au cours des dernières années se maintienne et que la papulation française obéisse à une sorte d’accroissement par inertie.
- La première base de calcul est évidemment le chiffre actuel de la population ou plutôt celui constaté au Ier janvier 1958. Notons que ce chiffre n’a qu’une valeur approximative : on peut admettre que le dernier recensement (10 mai 1954) a permis un dénombrement exact, à quelques unités près. A partir de là, les statistiques se fondent sur trois éléments fournis en général avec une certaine marge d’erreur, à savoir : les naissances vivantes, les décès et le mouvement de l’immigration compensé par celui de l’émigration.
- C’est en faisant jouer ces éléments que l’on a pu chiffrer la population totale de la France au Ier janvier 1968 à 44 289 000 habitants, les naissances vivantes des quatre dernières années ayant oscillé entre un chiffre maximum de 807 200 en 1904 et un minimum de 802 000 en 1905, les décès ayant varié eux aussi entre deux valeurs maximale et minimale : 54i 900 en 195G et 5i5 3oo en 1954. On estime que, durant les quatre années, l’excédent de l’immigration sur l’émigration, dû surtout à l’apport de travailleurs nord-africains, a été de 38G 000 habitants.
- Fluctuations de la natalité. — Le point le plus délicat de la pratique des prévisions démographiques est de déceler une constante en ce qui concerne la natalité, surtout lorsque la période précédente s’est trouvée profondément perturbée du fait de la guerre et de l’occupation. La perturbation, pour la France, date de 1939 (flg. 1) : elle est intervenue à l’issue
- p.486 - vue 490/527
-
-
-
- 487
- Tableau I. — Quotients de fécondité pab âge (Comportement actuel).
- (D’après M. Febvay, op. ch.).
- Age en années révolues au icr janvier 1 Nombre annuel de naissances vivantes pour 1 000 femmes Age en années révolues au ier janvier Nombre annuel de naissances vivantes pour 1 000 femmes
- i5 ans .... 4 3i ans .... 108
- 16 » I 2 32 »... 93
- 17». 3o 33 »... . 83
- 18 »... . 59 34 »... 73
- 19 »... . 96 35 » ... 63
- 2 O » . 134 36 » . . 54
- 21». . 167 37 »... 45
- 2 2». 186 38 »... 37
- 23 »... 192 3g » . . . 3o
- 24 »... 190 4o » . 23
- 20 »... 180 41 » - . !7
- 26 » 170 4 2 » I ï
- 2 7 » 156 43 » . . . 7
- 28 » ï[\2 44 » • . . 4
- 29 »... 128 45 »... 2
- 3o » . Il6 4 6 » X
- d’une période de baisse progressive de la natalité aboutissant à 620 000 naissances en 1936-1938. Vint ensuite la chute brusque qui fut marquée par le minimum de 19/11 (620 000). Le relèvement constaté à partir de 1942 s’accéléra jusqu’au maximum de 860 000 qui a caractérisé les années 1947-19/19. La baisse consécutive et la stabilité relative des années I95i-ig58 ne doivent pas être interprétées comme le retour définitif à une situation normale : de nombreuses femmes en effet se sont mariées plus tard qu’elles ne l’auraient fait en une autre période ou bien ont procréé plus tardivement et c’est ainsi qu’une partie des naissances récentes doivent être considérées comme des naissances différées.
- Un fait important doit cependant être noté qui interfère avec les causes bien connues de la perturbation : c’est le comportement nouveau des couples à l’égard de la natalité. Alors qu’entre les deux guerres les mariages étaient sanctionnés 'par un chiffre moyen de naissances vivantes voisin de 2, les mariages conclus depuis 19/10 produisent en moyenne 2,35 naissances.
- Ce dernier chiffre n’a pu être obtenu que par une analyse serrée de ce que les statisticiens appellent le quotient dé fécondité, c’est-à-dire le nombre de naissances pour un nombre déterminé de femmes et pour chaque âge. Ce quotient définit aussi exactement que possible la fécondité qui résulte du comportement récemment inauguré. Il résulte du tableau I que nous avons intégralement emprunté à l’élude de M. Febvay. On doit
- ajouter que, prenant la moyenne des âges et tenant compte de la mortalité considérée dans la dernière période, on met en relief un taux net de reproduction de 1,21, c’est-à-dire que 100 filles prises à leur naissance sont destinées à mettre au monde 121 filles.
- Sur cette base, une courbe théorique des naissances (en tireté sur la figure 1) a pu être établie à partir de 1906 : elle correspond à la natalité que Von aurait constatée si le comportement des couples avait déjà été celui qui s’est instauré depuis 1941. Il ne restait plus qu’à prolonger cette courbe en faisant intervenir la pyramide des âges et les augmentations récentes de la population (toute perturbation étant éliminée à partir de i960). La courbe se caractérise par un minimum de 760 000 naissances en 1964, suivi d’une remontée constante qui aboulirait en 1975 à un chiffre de 900 000.
- Mortalité et résultats du calcul. — La mortalité n’appelle pas d’aussi longs calculs. Il a suffi aux statisticiens de constater, entre 1946 et 1966, une baisse générale de la mortalité, sensible surtout pour les jeunes. La baisse la plus spectaculaire (60 pour 100) concerne les enfants. Elle est encore très nette pour les adolescents des deux sexes, ainsi que pour les tranches d’âge qui précèdent 45 ans. A partir de là, le sexe masculin meurt à la même cadence que précédemment, les décès s’élant accentués pour les âges supérieurs à 5o ans.
- Sur ces données et recherchant particulièrement l’incidence de la mortalité infantile en décroissance, on a pu établir une table de survie qui asseoit la prévision utilisable pour calculer l’excédent des naissances sur les décès.
- Les migrations étant soumises à trop d’aléas, il n’en a été tenu aucun compte. Les résultats du calcul ont été les suivants :
- Population Années globale 1938 44 289 000 Population Années globale 1967 46 064 000
- 1959 44 528 000 1968 46 249 000
- 1960 44 754-000 1961 44 970 000 1969 46 446 000 1970 46 659- 000
- 1962 45 171 000 1971 46 888 000
- 1963 45 362 000 1972- 47 132 000
- 1964 45 542 000 1965 45 716 000 1973 47 389 000 1974 47 658 000
- 1966 45 888 000 1975 47 938 000
- Il est intéressant de noter que le chiffre de 1975 démontrerait une augmentation de population de 8,2 pour 100 par rapport à ig58 et de iG,4 pour 100 par rapport à ig36. Phénomène démographique dont les incidences économiques et sociales récentes sont déjà connues sans toutefois avoir été prises en considération avec le même esprit prévisionniste que celui qui anime les statisticiens.
- G. C.
- Exploration de la plus profonde fosse océanique
- En 1651 déjà, une expédition britannique avait mesuré la profondeur do la fosse océanique aux voisinages des îles Mariannes, qui est considérée comme la plus profonde des fosses actuellement connues, et l’avait trouvée égale à 10 863 m. Cette expédition avait, en outre, constaté que les profondeurs supérieures à 10 000 m n’occupent, dans celte fosse, qu’une bande très étroite, dont la largeur ne dépasse pas 4 3cm. La revue soviétique Priroda a fait savoir que ces mesures ont été complétées par une nouvelle expédition, organisée, dans le cadre de l’Année géophysique internationale, par l’Institut Océanologique de l’U.R.S.S.
- Cette expédition a pu établir que, dans la région comprise entre les longitudes 141°3i' et 141°15' est, la fosse océanique dont il s’agit présente un fond plat, dont la largeur varie entre 1 et 3 km, et qui se trouve à une profondeur de l’ordre de 10 000 à 10 900 m. La plus grande profondeur dans cette région atteint 10 960 m. D’autre part, des profondeurs qui dépassent 10 000 m ont élé
- découvertes et suivies jusqu’à 40 km à l’ouest de la zone explorée antérieurement par les Britanniques. Il a été constaté, enfin, que le fond plat de la fosse.se dédouble à l’ouest, ses deux parties étant ici séparées par une étroite protubérance longitudinale.
- L’expédition soviétique avait également pour mission d’étudier la faune qui vit éventuellement au fond de cette fosse océanique. Ce fond a pu être exploré, par sondes acoustiques, jusqu’à la profondeur de 10 920 m et même de 10 930 m. Mais, en dépit de plusieurs tentatives, il a été impossible de recueillir le moindre spécimen animal. Les spécialistes soviétiques expliquent cet échec en supposant que la faune sous-marine est très clairsemée à de telles profondeurs. Car, si l’on admettait l’absence totale de toute faune au fond de la fosse explorée, il faudrait admettre aussi que cette absence constitue une particularité de cette fosse à fond plat. En effet, dans les autres fosses océaniques connues, une faune a été découverte jusqu’à des profondeurs de 9 000 à 10 000 m.
- p.487 - vue 491/527
-
-
-
- QUELQUES LEZARDS MAROCAINS
- Les Chalcides
- Pawmi les diverses espèces de Sauriens qui composent la faune erpétologique du Maroc, les Chalcides sont très certainement les plus riches en couleurs et les plus beaux; de tous les lézards, ce sont les plus fins, les plus stylisés même, de véritables œuvres d’art. Quatre espèces du genre Chalcides (Laurent], 1768) cohabitent dans la partie Sud-Sud-Ouest du Maroc : le Chalcides à trois doigts (Chalcides iridactylus Laurenti) ; le Chalcides à quatre doigts (Chalcides mionecton Boettger) ; le Chalcides rayé à quatre doigts (Chalcides lineatus Leuckart) ; le Chalcides à cinq doigts (Chalcides ocellatus polylepis Blgr.).
- Les trois premiers sont de mœurs identiques. Comme les Seps du midi de la France, ils ne se servent pratiquement pas de leurs membres, qu’ils tiennent allongés le long du corps lorsqu’ils se déplacent sur le sol, position qu’ils conservent vraisemblablement quand ils avancent dans la profondeur du sol; très exactement, ils serpentent, avec une grande rapidité d’ailleurs. à l’exception, toutefois, des jeunes individus qui marchent. Leur habitat se situe dans les régions au sol meuble.
- C’est à Djorf-El-Youdi (Safi) que j’ai rencontré le plus grand nombre de Seps à trois doigts ; ils semblent y exister en grande quantité; j’ai pu observer les deux espèces suivantes tant, également, dans les environs de Safi qu’au Cap Blanc (Mazagan) où les individus paraissent cependant être moins nombreux.
- C’est dans les bois d’arganiers qui entourent Mogador que ces derniers entretiennent les plus importantes colonies.
- Pour s’emparer de ces animaux, le naturaliste doit avoir les réflexes prompts : soulever la roche, apercevoir l’animal, déposer la roche et saisir le reptile avant qu’il disparaisse, tout cela doit être fait avec la plus grande rapidité. Au moindre retard, ce lézard « plonge » dans le sable et fuit. Le mot « plonger » est employé ici dans toute sa force; en effet, dès que ce saurien se voit découvert, il s’enfonce dans le sol, sur place, en effectuant, avec souplesse, un bond extrêmement réduit. Un léger monticule, de 1 cm environ, se forme sur le point de pénétration, il se prolonge sur 4 ou 5 cm, indiquant ainsi la direction suivie par le Seps. Ce mouvement de pénétration est en oblique par rapport au niveau du sol.
- Le naturaliste n’a plus qu’à saisir le sable à pleines mains, et à l’ouvrir dans un filet, genre filet à papillon, mais d’un modèle plus réduit; le sable s’écoule et le Chalcides reste pris. Mais, si ce geste n’a pas été assez vif, le Seps est à jamais perdu. Il parcourt ainsi sous terre une distance qui peut atteindre 2 m ; sortant un tiers environ de son corps, il disparaît de nouveau si tout danger ne lui semble pas écarté.
- Les jeunes, par contre, ne cherchent pas refuge sous le sable; mis à jour, ils courent en rond, dans l’empreinte faite par la roche dans le sol. Ils y courent vers la droite, puis vers la gauche, ou inversement, mais sans avoir l’idée de gravir la pente pour fuir le chasseur. Cette manière d’agir, contraire à
- Fig. 1. — Quelques Seps Chalcides (Chalcides mionecton) et un Trogonophide (Trogonophis wiegmanni maroccana) provenant des
- bois d’arganiers de ta région de Mogador (Photo Kyniïl, Marrakech).
- p.488 - vue 492/527
-
-
-
- 489
- celle des adultes, s’explique peut-être par le fait qu’ils ne possèdent pas encore la force nécessaire pour pénétrer et progresser dans le sable qui offre une résistance certaine.
- La position adoptée par ces lézards pour passer la période d’hibernage (certaines journées, sur les bords de l’océan, sont assez rigoureuses) est pour le moins étrange : l’avant-train et l’arrière-train sont enfouis dans le sol, seul le sommet du dos est apparent, à fleur de terre; lorsque la roche qui les protège est ôtée, ils demeurent insensibles, mais si le naturaliste les touche, •simplement et sans les saisir, ils pénètrent plus profondément. Toujours solitaire, chacun hiberne sous sa propre roche.
- Le Chaleides à cinq doigts est plus gros que ses cousins, d’une ligne moins effilée; il se rapproche plus, par ses formes générales, par son aspect, du type « lézard » tel qu’on se l’imagine ordinairement. Son aire de dispersion est beaucoup plus étendue que celle des précédents; il se rencontre assez communément sur les bords de l’océan, au Cap Blanc et à Ras-Taffelnet, par exemple; à Marrakech et dans ses environs immédiats, notamment dans les collines du Djébillet et même jusque dans le Haut Atlas, sur le plateau de l’Oukaimeden, à une altitude •de 2 63o m.
- Sur les sols meubles, mis à jour, il ne plonge pas immédiatement comme les précédents, mais parcourt quelques centimètres avant de s’enfoncer dans le sol où il semble plutôt prolonger sa course. Sur les sols fermes, il va, comme tous les autres lézards, chercher refuge sous une autre pierre.
- Un jour, à Ras-Taffelnet, le 28 mai 1900, dans le courant de la matinée, quel ne fut pas mon étonnement de voir des Ghalcides à cinq doigts, de couleur gris uni. Deux m’ont échappé, mais j’en récoltai un troisième. De retour à Marrakech, et après l’avoir endormi à l’éther, je l’étudiai longuement à la loupe. Je croyais déjà avoir découvert une espèce nouvelle ! Cependant, je devais m’apercevoir bientôt que ce revêtement gris manquait par endroits. Avec un morceau de coton imbibé d’étlier, j’essuyai' mon captif; cette parure grise s’enlevait sans difficulté aucune, et les couleurs habituelles apparurent entièrement sur le corps, brillantes de tout leur éclat nouveau. Simple dimorphisme saisonnier... et petite leçon de modestie.
- Contrairement encore aux précédents, pour passer la période d’hibernage, il adopte le mode commun à tous les lézards, et cela tout aussi bien sur les bords de l’océan que dans les plaines de Marrakech et que dans le Haut Atlas.
- Un trait de mœurs maintenant, commun aux quatre espèces et le seul d’ailleurs qui ne soit pas en leur faveur : si au cours
- d’une journée de « l’écolte » on introduit dans la même boîte des jeunes et des adultes et que, pour une raison quelconque la « chasse » se prolonge ou que la nourriture vienne à manquer, les adultes dévorent, jusqu’à sa naissance, la queue des jeunes. Ils ne s’attaquent d’ailleurs qu’à cette partie du corps.
- Ayant constaté maintes fois ce fait, je l’ai, par la suite, provoqué. Les victimes ne survivent pas à cette amputation. Leur jeune âge en est sans doute la cause, puisque, quand l’animal est parvenu à l’âge adulte, cette queue, qui est des plus fragiles et qui se sépare du corps avec tant de facilité, repousse. Le point exact de la scission se situe aisément; les couleurs qui ornent la partie régénérée sont très nettement plus claires que celles de la partie originale.
- Aucun membre de ce genre ne possède des dons d’homocliro-mie; les couleurs qui les ornent ne disparaissent jamais pour faire place à d’autres. De plus, ce lézard, endormi à l’éther puis piqué au formol pur, en vue de constituer une collection, conserve intactes ses couleurs; cela contrairement à bon nombre d’autres lézards dont les couleurs, après ce traitement, s’altèrent et même disparaissent. C’est donc là un intérêt de plus qu’ils présentent et non des moindres.
- Le Lézard Arlequin
- Il existe deux reptiles à qui le nom d'Arlequin a déjà été attribué : un Ophidien et un Lacertien. Le premier, le Serpent-Arlequin ou Serpent-Corail (Micrurus jnlvius L.), vit en Amérique Centrale et principalement au Mexique ; le second, le Lézard-Arlequin (Calotes versicolor D.) a pour habitat le Sud de l’Asie. L’Euméces (Eumeces algeriensis P., forme marocaine : meridionalis N.) de la famille des Scincidés, est tout aussi digne que les précédents de porter ce nom d’Arlequin. La richesse des couleurs chatoyantes qui ornent sa robe justifierait une telle appellation; insensible aux fluctuations de la température, indifférent à l’altitude, il est, par tout temps et en tout lieu, identique à lui-même et sa livrée ne se trouve jamais modifiée. Ces couleurs comme celle des Chalcides restent intactes même après la préparation de l’animal au formol pur, propriété qu’il possède en commun avec tous les membres de la famille des Scincidés.
- Son aire de dispersion est des plus vastes et ses habitats sont des plus variés. Il se rencontre sur les falaises à fortes inclinaisons qui bordent l’océan (Djorf-El-Youdi) ; dans les bois d’arga-
- p.489 - vue 493/527
-
-
-
- 490
- Fig. 4. Le lézard arlequin géant de Oualidia (45,5 cm).
- (Photo Kynel).
- niers, au sol meuble d’origine calcaire (Sidi-Smimoun) ; dans les collines de faible altitude (les Djebillels); dans la plaine caillouteuse qui entoure Marrakech (Ben Guérir) et, enfin, sur les pentes, soit dénudées par ravinement, soit boisées, de l’Atlas.
- F. Angel, dans son Petit Atlas des Amphibiens et Reptiles, écrit : « On le rencontre... particulièrement dans les vieilles carrières, les ravins incultes... ». C’est dans un douar abandonné et en ruine, ce qui revient pratiquement au même, que j’en ai recueilli bon nombre au cours d’une seule journée.
- Ces Euméces qui habitent le long du littoral sont d’une taille supérieure à ceux qui demeurent à l’intérieur des terres et notamment dans l’Atlas. Les premiers mesurent communément 3o cm environ; j’en ai recueilli un, à Oualidia, le xi juin ig5o, de 45,5 cm, alors que ceux récoltés dans l’Atlas ou dans la plaine ne dépassent guère a5 cm.
- La queue, d’une grosseur en rapport avec le corps, est aussi fragile que celle de la plupart des autres lézards; elle se sépare du corps avec la plus grande facilité sans que l’animal paraisse subir la moindre souffrance. Si, par un geste maladroit, le naturaliste la saisit, elle se détache avec un bruit semblable à celui que produit une pomme que l’on croque.
- .T’ai été mordu plusieurs fois, au cours des captures; la den-titioix pleurodonte de ces lézards peut infliger de profondes blessures. Jamais je n’ai pris de soins particuliers à la suite de ces morsures et jamais je n’ai ressenti le moindre malaise, ce qui prouve, si besoin était encore de le faire, combien ces sau-l’iens sont inoffensifs.
- Lorsque le naturaliste soulève une roche sous laquelle se trouve un Euméces, les réactions de ce dernier sont assez bizarres. Tout d’abord, il semble manifester un certain étonnement de se voir ainsi découvert et, stupéfait, il contemple l’intrus, puis il s’affole, ou tout au moins paraît s’affoler, ce qui le fait se mouvoir sur place, d’un côté et de l’autre, allant de droite à gauche, ou inversement, de son gîte, comme s’il hésitait à prendre telle ou telle direction pour fuir l’importun; enfin, il se décide et court se i'éfugier sous une autre roche. Tout cela a d’ailleurs lieu dans un laps de temps relativement assez court.
- Un jour, à Kasbah El Oumenast (Amizmiz), je soulevais une roche sous laquelle s’ouvrait une galerie. A une distance de 8 ou io cm environ, j’aperçus la tête d’un Euméces. L’entrée était bien trop étroite pour me permettre d’y introduire la main; d’autre part, je n’osais creuser pour élargir l’ouverture,
- craignant que ce couloir ne se prolonge plus profondément sous la colline et que je ne sois aloi’s dans l’impossibilité de poursuivre le lézard jusqu’à l’extrémité de sa retraite. Je déposais doucement la roche et évitais de faire, par la suite, le moindre mouvement. Bien m’en prit : l'Euméces, surpris de voir le toit de son logis disparaître, voulut, sans doute, se rendre compte par lui-même de ce qu’il en était advenu et sortit.
- Les indigènes le désignent sous le nom de « Tète-Vache »; ils croient que ce lézard se glisse, la nuit, sous les bovins pour se noui'rir de leur lait. Cette croyance est absolument erronée. Si le chaouia trouve l’un d’entre eux sous une de ses vaches, le matin, à l’aube, au moment du départ du troupeau vers le lieu de pacage (ce qui est, d’ailleurs, fort possible), c’est tout simplement que ce lézard est allé chercher sous ce ruminant la chaleur qu’il prodigue, certaines nuits étant assez fraîches, particulièrement dans la région de Mogador.
- L’Euméces s’apprivoise avec une relative facilité; cependant il reste toujours craintif et fuit son maître lorsque celui-ci approche de lui la main, sans, toutefois, pour cela, aller se réfugier sous un couvert. On a l’impression qu’il agit de la sorte, non par crainte, mais plutôt parce qu’il lui déplaît d’être saisi.
- En liberté, les jours de froid et de pluie, il observe une immobilité et un jeûne relatifs, car, au moment de la plus forte insolation ou d’une éclaircie, il sort de sa léthargie pour aller s’alimenter; le mot « hibernage » ne peut donc être employé ici. En captivité, au cours des journées chaudes d’hiver, exposé au soleil, il l'elrouve toute son activité et son appétit estival. Les jours de mauvais temps, même tenu à la température oi’dinaire d’une pièce, il s’abstient de tout mouvement et ne prend aucune nourriture.
- Les Euméfces se montrent friands de gastéropodes dont ils consomment journellement une grande quantité, en captivité tout au moins; ces lézards, comme bien d’autres, de nos jours encore, sont communément employés dans la pharmacopée indigène.
- Marcel Varaldi, Correspondant du Muséum et de l’Institut scientifique chérifien.
- La respiration chez les cétacés
- L’acte respiratoire des cétacés s’accomplit à la surface de l’eau, durant un intervalle de temps très bref où l’animal ouvre ses narines, qui resteront ensuite hermétiquement closes pendant la longue période de pause qui séparo deux respii’ations.
- Le docteur A. G. Tomiline a rapporté dans la revue Priroda les expériences qu’il a conduites sur le dauphin (Delphinus delphis) avec plusieurs collègues. Les savants soviétiques ont constaté, chez ce s cétacés, deux réflexes qui assurent la sécurité de la respiration par n’importe quel temps, même pendant le sommeil. En premier lieu, l’ouverture des narines, qui en un temps très bref permet l’expiration et l’inspiration, se produit chaque fois que le corps du cétacé émerge de l’eau, et cela indépendamment de la durée de la pause respiratoire. L’excitant principal qui détermine l’ouverture- des narines est la sensation de changement du milieu ambiant (air ou eau). Ainsi, en soulevant le dauphin et en le faisant sortir de l’eau, on peut modifier artificiellement le rythme de sa respiration, en l’obligeant à réduire la durée de la pause dans une proportion considérable (jusqu’à plusieurs dizaines de fois).
- L’autre l’éflexe est lié aux mouvements de la queue : la queue du dauphin s’agite juste avant l’expiration ou au début de l’expiration, de sorte qu’au moment de l’inspiration, les narines occupent la position la plus haute au-dessus du niveau de l’eau.
- p.490 - vue 494/527
-
-
-
- 491
- Appareils de recherches thermonucléaires
- exposés à Genève
- Nous avons tenté ici même, il y a quelques mois, de faire le point des recherches sur l’énergie thermonucléaire (1). Comme nous le faisions remarquer, les renseignements disponibles à l’époque étaient fragmentaires et dispersés. Lors de la récente Conférence internationale de Genève sur les applications pacifiques de l’énergie atomique (2), une large déclas-sificalion, nourrissant une exposition copieuse, permet de compléter ce premier tableau, principalement en ce qui concerne les appareils de recherche. Nous allons parcourir cette exposition et essayer d’en tirer des conclusions sur l’état actuel de développement des « engins » thermonucléaires, principalement en ce qui concerne les États-Unis, la Grande-Bretagne et l’U.B.R.S.
- Pour pouvoir réaliser des réactions de fusion thermonucléaire, il est nécessaire de porter des atomes légers (hydrogène, deutérium, tritium) à des températures de plusieurs dizaines de millions de degrés pour vaincre les répulsions coulombiennes des noyaux; rappelons que de telles températures correspondent pour les ions à des énergies cinétiques de quelques dizaines à quelques centaines d’électron-v^olts. A ces températures, les atomes légers sont complètement ionisés, les atomes plus lourds comme l’oxygène, par exemple, n’ont plus qu’un ou deux électrons périphériques : ce gaz chaud, électriquement neutre, identique à la matière constitutive des étoiles, a reçu le nom de plasma et jouit de propriétés si particulières qu’on l’a nommé quatrième état de la matière. Aucune paroi matérielle ne pouvant évidemment résister à de telles températures, il a fallu faire appel pour contenir ce plasma à des procédés magnétiques de confinement, opposant à la pression du plasma (calculable comme celle d’un gaz chaud) une pression magnétique égale, ou supérieure en cas de compression transitoire (fig. i).
- Ainsi apparaissent les deux problèmes essentiels des recherches thermonucléaires : x° obtention et chauffage du plasma; a0 confinement de ce plasma. Les autres problèmes qui restent à résoudre pour réaliser un véritable réacteur thermonucléaire (enIrelien des réactions de fusion, récupération de l’énergie dégagée, conversion de cette énergie, etc.) apparaissent encore comme des problèmes lointains, et ne furent d’ailleurs pratiquement pas présentés à Genève. Les efforts actuels, illustrés par l’exposition scientifique conjointe à la conférence, portent presque exclusivement sur l'étude du chauffage et du confinement d’un plasma.
- Nous bousculerons quelque peu, pour cette visite à l’exposition, l’ordre préétabli : nous n’irons pas de pays en pays, de laboratoire en laboratoire; nous tenterons de regrouper les divers appareils selon leurs caractères communs. Nous examinerons donc successivement les divers procédés possibles de chauffage et de confinement des plasmas, avec les divers appareils qui s’en inspirent au fur et à mesure, sans oublier naturellement que les méthodes de chauffage et de confinement s’interpénétrent souvent, au point que certaines méthodes de chauffage confinent automatiquement le plasma, et inverse-men t.
- En ce qui concerne d’une manière générale le confinement, il est fait appel comme nous l’avons dit à des champs magnétiques, de l’ordre de quelques milliers à cent mille gauss selon les cas. Un champ magnétique intense, en effet, oblige une
- 1. I.’énergie thermonucléaire, par Michel SoncER, La Nature, mars 1958, p. 81 ; avril 1958, p. 121.
- 2. Voir : La deuxieme Conférence internationale sur l’utilisation pacifique de l’énergie atomique, par Yves Mériel, La Nature, novembre 1958, p. 417.
- Plasma
- O Electrons (+) Ions positifs
- Fig. 1. — Schéma montrant comment un champ magnétique peut être assimilé à une paroi de confinement pour un plasma.
- Les ions qui pénètrent dans la zone où règne le champ magnétique sont déviés de leur trajectoire, décrivent un arc de cercle autour des lignes de force du champ et ressortent de la zone comme s’ils avaient été réfléchis ainsi que les molécules d’un gaz sur une paroi matérielle.
- particule chargée à se mouvoir sur un petit cercle d’axe parallèle à la ligne de force du champ. Par exemple, dans un champ de 3o ooo gauss, des deutons à 35o millions de degrés déci'ivent des trajectoires circulaires ou spirales de 3 cm de rayon. Cependant cette paroi magnétique n’est pas d’une étanchéité absolue à l’égard du plasma, puisque les collisions entre particules peuvent les déplacer d’un cercle de confinement sur un autre et de proche en proche les amener à traverser la paroi, et que les forces qui contraignent la particule à décrire son cercle de confinement ne jouent pas si la particule ionisée se déplace initialement sur une ligne de force magnétique; ce qui revient à dire que la bouteille magnétique est à « parois plus ou moins poreuses, et ouverte aux deux bouts »..., sans tenir compte
- Enroulements électriques produisant le champ magnétique
- de fermeture
- 0 O 0 o O 0 O 0 O O O 0 ^ — — — "TV — — —. -s». O O O O O o ô o o o o o o o O O 0 o
- O O O 0 o o / \
- Plasma
- o o o o o o
- ooo
- ooo
- ooo
- ooo
- ooo
- Fig. 2. — Principe de la machine à miroir magnétique ou de la « bouteille fermée ».
- Pour fermer la zone de confinement par champ magnétique, on établit à ses extrémités des champs plus intenses. A. litre d’exemple, pour un champ axial de 10 000 gauss, on établirait aux extrémités un champ de 20 000 gauss, en rappelant que pour un champ plan indéfini la pression magnétique est proportionnelle au carré de la valeur du champ.
- p.491 - vue 495/527
-
-
-
- 492
- en plus de certaines instabilités magnéto-hydrodynamiques complexes à décrire.
- Diverses solutions ont été cherchées à ces imperfections; on a été conduit à des études telles que les plasmas de blindage (à Los Alamos), qui x'eviennent à intercaler entre le plasma chaud et les parois métalliques un plasma non-réactionnel mais qui fait écran, tant aux ions voulant s’échapper qu’aux impuretés voulant pénétrer le plasma réactionnel; ou encore les machines à miroir magnétique qui ferment la « bouteille à ses deux extrémités » par des champs beaucoup plus intenses (fig. 2). Quoi qu’il en soit, et encore qu’une solution parfaite ne soit pas encore acquise, un jeu habile avec des champs magnétiques permet déjà plus ou moins de domestiquer les plasmas, aussi bien pour les contenir d’ailleurs que pour les déplacer d’un contenant à un autre.
- Pratiquement toujours couplés à un mode de confinement magnétique, les procédés de chauffage du plasma présentent une plus grande diversité de solutions et vont nous permettre une tentative de classification des engins de recherches thermo-nncléaires.
- Apport d’énergie au plasma sous forme particu=
- taire. — L’exemple le plus frappant que nous ne citons d’ailleurs que pour mémoire puisque non contrôlé, en est la bombe à hydrogène amorcée avec une bombe A. L’énorme énergie emportée par les produits de la réaction de fission divergente sert à chauffer l’enveloppe de noyaux légers et à la porter aux températures réactionnelles de fusion. Signalons simplement que dans ce cas les courants de particules sont très intenses (quelques kilogrammes en une fraction de seconde dans un angle solide .4 ir) et l’énergie individuelle des particules est considérable, plusieurs dizaines de milliers d’électron-rolts, correspondant à des températures de plusieurs dizaines de milliards de degrés.
- Pour utiliser un principe analogue de courant particulaire énergétique, on peut envisager d’accélérer des ions ou des électrons avec un accélérateur linéaire (ou Van de Graaf) et de diriger le faisceau sur un plasma pour y dissiper l’énergie incidente jusqu’aux températures réactionnelles du plasma. Joint à un mode de confinement magnétique efficace, ce procédé paraît assez séduisant. Deux appareils basés sur ce principe ont été présentés à l’Exposition de Genève; ce sont respectivement l’Astron, de l’Universitv of California Radiation Laboratory, ou U.C.R.L. (U.S.A.) et le D.C.X. de l’Oak Ridge National Laboratory, ou O.R.N.L. (U.S.A.).
- Dans l’Astron de l’U.C.R.L., on injecte des électrons à très grande vitesse (plusieurs MeV) dans un récipient où règne une très faible pression de gaz, en présence d’un champ magnétique extérieur qui oblige les électrons à décrire des orbites circulaires. Ces électrons relativistes en rotation créent les conditions nécessaires aux réactions thermonucléaires en remplissant les fonctions suivantes :
- i° Ils créent un champ magnétique qui, combiné au champ magnétique externe, établit un réseau de lignes magnétiques fermées tendant à confiner le plasma; il faut d’ailleurs pour cela que le nombre d’éleclrons en rotation soit supérieur à une certaine valeur minimum;
- 20 Ils ionisent des atomes neutres injectés de manière adéquate, pour établir un plasma froid confiné par le réseau de lignes magnétiques;
- 3° En se déplaçant dans ce plasma, ils cèdent une partie de leur énergie aux électrons du plasma par collisions coulombiennes, augmentant ainsi de proche en proche la température de l’ensemble du plasma par chocs successifs électrons-ions.
- Dans le D.C.X. ou Direct Current Experiment de l’O.R.N.L., c’est un courant d’ions moléculaires D2+ qui est injecté avec des énergies élevées. L’ion moléculaire D2+ est constitué par une molécule de deutérium une fois ionisée ou, ce qui revient
- au même, par deux ions deutérium liés entre eux par un unique électron (ce qui heurte d’ailleurs quelque peu nos idées sur la liaison chimique). Le D.C.X. utilise de plus une propriété assez curieuse et encore non complètement expliquée d’un type très spécial d’arc au charbon à courant continu, celle de fractionner les ions moléculaires en ions atomiques avec un bon rendement, de l’ordre de 70 pour 100; l’ion moléculaire est fractionné en atome neutre de deutérium qui s’échappe immédiatement du système et en noyau de deutérium chargé positivement qui reste confiné dans le champ magnétique appliqué de l’extérieur, y décrivant des cercles de rayon moitié de ceux des ions moléculaires. Le D.C.X. utilise ainsi un faisceau continu d’ions moléculaires D3+ accélérés sous 600000 V; un champ magnétique de confinement, terminé par des miroirs magnétiques, capture les deutons accélérés, et fractionnés après le passage du faisceau dans un arc à charbon à courant continu (fig. 3).
- I
- *
- I Ions moléculaires Dz+
- Dispositif d'injection. des ions moléculaires
- Faisceau d’ions atomiques D* confiné
- Champ de confinement du type à miroir magnétique
- . /
- Arc a charbon à courant continu
- Fig. 3. — Schéma de principe du D.C.X. d’Oak Ridge.
- Les ions moléculaires sont injectés avec une grande énergie dans le champ de confinement du type à miroir magnétique. S’ils n’étaient pas fractionnés dans l’arc, ils reviendraient frapper le dispositif d’injection ; leur fractionnement dans l’arc à charbon libère des atomes neutres qui s’échappent, et des ions atomiques qui sont « piégés » et décrivent des cercles de rayon moitié de celui des ions moléculaires. Une telle machine semble des plus prometteuses pour être parmi les premières à réaliser des réactions thermonucléaires.
- Nous comparerons au D.C.X. d’Oak Ridge la machine Ogra soviétique où des ions moléculaires de deutérium sont injectés à grande énergie dans un « piège magnétique » de grande dimension du genre machine à miroir. Les ions moléculaires, après avoir décrit une trajectoire curviligne, sortent du piège magnétique alors que les ions qui ont subi des collisions donnent des ions atomiques qui se trouvent « pris au piège » et contribuent à la formation du plasma réactionnel.
- Parmi les problèmes posés par ces deux machines où le chauffage du plasma se fait par courant particulaire à haute énergie, il convient de citer en premier lieu la difficulté, commune aux accélérateurs de particules, de réaliser des faisceaux très intenses. C’est ainsi que dans le D.C.X. le courant du faisceau injecté n’est que de 3oo p.A; de sérieux efforts sont faits pour, augmenter ces courants, et on pense que les prochaines réalisations feront appel à des courants au moins xo fois plus intenses.
- Un autre obstacle commun est constitué par la présence dans l’enceinte d’atomes d’impuretés, qui s’opposent à ce que les ions chauds capturés ou chauffés par les chocs électroniques forment un plasma thermonucléaire utilisable. Môme lorsque les ions chauds sont injectés dans une région où l’on a fait le vide, ils se heurtent à des atomes de gaz.neutre présents à une certaine « densité de fond », car il est impossible de réaliser un vide parfait dans tout récipient avant de commencer l’injec-
- p.492 - vue 496/527
-
-
-
- 493
- Figr. 4. — Appareil de recherches thermonucléaires du type Perhapsatron.
- Cet appareil est un des plus petits qui aient été réalisés. A. l’autre extrémité de l’échelle des dimensions, citons le Stellarator C en construction à Princeton, comparable par son coût et sa complexité aux accélérateurs d u type cosmotron.
- (Photo aimablement communiquée par le Centre culturel américain).
- tion. Ce gaz élimine les particules chaudes quand elles ont, passé assez peu de temps dans le système, par le jeu d’une réaction qui s’appelle « échange de charges ». Dans l’échange de charges, l’ion chaud frappe l’atome de gaz neutre froid à l’intérieur du système et il lui prend un électron. Lorsque l’ion chaud gagne un électron, il devient particule neutre et celle-ci n’est plus confinée par le champ magnétique. En même temps, l’atome de gaz privé d’un électron devient un ion qui est retenu par le champ magnétique pendant un bref laps de temps, mais il a peu d’énergie et il n’est pas utile pour la création d’un plasma chaud. Dans des dispositifs tels que le système de striction et le stellarator que nous verrons par la suite, où le chauffage du gaz se réalise par décharge intense, tout le gaz est effectivement ionisé et chauffé par la décharge; on ne retrouve pas ce fond de gaz, ce qui est un avantage sérieux.
- Deux solutions cependant permettent de pallier l’inconvénient de ce fond de gaz. La première est d’améliorer les qualités du vide, en essayant par exemple de passer de io-7 à io~8 ou io-9 mm Hg, ce qui pose de difficiles problèmes techniques, mais non insurmontables comme il est espéré à Oak Ridge. La seconde solution est, en augmentant et le courant particulaire et la durée de fonctionnement, d’arriver à « brûler » lentement les atomes neutres par le processus même de l’échange de charges. Des efforts sont également entrepris dans cette direction.
- Apport d’énergie au plasma sous forme électro= magnétique. — Effet Joule. — Vu l’état d’ionisation d’un plasma, ce dernier est éminemment conducteur, et il paraît
- Fig. S. — Schéma d’un stellarator élémentaire en forme de 8.
- Lo ül de cuivre qui entoure le tube est parcouru par un courant qui engendre dans le tube un puissant champ magnétique. A gauche on voit l’enroulement de chauffage par effet Joule et à droite l’enroulement de pompage magnétique. Voir une photo de la maquette de cet appareil dans La Nature, novembre 1958, p. 417.
- séduisant de le chauffer par effet Joule avec des décharges intenses. Ce principe a conduit à deux types de réalisations différentes. L’une, mise en oeuvre dans le Stellarator, utilise l’effet Joule pour préchauffer le plasma à environ i million de degrés, l’étape ultérieure étant obtenue par chauffage grâce au pompage magnétique, le plasma étant confiné par un champ créé extérieurement. L’autre, la plus célèbre pourrait-on dire, mise en œuvre dans les appareils Zêta, Columbus, Perhapsatron (fig. 4), Sceptre, Équateur, etc., est dite méthode de striction : la décharge, très intense et très rapide, y sert tant à préchauffer
- p.493 - vue 497/527
-
-
-
- enroulement de chauffage enroulement magne-
- PAR EFFET JOULE . .TIQUE DE POMPAGE
- LES ENROULEMENTS MAGNETIQUES USUELS ENGENDRENT LE CHAMP PRINCIPAL
- LE DEFLECTEUR ENLEVE LA COUCHE EXTERNE DU GAZ IONISÉ, EN RÉDUISANT LE DEGRÉ DE POLLUTION /
- LES ENROULEMENTS SUPPLEMENTAIRES "EN TIRE BOUCHON" COMMUNIQUENT UNE "TORSION" AU CHAMP MAGNETIQUE, CE QUI AMÉLIORE LA STABILITÉ
- AUX POMPES À VIDE
- LES SENS DE LA CIRCULATION DU COURANT DANS LES ENROULEMENTS ADJACENTS SONT OPPOSÉS -
- Fig'. 6. — Schéma d’an stellarator plus compliqué que celui de la figure 5.
- Ce stellarator en ovale utilise, pour tordre le champ magnétique, des enroulements en tire-bouchon, au lieu d’un récipient en 8. Le déflecteur joue un rôle important dans le maintien de la pureté
- du gaz confiné dans le dispositif.
- le plasma qu’à le confiner par contraction, cette contraction étant con’élative avec un nouvel accroissement de température.
- Nous commencerons par étudier le premier type, avec les stellarators de l’Université de Pi’inceton (U.S.A.). Le stellarator confine un gaz ionisé ou un plasma à l’aide d’un champ magnétique produit à l’extérieur d’un tube sans fin (qui se referme sur lui-même, comme un tore) ; si l’on prend un tel tube, on comprend aisément que les lignes de force du champ magnétique sont plus resserrées vers l’axe que vers la périphérie, et ces gradients auront pour effet une dérive du plasma vers les parois, ce qui s’oppose au confinement. Pour lutter contre cette dérive, on fait subir une torsion au champ magnétique, encore appelée transformation rotationnelle, réalisée de l’une des deux manières suivantes : soit en donnant au récipient la forme d’un 8 (fig. 5), ce qui a pour effet d’annuler les dérives, soit en donnant au récipient la forme d’un hippodrome (fig. 6) et en superposant au champ créé par l’enroulement solénoïdal torique un champ correcteur de torsion par des enroulements complémentaires. Ces propriétés des champs magnétiques à transformation rotationnelle étant assez complexes, nous ne nous y appesantirons pas davantage.
- Batterie de condensateurs
- Courant magnétique
- Lignes de courant électrique
- ' Lignes de ihamp magnétique
- Eclateurs
- Fig. 7. — Principe de chauffage par effet Joule en géométrie annulaire.
- La figure montre le chauffage par effet Joule en géométrie annulaire ; le iplasma sert de secondaire en court-circuit pour le transformateur figuré par le bloc carré à enroulements.
- Le préchauffage du plasma jusqu’à environ x million de degrés est effectué par effet Joule, comme nous l’avons dit; ceci est produit en faisant du plasma le secondaire d’un transformateur à impulsions, le plasma étant en court-circuit. Il est difficile de dépasser le million de degrés avec ce mode de chauffage, parce que le plasma se transforme alors en conducteur presque parfait, la résistivité variant en T-3/2. Pour obtenir dans un stellarator des températures plus élevées, on fait appel au pompage magnétique, ou application d’un champ magnétique à oscillations très rapides, de fréquence ajustée au temps s’écoulant entre collisions parmi les ions positifs ou encore au temps nécessaire à un ion pour traverser la région du pompage magnétique (fig. 5 et 6).
- Autre particularité des stellarators tels qu’ils furent présentes à Genève : l’emploi d’un déflecteur enlevant la couche externe du gaz ionisé en réduisant ainsi le degré de pollution.
- Apport d'énergie par striction. — Comme nous l’avons dit ci-dessus, les appareils à striction sont nombreux. Nous décrirons davantage le plus célèbre d’entre eux, Zêta ou Zéro Energy Thermonuclear Apparatus (Grande-Bretagne), en signalant que les autres appareils en diffèrent par l’énergie mise en jeu, la forme du récipient (cylindrique ou torique), la durée de la décharge (quelques microsecondes à quelques millisecondes), les températures atteintes, etc.
- En effectuant la décharge à travers un circuit de très faible impédance totale (impédances des condensateurs, de l’éclateur, des conducteurs de liaison et de la décharge), la dérivée par rapport au temps de l’intensité dans la décharge, au temps zéro (dl/df)t=:0, peut être très grande, de l’ordre de quelque io12 A par seconde. Or, la vitesse radiale moyenne avec laquelle la décharge se resseri’e sous l’effet de ses propres forces électromagnétiques (pinch effect ou effet de striction) est une fonction croissante de (dl/dl)tz=n. On possède donc ainsi un moyen élégant, bien que d’un mode essentiellement transitoire, pour chauffer le plasma par contraction adiabatique en même temps que pour le confiner automatiquement puisqu’il s’éloigne des parois. Cela pourrait en principe dispenser de champs magnétiques de confinement créés de l’extérieur, mais ceux-ci s’imposent néanmoins pour des raisons de stabilité de la décharge en sti’iction.
- Apport d'énergie par compression magnétique. — On
- peut enfin chauffer un plasma par compression magnétique, soit en faisant varier très rapidement le champ magnétique de confinement, compx-imant ainsi adiabatiquement vei's l’axe du récipient le plasma qui est porté à haute température, soit en déplaçant le plasma d’une bouteille magnétique à une autre plus petite et ainsi de suite jusqu’au confinement du plasma très chaud dans un espace restreint, sans dépense considérable d’énergie. Ces types sont étudiés avec les machines Félix, Toy-Top, à miroir magnétique (à l’U.C.R.L.) et Scylla (à Los Alamos) (fig. 8 et 9).
- D’autres types d’appareils enfin essayent d’obtenir un plasma rotatif à grande vitesse par combinaison de champs électrique et magnétique perpendiculaires, avec transformation progressive de l’énergie de rotation en énergie thei’mique.
- Conclusions. — Nous pensons avoir été fidèle à l’esprit de cette exposition scientifique de Genève en nous attachant moins à décrire de façon détaillée tel ou tel appareil qu’à mon-
- p.494 - vue 498/527
-
-
-
- 495
- O O O O O O
- O O O O O O
- O O O O O O
- P o Ç O Q JL
- O O O O O O
- O O O O O O
- O O O O O O
- O O O O O O
- O O Ô O O O
- O O O O O O
- Fig. 8. — Exemple de compression adiabatique du plasma par champ magnétique à montée rapide.
- Celte ligure est analogue à la figure 2, mais ici les champs magnétiques de confinement ne sont plus permanents, mais à montée très rapide, comprimant adiabatiquement le plasma en le portant à la haute température oii il pourra en principe réagir.
- trer la diversité des voies et des moyens mis en œuvre, sinon pour domestiquer dans l’immédiat, du moins pour mieux comprendre les phénomènes thermonucléaires. Un effort considérable a été réalisé à Genève, surtout par les États-Unis qui ont dépensé plus d’un milliard de francs en présentations. Bien souvent, les appareils eux-mêmes des laboratoires américains étaient exposés en fonctionnement au public, tels que le Stellarator B-a, le Columbus T-2 et le Pethapsatron S-4, etc.
- Fig- 9. — Schéma de principe d’une machine à transport et compression de plasma.
- On voit comment les lignes de confinement du plasma se resserrent quand on passe de la zone de grand rayon à la zone de faible rayon. On peut ainsi amener le plasma dans une zone do compression où règne un champ final plusieurs milliers de fois plus intense que le champ initial, avec des dépenses en énergie relativement faibles.
- Des maquettes, des modèles élaborés, joints à de nombreux panneaux explicatifs, concoui’aient à l’instruction d’un public nombreux et passionné.
- Les conférences elles-mêmes donnaient un sens réel à celte exposition. C’est donc aux conférences que nous emprunterons les éléments de notre conclusion. Quelle est la valeur des résultats obtenus à l’aide de cette multitude d’appareils, dont quelques-uns seulement étaient exposés (un stellarator, par exemple, le modèle B-2, sur les 6 ou 8 construits et utilisés à Princeton) P Six mois après notre étude des problèmes thermonucléaires, peut-on donner une réponse plus favorable à la question de savoir si oui ou non un réacteur thermonucléaire sera un jour réalisable P Non, au contraire ! Personne, aucun savant, et encore moins aucun économiste, ne s’est hasardé à risquer un pronostic. Certains parlent de la possibilité d’une telle démonstration dans la prochaine décennie (les appareils comme le D.C.X. ou l’Ogra semblant favoris); d’autres avouent que l’énergie thermonucléaire, si elle est possible, ne jouera vraisemblablement aucun rôle dans le xxe siècle, mais sera du siècle prochain.
- Nombreuses sont les machines avec lesquelles furent obtenues des bouffées de neutrons, de l’ordre de quelque io5 à io6 neutrons intégrés. Cependant, on se perd encore en hypothèses, même pour Zêta, sur l’origine de ces neutrons dont il semble impossible actuellement d’affirmer qu’elle soit thermonucléaire (voir : La machine Zêta n’est-elle qu’un accélérateur de particules ? La Nature, septembre iq58, p. 362). Les réactions peuvent être provoquées par accélérations ordonnées des ions par les champs électromagnétiques, contrairement à l’agitation désordonnée que suppose le terme thermonucléaire.
- C’est là le bilan quelque peu négatif de cette conférence-exposition, avec les désappointements et déceptions qu’un tel bilan peut engendrer. Mais il est un autre bilan, et largement positif celui-là, c’est celui de la qualité et de la valeur scientifiques de ces merveilleux travaux de recherches entrepris sur la physique des plasmas, la magnétohydrodynamique, la physique nucléaire, les techniques de mesure, les calculs théoriques, etc. Et c’est en dépouillant une telle conférence des sens superflus qu’on lui donne prématurément, politiques ou économiques, que l’on peut juger du travail considérable accompli dans le domaine de la fusion contrôlée où le but des hommes de laboratoire est de contenir par des parois immatérielles des soleils en miniature.
- Michel Sorger.
- Les agglomérés de minerais dans les hauts fourneaux
- Un colloque tenu en 1936 à Metz, à l’instigation de l’Irsid (Publications de l’Irsid, Paris, 1937) attirait l’attention sur le développement de plus en plus considérable de l’emploi des agglomérés de minerais en sidérurgie. En effet, si en France la proportion d’agglomérés dans le lit de fusion des hauts fourneaux ne s’élève qu’à 5 pour 100, elle atteint 13 pour 100 aux États-Unis, 23 pour 100 en Grande-Bretagne, 40 pour 100 en Allemagne et 60 pour 100 en Russie.
- Initialement proposée pour utiliser les poussières de minerais entraînées par les gaz, l’agglomération a été par la suite étendue aux concentrés fins provenant des laveries, puis, étant donné les avantages constatés, aux fines de concassage et, dans certains cas, à la totalité du minerai intégralement broyé pour être aggloméré.
- L’emploi d’agglomérés dans le haut fourneau abaisse en effet la mise au mille, c’est-à-dire la quantité de coke qu’exige l’obtention d’une tonne de fonte ; il permet d’accroître la production de fonte, diminue la proportion de poussières entraînées par les gaz et améliore la qualité et la régularité de la fonte. En contrepartie, il entraîne la diminution de la quantité de gaz de haut fourneau produit par tonne de fonte, ainsi que la baisse du pouvoir calorifique de celui-ci.
- Il pose, d’autre part, certains problèmes, tels que celui de l’adaptation du profil des hauts fourneaux à l’utilisation optimale des
- agglomérés, et celui de la production du poussier de coke généralement utilisé pour cette agglomération. En effet, parmi les deux techniques appliquées pour agglomérer les fines de minerais, bande Dwight-Lloyd et four tournant, la première, qui entraîne l’emploi du poussier de coke, est la plus répandue. Or, si la « nodulisation » au four tournant dans des appareils pouvant fournir 3 000 t d’agglomérés par jour, ne consomme que du gaz de haut fourneau (de l’ordre de 200 m3 par tonne d’agglomérés obtenus à partir d’une charge de 73 pour 100 de fines de minette, 20 pour 100 de poussières de gueulard et 5 pour 100 de pailles de train de laminage), l’agglomération sur bande s’opère à partir d’une charge contenant environ 6 pour 100 de poussier de coke dont la combustion va dégager la chaleur nécessaire pour provoquer par frittage l’agglomération des fines.
- La production d’agglomérés devant passer en France de 1 600 000 t en 1933 à plus de 8 000 000 t en 1960, il semble que les besoins en poussier de coke dépasseront les disponibilités normales des cokeries métallurgiques ou minières et l’on se préoccupe de substituer, au moins en partie, au poussier de coke un autre combustible (semi-coke ou houille), et même du gaz de haut fourneau. Certains essais opérés en Sarre permettent de considérer cette substitution comme possible.
- H. G.
- p.495 - vue 499/527
-
-
-
- 496
- L'orientation des chauves-souris par les ultrasons
- L’orientation des chauves-souris volant dans l’obscurité se rangeait, il y a une vingtaine d’années, parmi les plus mystérieux problèmes posés par la locomotion animale. Mais les recherches l’écentes ont bien éclairci cette question et apporté des explications qui montrent que ce mystère n’est que le résultat coordonné de fonctions parfaitement analysables. Un ouvrage extrêmement documenté de Donald R. Griffin vient de paraître qui expose tous les aspects de cette intéressante question (1). Le problème qui consiste à éviter un obstacle dans l’obscurité est souvent appelé problème de Spallanzani, en souvenir du grand physiologiste italien qui, à la fin du xvme siècle, s’y était déjà intéressé. Il avait montré qu’une chauve-souris aveuglée se dirige dans une pièce tout aussi facilement qu’une autre dont les yeux sont intacts et qu’elle est au contraire vivement troublée par une couverture des oreilles ou de la bouche. Il en avait conclu que les chauves-souris possèdent un sixième sens dont on ne pouvait avoir alors aucune idée.
- La première idée d’un guidage par perception d’échos revient à .sir Iliram S. Maxim, l’inventeur de la mitrailleuse. Après le tragique naufrage du paquebot Titanic lequel, on s’en souvient, s’écrasa sur un iceberg, il pensa que de tels événements tragiques pourraient être évités par l’émission de sons dont l’écho reviendrait au navire. Et cette proposition était basée sur l’idée que les chauves-souris doivent se guider en recevant l’écho de sons à basse fréquence produits par les battements de leurs ailes. C’est en ig38 que D. R. Griffin, en collaboration avec G. W. Pierce, réussit à prouver que les sons émis ne venaient pas des ailes mais étaient des ultrasons provenant de la bouche de l’animal. Il poursuivit ses recherches avec R. Galambos à Harvard College et, par des expéi’iences de clôture de la bouche, des yeux, des oreilles, montra que ces ultrasons étaient indispensables à la chauve-souris pour se guider dans l’obscurité. Peu après et tout à fait indépendamment, pendant l’occupation allemande, un zoologiste hollandais Sven Dijkgraaf, nota de son côté les faibles sons émis par les chauves-souris pendant leur vol; ces sons, qu’il compara au tic-tac d’une petite montre, étaient observés sans amplificateur ni microphone. Perceptibles par l’oreille humaine, ils ne sont qu’une faible partie des vibrations émises.
- Il est donc bien établi que les chauves-souris ne se contentent pas d’enregistrer les sons d’oi’igine externe; elles émettent leurs propres sons et localisent les obstacles par la réception des échos produits par la réflexion des ondes sonores; en d’autres termes, elles remplissent activement leur environnement de courtes vibrations émises à haute fréquence. Comme ce sont les propriétés de tels échos qui doivent informer les chauves-souris de la nature et de la position de tout obstacle se trouvant sur leur chemin, le terme écholocation, qu’on ne peut traduire que par repéi’age par l’écho, a été proposé pour désigner ce type de perception des objets à distance.
- Quand on commence à étudier l’émission des ultrasons par les chauves-souris, on pense d’abord à un processus semi-automatique, car les sons sont émis régulièrement et comme mécaniquement. Mais une étude approfondie monti’e qu’il ne s’agit pas d’un pur automatisme; dans le vol à travers des barrages de fils de fer, les bruits changent suivant les besoins, le nombre de vibrations par seconde variant quand la chauve-souris s’approche ou s’éloigne de l’obstacle. Une étude anatomique du larynx a montré qu’il est l’elativement grand et spécialisé. En introduisant de fines canules de verre dans la trachée, D. R. Gi’iffin a constaté que les chauves-souris, respirant par ces tubes et non plus par le larynx, ne produisent plus aucun son, bien que restant en parfaite condition phy-
- 1. Listening in the Dark ; The acoustie orientation of bats and men, par Donald R. Griffin. Yale University Press, 1958, 1 vol. rel. 24 x 16, 413 p. Prix : 7,5 dollars.
- sique. Après dissection soignée, le larynx du Vespertilionide Eptesicus montre une masse musculaire l’elativement très importante; à l’intérieur, il oflre deux paii’es de membranes ti’ès fines, de 6 à 8 u. d’épaisseur, disposées sur la paroi latérale au-dessus d’une petite cavité de 2 mm de long et o-,a5 mm de profondeur. Les plus forts muscles du larynx sont attachés aux cartilages thyroïde et cricoïde, de telle façon que leur contraction étend les membranes comme une peau de tambour. La section des nerfs moteurs inférieurs du larynx n'empêche pas l’émission des sons, mais celle des nerfs supérieurs, branches du vague, provoque une baisse de la fréquence. Une. certaine tension doit être appliquée aux fines membranes par les muscles cricothyroïdes avant qu’elles puissent vibrer à la fréquence ultrasonique capable de donner naissance aux ondes sur lesquelles la chauve-souris compte pour son repérage.
- L'audition de ces échos pose un problème aussi délicat car il s’agit non seulement de sons à peu près inaudibles pour l’oreille humaine, mais de leur écho qui est beaucoup plus faible et. chaque écho doit être entendu en quelques millisecondes après la fin de l’émission. La théorie suppose donc un sens merveilleusement développé, permettant non seulement d’entendre des sons très faibles, mais d’établir une discrimination entre les échos et les auti’es bruits qui peuvent entrer en compétition. L'oreille externe est toujours très développée, atteignant chez certaines espèces la longueur du corps; elle est axxssi très compliquée, avec un tragus très étroit, en foi'me de fer de lance. L’oreille interne montre quelques différences avec les Mammifères en général ; la pai’tie initiale du canal cochléaire, qui est considéi’ée comme particulièrement sensible aux hautes fréquences, est gi’ande; la fenêtre ovale est située non à l’extrémité du vestibule, mais presque 1 mm plus loin; enfin, la membrane basilaire du labyrinthe est pourvue d’un épaississement, de sorte que la partie vibrante est plus étroite. Une étude très soignée du cerveau, faite par Stephen L. Polyak, permet de constater un développement particulier des centres de l’audition par rapport aux autres parties.
- Les expériences de repéi’age ont été faites dans une pièce de 33 pieds de long, 12 de large, 7 de haut, nue, ne présentant que deux points de repos pour les chauves-souris aux extrémités. Cette pièce est coupée au milieu par des fils de fer tendus verticalement, à une distance de 3o cm envii’on; l’espèce la plus employée était Myotis lucifugus. On constate que cette chauve-souiis peut détecter un fil de fer de moins de deux dixièmes de millimètre de diamètre, mais son système acoustique est en défaut à moins d’un dixième; la distance de reconnaissance de l’obstacle est de trois pieds environ. Les chauves-souris sont capables de se guider par les échos de leurs propres signaux et en dépit de la confusion causée volontairement par l’émission de signaux dans la même bande de fréquences. Il semble qu’elles aient appris depuis longtemps à distinguer les échos importants des autres sons avant les mêmes propriétés. Un ingénieur dirait qu’elles ont un remarquable « discriminateur ».
- Il n’est pas douteux enfin que la méthode de repérage par les échos est appliquée à la capture des insectes dont les chauves-souris se nourrissent. Spallanzani avait déjà montré qu’une chauve-souris aveuglée capture les insectes aussi facilement que les autres. Naturellement, les insectes d’une certaine taille produisent en volant des bruits qui peuvent les faire repérer. Mais les chauves-souris de petite taille de la famille des Yespertilionides se nourrissent surtout de très petits insectes, moustiques, éphémères, dont le vol ne peut produire de sons perceptibles, même par l’oreille fine des chauves-souris, et un grand nombre d’expériences permettent à Griffin d’affirmer que c’est bien par « écholocation » qu’ils sont repérés.
- L. Chopard.
- p.496 - vue 500/527
-
-
-
- Une exposition UEvolutton des Vertébrés
- L’exposition qui se tient au Muséum National d’Iiistoire Naturelle depuis mai 1957 et sera close en avril 1959 cherche à tenir le public au courant des acquisitions nouvelles de la Paléontologie. Cent ans après la publication de L'Origine des Espèces de Darwin les querelles entre évolutionnistes et fixistes se sont éteintes et, si nous ne connaissons pas encore le déterminisme de l’Évolution, le transformisme apparaît aujourd’hui incontestable. L’exposition du Muséum, bien que limitée aux Vertébrés et à l’Homme, a pour but de présenter des résultats concrets en juxtaposant le fossile et son interprétation.
- La première section de l’exposition est historique : Francis Bourdier nous montre sur dix-sept panneaux illustrés comment est apparue et s’est peu à peu précisée l’idée d’Évolution. Il évoque d’abord la création des êtres selon les cosmogonies antiques et selon la Bible, puis la naissance de l’idée d’Évolution, avec Maupertuis, Diderot et Buffon, dont les conceptions audacieuses seront reprises par Lamarck et Geoffroy Saint-IIilaire; ces deux esprits « progressistes » entreront en conflit avec Cuvier qui, s’il ne fut pas le fondateur de la Paléontologie, apporta, dans ses recherches sur les êtres disparus, une connaissance approfondie de l’Anatomie comparée qui avait manqué à ses prédécesseurs. Malgré les critiques dont elle fut l’objet, la Philosophie zoologique de Lamarck (1809) eut une profonde influence pendant la première moitié du xixe siècle. Bien que la théorie vertébrale du crâne, chère à Gœlhe, soit en partie abandonnée, les spécialistes de l’Anatomie comparée tendent à admettre que tous les Vertébrés sont construits suivant un même plan fondamental impliquant une origine commune. La naissance de la préhistoire créait aussi un courant d’idée favorable au transformisme. Si les premiers hommes « fossiles » découverts ne l’étaient pas réellement, les industries, en silex taillés, étaient par contre incontestablement associées à de grandes espèces disparues (Éléphants, Rhinocéros) dans les graviers d’Abbeville (Boucher de Perthes, 18/17). Des esprits audacieux, comme Bûchez, associent alors l’Évolution progressive des êtres et le progrès social.
- Lorsque paraît le retentissant ouvrage de Darwin, L’Origine des espèces (1859), de nombreux esprits, naturalistes, philoso-
- Fig. 1. — Un poisson cuirassé du Dévonien : Titanichthys termieri.
- (Photo R. Simon),
- du Muséum : et l'Origine de l'Homme
- (Photo R, Simon).
- plies ou hommes politiques, étaient acquis à l’idée d’Évolution. Les problèmes posés par Darwin suscitent des recherches; Huxley (i863) montre que le crâne de Néanderthal appartient à un ancêtre de l’Homme présentant quelques caractères qui le rapprochent des singes anthropoïdes. En vue de vérifier une théorie d’ailleurs inexacte, celle de la récapitulation embryologique selon laquelle l’embryon d’un être ressemble aux ancêtres de son espèce, des preuves embryologiques de l’Évolution sont mises en lumière; puis des « fossiles-vivants » de plus en plus nombreux sont découverts (Okapi, Coelacanthe). Mais c’est surtout la Paléontologie et principalement la Paléontologie des Vertébrés qui nous a apporté des preuves de l’Évolution de plus en plus nombreuses et de plus en plus précises. Cependant, quant aux causes profondes de l’Évolution, ultra-darwiniens et néo-lamarckistes continuent à s’opposer : la grande bataille d’idées qu’avait soulevée la théorie de l’IIomme-Singe est par contre maintenant apaisée.
- Dans les vitrines de la section historique de l’exposition, F. Bourdier présente entre autres : i° un beau manuscrit médiéval montrant la création des animaux et de l’homme selon la Bible; 20 de rares autographes de Lamarck; 3° un dessin inédit de Cuvier et la célèbre Sarigue fossile du gypse de Montmartre dont Cuvier avait décrit à l’avance les particularités anatomiques; 4° les premières haches taillées par l’homme préhistorique reconnues comme authentiques par les géologues ; 5° des ouvrages traitant des rapports de la théorie évolutionniste et de la foi, etc.
- L’exposition ne pouvait retracer toute l’Évolution des Vertébrés : on s’est borné à certains problèmes choisis assez subjectivement d’ailleurs. Une réplique du premier Vertébré connu, Astraspis du Silurien inférieur du Colorado, illustre le panneau consacré au problème de l’origine des Vertébrés. De nombreux moulages d’Agnathes fossiles (essentiellement des Cépha-laspides) montrent au public comment a pu être mise à jour l’anatomie précise de ces animaux pourtant déjà très anciens (3oo millions d’années environ); des photographies stéréoscopiques de préparations de ces fossiles illustrent aussi ces recherches : on sait que grâce à E. Stensiô les Céphalaspides, dont l’interprétation était difficile, sont devenus brusquement un des groupes les mieux connus de Vertébrés inférieurs chez lesquels les nerfs et les vaisseaux crâniens ont pu être reconstitués. Les panneaux suivants sont consacrés aux Poissons cui-
- p.497 - vue 501/527
-
-
-
- 498
- Fig. 3 — Un Seymouria, Stégocéphale du Permien du Texas, ancêtre possible des Reptiles.
- (Photo R. StMox).
- rassés (fig. i), à l’évolution des Actinoptérygiens, à l’origine des Téléostéens, aux Dipneustes et aux Cœlacanthes, aux Cros-soptérvgiens. Les moulages des Crossoptérygiens autres que les Cœlacanthes sont exposés à côté de ceux des Ichthyostegalia; les Ichthyostegalia sont les premiers Amphibiexrs terrestres; ils possèdent encore une joue de Crossoptérygien et une nageoire caudale de poisson; c’est la première fois que des moulages de ces fossiles très rares sont donnés par les Danois à un musée étranger. Ichthyostega est une des plus belles preuves apportées à la théorie de l’Évolution ; l’exemple classique de VArchéoptéryx est moins remarquable car les Oiseaux sont beaucoup plus proches des Reptiles que les Ampliibiens des Poissons.
- De nombreux spécimens d’Amphibiens fossiles sont visibles : i° Stégocéphales de Madagascar, du Sahara; 2° moulages de Stégocéphales rachitomes (fig. a) et embolomères des États-Unis; 3° le célèbre Protobatrachus, Grenouille archaïque du Trias, chez laquelle la queue n’avait pas encore disparu (spécimen unique donné récemment par le professeur Piveteau au Muséum).
- Le p'assage des Ainphibiens aux Reptiles est illustré par des moulages de Seymouria (fig. 3) et de Labidosaurus offerts au Muséum par le Smithsonian Institution de Washington.
- Grâce à l’aide des Musées d’Afrique du Sud, des moulages de Reptiles mammaliens du Permotrias de ce pays peuvent être présentés au public parisien.
- Quant à l’Évolution des Mammifères, les sujets traités concernent : i° les tout premiers Mammifères; 2° les Édentés; 3° les Chevaux; 4° les Rhinocérotidés; 5° les Proboscidiens.
- P^rmi les Primates, les Lémuriens fossiles des phosphorites
- du Quercy étonnent par l’excellence de leur conservation ; l’Oréopithèque, à denture déjà assez humanoïde, montre que la lignée humaine est vraisemblablement plus ancienne qu’on' ne le croyait.
- Des panneaux évoquent de plus les conditions de vie dans certains gisements : lac permien d’Autun, lac miocène de Sansan.
- Très souvent le public considère que la Paléontologie des Vertébrés est une science qui n’étudie, faute de mieux, que des squelettes. De nombreux moulages internes fossiles de cavités crâniennes nous permettent de nous faire aussi une idée des encéphales des Vertébrés disparus. Des panneaux accompagnés de pièces illustrent la complication progressive de l’encéphale au cours des temps géologiques.
- Afin de rendre plus vivante la Paléontologie, des reconstitutions d’animaux disparus, dans leur milieu, ornent la salle : certaines sont tchèques (étant l’œuvre du professeur Augusta, de Prague, et d’un artiste, M. Rurian) ; d’autres sont extraites de la revue américaine Life. Enfin quelques grosses pièces occupent l’axe du hall de l’exposition : certaines ont été collectées récemment par des paléontologistes français (Arthro-dires du Sahara, Stégosaure de Normandie, Dinosauriens du Sahara, empreintes de pas de Reptiles du Basutoland) ; d’autres, nouvellement montées, n’ont pas encore été présentées au public : tel le squelette du Mammouth de Sibérie (fig. 4) donné au Muséum en 1912, qui voisine avec celui d’un Rhinocéros laineux rapporté de Chine par Teilhard de Chardin (fig. 5).
- Enfin le squelette d’un Cœlacanthe actuel préparé pour la première fois dans le Laboratoire d'Anatomie comparée du Muséum, sous la direction du professeur Millot et deM. Anthony, est une confirmation magnifique des travaux des paléontologistes grâce auxquels les Cœlacanthes furent d’abord connus.
- *
- * #
- Dans la section consacrée à l’Origine de l’Homme dirigée par le professeur II. V. Vallois, directeur du Musée de l’Homme, six vitrines rappellent les principaux stades de l’évolution humaine. La première contient quelques moulages de crânes d’Australopithèques, Préhominiens du Transvraal qui vivaient il y a environ un million d’années à la limite des temps tertiaires et quaternaires. De la taille d’un Chimpanzé, marchant debout comme l’Homme mais ayant encore un cerveau peu volumineux et de puissantes molaires, les Australopithèques ne sont pas les ancêtres de l’Homme mais ils nous donnent une bonne idée de ce que devaient être ces ancêtres. Les Préhominiens (Pithécanthrope de Java et Sinanthrope de Chine) sont par contre déjà incontestablement des Hommes, utilisant des outils et sachant faire du feu, mais le volume du cerveau restait chez eux plus petit que chez l’Homme actuel. La seconde vitrine nous montre notamment un moulage complet d’un crâne de Sinanthrope. Des Préhominiens ont existé aussi en Afrique : quelques restes de ceux-ci seront exposés (mandibules et pariétal d’un nouveau genre, VAtlanthropus,. découvert par le professeur;;Arambourg et M. Hoffsteller aux énvi-rons d’Oran en ig54)~.- Autre découverte récente (vitrine 4), l’Homme de Fontéchevade : ces fossiles sont remarquables car ils sont anatomiquement plus proches des Hommes actuels que de l’Homme de Néanderlhal qu’ils précèdent pourtant dans le temps; ce sont les représentants les plus anciennement connus des Hommes modernes (Homo sapiens). Ces précieux restes ont été donnés au Musée de l’Homme par Mlle Henri-Martin qui les a mis au jour en 1948. Autre spécimen découvert depuis peu, la mâchoire de Montmaurin (Haute-Garonne); bien qu’à peu près contemporaine des crânes de Fontéchevade (dernier interglaciaire), cette mâchoire appartenait à un type extrêmement primitif, dit « prénéanderlhalien ».
- LTIomme de Néanderthal (vitrine 5) vivait à la fin de la
- p.498 - vue 502/527
-
-
-
- 4Ü9
- Fig-, 4. — Squelette de Mammouth (Elephas primigenius).
- (Photos R. Simon).
- dernière période interglaciaire et au début de la dernière période glaciaire (phase de Würm). Après celle-ci, il disparaît, brusquement supplanté par les précurseurs des Hommes actuels (Hommes de Cro-Magnon et de Grimaldi). Enfin, un squelette néolithique trouvé dans une carrière de plâtre à Pantin en i845 et dont la découverte fit à l’époque grand bruit clôture la série en représentant l’Homme actuel (vitrine 6). Nous voyons donc que c’est pour la première fois que sont présentées au public des pièces rares découvertes récemment telles que l’Atlanthrope, les crânes de Fontéchevade et la mâchoire de Monlmaurin. Des moulages permettent de plus de saisir
- Fig. 5. — Le Rhinocéros à narines cloisonnées (Rhinocéros tichorhinus), de la faune froide du Quaternaire.
- les différents stades évolutifs de l’encéphale des Anthropoïdes à l'Homo sapiens. Les principaux types d’industrie paléolithique sont aussi exposés mais ceci assez brièvement car la préhistoire n’entre pas dans le cadre du sujet.
- J’espère que cette exposition contribuera à orienter l’intérêt du public vers la Paléontologie, cette histoire fascinante de la Vie qui comporte certes encore bien des lacunes mais dont les zones d’ombre peu à peu s’amenuisent.
- J. P. Lehman,
- Professeur de Paléontologie au Muséum.
- Variation de l'éclat du deuxième Spoutnik
- La revue soviétique Priroda a signalé que l’observation du deuxième Spoutnik, largué le 3 novembre 1957, en a révélé une particularité fort intéressante et imprévue. L’éclat du Spoutnik présentait une variation considérable : il dépassait parfois celui de Véga qui est l’une des étoiles les plus brillantes, tandis qu’à d’autres passages devant le même observatoire' il atteignait à peine celui de l’Eitoile Polaire, c’est-à-dire une étoile de deuxième magnitude.
- En suivant le Spoutnik durant les 2 à 4 mn qu’il mettait à parcourir le firmament, on voyait sans difficulté que son éclat subissait deux ou trois variations entre un minimum et un maximum. Cela témoignait de la rotation du Spoutnik sur son axe. Cet axe ne correspondait pas, cependant, à l’axe géométrique du corps de la fusée porteuse. On pouvait donc comparer cette rotation à une espèce de « culbute ».
- Cela dit, il est aisé de comprendre la cause de la variation constatée dans l’éclat. L’ensemble du Spoutnik et de sa fusée porteuse forme un corps allongé. Quand l’orientation de ce corps dans l’espace réduit au minimum sa surface apparente, l’éclat du Spoutnik paraît le plus faible à l’observateur. Au contraire, son
- éclat paraît le plus fort lorsque la surface apparente atteint son maximum. Or, la rotation autour d’un axe transversal détermine des variations périodiques de la surface apparente observée, ce qui explique la variation d’éclat du Spoutnik. D’autre part, cette variation peut encore être accrue par le pouvoir réflecteur inégal des différentes parties de la fusée porteuse ; elle peut l’être aussi par l’orientation momentanée de la fusée par rapport aux rayons du soleil. La période de la variation d’éclat est égale à la moitié de la période de rotation du Spoutnik sur son axe.
- La variation de l’éclat du Spoutnik peut également être provoquée par la présence de nuages plus ou moins opaques, aux hautes altitudes, dans certaines régions éloignées du poste d’observation, ce qui rend évidemment son étude beaucoup plus difficile. Enfin, la période de rotation du Spoutnik peut être modifiée par la résistance du milieu ambiant, par la rencontre avec des météorites, par la séparation de certaines parties composantes du satellite et, finalement, par l’effet du champ magnétique terrestre. Aussi la variation de l’éclat du Spoutnik doit-elle contribuer à l’étude de toute une série de manifestations et de phénomènes atmosphé-, riques, spatiaux ou géophysiques. C. M.
- p.499 - vue 503/527
-
-
-
- 500
- Projet américain de lignes à 750-1000 kilovolts
- Fig. 1. — Ce modèle de condensateur Va être soumis à des essais préalables avant d’être placé dans le circuit de la future ligne EHV
- à 650 kV.
- Nous avons déjà eu l’occasion de signaler que quatre pays européens — Suède, Allemagne de l’Ouest, U.R.S.S. et France — sont en train d’établir ou de compléter un réseau de lignes haute tension à 4oo kV, avec la perspective de pousser ces lignes jusqu’aux 5oo kV. Il se trouve que les États-Unis d’Amérique n’ont pas encore atteint ces voltages élevés, leur maximum ne dépassant pas 345 kV.
- Les raisons de ce retard s’expliquent aisément : le territoire des U.S.A. est abondamment pourvu en sources cl’énergie (houille blanche, charbon, pétrole, gaz naturel), dont la dissémination est telle que les problèmes de transport ont généralement pu être résolus plus économiquement que par la voie électrique. Celle-ci, même en adoptant les hautes tensions européennes, peut difficilement se conformer à la fois aux grandes distances et aux chiffres énormes de certaines consommations locales.
- Si, dans l’avenir, un réseau général d’interconnexion doit être envisagé, cela impliquera des lignes à capacité très élevée et par conséquent des tensions dépassant nettement celles qui se sont instaurées de l’autre côté de l’Atlantique.
- Telle est la raison pour laquelle la société américaine General Electric a prévu la mise en service prochaine d’une ligne expérimentale où seront successivement essayés différents « super-voltages », pouvant aller jusqu’à 750 et même x 000 kV.
- Cette ligne, d’ores et déjà baptisée EHV (extra high voilage), sera mise en construction en 1959, dans les environs de Pitts-field (Massachusetts) où se trouve le siège de la Section des transformateurs de la General Electric. Elle mesurei'a 4,5 milles de long, soit un peu plus de 7 km. Au moment de sa mise en
- charge, c’est-à-dire en i960, elle devra supporter des voltages de l’ordre de 46o à 5oo kV : dès ce moment, les essais seront poursuivis visant la tenue mécanique des ouvrages, l’effet de couronne, les émissions de parasites, etc. Par la suite, au cours des années 1961 et 19C2, l’espacement des conducteurs sera modifié afin de procéder à de nouveaux essais sur des voltages dépassant 600 kV. Ainsi les ingénieurs pourront se former une opinion et juger s’ils doivent s’en tenir aux 65o kV, considérés jusqu’à présent comme le maximum admissible, ou bien tenter la chance des supervoltages mentionnés plus haut.
- Les structures prevues au projet sont en principe adaptées' aux 1 000 kV : les pylônes habituels seront remplacés par dès. portiques qui se dresseront jusqu’à une cinquantaine de mètres au-dessus du sol. La poutre horizontale mesurant près de 60 m supportera les trois faisceaux de conducteurs (un par phase) qui seront suspendus à des cordons isolants d’environ 6 m de long.
- L’espacement prévu d’un faisceau à l’autre est de 16 à 17 mr dans l’hypothèse des 65o kV. 11 pourra être toutefois diminué ou augmenté au cours des essais et les faisceaux eux-mêmes seront modifiés car les ingénieurs ne savent pas encore s’ils se composeront de deux (comme sur les lignes françaises et suédoises) ou de quatre conducteurs.
- C’est en 1963 sans doute que les résultats de cette expérience de grande envergure seront publiés. O11 sera informé à ce moment si les supervollages, crevant le plafond des 65o kV„ sont ou non possibles.
- Y. M.
- Fig. 2. — Dispositif destiné à mesurer en laboratoire l’effet de couronne subi par les faisceaux de conducteurs transmettant le courant à haute tension.
- Le tore métallique horizontal que l’on voit en bas du dispositif a pour rôle de créer, pendant les essais, un champ électrostatique uniforme.
- (Photos General Electric).
- p.500 - vue 504/527
-
-
-
- 501
- Les prix Nobel de Sciences 1958
- Trois savants soviétiques ont conjointement reçu le prix Nobel de Physique, Pavel Alexevitch Cerenkov, Igor Evgienevitch Tamin et Ilya Mikhaïlovitch Frank. M. Cerenkov est depuis iq46 chef de laboratoire à l’Institut de physique de l’Académie soviétique des Sciences, où travaillent également M. Frank (né en 1908) et M. Tamm (né en 1895, déjà titulaire du prix Staline et décoré de l’ordre de Lénine), tous deux professeurs à l’Université de Moscou. La haute récompense décernée par l’Académie Royale de Suède couronne leurs travaux sur 1 'effet Cerenkov. Il est souvent question, en physique, de tel ou tel effet, c’est-à-dire d’un phénomène remarquable auquel le découvreur a généralement attaché son nom : effets Joule, Edison, Pelticr, Kelvin, Thomson, Einstein, Raman, Zeeman, Doppler-Fizeau, Auger, etc. A cette liste, qui constitue une manière de palmarès, s’est ajouté, en 1934, l'effet Cerenkov (découvert par M. Cerenkov et dont la théorie a été établie par ses collaborateurs et co-lauréats, MM. Tamm et Frank), qui consiste en l’émission particulière d’une radiation lumineuse lorsqu’une particule chargée traverse un milieu transparent avec une vitesse supérieure à celle de la lumière dans ce même milieu (une particule ne peut — la théorie de la Relativité le lui interdit —- posséder une vitesse égale ou supérieure à c, vitesse de la lumière dans le vide; mais lorsque la lumière traverse un milieu réfringent d’indice n, sa vitesse, se trouvant ramenée à c/n, peut alors être inférieure à la vitesse de particules très énergiques). L’effet Cerenkov relève du phénomène très général du sillage : un sillage en forme de V ne peut apparaître à la poupe d’un bateau que lorsque la vitesse de celui-ci dépasse la vitesse de propagation des ondes de surface. Il a déjà reçu de nombreuses et importantes applications dans le domaine instrumental, en permettant de construire des compteurs de particules d’une sensibilité et d’une rapidité de détection très supérieures à celles des compteurs à scintillation, qui eux-mêmes passent dè loin les classiques tubes de Geiger-Müllcr : ils répondent à des impulsions dont la durée ne dépasse pas un dix-milliardième de seconde. C’est un instrument de ce genre qui, à bord du satellite artificiel Spoutnik-III, a permis d’apporter des renseignements très précis sur la nature du rayonnement cosmique dans l’espace extra-terrestre. Et la découverte de l’antiproton, à Berkeley, en ig55, a été permise par l’emploi d’un détecteur utilisant l’effet Cerenkov. Ainsi, s’est trouvé considérablement étendu le champ d’investigation dans le domaine nucléaire et cosmique.
- L’attribution de ce prix Nobel de Physique a suscité en France quelques remous... En effet, le docteur Lucien Mallet, radiologiste, a, huit ans avant M. Cerenkov lui-même, observé et décrit le même phénomène lumineux. Trois notes en témoignent. La première fut présentée le 26 juillet 1926 à l’Académie des Sciences par Aimé Cotton. Elle était intitulée Luminescence de Venu et des substances organiques soumises au rayonnement gamma. La seconde note du docteur Mallet fut présentée à l’Académie par Charles Fabry le 17 juillet 1928; la troisième date du 4 février 1929. L’ « affaire Mallet-Cerenkov » a été portée devant l’illustre compagnie, et M. Francis Perrin a reconnu l’antériorité du docteur Mallet quant à la découverte de l'effet (lequel devrait donc, en bonne justice, être appelé effet Mallet), tout en soulignant l’importance des recherches personnelles de M. Cerenkov sur la polarisation de la luminescence en cause.
- *
- Ht *
- Le nom de M. Frederick Sanger, de l’Université de Cambridge (né en 1918) évoquera, dans l’histoire de la biochimie, au grand chapitre des protéines, un véritable tour de force : l’élucidation de la structure de l’insuline. Ce fut en 1893 que
- Laguesse situa l’origine de cette hormone dans les petits îlots cellulaires du pancréas, qui avaient été décrits, une trentaine d’années auparavant, par Langerhans; et du mot îlot, Schoefer tira le terme insuline. C’est une hormone de première importance, puisqu’elle règle le métabolisme du glucose; aussi y recourt-on dans le traitement du diabète. Or, sa structure est extrêmement compliquée : sa molécule géante comporte des centaines d’atomes de carbone, d’hydrogène, d’oxygène et d’azote liés à une trentaine d’atomes de soufre et à un atome central de zinc, tous ces atomes se groupant entre eux pour former une multitude d’acides aminés répartis sur deux chaînes. Avec la longue patience qui, disait Buffon, fait le génie, avec une ingéniosité qui émerveille, et guidé par un raisonnement scientifique d’une impeccable rigueur, confrontant les résultats obtenus par l’étude des insulines de diverses espèces animales (bovins, porc, cheval, mouton, baleine), mettant au point des méthodes d’analyse d’une extraordinaire finesse, M. Frederick Sanger s’avança peu à peu dans le labyrinthe moléculaire où il s’était engagé et finit par en trouver l’issue. Après avoir, en 1951, avec la collaboration du biochimiste viennois Hans Tuppy, découvert l’arrangement d’une des deux chaînes d’amino-acides, il pouvait annoncer en 1952 (et ce fut la révélation majeure du deuxième Congrès international de Biochimie, tenu à Paris) que la structure de la seconde chaîne était également connue. Pour la première fois, on parvenait à écrire la formule chimique complète d’une protéine, ce qui représentait un succès retentissant, fertile en conséquences, étant donné la diversité des rôles joués par les protéines, substances fondamentales de la matière vivante. Elles constituent un grand nombre d’hormones et de toxines, et, associées ou non avec d’autres substances, tous les ferments solubles et tous les anticorps; conjuguées avec les acides nucléiques, elles forment les nucléoprotéines, éléments essentiels des chromosomes et des virus. Quelles sont les relations qui existent entre la structure d’une protéine donnée et son activité biologique, tel est le problème cardinal qui se pose aujourd’hui au biochimiste. Les travaux de M. Frederick Sanger nous acheminent-ils vers la synthèse, tant souhaitée, de l’insuline ? On ne peut encore répondre par l’affirmative. La complexité de la molécule semble, en effet, s’opposer à pareille réalisation dans un proche avenir; il n’est toutefois pas impossible que, par l’étude des effets physiologiques des éléments de la macromolécule, on découvre que certains d’entre eux, dont la synthèse serait plus facile à opérer, possèdent une heureuse action antidiabétique.
- *
- # #
- La génétique biochimique est mise à l’honneur avec le prix Nobel de Physiologie et de Médecine, décerné, cette année, à trois chercheurs américains, George Wells Beadle (né en igo3), successeur de l’illustre Thomas Morgan à la tête du département de biologie de Pasadena (Californie) ; Edward Laurie Tatum (né en 1909), de l’Institut Rockefeller (New York) ; Joshua Leder-berg (né en 1925), de l’Université du Wisconsin. Une moitié du prix est allée à G. W. Beadle et E. L. Tatum « pour avoir découvert que les gènes régularisent certains processus chimiques déterminés », la seconde moitié du prix couronnant J. Lederberg « pour ses découvertes concernant la recombinaison génétique et l’organisation de l’appareil génétique bactérien ». C’est à Paris que G. W. Beadle devait entreprendre ses travaux de génétique physiologique, avec M. Boris Ephrussi — deux noms qui apparaissent historiquement inséparables et que, pourtant, le jury de Stockholm a séparés... M. Boris Ephrussi, aujourd’hui professeur à la Sorbonne, est le créateur de la génétique française; pour lui fut créée, en 1946, sur
- p.501 - vue 505/527
-
-
-
- ~ ~ 502 .......... ~.....- -....—........=
- l’initiative du professeur Pierre Auger, notre première chaire de génétique à la Faculté des Sciences.
- Les expériences de Beadle, d’Ephrussi et de Tatum devaient conduire à démontrer de façon décisive que tous les gènes ont une seule fonction primaire : chaque gène préside à la formation d’une enzyme spécifique capable de catalyser telle ou telle réaction. Considérons la chaîne de réactions de là synthèse d’une substance indispensable à la vie, mettons une vitamine quelconque. Une substance A est transformée en B, celle-ci en C, celle-ci finalement en T), qui est la vitamine en question. Or, chacune de ces réactions est catalysée par une enzyme spécifique, et la synthèse de chacune de ces enzymes dépend elle-même de l’intervention d’un gène spécifique. Si n’apparaît pas l’enzyme expressément chargée d’assurer la réaction A'—>• B, par exemple, cela parce que le gène correspondant, modifié et rendu inactif par quelque mutation, n’aura pas synthétisé cette enzyme spécifique, l’organisme sera incapable d’effectuer cette réaction A—>- B, et il faudra donc, pour assurer sa croissance, lui fournir la substance B. La chaîne des réactions pourra alors aboutir à la vitamine. Quant à la substance A, puisque non détruite, elle tendra à s’accumuler dans l'organisme. La génétique biochimique a pu ainsi établir les étapes de la bio-svnthèse d’un grand nombre de constituants des organismes vivants, la synthèse de chacune des enzymes en jeu étant toujours sous la dépendance d’un gène spécifique.
- Autre découverte d’une importance exceptionnelle : en iq46, Lederberg et Tatum constataient que les bactéries, jusqu’alors censées se reproduire uniquement par division binaire, c’est-à-dire par voie asexuée, pouvaient aussi recourir à un mécanisme de fertilisation comparable à celui des organismes supérieurs. La conjugaison bactérienne fut très longue à découvrir parce qu’elle est rare et difficile à mettre en évidence. Il sagit ici d’un remarquable exploit. Lederberg et Tatum ont pu
- démontrer qu’il y avait échange de caractères entre les deux partenaires bactériens, et Lederberg a pu commencer à dresser la carte génétique de Bacterium coli, c’est-à-dire à assigner à chacun de ses gènes une place sur le chromosome. La nature du mécanisme de transfert de caractères génétiques par les bactéries mâles aux bactéries femelles a été élucidée par François Jacob et Elie Wollman, à l’Institut Pasteur de Paris (voir La Nature, août ig58, p. 3i3). Le chromosome de la bactérie mâle est injecté lentement dans la femelle, et ce phénomène a permis aux deux pastoriens de résoudre de nombreux problèmes relatifs à la génétique des bactéries. On doit encore à Lederberg d’avoir montré la liaison qui existe entre le prophage et le chromosome de la bactérie. Le terme de prophage, dû au docteur A. Lwoff, de l’Institut Pasteur (il y dirige le laboratoire de physiologie microbienne où œuvrent MM. Jacob et Wollman), désigne le matériel génétique d’un bactériophage accroché au chromosome d’une bactérie dite lysogène. Élie Wollman devait établir de façon définitive cette liaison entre le matériel génétique du virus et le chromosome bactérien (car les bactériophages appartiennent au monde des virus). Avec Zinder, enfin, Lederberg a découvert le phénomène de la transduction : certains bactériophages peuvent transporter un fragment du chromosome de la bactérie où ils se développent dans une autre bactérie qu’ils infecteront et jouer ainsi le rôle d’éléments sexuels incomplets. Bappelons que ce n’est pas la première fois que l’Académie suédoise tint à récompenser des travaux de généticiens : Morgan (ig33), puis Millier (1946), reçurent le prix Nobel de Physiologie et de Médecine. Mais furent oubliés Garrod, créateur de la génétique biochimique; Avery, qui, avec MacLeod et MacCarthy, démontra que l’information génétique était portée par l’acide désoxyribonucléique, ce qui fut le point de départ de toute la biologie moléculaire.
- Fernand Lot.
- L'observation de la granulation solaire en France
- Nous avons consacré (La Nature, septembre 1968, p. 354) un article aux remarquables observations de la granulation solaire effectuées par M. Schwartzchild. 11 nous est agréable de signaler que plusieurs astronomes français ont obtenu sur le même sujet des résultats qui ne sont pas moins intéressants. Profitant des conditions de visibilité exceptionnelles qui régnent fréquemment à l’observatoire du Pic du Midi, son directeur, M. Rôsch, a pris un très grand nombre de clichés et de films de la surface du Soleil à l’aide d’un objectif de a3 cm de diamètre et de G m de longueur focaie. Il s’est, bien entendu, heurté à toutes les difficultés qui résultent de la turbulence- atmosphérique, sur lesquelles nous nous étions longuement étendu dans notre premier article. Cependant, certaines de ses photographies sont d’une rare qualité. Particulièrement intéressants sont les clichés qu’il a pris du bord solaire lui-même : les granulations y sont encore visibles mais sont allongées parallèlement au bord, ce qui laisse à penser qu’il s’agit d’objets plutôt plats et non de flammes perpendiculaires à la photosphère. C’est une preuve supplémentaire de la validité de la théorie qui voit dans la granulation la manifestation cl’un phénomène de convection. M. Rôsch a également pu obtenir de bonnes images de la granulation qui existe à l’intérieur même des taches, dans la zone obscure, granulation que l’on n’avait observée que visuellement jusque-là.
- Précédant M. Schwartzchild, M. Audouin Dollfuss, astronome à l’observatoire de Meudon, et M. D. W. Dewhirst, ont emporté en 1956 et 1957, au cours de deux ascensions en ballon, un appareillage destiné à photographier la photosphère; il com-
- portait un .objectif de 3o cm au foyer duquel se trouvait une caméra. La turbulence atmosphérique est déjà singulièrement atténuée à 6 ou 7 000 m d’altitude, et certains des clichés obtenus ne sont pas loin de valoir ceux de Schwartzchild, pris avec un objectif de même diamètre, mais, à 27 000 m : l’aspect polygonal des grains apparaît, et les photographies du bord solaire, bien que n’étant pas parmi les meilleures prises pendant ces expéditions, confirment les observations du Pic du Midi. Le tracé de la fonction d’autocorrélation permet d’estimer à 3 s d’arc, soit environ 3 000 km, la distance moyenne entre les centres des granulations voisines.
- Enfin, M. G. Wlérick et Mlle Augarde reprennent actuellement à l’observatoire de Meudon les études spectrographiques de la granulation entreprises par M. Schwartzchild en ig5o, en utilisant cette fois le télescope électronique de M. Lallemand. Profitant de la sensibilité exceptionnelle de cet appareil dont les performances sont très supérieures à celles de tous les autres récepteurs de lumière, ils espèrent pouvoir photographier quelques raies spectrales avec un temps de pose très court, el déduire de leur déplacement par effet Doppler les mouvements des masses gazeuses convectives qui forment les grains de la photosphère.
- La France est donc remarquablement équipée pour les observations photosphériques; elle a toujours été un pays d’élection en ce qui concerne l’étude de la physique solaire : il nous suffira de nous rappeler les noms de Janssen, de Lyot et de D’Azambuja pour en être persuadés.
- J. Lequeux.
- p.502 - vue 506/527
-
-
-
- VENINS DE CRAPAUD
- 503
- Dans la Revue générale des Sciences pures et appliquées de mai 1958, M. Frcrejacque a apporté une intéressante mise au point sur les venins de crapaud, dont le degré de toxicité a été très discuté. L’emploi de ces venins en thérapeutique est très ancien. Leur application contre les hémorragies, plaies et éruptions cutanées est relevée dans la pharmacopée chinoise la plus antique, et elle s’est maintenue jusqu’à nos jours. Aristote, Pline le Jeune, Dioscoride font mention de la toxicité des venins de crapaud et de leur utilité médicale. Ambroise Paré relate l’intoxication de deux marchands qui avaient mis dans leur vin des feuilles de sauge sous lesquelles vivaient des crapauds ! De nos jours on préparerait encore au Maroc une poudre de crapaud séchée au soleil. Enfin, certaines peuplades utiliseraient le venin pour empoisonner leurs flèches. En résumé, les venins de crapaud sont connus depuis la plus haute antiquité pour leur action émétique et cardiaque, ainsi que sur les muqueuses des yeux. Qu’en savons-nous aujourd’hui ?
- Négligeons les Pclobates et Discoglosses, pour ne considérer qne les crapauds vrais. Des i5o espèces connues sur le globe, Océanie exceptée, une dizaine ont donné lieu à recherches, en premier lieu le Bufo bufo bufo, ou crapaud vulgaire, largement répandu dans nos pays. Les glandes sécrétrices de venin sont deux glandes parotides saillantes situées sur le dos du crapaud et visibles derrière l’œil et le tympan. A noter l’action sternutatoire de la poudre de venin.
- La composition du venin de crapaud vulgaire se ramène à 70 pour 100 d’eau, 3o pour 100 de substances non toxiques, telles qu’acides gras, protides, vitamine C, cholestérol, ergo-stérol..., et quelques substances actives appartenant au groupe des amines et des stéroïdes, le premier groupe étant représenté par la bufoténine, la bufoténidine, la dihydrobufoténine et la bufolhionine, de formules très voisines. Les crapauds n’ont d’ailleurs pas le monopole de la bufoténine puisqu’on la retrouve chez deux champignons et même dans les graines
- d'une plante supérieure. Elle est beaucoup plus abondante chez le crapaud ordinaire que la bufoténidine, mais l’action de cette dernière est la plus forte. Ces composés aminés ne seraient pas eux-mêmes des agents toxiques, mais des supports de l’activité pharmacologique.
- M. Frèrejacque aborde enfin l’étude des nombreux stéroïdes, de formules presque identiques, appartenant à la classe des génines digitaliques et responsables de l’action toxique des Aenins. Génines apparentées à celles de certains glucosides extraits de végétaux comme la Scille maritime, l’une d’elles (bufotalidine) étant même identique à l’helléborigénine du glu-coside de l’hellébore. Exception faite de la génine de la bufo-toxine liée à un acide aminé complexe, les génines des venins sont libres, à l’encontre de celles des végétaux qui sont liées à des molécules de glucides. Aucune génine ne se révèle spécifique d’une espèce donnée de crapaud.
- La difficuté de telles recherches apparaît mieux si l’on précise que 16 000 crapauds ont été nécessaires pour un seul travail relatifs aux amines. Ajoutons qu’après ponction de leurs glandes les batraciens ont été rendus à la liberté.
- L’action des génines se ramène dans l’ensemble à celle des composés digitaliques : ralentissement et régularisation des mouvements cardiaques, suivie d’arythmie et de mort par arrêt du cœur en systole.
- Fait notable, certaines actions physiologiques du venin total n’ont pu être rapportées à aucun des composés isolés du venin.
- L’auteur concluait que la question du venin de crapaud n’est pas encore totalement éclaircie. Si son action thérapeutique est réelle, elle doit être le fait des amines qui agissent sur les glandes surrénales par une activation fonctionnelle à rapprocher de celle de l’A.C.T.H. ou corticotropine. Il conviendrait donc de voir là comme un « extrait opothérapique hémostatique exerçant de plus une action stimulante sur les muscles, le cœur et l’axe hypophyso-surrénalien ». P. Gaukoy.
- LE CIEL EN JANVIER 1959
- SOLEIL : du Ier au 31 (à 0h) sa déclinaison croît de —23°3' à — 17°22' et la durée du jour de 8h16m à 9M9m ; diamètre apparent le 1er = 32'33",0, le 31 = 32'30",9. — LUNE : Phases : D Q. le 2 à 10h50m, N. L. le 9 à 5h34Jn, P. Q. le 16 à 21h26“, P. L. le 24 à 19ll32m, D. Q. le 31 à PXjm ; périgée le 5 à 20h, diamètre app. 32'34" ; apogée le 17 à 17h, diamètre app. 29/33'' ; périgée le 31 à 0h, diamètre app. 32'16". Principales conjonctions : avec Neptune le 4 à Gh, à 0°9' S. ; avec Jupiter le 5 à 0h, à 2°ô' N. ; avec Mercure le 7 à 16h, à 3°5S' N. ; avec Saturne le 7 à 23u, à 3°50' N. ; avec Vénus le 10 à 1111, à 6°20' N. ; avec Mars le 18 à 23h, à 4°57' S. ; avec Uranus le 23 à 17h, à 3°17' S. ; avec Neptune le 31 à 12h, à 0°7' N. Principales occultations : le 2, de 162 B. Vierge (mag. 6,0) émersion à 4h4m,4 ; le 13, de 147 B. Poissons (mag. 3,8) immersion à 19h10m,2 ; le 22, de 26 Gémeaux (mag. 5,1) immersion à 221i12p\5 ; le 26, de 6 Lion (mag. 5,3) émersion à 3h12m,l. — PLANÈTES : Mercure, peut se trouver encore le matin durant la première quinzaine du mois, lever le 1er à è^O”1, soit lM6m avant le Soleil ; Vénus, étoile du soir se couchant le 13 à 17h32m, soit lhiGm après le Soleil ; Mars, dans le Bélier, puis le Taureau, bel astre rouge brillant jusqu’à 3h, le 15 : diamètre app. Il" ; Jupiter, dans la Balance étoile du matin, se lève le 13 à 3h2iln, soit 4hlSm avant le Soleil ; Saturne, dans le Sagittaire, réapparaît le matin dans l’aube ; Uranus,
- dans le Cancer, se montre dès la lin de la soirée, diamètre
- app. 4",0 ; le 15, position : a = 9Mlm, 6 = 4- 16°58' ; Neptune, dans la Balance, s’observe surtout le matin, lever le 13 à lh37ln. — ÉTOILES VARIABLES : minima observables d’Algol (2m,2-3m,5) le 12 à 6h,l, le 15 à 3h,0, le 17 à 23h,8, le 20 à 20h,6, le 23
- à IJM- ; minima de (3 Lyre (3m,4-4m,3) le 5 à 2ll,5, le 18 à 0h,8,
- le 30 à 23h2 ; minima de 8 Balance (4in,8-5m,9') le 1er à 6h,6, le 8 à 0h,2, le 15 à 5h,S, le 22 à 5h,3, le 29 à 4h,9 ; maxima de R Verseau (5m,8-10m,8) le 10, de R Andromède (5m,0-13m,4) le 14. — TEMPS SIDÉRAL : à 0h, au méridien de Paris : le 1er : 6h48m57s, le 11 • 7h28m23s, le 21 : 8h7»48s, le- 31 : 8h47m14s.
- Phénomènes intéressants. — La Terre au périhélie le 2 à Ou. — On surveillera la surface tachée du Soleil. — Lumière
- cendrée de la Lune, le soir, du 11 au 14. — On observera
- encore Mercure le matin jusqu’aux environs du 15 et son rapprochement avec Saturne le 11 à 4h à 0°45' S. — On recherchera Vesta à la jumelle dans le Cancer, positions : le 1er : 8h58m et + 20°19', le 11 : Sh50in et + 21°24', le 21 : 8*41“ et
- + 22°3o', le 31 : Sh30m et + 23°42' (mag. 6,9). — Étoiles filan-
- tes : Bootides (radiant (3 Bouvier), rapides à traînées longues. — On contemplera les belles constellations d’hiver : Taureau, Gémeaux, Cocher, Orion, Grand et Petit Chiens.
- Heures données eu Temps universel, ajouter une heure pour obtenir le temps légal en AÙgueur. L. Tartois.
- I Amateurs d’ASTRONOMIE, adhérez à la
- SOCIËTt ASTRONOMIQUE DE FRANCE
- fondée en 1887 par G. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à voire disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc. Demandez les programmes au Siège Social : Hôtel des Sociétés Savantes 28, rue Serpente, PARIS-6’
- Permanence, tous les jours non fériés de 14 à 17 h.
- Cotisations : Région Parisienne, 1 800 F ; France, 1 500 F ; Etranger, 2 300 F ; Etudiants, 250 F.
- Droits d’inscription, 200 F ; Etudiants, 140 F.
- Spécimen gratuit de la revue sur demande.
- p.503 - vue 507/527
-
-
-
- 504
- LfActualité instrumentale
- Les sciences et les techniques sont de plus en plus tributaires d’un appareillage précis et complexe. S’il arrive souvent que le chercheur doive encore « bricoler » lui-même quelque dispositif expérimental, il n’en est pas moins dépendant, dans la pratique courante, de toute une série d’instruments dont la conception et la mise au point sont affaire de spécialistes. Ce qui est vrai pour la science pure l’est encore bien davantage pour les sciences appliquées. Il est inutile de souligner tout ce que les techniques de mesure et de contrôle apportent maintenant journellement à Vindustrie. Une information sur le progrès des sciences et de leui's applications ne saurait donc laisser de côté l’instrumentation à laquelle ce progrès est dû pour une si grande part. C’est pourquoi nous avons donné dans cette revue, depuis 1955, une place de choix à l’Exposition d’instruments et de matériel scientifiques, organisée chaque printemps par la Société française de Physique, et dont l’importance est allée croissant d’année en année. Nous avons pensé devoir faire mieux et suivre de plus près, pour nos lecteurs, l’actualité instrumentale. Un physicien des plus qualifiés, M. René Buvet, chef de travaux à l’École supérieure de Physique et Chimie, dirigera la rubrique que nous inaugurons aujourd’hui. Des exposés d’ensemble, comme celui qu’on va lire sur les spectrophotomètres en infrarouge, feront le point des progrès dans une catégorie instrumentale, et de courtes monographies présenteront d’autre part des modèles d’appareils de tous genres, choisis parmi les plus remarquables ou les plus récents. Cette rubrique vient s’ajouter aux matières ordinaires dont le volume
- ne sera en rien diminué.
- Les spectrophotomètres en infrarouge
- Il n’est plus utile aujourd’hui de faire l’apologie de la spectro-photométrie dans l’infrarouge en tant que moyen d’étude de la structure des molécules; il y a seulement dix ans les difficultés que présentaient la conception et la réalisation d’optiques adaptées au fonctionnement dans l’infrarouge faisaient de ces appareils des pièces de laboratoire. Depuis lors, les problèmes techniques ont été résolus de façon si satisfaisante que nombre des appareils sont devenus d’un maniement aussi et quelquefois plus simple que celui des spectrophotomètres pour le visible et l’ultraviolet. La raison en est que la complexité des spectres infrarouges a rendu nécessaire la mise au point de systèmes enregistreurs permettant le tracé de ceux-ci sans intervention de l’opérateur; le revers de la médaille est représenté par le prix extrêmement élevé de ces appareils.
- Cependant, tout dernièrement, les constructeurs se sont orientés vers la mise au point d’appareils simplifiés, largement suffisants pour l’analyse même quantitative, et d’un prix de revient relativement plus abordable, préparant ainsi l’entrée des techniques de l’infrarouge dans les laboratoires non spécialisés.
- #
- * *
- Les premiers spectrophotomètres pour l’infrarouge étaient des appareils « à simple faisceau ». Le faisceau de lumière infrarouge émis par un filament chauffé traversait l’échantillon à étudier et la lumière transmise, après dispersion dans un monochromateur, excitait un récepteur du type thermoélectrique.
- La réponse du récepteur était proportionnelle à l’intensité lumineuse reçue mais elle dépendait, comme d’ailleurs l’émission du filament, de la longueur d’onde. Le spectre d’absorption de la matière étudiée se superposait donc aux spectres du récepteur et de l’émetteur, et en outre au spectre d’absorption du prisme et à celui du gaz carbonique et de l’humidité atmosphériques, rendant ainsi malaisée l’interprétation des données expérimentales. En outre, la stabilisation au cours du temps de tous les éléments de cette chaîne posait des problèmes qui rendaient difficile l’utilisation en quantitatif.
- Tous ces inconvénients ont été éliminés par la mise au point d’appareils « à double faisceau ». Le faisceau émis est scindé en deux parties égales dont une seule traverse l’échantillon, l’autre jouant le rôle de référence. Les deux faisceaux sont envoyés alternativement à travers toute la suite du trajet optique et un système de comparaison électrique ou optique en
- détermine les différences qui ne sont plus dues qu’à la présence de l’échantillon. Ce système ne peut être mieux comparé qu’à une balance utilisée en double pesée.
- Il est toujours possible d’utiliser ces appareils en simple faisceau en remplaçant le faisceau de référence par une tare électrique constante.
- *
- * *
- L’optique pour infrarouge ne peut être constituée que de miroirs afin d’éviter toute absorption inutile et toutes aberrations chromatiques; le prisme dispersif ainsi que les parois des cuves doivent être formés de l’un des matériaux du tableau I, le plus souvent le chlorure de sodium, choisi en fonction du domaine de longueurs d’onde à explorer.
- Tableau I. — Matériaux utilisables dans l’infrarouge
- Matière Domaine d’utilisation courante Sensibilité à l’eau
- NaCl i -16 [x Elevée
- KBr io -a5 [x Très élevée
- CaF2 o,i5- 9 tx Négligeable
- LiF o,i5- 6 [x Très faible
- KCl 0,4 -20 IX Très élevée
- CsBr i -35 [x Très élevée
- KRS5 (TIBr-f TII) . . . 2 -40 jX Très faible
- Peu de constructeurs se sont engagés dans la voie onéreuse de la mise au point de tels appareils. En France, quelques tentatives ont été faites pour le proche infrarouge, mais elles se sont heurtées à l’époque, sur un marché restreint, à des appareils étrangers, plus rodés techniquement et commercialement. Il serait regrettable que nos constructeurs laissent passer la floraison actuelle d’appareils minimum, moins onéreux et pour lesquels le marché est incomparablement plus vaste. Les seuls appareils qui couvrent tout le domaine des fréquences infrarouges sont donc importés.
- Quelques spectrophotomètres pour le visible et l’ultraviolet, équipés d’optiques en quartz, permettent, après modification du système de réception, d’explorer le proche infrarouge jusqu’à 3 [jl. Tels sont entre autres, en France, le spectrophoto-mètre Jobin et Yvon, ou l’appareil double faiseau enregis-
- p.504 - vue 508/527
-
-
-
- 505
- Fig'- 1- — Schéma du trajet optique du spectrophotomètre Perkin-Elmer modèle 112 (simple faisceau).
- SO : source ; M : miroirs.
- Fig. 2. — Spectre d’un film de polystyrène (épaisseur 70 [i.) obtenu à l’aide d’un spectrophotomètre Perkin-Elmer modèle 21.
- Temps d’enregistrement : 5 mn 15 s.
- treur de Lérès; en Amérique, le Beckman enregistreur D. K. et le Perkin-Elmer Spectracord. Ce type d’appareils permet d’opérer dans la bande caractéristique entre autres des vibrations des groupements — CH, — OH et — Nil.
- Les appareils qui couvrent tout le domaine sont importés de trois origines :
- •— États-Unis : Perkin-Elmer et Beckman;
- — Angleterre : Hilger;
- — Allemagne : Leitz.
- Nous passerons en revue les appareils proposés par ces constructeurs.
- Perkin-Elmer dispose d’une gamme assez large d’appareils conçus à partir de quatre types principaux : les modèles ra C, 21, Infrac-ord et i3 U.
- Le modèle 12 C est un appareil à simple faisceau dans lequel le problème de l’amplification du signal émis par la thermopile réceptrice a été résolu en modulant, à l’aide d’un miroir tournant, le faisceau lumineux, de façon à permettre l’élimination du bruit de fond qui, à niveau faible, rend difficile la mesure
- Fig. 3. — Appareil Perkin-Elmer Infracord (double faisceau).
- de l’intensité lumineuse reçue. Les longueurs d’onde sont repérées par des tops inscrits sur le spectre lui-même et liés à l’orientation du monochromateur du type Littrow.
- Le double faisceau modèle 21 est le type même de cette catégorie d’appareils. Les deux faisceaux sont envoyés alternativement par un miroir tournant vers le monochromateur. Un cache, dont la densité optique dépend de la position, vient occulter le faisceau de référence jusqu’à ce que le récepteur ne détecte plus aucune différence entre les deux alternances ; la plume de l’enregistreur est asservie à la position de ce cache. Des cames permettent d’obtenir à l’enregistrement une échelle linéaire en longueur d’onde ou en nombre d’onde. La fente du monochromateur est automatiquement réglée à une valeur telle que l’intensité lumineuse reçue par le récepteur reste à peu près constante dans tout le spectre. Sur cet appareil, de multiples réglages permettent une extrême variété d’utilisations, mais en choisissant comme paramètre principal la résolution il est possible d’établir un tableau qui permet, en fonction du but à atteindre — résolution, analyse, etc. — de déterminer la position des autres variables.
- L’infracord est un appareil basé sur le même principe mais dans lequel presque toutes les possibilités de réglage ont été supprimées dans le but de réaliser un appareil simple, relativement peu onéreux et manipulable même dans des laboratoires non spécialisés dans les techniques spectrophotométriques.
- A l’autre extrémité de la gamme, le modèle i34 est un spectrophotomètre universel couvrant de 200 mp, dans l’ultraviolet à 5o p. dans l’infrarouge lointain, à l’aide d’un ensemble de sources, de récepteurs et de prismes. Il fonctionne également sur le principe du double faisceau.
- Les spectrographes Perkin-Elmer peuvent être équipés d’un dispositif de doublement du chemin optique dans le monochromateur qui permet, en faisant passer une nouvelle fois le faisceau à travers le prisme, cl’accroître la définition. Il ne faut pas oublier cependant que, dans les zones de fréquences où le prisme utilisé possède une absorption notable (en fait, aux extrémités des gammes d’utilisation), cela oblige, toutes choses égales par ailleurs, à ouvrir la fente du monochromateur, réduisant ainsi le .bénéfice retiré du montage, à moins qu’un jeu complet de prismes ne soit disponible.
- Beckman offre également un ensemble d’appareils adaptés à tous les cas.
- Le Beckman IR 4 est l’équivalent du’modèle 21 de Perkin-Elmer. En dehors de toutes caractéristiques techniques proprement dites, le souci permanent de commodité d’emploi semble typique de cet appareil. Un spectrographe infrarouge est un ensemble extrêmement complexe de dispositifs de réglage automatiques ou asservis ; la netteté du montage est un des arguments présentés par Beckman à l’acquit de cet appareil. Entre autres, il faut avouer que le système de présentation du spectre dans sa totalité en cours d’enregistrement est assez séduisant,
- Fig. 4. — Spectrophotomètre Beckman type JR-4 (double faisceau).
- p.505 - vue 509/527
-
-
-
- spécifiant l'appareil qui vous intéresse.
- 1
- Electrocolorimètre Universel Tricellule
- Absorption - diffusion - réflexion. Instrument de routine.
- s>
- Electrophotomètre P. MEUNIER
- Absorption - fluorescence. Instrument de haute précision.
- Spedrophotomètre électronique À
- Absorption - diffusion - fluorescence - flamme. Performances très élevées.
- PRÉCIS - ROBUSTES - FIDÈLES
- Des centaines de ces instruments sont en service sur les cinq continents, dans des laboratoires de toutes disciplines.
- JOBIIHVON
- 26, rue Berthollet, ARCUEIL (Seine) FRANCE - Tél. : ALÉ. 58-54
- Quel que soit votre problème d'étude, de recherche scientifique ou d'enseignement, il existe un produit
- Kodak
- pour le résoudre. Pour tous renseignements adressez-vous à
- KODAK-PATHÉ * SERVICE SCIENTIFIQUE
- 37, Av. Montaigne, PARIS-Vllh — Tél. BAL 26-30
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7*
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d'Etat.
- Brevet de Technicien d'Analyses Biologiques, Biochimistes, Biologistes.
- Court du four — Court du tolr
- Section d'enseignement " à domicile "
- {Joindre timbre pour notice)
- VIENT DE PARAITRE
- INTRODUCTION AU GÉNIE NUCLÉAIRE
- PUBLIÉE SOUS IA DIRECTION DE
- Thomas REIS
- III
- ET
- DE LA
- CHALEUR DES RÉACTEURS NUCLÉAIRES
- PAR
- Richard ALAMI
- Ingénieur E.N.S.P. et E.N.S.E.H., Ancien élève du Génie Atomique de Saclay.
- Paul AGERON
- Ancien élève de l’Ecole polytechnique, Ingénieur à la S.A.T.N.U.C.
- 256 pages 16x25, avec 158 lig. Relié toile sous jaquette.... 2 900 F
- En vente dans toutes les bonnes librairies et chez 92, rue Bonaparte DUNOD Editeur, Paris-6*
- p.506 - vue 510/527
-
-
-
- 507
- Fig. 5. —Spectre de la bande de 10 p. de gaz ammoniac au spectrophotomètre Beckman 1R-4.
- Influence sur la résolution de la vitesse d’enregistrement.
- ainsi d’ailleurs que cet enregistreur auxiliaire qui permet d’obtenir, en plus du spectre principal, une reproduction simultanée de petites dimensions aisément conservable en archives. Une autre particularité de l’IR 4 est la possibilité d’amplifier sur toute l’échelle de l’enregistreur les bandes de transmission o-io pour ioo ou 90-100 pour 100. Bien qu’en ce qui concerne la précision des mesures de densité optique un tel dispositif n’apporte rien, il n’en reste pas moins qu’il accroît considérablement la lisibilité des bandes d’absorption faibles ou très intenses.
- Dans son principe, l’IR 4 ne diffère pas des autres appareils à double faisceau; dans sa réalisation, il est caractérisé par l’utilisation d’un système de dispersion à deux prismes de Lit-trow, qui pei’met une résolution élevée et, en outre, aux longueurs d’onde élevées, une diminution considérable de la quantité de lumière parasite en provenance des régions du spectre où le filament de Nernst possède son maximum d’émissivité. Ici encore un tel dispositif n’améliore pas la résolution aux fréquences extrêmes d’utilisation des prismes.
- 'Les deux autres appareils actuellement construits par Beckman
- Fig. 6. — Prisme et accessoires du monochromatear Hilger.
- 1, prisme; 2, came permettant d’obtenir une lecture linéaire en nombre d’onde ; 3, tambour de lecture des nombres d’onde ; 4, came de réglage de l’ouverture de fente.
- sont des appareils minimum : l’IR 5 est un double faisceau simplifié; en particulier, il comporte un monochromateur simple; l’IR 6 est un appareil à simple faisceau équipé d’un programme de fentes qui ramène le niveau énergétique à une valeur constante dans tout le spectre. Un système de conditionnement de la totalité du chemin optique permet de s’affranchir des inconvénients dus à la présence des bandes de l’humidité et du gaz carbonique atmosphériques.
- Hilger construit un appareil du type double faisceau dans lequel les deux faisceaux sont situés l’un au-dessus de l’autre, l’envoi alternatif de chacun d’eux sur la fente d’entrée -du monochromateur étant réalisé par un miroir oscillant. Cet appareil peut également recevoir tout un jeu de prismes et de cames qui permet l’enregistrement d’une échelle linéaire en nombre d’onde ou en longueur d’onde. La compensation de la densité optique à mesurer est, ici encore, réalisée optiquement; l’obturateur n’est cependant plus un peigne comme dans les appareils précédents, mais un dispositif à double volet qui entraîne un potentiomètre d’enregistrement. Le récepteur est une thermopile qui semble avoir été particulièrement étudiée au point de vue de la sensibilité et du temps de réponse.
- Le spectrographe infrarouge Leitz est également un appareil à double faisceau. Le système absorbant du faisceau de référence est un diaphragme à iris accouplé mécaniquement à la plume de l’enregistreur. L’alternance des deux faisceaux est obtenue à l’aide d’un miroir tournant. Le monochromateur de Littrow est monoprisme; un jeu complet de prismes est évidemment disponible ainsi qu’un bloc supplémentaire qui permet d’opérer dans le visible et le proche ultraviolet. Les carac-
- Fig. 7 — Schéma du trajet optique du spectrophotomètre Leitz (double faisceau).
- N : filament de Nernst ; P-: prisme.
- Fig. 8. — Spectrophotomètre infrarouge double faisceau Leitz.
- p.507 - vue 511/527
-
-
-
- SPECTROMETRES INFRA-ROUGE double et
- simple faisceau, simple ou double passage.
- SPECTROMËTRES ULTRA-VIOLET, VISIBLE ET PROCHE I. R., Mod. 4000 double faisceau, double monochromateur.
- CHROMATOGRAPHIE EN PHASE GAZEUSE
- Appareils de laboratoire triple colonne et appareils de contrôle en continu.
- PHOTOMÈTRES A FLAMME.
- Documentation détaillée sur demande
- PERRIN ELMER FRANCE
- 7 5, RUE DE RICHELIEU, PARIS 2‘ - TEL. RIC. 52-63
- ÉTABLISSEMENTS j. TACUSSEL
- 14. RUE DU DOCTEUR-MOUISSET — LYON — Tél. : 52-58-49
- ALIMENTATION STABILISÉE B. T.
- à tension réglable
- 0,8 volts
- 0-2,5/3 Amp. régulation : ± 0,1 °/o (voir article dans ce même numéro, page 509)
- AUTRES FABRICATIONS :
- ALIMENTATION STABILISÉE H. T. : 0-325 volts/0-300 mA VOLTMÈTRE ÉLECTRONIQUE : 0/500 volts - MÉGOHMMÈTRE : 0,05 à I08 Ma pH-MÈTRES DE LABORATOIRE ET INDUSTRIELS
- p.508 - vue 512/527
-
-
-
- 509
- téristiques propres de construction révèlent le souci de mettre autant que possible le récepteur à l’abri de la lumière parasite.
- Les constructeurs d’appareils en infrarouge ont pris également soin d’assurer la fourniture de toute une gamme d’accessoires, entre autres :
- — Des presses à bromure de potassium permettant la réalisation de pastilles contenant des produits solides qui ne peuvent •être examinés par d’autres méthodes;
- — Tout un assortiment de cuves : démontables, scellées, à gaz, à épaisseur variable, microcuves, dont les parois sont taillées dans les differents matériaux transparents à l’infrarouge;
- — Des dispositifs de polarisation par réflexions multiples sur chlorure d’argent ou sélénium;
- — Enfin les matériaux transparents à l’infrarouge peuvent être fournis sous toutes les formes non seulement par les cons-
- tructeurs eux-mêmes, mais également par les spécialistes des monocristaux, tels en France le Laboratoire des Arts et Métiers ou la Société Quartz et Silice.
- *
- * *
- Cet ensemble de matériel infrarouge ne peut évidemment encore être disponible dans tous les laboratoires ; la complexité de la technique ainsi que le prix de revient des appareils en font encore un matériel spécialisé. Les années qui vont venir verront, comme nous avons essayé de le faire voir dans cet article, une diffusion de plus en plus ample dont les premiers objectifs seront vraisemblablement les laboratoires de contrôle des industries organiques.
- R. Btjvet.
- Potentiostats Tacussel et Télec
- L'interprétation des phénomènes électro-chimiques à l’aide des « courbes de polarisation » reliant le courant d’électrolyse au potentiel d’électrode a rendu nécessaire le tracé de celles-ci. Les difficultés pratiques rencontrées dans la recherche d’une électrode de référence dont le potentiel, quel que soit l’électrolyte, est indépendant du courant qui la traverse, ont entraîné la création d’un nouveau type d’appareil, désormais connu sous le nom de polenliostat.
- Le potenliostat construit par la Société Tacussel sur un schéma entièrement électronique permet de maintenir constant, à une valeur quelconque choisie entre o et 8 Y, le potentiel d’une électrode de travail par rapport à celui d’une électrode de référence sans débit. L’autre électrode de travail se fixe d’elle-niême au potentiel correspondant au courant imposé par la première. En voltmètre incorporé indique la différence de potentiel entre anode et cathode; un commutateur permet de réguler, soit le potentiel d’anode, soit le potentiel de cathode.
- Le courant maximum débité est 2,5 A, ramené à i,g A poulies tensions les plus éle\ées. La stabilisation est assurée à ± 3 mV pour ± i5 pour ioo de variation de la tension du secteur.
- Référence
- Borne contrôlée
- Référence
- Borne contrôlée
- Fig- 9. — Montages d’un potentiostat en alimentation à tension de sortie constante avec mesure du courant (à ganche) et à courant constant (ampérostat) (à droite).
- Ce type d’appareil peut évidemment être utilisé en alimentation à tension de sorlie constante — la résistance interne est alors inférieure à o,oo5 Q —, ou à courant constant (ampérostat) en contrôlant la différence de potentiel aux bornes d’une résistance chulrice intercalée en série dans le circuit d’électrolyse (fig. 9)-
- *
- * *
- Le polenliostat Télec esl conçu sur un principe électromécanique pour des puissances beaucoup plus faibles, mais
- peut servir de pilote à un amplificateur magnétique pour les applications de puissance. Utilisé seul, l’intensité débitée est au maximum de quelques milliampères.
- Il est certain que, dans les années qui vont venir, ce type d’appareil est appelé à une extension rapide, non seulement pour les études électro-chimiques, mais également en tant que matériel professionnel pour la réalisation des montages électroniques.
- Tronçonneuse par usinage chimique
- Fig. 10. — Tronçonneuse par usinage chimique Alba.
- La préparation d’échantillons destinés à l’analyse de surface nécessite un appareil de tronçonnage sans échauffement et sans contrainte. La technique du tronçonnage par attaque chimique convient souvent et a conduit à la réalisation par les Établissements Alba d’un dispositif entièrement construit en chlorure de polyvinyle (Lucoflex) inattaquable.
- Le tronçonnage y est réalisé par un fil métallique qui, après passage dans une solution appropriée, acide ou solvant, passe sur le volume à couper. Une électrolyse locale permet d’accélérer la vitesse de sciage chaque fois que cela est possible.
- p.509 - vue 513/527
-
-
-
- 510
- LES LIVRES NOUVEAUX
- La méthode dans les sciences modernes.
- Numéro hors série de Travail et Méthodes. 1 vol. 15 x 24, 344 p. Éditions Science et Industrie, Paris, 1958. Prix : 3 000 F.
- La richesse et la complexité du sujet, la variété des points de vue auxquels se sont placés les auteurs n’autorisent pas à tenter un compte rendu de ce livre dont il faut se contenter de résumer la table des matières. Après l’introduction de F. Le Lionnais, les « approches » du sujet ont été traitées par MM.
- F. Russo, J. Ulmo, R. Chéradame, R. Schwob, II. Laugier. Puis viennent les méthodes particulières, celles des mathématiques par J. Porte, J. Riguet, G. Darmois, A. Denjoy ; de la matière, par L. JMotchane, N. Wiener, R. Vallée, P. W. Bridgman, P. Piganiol, R. Leclercq ; de la vie, par M. Florkin, E. Wolff, R. Chauvin, A. Policard et M. Bessis ; de l’Homme, par A. Cuvillier, C. Morazé, P. M. Schutzenberger,
- G. Ardant, II. Baruk. Enfin : les moyens techniques, par L. Quevron, G. Petiau, G. Combet ; les « clés », par L. de Broglie, J. Nicolle, A. Por-tevin, G. Polya, L. Rougier, P. Vernotte ; l’apport moderne, par F. Zwicky, C. Salzmann. Perspectives, par F. Le Lionnais. Valeur et situation de la méthode scientifique, par F. Russo.
- Theoretical Astrophysics, édité par V. A. Am-bartsumyan, traduit du russe par J. B. Sykes. 1 vol. 16 x 24, xu-646 p., 75 fig. Pergamon Press, Londres, 1958. Prix, relié : 135 sh.
- Astronomes et astrophysiciens attendaient avec impatience la traduction de ce célèbre traité d’astrophysique dont la première édition date de 1952, mais que les auteurs ont revu et beaucoup augmenté car cette science progresse très vite. Sans qu’on puisse le considérer comme une somme des connaissances théoriques en astrophysique, cet ouvrage est à l’heure actuelle le seul qui rassemble dans un ensemble cohérent une multitude de faits dispersés dans une foule de publications. La première partie traite de l’équation de transfert, de l’équilibre des photosphères stellaires et de leur émission continue. La formation des raies d’absorption dans la chromosphère, leur élargissement et la possibilité qu’elles offrent de déterminer la composition chimique de l’astre font l’objet de la 2e partie. La 3e, due comme les précédentes à E. R. Mustel, applique les notions acquises à l’atmosphère du Soleil et aux manifestations de son activité, et comprend un important chapitre sur l’électrodynamique solaire. On doit à V. V. Sobolev les trois parties suivantes consacrées respectivement aux nébuleuses planétaires, aux novæ et aux étoiles à raies d’émission, objets particulièrement intéressants et encore peu connus. Sous la plume de A. B. Severnyi, la 7e partie est consacrée à l'intérieur des étoiles. Enfin, V. A. Ambartsumyan lui-même termine l’ouvrage par une étude de la diffusion de la lumière dans les atmosphères planétaires, et surtout de la matière interstellaire. Le grand intérêt intrinsèque de ce livre où l’on trouvera presque tous les raisonnements et les calculs fondamentaux de l’astrophysique s’accroît grâce à l’exposé d’une quantité de travaux soviétiques peu connus, qui constituent l’essentiel de la bibliographie. On peut cependant regretter que les astronomes occidentaux et américains ne soient pas plus souvent cités. Traité d’un niveau généralement élevé dont la lecture demande de solides connaissances en astronomie.
- Petit lexique de l'énergie atomique, par Henry Piraux. 1 vol. 13,5x18, 140 p. Eyrol-les, Paris, 1958. Prix : 1 100 F.
- Toute science ou technique crée son vocabulaire. Celui de l'énergie atomique, qui emprunte évidemment beaucoup à la physique et à la chimie, prend une extension proportionnelle à son importance croissante dans tous les domaines, qui fait que nul ne peut être aujourd’hui dispensé de s’en assimiler l’essentiel. M. Piraux a rédigé ce petit lexique dans un esprit explicatif qui en fait en même temps un mémento élémentaire.
- Éléments de Technique du vide. Tome I : Physique et technique des tubes électroniques, par R. Chàmpeix. 1 vol. 16x24,5, 228 p., 179 fig. Dunod, Paris, 1958. Prix, relié : 2 900 F.
- Destiné en principe aux ingénieurs et agents techniques chargés de la fabrication des tubes électroniques, ce livre atteindra un public beaucoup plus vaste : une quantité de domaines de la recherche et de l’industrie emploient la tech-
- nique du vide, dont les principes sont exposés ici d’une manière très concrète. La lre partie rappelle lès notions physicochimiques indispensables à la compréhension de l’ouvrage ; elles ne dépassent pas les possibilités d’un technicien connaissant bien le programme du baccalauréat. Les pompes à vide et les getters sont étudiés ensuite, ainsi que les jauges, puis les installations à vide en général. Un dernier chapitre mentionne certaines techniques constamment utilisées dans la construction des tubes électroniques. Nombreux exercices.
- The Powder Method in X-Ray Crystallo-graphy, par Leonid V. Azaroff et Martin J. Buerger. 1 vol. 15,5 x 23,5, xvi-342 p., fig. McGraw-Hill, Londres et New York, 1958. Prix, relié : 68 sh.
- La méthode des poudres, appelée encore méthode de Debye et Scherrer, est l'une des plus utilisées pour établir. la structure d’une substance cristalline et aussi pour identifier un composé chimique. C’est à ce dernier titre qu'elle est spécialement employée par les chimistes. Cet ouvrage constituera un guide pour chimistes, métallurgistes, physiciens voulant connaître les bases théoriques de la méthode, les appareils qu’elle exige et les procédés de calcul qui permettent d’interpréter les résultats qu’elle fournit. Excellente présentation.
- Radioisotopes Laboratory Techniques, par R. A. Faires et B. H. Parks. 1 vol. 14x22, xii-244 p., 90 diagrammes, 4 pl. h. t. George Newnes Ltd, Londres, 1958. Prix, relié : 25 sh.
- Livre pratique où les considérations théoriques ont été réduites au minimum, mais où toutes les techniques d’utilisation des radioisotopes sont exposées en détail. Les auteurs font profiter le lecteur d’une longue expérience en ce domaine puisque tous deux travaillent depuis de nombreuses années à la célèbre « Isotope School » de Harwell (R. A. Faires en est d’ailleurs le directeur). Les premiers chapitres sont consacrés aux notions fondamentales de physique nucléaire, aux propriétés des radiations, à la production des radioisotopes et à l'importante question des doses maximales de radiations susceptibles d’être absorbées par l’homme. Puis l’aménagement des laboratoires, le matériel à utiliser, les procédés de décontamination et de protection du personnel sont décrits. Ces chapitres sont caractéristiques de l'esprit dans lequel a été conçu cet ouvrage : par exemple, au chapitre décontamination, la méthode à utiliser est décrite dans chaque cas, qu’il s’agisse d’appareils en verre, en acier, en laiton ou de vêtements, de planchers en linoléum, etc. Les diverses méthodes de détection et de comptage des particules sont ensuite étudiées, puis les appareils détecteurs. Le livre se termine par une revue des . applications des radioisotopes dans les domaines les plus divers.
- A manual of paper chromatography and paper electrophoresis, par Richard J. Bloch, Emmet L. Durhum et Gunter Zweig. 2a édition revue et augmentée. 1 vol. 16x23,5,
- A NOS LECTEURS
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6*
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- xn-710 p., nombr. fig. Academie Press, New York, 1958. Prix, relié : 12,80 dollars.
- La chromatographie sur papier a fait l'objet d’un si grand nombre de publications depuis une quinzaine d’années qu’il devient difficile aux nouveaux venus dans ce domaine d’avoir une vue d’ensemble des différentes techniques utilisées. Dans cet ouvrage, les méthodes sont décrites d’une manière suffisamment détaillée pour permettre au lecteur de les appliquer à 3a résolution d’un problème particulier sans avoir à effectuer une bibliographie trop volumineuse. Après un exposé des bases théoriques de la chromatographie sur papier, la description des méthodes générales fait l’objet de deux chapitres où l’exposé des techniques expérimentales est particulièrement soigné. Près de 300 pages sont ensuite consacrées aux séparations si nombreuses des corps organiques, des amino-acides, aux antibiotiques. L’utilisation de la chromatographie sur papier en chimie minérale, plus limitée, est également traitée d’une manière très complète. La 2° partie de l’ouvrage est consacrée à l'électrophorèse sur papier ; les différentes méthodes et la plupart des appareils commerciaux y sont décrits. Plusieurs milliers de références.
- Les peroxydes organiques, par Vsevolod K.ar-nojitzki. 1 vol. 17,5x24, 142 p. Actualités scientifiques et industrielles, Hermann, Paris, 1958. Prix : 1 200 F.
- Cet ouvrage fait partie des Actualités d’Hermann dans leur nouvelle présentation élégante et soignée. Quatorze chapitres : Classification chimique ; hydroperoxydes d’alcoyle ; peroxydes de dialcoyle ; peracides ; peresters ; peroxydes dérivés des acides ; — des aldéhydes et des cétones ; peroxydes transannulaires ; — polymères ; ozonides ; caractères analytiques ; décomposition ; formation dans le processus d’autooxydation des hydrocarbures ; applications.
- Gazéification et oxydation des combustibles,
- par Jacques Meunier. 1 vol. 17x25, 550 p., 103 fig. Masson, Paris, 1957. Prix, broché : 4 500 F ; cartonné toile : 5 200 F.
- La méthode de valorisation des combustibles naturels par oxydation ménagée ou « conversion oxydante » est appelée à jouer un rôle important dans l’effort nécessaire pour mieux utiliser les combustibles. Les applications des gaz produits par le procédé sont extrêmement nombreuses. La lro partie de ce livre situe la conversion oxydante dans l’ensemble des procédés de transformation des combustibles et en étudie les principaux aspects. La 2e partie étudie les matières premières : on y souligne l’importance des connaissances sur la structure des combustibles pour l’amélioration des techniques de transformation. La 3e partie examine la stœchiométrie, la thermochimie et les méthodes de calcul thermique ainsi que la thermodynamique des réactions et l’apport actuel de la cinétique. Puis l’auteur présente une étude théorique d’ensemble de la conversion oxydante. Dans la 4° partie sont présentés les procédés industriels : gazéification en lit fixe, gazéification des charbons pulvérisés en suspension et conversion des hydrocarbures par la vapeur, l’air ou l’oxygène. Table de constantes. Index bibliographique.
- Industrial Chemicals, par W. L. Faitii, Donald B. Keyes et Ronald L. Clark. 2e édition. 1 vol. 16 x 24, x-844 p., fig. John Wiley and Sons, New York, 1957. Prix, relié : 16 dollars.
- Ayant choisi parmi les produits chimiques industriels les 140 composés qui leur paraissaient les plus importants par leur production et leurs applications, les auteurs indiquent pour chacun d’eux les procédés de préparation les plus utilisés en donnant un schéma de fabrication, en indiquant les phases de la réalisation et les quantités de matières premières et d’énergie nécessaires. Ils y ajoutent les propriétés essentielles de ces produits, leurs diverses formes commerciales, leurs applications, et des données économiques (tonnages fabriqués et firmes qui les préparent) concernant les États-Unis. Cet ouvrage . ignore malheureusement ce qui se passe au-delà des frontières des U.S.A.
- L'industrie du charbon en Europe. 1 vol. 15.5x24, 97 p., graphiques. O.E.G.E., Paris, 1957. Prix : 400 F.
- Exposé de la situation de l'industrie charbonnière en Europe en 1956 et de son évolution
- p.510 - vue 514/527
-
-
-
- 511
- probable. Le problème essentiel qui se pose est celui des importations de charbon américain, qui doivent continuer à être de l’ordre de 40 millions de tonnes.
- Le grand péril des radiations, par J. Schubert et R. E. Lapp. Trad. par René Sudre.
- Suivi d’une étude de A. Lacassagne. 1 vol.
- 14x23, 254 p. Payot, Paris, 1958. Prix :
- 1 300 F.
- Deux savants américains, un biologiste et un physicien nucléaire, exposent en détail les principaux dangers que nous fait courir l’utilisa» lion de l’énergie nucléaire. Un premier danger est offert par Faction cancérigène : cancer de la peau surtout pour les personnes qui ont reçu des irradiations externes ; cancer du sang (leucémie) pour celles qui ont absorbé des corps radioactifs capables de se fixer dans les tissus. Un danger moins immédiat, mais tout aussi redoutable, menace la descendance des individus dont les organes reproducteurs ont été irradiés. L’infime probabilité de mutations favorables ne saurait compenser la perspective de voir se multiplier les êtres malades ou anormaux. Les explosions de bombes n’ont pour l’instant qu’une faible part dans l’augmentation de la radioactivité ambiante. Le danger principal vient de la multiplication des installations nucléaires et de l’emploi généralise des radioisotopes, sans oublier les rayons X dont les médecins abusent, selon les auteurs. Une étude du professeur Lacassagne sur les effets tardifs des radiations corrobore les conclusions des auteurs américains.
- L’auteur a voulu donner « un panorama du monde d’après la science moderne » et qui soit à la portée de tous. Il a réussi une œuvre agréable où l’on rencontre d’excellents morceaux, notamment dans la description des astres et celle des êtres vivants et de leur évolution, avec des figures parlantes et ingénieusees. Mais, malgré la prétention de suivre la science moderne, la partie théorie en est indigente. Les lignes qui sont consacrées à la Relativité et aux Quanta n’en donnent pas même une idée approchée, mais était-ce possible P Sur la genèse des continents, Fauteur s’en tient à la théorie de Wegener, dont on sait qu’elle est actuellement presque unanimement rejetée. Quiconque s'en tiendrait à ce livre n’aurait donc pas du tout une idée convenable de la science moderne. Au contraire, on pourra le donner aux jeunes gens dont il éveillera la curiosité et qui auront le temps, plus tard, de remédier à ses graves lacunes. C’est dire qu’il n’est pas sans mérites.
- Oiseaux de cage et de volière, par C. Man-dahl-Barth et J. Dorst. 177 figures en couleurs de Henning Antiion. 1 vol. 12 x 18, 108 p, Fernand Nathan, Paris, 1958. Prix, cartonne : 885 F.
- Cent cinquante-sept espèces, parmi les plus populaires et les plus appréciées des amateurs, sont brièvement décrites dans leur comportement et leur mode de vie, et figurées en aquarelle. L’édition française de ce joli petit livre qui a eu beaucoup de succès dans les pays Scandinaves a été revue par M. Jean Dorst, sous-directeur au Muséum de Paris.
- Applications des sciences atomiques dans l’agriculture et l’alimentation. 1 vol. 16x24, 121 p., 10 fig. Publications O.E.G.E., Paris, 1958. Prix : 400 F.
- Rapport d’une mission de l’O.E.C.E. sur les progrès qui peuvent être obtenus en agriculture et pour la conservation des produits alimentaires par l’emploi des moyens nouveaux basés sur les techniques atomiques en particulier celle des radioisotopes.
- Anatomie végétale- L'appareil végétatif des Phanérogames. Tome III, pat’ Edouard Bou-reau, sous-directeur au Muséum. 1 vol. 14 x 19,5, vin-230 p., 84 fig., 11 pi. pho-log. hors texte. Presses Universitaires de France, Paris, 1957. Prix : 1 500 F.
- Ce troisième tome du savant traité de M. E. Boureau étudie le bois secondaire des Dicotylédones et des Monocotylédones. Celle étude comparative montre que certaines familles sont homogènes, d’autres plus ou moins hétérogènes. D’autre part, des caractères sont communs à des espèces sans parenté. Les uns peuvent être attribués aux influences du milieu, d’autres plus rares n’y paraissent pas rattachés. Dans l’ensemble, l’étude du développement du bois secondaire paraît très importante pour la phylogénie.
- La vie merveilleuse des plantes, par M. Pau-mier. 1 vol. 14 x 20, 128 p., photos et dessins. Bourrelier, Paris, 1958. Prix, cartonné : 580 F.
- Exposé élémentaire sur la structure des différents types végétaux, leur biologie, leur place dans la nature. Une place particulière a été faite à des aspects qui peuvent frapper l'imagination du jeune lecteur et susciter sa curiosité : la fécondation par les insectes, les moyens de dissémination, le parasitisme, etc. Le ton- est celui de la causerie familière.
- Le pollen, par Armand Pons. 1 vol. 11,5x17,5, 128 p., 14 fig. Collection Que sais-je? P.U.F., Paris, 1958. Prix : 180 F.
- Ce petit livre décrit la structure des pollens et des spores et ses rapports avec la systématique végétale. Puis" il étudie avec quelque détail les applications, maintenant courantes, de la palynologie : rôle des pollens dans les maladies allergiques ; palynologie et agronomie ; contrôle de la composition des miels et biologie des abeilles ; enfin, analyse pollinique des sédiments au service de la géologie quaternaire et de la préhistoire.
- Le livre de la nature, par le Dr F. Kahn. Traduit de l’allemand par Christian Guth. Tome I : Espace et temps, force et matière, le Ciel, la Terre, la Vie, Tome II : La plante, Vanimal, l'homme, 2 vol. 19x25, 324 et 436 p.t 153 et 249 fig. Flammarion, Paris, 1958. Prix, les 2 vol. ensemble : 5 000 F.
- Poissons d’aquarium, par G. Mandàiïl-Bartii. 249 figures en couleurs de N. Norvil. 1 vol. 12 x 18, 100 p. Fernand Nathan, Paris, 1958. Prix, cartonné : 885 F.
- Description sommaire de 190 espèces, révisée pour l’édition française par M. Jacques Arnoult, assistant au Muséum de Paris. Dans les cas spéciaux, la nourriture et la température de l’eau sont indiquées.
- Aquariums d’eau douce et d’eau de mer,
- par Lucile Langel-Kretchmar, avec 39 photos en couleurs de Roger Dougoud, Ch.-R. Jaquier, E., von An, et 17 dessins de Monique Emcii. Préface de Emile Guyenot, de l’Institut. 1 vol. 12,5 x 17,5, 230 p. Delachaux et Niestlé, Neuchâtel, Paris, 1956. Prix, cartonné : 1 350 F.
- Ce volume de la très jolie collection Les beautés de la nature est un livre de chevet pour Faquariopbile. On y trouve tous les renseignements utiles pour la construction des aquariums, leur entretien et leur décoration, ainsi
- NOUVEAUTÉ
- 1E MARCHÉ COMMUN
- L. de SAINTE LORETTE
- Rappel
- PETROLE
- et gaz naturel dans le monde
- L. V. VASSEUR
- LES PAYSAGES AGRAIRES
- A. MEYNIER
- 224 pages
- 360 F
- colin
- 'S
- que pour l'élevage et le maintien en bonne santé de leurs hôtes : nature du sol, choix des plantes, qualités et renouvellement de l’eau, oxygénation, nourriture des espèces, maladies et soins à appliquer. De nombreux poissons et animaux aquatiques et marins sont décrits, avec les indications utiles sur leur biologie. Non seulement les amateurs mais les naturalistes peuvent trouver dans ce livre plus d’une indication utile.
- Mon aquarium, par O. Guarini. 1 vol. 13,5x18,5 144 p., illustr. Grépin-Leblond, Paris, 1958. Prix : 690 F,
- Un « aquariophile » passionné et compétent nous livre les profits d’une longue expérience. Il nous apprend comment aménager un aquarium, l’entretenir, l’améliorer, le fleurir, le peupler pour notre plaisir et pour mainte découverte.
- Initiation mathématique à la Physique médicale et à la Biologie, par Julien Guelfi, professeur à la Faculté de Médecine et de Pharmacie de Rennes. 1 vol. 16,5x24,5, 220 p., 94 fig. Masson, Paris, 1958. Prix, cartonné toile : 4 000 F.
- Beaucoup de biologistes ont nourri longtemps une curieuse méfiance à l’endroit des mathématiques. Cependant, la mesure s’impose maintenant dans toutes les sciences biologiques, et le biologiste comme le médecin ne peuvent utiliser aveuglément des symboles et des formules dont la signification précise leur resterait en grande partie étrangère. Ce livre, dont le style et le ton contrastent agréablement avec l’aridité que l’on prête ordinairement à cette matière, est un véritable ouvrage d'initiation. Partant des notions les plus simples, il introduit graduellement dans des domaines que beaucoup s’étonneront de trouver à leur portée : développements en série, permutations, fonction logarithmique, calcul vectoriel, calcul infinitésimal, etc. Les étudiants en médecine et en biologie, beaucoup d’ingénieurs y trouveront les bases d’une culture de plus en plus nécessaire.
- Le voyage de la Calypso ; le Monde du Silence, par Jacques-Yves Cousteau. 1 vol. 18,5x23,5, 96 p., 80 photos en noir, 12 hors-texte en couleurs. Hachette, Paris, 1957. Prix, cartonné : 990 F.
- Dans cet album, un des plus beaux de la collection Tout par l'image, le commandant Cousteau nous fait revivre l’aventure à la fois sportive, cinématographique et documentaire de la Calypso, et tous ceux qui ont vu le film auront plaisir à en retrouver ici les plus séduisantes images. Grâce à l’aménagement spécial du navire, à l’équipement individuel perfectionné pour plongée sous-marine, enfin aux nouvelles techniques de prises de vue au sein de l’élément liquide, à l’enthousiasme aussi de toute une équipe, c’est tout un monde nouveau qui surgit à nos yeux dans sa fraîcheur jusqu’ici inviolée.
- Arbres et arbustes d’ornement de pleine terre, par S. Mottet. Edition entièrement refondue, par J. Hamm, chef jardinier de la ville de Paris. 1 vol. 13x19,5, 380 p., 59 fig. Baillière, Paris, 1958. Prix : 1 100 F.
- Après un exposé rapide sur la plantation, le choix et la disposition des essences, la préparation du sol, la transplantation et la protection, la taille et Félagage, Fauteur décrit un grand nombre d’arbres ou arbrisseaux d’ornement, leurs exigences, leur meilleur emploi.
- Les treize marches vers l’atome, par Charles-Noël Martin. 1 vol. 16 x 21,5, 256 p., avec 118 planches et des dessins. Horizons de France, Paris, 1958. Prix : 2 150 F.
- Les « marches » dont il s’agit marquent une progression du visible vers le microscopique et Fultramicroscopique. On part du centimètre, puis on le divise par dix, puis par dix encore, et ainsi de suite. Et à chaque étape nous sont présentées des images photographiques de ce que la Science nous permet de voir. Des cristaux de neige, des fils de soie d’un cocon et de la coupe d’une étamine de lis on va ainsi, par la base d’un poil de souris et la nitro-cellulose en solution, les microbes puis les virus, jusqu’aux atomes et aux mésons dont nous suivons les traces dans la chambre de Wilson et les plaques sensibles. Un souffle poétique anime les commentaires d’un physicien dont la curiosité nous guide et l’enthousiasme nous entraîne.
- p.511 - vue 515/527
-
-
-
- 512
- Marcel Loubens. Ses souvenirs, nos témoignages, par J. Bidegain, N. Casteret, Dr Clama-giraxd, R. J. Lévy, Dr A. Maibey. Textes recueillis et présentés par H. Brosset. 1 vol. 14 x 20,5, 224 p., 12 pl. de photos hors texte. Gallimard, Paris, 1958. Prix : 750 F.
- Ce li\re retrace la vie du jeune spéléologue qui trouva la mort en 1952 dans le gouffre de la Pierre-Saint-Martin, et dont ses amis remontèrent le corps en 1954 au prix de mille difficultés et périls. Chacun des auteurs raconte un des épisodes auquel il fut le plus directement mêlé. On y a joint des extraits des carnets et quelques articles de Loubens lui-même. Dix années de la spéléologie française revivent dans ce livre qui contient plus d'une page émouvante.
- Commander Crabb, par Marshall Pl*gh. Trad. de l'anglais par Agnès de Noblet. 1 vol. 16,5 x 18,5, 132 p. Éditions du Jour, Paris, 1957. Prix, cartonné : 650 F.
- Good bye Gorilles, par F. G. Meufield et H. Miller. Version française de M. Loutrel-Tschirret. 1 vol. 16,5 x 18,5, 122 p. Éditions du Jour, Paris, 1957. Prix, cartonné : 650 F.
- Au galop d’un cheval mongol, par Mabel Waln Smith. Version française de M. Lou-trel-Tschirret. 1 vol. 16,5 x 18,5, 132 p. Éditions du Jour, Paris, 1957. Prix, cartonné : 650 F.
- Les voleurs de morts, par Chris line Gar-
- nier. 1 vol. 16,5 x 18,5, 118 p. Éditions du Jour, Paris, 1958. Prix, cartonné : 650 F.
- Le Livre des pirates, par Howard Pyle. Version française de Marcelle Vérité. 1 vol. 16,5 x 18,5, 142 p. Éditions du Jour, Paris, 1958. Prix, cartonné : 650 F.
- Quelques ouvrages de la collection Aujourd’hui t’aventure qui passionneront les jeunes lecteurs de 12 à 14 ans. Ce sont des récits d’exploration et d’aventures auxquels ont été ajoutées de brèves présentations géographiques, historiques et ethniques, avec des cartes et itinéraires, et qui sont illustrés de photographies en couleurs. Commander Crabb retrace la vie mouvementée du célèbre marin britannique et ses hauts faits d’homme-grenouilie jusqu’à sa mystérieuse disparition à Portsmouth en 1956. Dans Good bye Gorilles, nous suivons F. G. Merfield à travers la brousse équatoriale et quelques-uns regretteront que ce remarquable naturaliste, ami des animaux, ait à se reprocher quelques violences à l’égard des grands anthropoïdes qu’on nous dit somme toute assez pacifiques. Au galop d’un cheval mongol nous transporte sur les hauts plateaux du Gobi avec les nomades dont M. W. Smith a partagé la vie durant de longs mois pour la télévision australienne. Les voleurs de morts sont les adeptes d’une société secrète d’Afrique chez les Batos, où le jeune Luc, héros du récit, a couru les plus grands dangers... Le Livre des Pirates retrace les aventures des féroces Pavillons Noirs.
- La vie ardente de Drake « le Colonel »,
- par Pierre Morel M. 1 vol. 14 x 22,5, 213 p., 6 pl. h. t., 1 carte. Éditions Sun, Paris, 1957. Prix, relié : 960 F.
- On commémore le centième anniversaire de la découverte du pétrole à Titusville par Drake, à 23 m de profondeur... On sait quel engouement il en résulta et comment rapidement se développa « la fièvre » du pétrole. On relira avec beaucoup de plaisir les diverses pliasses de cette découverte et surtout la vie de son auteur, homme modeste, qu’on baptisa un jour « colonel » et qui ne profita guère de sa trouvaille, puisqu’il serait mort dans la misère sans la modeste pension que lui accorda tardivement l’État de Pennsylvanie.
- Le Chat, la Belette et le petit Lapin, une fable de La Fontaine vue et racontée par Jean Tolrane. 1 vol. 22 x 28, 48 p. Dela-chaux et Niestlé, Neuchâtel, Paris, 1958. Prix, cartonné : 975 F.
- Très belles et amusantes photographies où l’on voit les protagonistes de la fameuse fable dans des situations et postures imprévues au milieu d’un décor pittoresque. En prose, la fable finit mieux qu’en vers. Grands et petits en sauront gré à l’optimisme souriant de l'auteur.
- L’Automation, ses conséquences économiques et sociales, par Frederick Pollock. Adaptation française par Daniel de Goppet, augmentée d’une étude de Pierre Rolle. 1 vol. 14 x 23, 256 p., 6 photos. Les Éditions de Minuit, Paris, 1957. Prix : 1 350 F.
- 25.000 caméras
- ARM0R87»
- déjà en service
- HYPANIL monté sur
- ARNOR 8 7.
- VOUS AUSSI
- vous FILMEREZ
- avec ARMOR 8 m/m
- La fabrication en grande série de caméras et projecteurs 8 % met le cinéma à la portée de tous
- ARM8RLUXE la caméra
- aux possibilités étonnantes
- Simple, robuste, aucune fausse manœuvre possible. Vue parvue et continu. Objectif 1,8 de 12 X. 5 interchangeable.
- Et la moins chère.
- Frs 24.650
- + T. L.
- L'OBJECTIF
- HYPANIL bi-focal
- les possibilités d'une tourelle
- S’adapte sur tous les, objectifs 8 Z standards pour donner :
- — le grand angle 7 An
- — le téléobjectif 19”^
- Frs 7.390
- -f T. L.
- Le PROJECTEUR ARNOR 8 en valise portable gainée
- N
- j?
- =L ^J
- r
- Mlkü
- Eclairage BAS VOLTAGE, don-nantune projection trèsbrillante sur écran de 1 m. de base. Réembobinage ultra-rapide. Bobine 120 m. soit 40 minutes de projection.
- Frs 33.740 + T. L.
- Même modèle luxe avec dispositif “ARRÊT SUR IMAGE”
- Frs 37.540 + T. L.
- technique
- Sur simple demande DOCUMENTATION et ADRESSE du REVENDEUR le plus proche
- 163 bis, rue de CHARONNE PÀRIS-lle
- Traduit de l’allemand, cet ouvrage appartient à la série d'études de l’Institut de Recherches sociologiques de l’Université de Francfort. La documentation de l’auteur a été prise sur place aux États-Unis et en Europe. La lre partie définit l’automation, en expose les techniques, les applications, les limites et les perspectives. La 2e partie étudie les conséquences de son développement sur l’économie et sur sa stabilité future, la 3° partie ses conséquences sociales sur l’entreprise, sur le personnel et sur le chômage technologique probable. Un tableau de l’état de l’automation en Europe en 1957 (France, Allemagne, Grande-Bretagne, Italie) termine ce livre qui prévoit de profondes modifications de structure pour l’économie.
- PETITES ANNONCES
- (190 F la ligne, taxes comprises. Supplément de 100 F pour domiciliation aux bureaux de la revue).
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 4e trimestre iq58, n° 3i56. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 3856. — I2-IC>[>8.
- p.512 - vue 516/527
-
-
-
- LA NATURE
- QUATRE-VINGT-SIXIÈME ANNÉE —
- PAGINATION DES NUMEROS DE 1958
- î 958
- Janvier. . . . . ... 1 à 40 Mai . . . . 161 à 200 Septembre . . . ... 337 à 376
- Février. . . . . ... 41 à 80 Juin. .... . . . . 201 à 248 Octobre .... ... 377 à 416
- Mars ... 81 à 120 Juillet .... . . . . 249 à 296 Novembre. . . . . . . 417 à 464
- Avril . . . 121 à 160 Août. .... . . . . 297 à 336 Décembre. . . . ... 465 à 512
- Nota. — Les numéros de pages précédés de la lettre G renvoient aux pages de Les chiffres en caractères gras indiquent les articles principaux.
- couverture en regard de ces numéros. —
- INDEX ALPHABÉTIQUE
- A
- Acclimatation du Renne en Ecosse, 344. Accouplement de la reine abeille, 393. Achèvement du tunnel du métro de Haïfa, C 161.
- Acide ascorbique : biosynthèse, 15.
- Acide désoxyribonucléique, 46.
- Acides glutamique et nicotinique dans le tabac, 405.
- — nucléiques : structure, 302.
- Acier : protection par le molybdène, G 201.
- — enterré ou immergé : protection contre la corrosion, 472.
- Action des entomologistes américains dans les services sanitaires de l’armée pendant la guerre, 192.
- Activités du Laboratoire souterrain du C.N.R.S. à Moulis, 280.
- Actualité instrumentale, 504.
- Actualités astronautiques, 293.
- Adaptation staurogamique des Aristoloches, 128.
- Adhésif nouveau pour le caoutchouc, G 417. Aérodynamique supersonique et hypersonique : influence sur la configuration des avions, 449.
- Aéroport de Croydon : disparition, G 161. Afrique du Sud : minéraux précieux, 206. Agent tensio-actif à partir du sucre, G 1. Agglomérés de minerais dans les hauts fourneaux, 495.
- Air ionisé et mesure des activités des radioisotopes, 76.
- Alcool éthylique : influence du disulflram sur son métabolisme, 411.
- Allergie : troubles causés par les Phry-ganes, 103.
- Allergologie : Congrès international, 442. Alliage magnétique amélioré (« Supermen-dur »), 344.
- Aluminium 26, 72.
- — le plus pur du monde, 279.
- — : soudage, 193.
- Amazonie brésilienne, 465.
- Analyseur pour substances paramagnétiques, 277.
- Anciens sur jougs des pays prépyrénéens,
- 148. 1
- Annonces météorologiques par signaux lumineux, 410.
- Anomalies du développement causées par des parasites chez des papillons, 97. Antabus : voir Disulflram.
- Antibiotique produit par les larves de mouches, 9.
- Antibiotiques et mycoses, 67.
- Antigels pour moteurs, 445.
- Appareils de • mesure des susceptibilités magnétiques, 311.
- ---------électroniques, 244.
- — de recherches thermonucléaires exposés à Genève, 491.
- — pour la mesure précise des débits,
- 286.
- —• utilisant les ultrasons, 232. Araignées : caractères adaptatifs en 'rapport avec le milieu, 37.
- Aristoloches et staurogamîe, 128. Astronautique, 293.
- Atterrissements littoraux : conquête, 223. Audition binaurale et orientation auditive, 112.
- Automne 1957 en France, 35.
- Automobiles : appareil pour le contrôle de la vitesse, 355.
- Autruches en guise de chiens de garde, 9. Aviation militaire : chasseur léger simplifié, 218.
- Avion de recherche North-American N.15, 179.
- — long-courrier à réaction D.C.S, 178. — Vickers VC.10, 384.
- Avions : formes nouvelles imposées par l’aérodynamique supersonique et hypersonique, 449.
- B
- Bactéries : noyau, 302.
- — sexualité, 313.
- — marines et biologie, 325.
- Baleine : situation de la pêche, 151. Basses températures : examen misrosco-
- pique, 267.
- Bathyscaphe et observation de la faune marine, 328.
- Bauxite et houille blanche en A.O.F., 222. Béryl : gisement en Haute-Vienne, C 1 ; erratum, 120.
- Béton armé enterré ou immergé : protection contre la corrosion, 472.
- Biarritz : Centre d’études et de recherches scientifiques, 194.
- Bi-centcnaire du Systema naturæ (10e édition), 410.
- Biologie du Noir, 458.
- — et pêche, 3S‘3.
- — et Médecine au Pavillon français (Bruxelles), 288.
- Biosynthèse de l’acide ascorbique, 15. Blattes : rôle dans la propagation des maladies infectieuses, 345.
- Bombes atomiques : utilisation pacifique ?
- 88.
- Brésil et colonisation hollandaise, 2. Bruxelles : Exposition internationale, 249, 297.
- C
- Câble sous-marin le plus long, 369. Cachalots pris dans les câbles sous-marins,
- 433.
- Caféiers : traitement par les hormones, G 465.
- Calaos : nidification, 98.
- Canaries : céramique guanche, 452. Cancer : rôle des hormones, 89.
- — et hormone de croissance, 67.
- — et virus : étude par la mise en euh ture prolongée de cellules animales, 406.
- Caoutchouc : nouvel adhésif pour le collage, C 417.
- Caractères adaptatifs des Araignées en rapport avec le milieu, 37.
- <( Caravaning » en Grande-Bretagne, 363. Carte géologique mondiale, G 297. Cathétérisme, 480.
- Cellule normale et cancéreuse : ultrastruc-ture, 309.
- — photoélectrique ultrasensible, G 161. Cellules animales en culture prolongée
- pour l’étude des virus et du cancer, 406.
- Centrale atomique de Shippingport : mise en service, 89.
- Centre d’études et de recherches scientifiques de Biarritz, 194.
- Céramique guanche, témoin de l’ancienne civilisation des Canaries, 452.
- Cermcts, 134.
- Cerveaux électroniques et zéro absolu, 55. Cétacés : raréfaction, 374.
- — respiration, 490.
- Chalcides, 488.
- Champignons des termitières, 272.
- Champ magnétique terrestre « fossile », 350.
- Chant : rôle des sensibilités internes, 90. Chasseur léger simplifié, 218.
- p.513 - vue 517/527
-
-
-
- 514
- Chauves-souris : orientation par les ultrasons, 496.
- Chemin de fer de La Mecque : reconstruction, 77.
- Chemins de fer'eur asiatiques, 394 ; erratum, 464.
- Chimie biologique et emploi des radioisotopes, 76.
- — industrielle : 31e Congrès international, C 121.
- Chromage par ultrasons, C 417.
- Chroma tographe en phase vapeur, 236. Chronoscope pour l’enseignement, 243. Ciment réfractaire à qualités remarquables, C 201.
- Climat : réchauffement, 19.
- Cœur : enregistrement des pressions et des sons intracardiaques, 480. Colonisation hollandaise au Brésil, 2. Coloration adaptative et mimétisme chez les animaux, 398.
- Combinaison pressurisée pour vols interplanétaires, 207.
- Commande de machines-outils par magnétophone, 284.
- Comment on apprend à parler à un enfant sourd-muet, 63.
- Conférence internationale pour l’utilisation pacifique de l’énergie atomique (2e), 417.
- ____________: appareils de recherche
- exposés à Genève, 491.
- Congrès international d’allergologie, 442.
- ------- de chimie industrielle (31e), C 121.
- ------de spéléologie (2°), G 81.
- Conquête des atterrissements littoraux, 223.
- Conseil supérieur de la Recherche scientifique : prix, 51.
- Consommateur néerlandais moyen, 219. Construction des digues en Hollande :
- nouvelles techniques, 185.
- Contrôle aérien par radar de Bruxelles-Melsbroek, 316.
- — de la vitesse des automobiles, 355. Corrosion, problème mondial (n° nov.
- 1957) : erratum, 80.
- Corrosion : rôle et avenir des produits frittés, 104, 434.
- — atmosphérique : protection par revêtements métalliques, 364.
- — de l’acier et du béton armé enterrés ou immergés : protection, 472.
- — électro-chimique, 364.
- Coupleur électro-magnétique à poudre, 241.
- Crapaud : venins, 503.
- Cresson : nouvelle maladie, 229.
- Cristaux : dislocations, 346.
- — liquides, 314.
- Croydon : disparition de l’aéroport, C 161. Crustacés : métamorphoses, 51.
- Cryotrons, appareillage nouveau pour machines à calculer électroniques, 55. Cuivre du golfe d’Akaba, 229.
- Curieuse nidification des Calaos, 98. Cycle du fer dans l’organisme révélé par le microscope électronique, 297.
- D
- Danemark : exploitation du fer des marais, 229.
- D.C.8, nouveau long-courrier à réaction,
- 178.
- Débitmètre thermique différentiel, 286. Déminéralisation de l’eau de mer par électrodialyse, 299.
- Démographie : prévisions jusqu’à 1975,
- 486.
- Dépôts de Diatomées d’eau douce au fond de l’Atlantique, 62.
- Dérivés chimiques du liège, 390. Dessalage de l’eau de mer par congélation, 109.
- Détections archéologiques au phosphore, 151.
- Détermination de la structure d’une protéine globulaire, 432.
- Développement des polyesters armés, 16. Diamant et sa taille, 320.
- Diamants do Sibérie, 374.
- Diatomées d’eau douce déposées au fond de l’Atlantique, 62.
- Diffractographe à rayons X pour examens à haute température, 287.
- Digues de Hollande : nouvelles techniques de construction, 185.
- Dilatomètre absolu enregistreur à haute température en atmosphère contrôlée,
- 274.
- Dimorphisme chez les insectes lié à la densité de population, 168.
- Dislocations dans les cristaux, 346. Disparition de l’aéroport de Croydon, C 161.
- Disulfiram : influence sur le métabolisme de l’alcool éthylique, 411.
- Dynamite radioactive, 412.
- E
- Eau ' de mer : déminéralisation par électrodialyse, 29'9.
- -----: dessalage par congélation, 109.
- — douce : remèdes à la pénurie, 108. Eaux douces : pollution par les produits
- pétroliers, 116.
- Echelle des distances de l’Univers : nouvelle révision, 438.
- Écologie entomologique, 197.
- Écriture arabe en caractères latins ? 328. Effets biologiques des basses températures, 431.
- -----des radiations : prix David Anderson-Berry, C 41.
- Électricité statique : recherches, C 249. Élec. troencéphalographie, 161. Électroluminescence, 305.
- Électronique et extraits de revues, C 337. Élevage des tortues de mer : essais, 15. Élevage du porc danois à l’Institut de Roslvilde, 68.
- Énergie atomique : utilisation pacifique (2e Conférence internationale), 417.
- — électrique : innovations en Suède, 152.
- — — : lignes à 750-1 000 ldlovolts en projet aux États-Unis, 500.
- — — : production par réaction chimique, C 297.
- Énergie nucléaire aux Pays-Bas, 34.
- — solaire : utilisation, 315.
- — thermonucléaire : appareils de recherche exposés à Genève, 491.
- -----; considérations théoriques, 84.
- -----: état actuel des recherches dans
- le monde, 121.
- ------- et production d’électricité, 87.
- Engrais azotés nouveaux, 193. Enregistrement des pressions et des sons à l’intérieur du cœur, 480.
- Enregistreur multipiste sur microfilm en couleurs, 268,
- Enseignement : réacteur nucléaire à usage . pédagogique, 308.
- — : « reconversion » de littéraires en scientifiques, 58.
- — des sciences aux États-Unis, 395. Entomologistes américains : action dans
- les services sanitaires de l’armée pendant la guerre, 192.
- Entraîneur mécanique au tennis, 191. Essais d’élevage des tortues de mer, 15.
- — de turboréacteurs, 392.
- États-Unis : budget de l’enseignement des
- sciences, 395.
- -----: construction en série d’une horloge atomique à césium, 54.
- Été 1958 en France, 390.
- Étourneaux, 56.
- Étude des températures anciennes par le dosage des isotopes de l’oxygène, 444.
- — d’un radioisotope : Al 26, 72.
- Études géophysiques au moyen des fusées
- et des satellites, 24.
- Examen microscopique aux basses températures, 267.
- Examens à haute température : diffrac-tographe à rayons X, 287.
- Exemple de colonisation hollandaise au Brésil, 2.
- Expériences d’optique électronique, 265. Exploitation du fer des marais au Danemark, 229.
- Exploration de la plus profonde fosse océanique, 487.
- — scientifique de la peinture au Laboratoire du Musée du Louvre, 180.
- — sous-marine : traîneau, 271. Exposition de Bruxelles, 249, 297.
- — de la Société française de Physique (55e), C 81, 232.
- — Mécanélec, C 297.
- —. sur l’évolution des Vertébrés au Muséum, C 249, 497.
- Extraits de revues par voie électronique, C 337.
- Évolution des Vertébrés et origine de l’Homme : Exposition au Muséum, C 249,
- 497.
- F
- Faune fluviale et volcanisme, 244.
- — marine observée à bord du bathyscaphe, 328.
- Fer dans l’organisme : cycle révélé par le microscope électronique, 297.
- — des marais : exploitation au Danemark, 229.
- Ferry-boats d’Italie en Grèce, 328. Figuration du mouvement en zoologie, 396.
- Filtrage de fréquences spatiales en optique, 282.
- Fluorescence des Scorpions à la lumière de Wood, 150, 353.
- Foire internationale de Lille, G 121. Foudre, siège de réactions thermonucléaires, 169.
- Fraiseuse asservie par bande magnétique utilisée dans l’industrie aéronautique, 431.
- Froid : effets biologiques sur les animaux, 431.
- Fromage de Hollande : forme, 138.
- Fusées : mesures en haute atmosphèx-e, 24.
- — et études géophysiques, 24.
- p.514 - vue 518/527
-
-
-
- 515
- G
- Germanium-arsenic pour thermomètres à résistance, G 337.
- Gisement de béryl en Haute-Vienne, C 1 ; erratum, 120.
- — de thorium de Travancore (Indes), 329.
- Glacier d’Aletsch et variations du climat,
- 331.
- Glaciers de la Nouvelle-Zemble : recul, 446.
- Grand Chat des Cavernes, 330.
- Gravures rupestres de Mauritanie, 482. Guêpes Pompiles, 351.
- H
- Haïfa : achèvement du tunnel du métro, C 161.
- Hauts fourneaux : emploi des agglomérés de minerais, 49».
- Hélium et souffleries supersoniques, G 417. Heure à l’Exposition de Bruxelles, 316. Histoire générale des Sciences : « Science antique et médiévale », 34.
- Hollande : nouvelles techniques de construction des digues, 186'.
- Horloge à quartz à transistors, 239.
- — atomique à césium, 54.
- Hormone de croissance des baleines pour le traitement du cancer, 67.
- Hormones : rôle dans le développement du cancer, 89.
- — et traitement des caféiers, C 46». Houille blanche et bauxite en A.O.F., 222. Hyménoptères de France, 479.
- I
- Ile de Marken : rattachement à la terre ferme par une digue, 167.
- Images optiques : filtrage, 282.
- « Impesanteur » et scaphandre pour le vide, 41.
- Industrie aéronautique : nouveaux records de production, 451.
- Influence du disulüram sur le métabolisme de l’alcool éthylique, 411. Innovations suédoises en matière d’énergie électrique, 152,
- Insectes : nouveau cas de dimorphisme lié a la densité de population, 168.
- — : physiologie comparée et aérodynamique du vol, 117.
- — fossiles de l’ambre, 71.
- — (Phryganes) responsables de troubles allergiques, 103.
- — servant de proie à d’autres : méthode de détermination, 147.
- Inspection des voûtes des ouvrages d’art, 133.
- Institut de Roskilde et élevage du porc danois, 68.
- Intoxications et emploi du lait, 97. Isotopes : séparation, 285.
- — de l’oxygène : dosage pour l’étude des climats anciens, 444.
- Israël : sables colorés et pétrole, 329. .
- J
- Jodrell Bank : mise en service du radiotélescope géant, 1.
- K
- Kariba, lac artificiel le plus grand du monde, 439.
- L
- Laboratoire des Terres rares du C.N.R.S. à Bellevue : installation-pilote pour la séparation à grande échelle, 399.
- — du Musée du Louvre : exploration scientifique de la peinture, 180.
- — souterrain du C.N.R.S-. à Moulis, 280. Lac artificiel de Kariba, 439.
- Laines d’Afrique du Sud, 374.
- Lait : emploi contre les intoxications, 97. Larves de mouches produisant un antibiotique, 9.
- Lecture sur les lèvres, remède à la surdité profonde, 220.
- Lettres aux Sciences (Des), 58.
- Lézard Arlequin, 489.
- Lézards marocains, 488.
- Liège et ses dérivés chimiques, 391. Lignes haute tension à 750-1 000 kilovolts en projet aux États-Unis, 500.
- Liquéfacteur mixte d’hydrogène et d’hélium, 270.
- Lubrifiant thixotropique, 143.
- Lutte contre la corrosion, 104, 134, 364, 472.
- M
- Machines-outils commandées par magnétophone, 284.
- Magnétisme fossile, 350.
- Magnétophone et commande de machines-outils, 284.
- Maladie nouvelle du cresson, 229.
- Maladies infectieuses : rôle des Blattes dans leur propagation, 345.
- Marais poitevin : nouveaux polders, 100. Marché mondial du thé, 186.
- Marcoule : première phase de fonctionnement de la pile G.2, 383.
- Marémotrice à double flot, 99.
- Mars : photométrie de certaines régions, 292.
- Mauritanie : gravures rupestres, 482. Médecine et Biologie au Pavillon français (Bruxelles), 288.
- Mélanisme industriel, 48.
- Mesure des activités radioisotopiques par un courant d’air ionisé, 76.
- -----débits : appareils, 286.
- ----sons et sensibilité auditive, 10.
- ------- susceptibilités magnétiques : appareils, 311.
- Mesures en haute atmosphère par les fusées, 24.
- — magnétiques, 243.
- — réalisables par les satellites, 29. Métabolisme de l’alcool éthylique et
- influence du disulfiram, 411.
- Métallurgie des poudres, 104. Métamorphoses des Crustacés, 51. Météorologie : automne 1957 en France, 35.
- — : été 1958 en France, 390.
- — : prévisions transmises par signaux lumineux, 410.
- Méthode pour déterminer les insectes servant de proie à d’autres, 147.
- Métro de Haïfa : achèvement du tunnel, C 161.
- Microbiologie du pétrole, 458.
- — marine, 325.
- Micro-débitmètre, 286.
- Microgalvanomètres Heito, 244. Micromanipulation, 300.
- Micromanomètre intracardiaque Allard-
- Laurens, 480.
- Microradar, 278.
- « Microscope chimique », 76.
- — électronique et cycle du fer dans l’organisme, 297.
- Miels et nectars artificiels, 89.
- Migrations artificielles de la truite, 231. Mimétisme et coloration adaptative chez les animaux, 398.
- Minéraux : séparation électrostatique, 144.
- — précieux en Afrique du Sud, 206. Miroir A rayons X pour caméras radiographiques, 36.
- Mise en service de la centrale atomique de Shippingport, 89.
- --------du radiotélescope géant de
- Jodrell Bank, 1.
- Mission Henri Lhote au Tassili, 59. Molybdène et protection de l’acier, G 201. Moteur à circuits imprimés, 242.
- Moulis : activités du Laboratoire souterrain du C.N.R.S., 280.
- Mouton ermite et sa toison, 9.
- Moutons : troupeaux gardés par des autruches, 9.
- Mouvement : figuration en zoologie, 396. Mouvements des yeux et rêve, 219.
- Musée de la Mer de Biarritz, 194. Muséum : Exposition sur Révolution des Vertébrés et l’origine de l’Homme, C 249 497.
- Mutations dirigées, 304.
- Mycoses et antibiotiques, 67.
- Myoglobine, protéine globulaire typique : structure, 432.
- N
- Nacre : production dans les Établissements français d’Océanie, 47.
- Nectars et miels artificiels, 89. Nidification des Calaos, 98.
- Nouraghes de Sardaigne, 356,
- Noyau bactérien et structure des acides nucléiques, 302.
- « Nuages argentés » : observation, 373. Numérotage des textiles : unification, 8. Nutrition et psychisme, 332.
- O
- Observation en France de la granulation solaire, 502.
- — des « nuages argentés », 372. Observations du premier satellite soviétique (n° déc. 1957) : erratum, 80.
- —- photographiques à très haute altitude de la surface du Soleil, 354. Observatoire le plus méridional du monde (République Argentine), C 121.
- Oiseaux : travail du cœur, 292.
- Optique électronique : expériences, 265. Organométallosiloxanes, 321.
- Orientation auditive et audition binau-rale, 112.
- — des chauves-souris par les ultrasons,
- 496.
- Origine de la vie et rayons gamma, 9.
- p.515 - vue 519/527
-
-
-
- 516
- — de l’Homme et évolution des Vertébrés : Exposition au Muséum, C 249,
- 497.
- — — : Primates et Paléontologie humaine, 412.
- Oscilloscopes nouveaux, 242.
- Ouvrages d’art : inspection des voûtes, 133.
- P
- Pachyure étrusque, plus petit Mammifère de France, 447.
- Palais international de la Science (Bruxelles), 289.
- Paléontologie humaine et Primates, 412. Parasites responsables d’anomalies du développement chez des papillons, 97.
- Parc international dans les Ardennes : projet de création, 432.
- — national dans l’Eifel, G 249'.
- ---en Andalousie, C 377.
- Pavillon de la Suisse (Bruxelles), 322.
- — de l’U.R.S.S. (Bruxelles), 323.
- — des États-Unis (Bruxelles), 322.
- — français (Bruxelles) : Médecine et Biologie, 288.
- — pharyngo-buccal et sa physiologie phonatoire, 337.
- Pêche à la baleine : situation, 151.
- — et biologie, 385.
- Peinture au Musée du Louvre : examen scientifique au Laboratoire, 180. Peintures préhistoriques du Sahara : mission Henri Lhote, 59.
- Pénurie d’eau douce et remèdes, 108. Pétrole : microbiologie, 438.
- — : situation en France en 1958, 370.
- — : transport au moyen de « saucisses », 97.
- — et pollution des eaux souterraines,
- 110.
- — israélien, 329.
- — sicilien : essor de la production, 147. Phénomènes allergiques causés par les
- Phryganes, 103.
- Phonocardiographie, 480.
- Phosphore 33, 76.
- —• et détections archéologiques, 131. Photogéologic, 258.
- Photométrie de certaines régions de Mars, 292.
- Physiologie de la vision : progrès récents,
- 201.
- — phonatoire : rôle des sensibilités internes dans le chant, 90.
- ---du pavillon pharyngo-buccal, 337.
- Pile atomique E.L.3 : divergence et première montée en puissance, 88.
- — G.2 : première phase de fonctionnement, 383.
- Plasmine, solvant des caillots du sang, 345.
- Plastiques : polyéthylène basse pression en continu, 307.
- — : polypropylène isotactique, 318. Poldérisation en Guyane britannique, 329. Polders nouveaux dans le Marais poitevin,
- 100.
- Pollution des eaux de mer, C 81.
- --------souterraines par les produits
- pétroliers, 116.
- Polyesters armés : développement, 16. Polyéthylène basse pression en continu,
- 307.
- Polypropylène isotactique, 318.
- Porc danois : l’Institut de Roskilde, 68. Potentiostats, 509.
- Poussières cosmiques reçues par la Terre, 193,
- Présence des Sciences au Pavillon français (Bruxelles), 254.
- Présentation française dans le département « Atome » (Bruxelles), 289. Prévisions démographiques jusqu’à 1975, 486.
- — météorologiques transmises p a r signaux lumineux, 410.
- Primates et Paléontologie humaine, 412. Principes de la synthèse organique, 157. Prise d’eau avec fente aspiratrice, 264. Prix Bardet : analyse chimique par les méthodes physiques, C 201.
- — David Anderson-Berry sur les effets biologiques des radiations, G 41.
- — d\i Conseil supérieur de la Recherche scientifique, 51.
- —• Nobel de Sciences 1958, 501.
- — Pelman de Biologie, C 465.
- Production aéronautique : nouveaux
- records, 451.
- — chimique de l’énergie électrique, C 297.
- — de la nacre dans les Établissements français d’Océanie, 47.
- — de l’uranium aux États-Unis, C 41. Produits de beauté à base de sucs de légumes, 107.
- — frittés : rôle et avenir dans la lutte contre la corrosion, 104, 134.
- Profondeur des océans : exploration de la plus profonde fosse, 487.
- Progrès récents en physiologie de la vision, 201.
- Projet américain de lignes à 750-1 000 kilo-volts, 500.
- Protection cathodique contre la corrosion de l’acier et du béton armé enterrés ou immergés, 472.
- — de l’acier par le molybdène, C 201.
- — de la nature : nouveau Parc national en Andalousie, G 377.
- ---------: parc national dans l’Eifel,
- C 249.
- — ---: projet de création d’un Parc
- international dans les Ardennes, 432.
- —.-------: réserve naturelle d’Oiseaux,
- 139.
- ---------: réserve du Zwin, 187.
- Protéine globulaire : structure déterminée pour la première fois, 432.
- Psychisme et nutrition, 332.
- Psychologie française, 256.
- Pyrocéram, verre cristallin, 230. Pyromètre pneumatique nouveau, 244.
- R
- Radar : contrôle aérien de Bruxelles-Mels-broelc, 316.
- Radiobiologie, 299.
- Radioisotope Al 26, 72.
- — : phosphore 33, 76.
- Radioisotopes : emploi en chimie biologique, 76.
- Radiotélescope géant de Jodrell Bank :
- mise en service, 1.
- Raréfaction des grands Cétacés, 374. Rayons gamma et origine de la vie, 9. Réacteur américain pour la Grèce, C 1.
- — nucléaire à usage pédagogique, 308. Réacteurs de recherches exposés à Genève,
- 491.
- — homogènes de recherche, 377.
- -----de puissance, 423.
- Réaction du verre sur le sang, 288. Réactions thermonucléaires dans la foudre ? 169.
- Réchauffement du climat, 19.
- Recherches sur l’électricité statique, C 249. Recul des glaciers de la Nouvelle-Zemble, 446.
- Remèdes à la pénurie d’eau douce, 108. Renne en Écosse : acclimatation, 344. Réserve du Zwin, 187.
- — naturelle d’Oiseaux, 139.
- Respiration chez les Cétacés, 490.
- Rêve et mouvements des yeux, 219. Revêtements contre la corrosion de l’acier
- et du béton armé enterrés ou immergés, 472.
- — métalliques dans la protection contre la corrosion atmosphérique, 364.
- Révision nouvelle de l’échelle des distances de l’Univers, 438.
- Rhénium et technétium, 324.
- Rôle des Blattes dans la propagation des maladies infectieuses, 345.
- Rôle des sensibilités internes dans le chant, 90.
- Ronde des Étourneaux, 56.
- Route Le Cap-Nairobi, 107.
- S
- Sables colorés du Néguev, 329.
- Sahara vivant de la préhistoire, 59.
- Sang : caillots dissous par la plasmine, 345.
- — : réaction en présence du verre, 288. Sardaigne et ses nouraghes, 356. Sarigues, 3.
- Satellite américain (premier), 102.
- — soviétique (premier), observations des astronomes britanniques (n° déc. 1957) : erratum, 80.
- Satellites : mesures qu’ils peuvent réaliser, 29.
- — : variation de l’éclat du deuxième Spoutnik, 499.
- — et études géophysiques, 24.
- « Saucisses » pour le transport du pétrole, 97.
- Scandium, 191.
- Scaphandre pour le vide et démonstrations d’ « impesanteur », 41.
- Science à l’Exposition de Bruxelles, 249.
- (( — antique et médiévale », 34.
- — et Technique 1958 (Bruxelles), 250. Sciences au Pavillon français de l’Exposition de Bruxelles, 254.
- Scorpions : fluorescence à la lumière de Wood, 150, 353.
- Sélection de races par transplantation d’ovules, 117.
- Sensibilité auditive et mesure des sons,
- 10.
- Séparateur électromagnétique d’isotopes,
- 285.
- Séparation des terres rares à grande échelle : installation-pilote du Laboratoire du C.N.R.S. à Bellevue, 399. .
- — électrostatique des minéraux, 144. Sexualité chez les bactéries, 313. Shippingport : mise en service de la centrale atomique, 89.
- Sidérurgie : emploi des agglomérés de minerais dans les hauts fourneaux, 495. Signaux lumineux pour transmission des prévisions météorologiques, 410.
- p.516 - vue 520/527
-
-
-
- 517
- Situation de la pêche à la baleine, 151.
- — pétrolière française en 1958, 370. Société française de Physique : 55e Exposition, G 81, 232.
- Soleil : observation de la granulation, 502.
- — : surface photographiée a très haute altitude, 354.
- Solvant des caillots du sang : la plasmine, 345.
- Soudage de l’aluminium, 193.
- Souffleries à grande vitesse, 52.
- — supersoniques et utilisation de l’hélium, C 417.
- Sourd-muet : apprentissage du langage,
- 63.
- Spectrographe à ultraviolet lointain utilisant les « étincelles glissantes », 275. Spectrographes à résonance magnétique,
- 234.
- Spectrophotomètre automatique, 240. Spectrophotomètres en infrarouge, 504. Spéléologie : 2e Congrès international, G 81. Staurogamie des Aristoloches, 128. Structure des acides nucléiques et noyau bactérien, 302.
- — d’une protéine globulaire, 432.
- Sucre : hase d’un nouvel agent tensio-
- actif, C 1.
- Sucs de légumes et produits de beauté,
- 107.
- Suède : innovations en matière d’énergie électrique, 152.
- Surdité : remède par la lecture sur les lèvres, 220.
- Surjougs des pays prépyrénéens, 148. Svnchrotron à protons de Saclay, C 377. Synthèse organique : ses principes, 157. Systema naturæ : bi-centenaire (10e édition), 410.
- t
- Tabac : présence d’acides glutamique et nicotinique, 405.
- Technétium et rhénium, 324.
- Technique et Science 1958 à l’Exposition de Bruxelles, 250.
- Télévision en couleurs, 170, 208 ; erratum, 376.
- Tennis et a entraîneur » mécanique, 191. Termites et champignons, 272.
- Terre : teneur de l’atmosphère en poussières cosmiques, 193.
- Terres rares : installation-pilote du Laboratoire de Bellevue pour la séparation à grande échelle, 399.
- Textiles : unification du numérotage, 8. Thé : marché mondial, 186.
- Thermistors, 446.
- Thermobalances à enregistrement continu,
- 238.
- Thermomètre à résistance de germanium-arsenic, C 337.
- Thorium : gisement de Travancore (Indes), 329.
- Tortues de mer : essais d’élevage, 15. Tour de télévision de la B.B.C. : épreuve de solidité, 186.
- Traîneau d’exploration sous-marine, 271. Traitement anti-hormonal du cancer, 89.
- — des caféiers par les hormones, C 465. — du cancer par l’hormone de croissance, 67.
- Transplantation d’ovules et sélection de races, 117.
- Travail du cœur chez les petits oiseaux, 292,
- Tronçonneuse par usinage chimique, 509. Truite : migrations artificielles, 231. Turboréacteurs : essais, 392.
- U
- Ultracentrifugeuse et Spinco », 244. Ultrasons et amélioration du chromage, C 417.
- — et orientation des chauves-souris, 496.
- Ultrastructure de la cellule normale et cancéreuse, 309.
- Unification du numérotage des textiles, 8.
- Uranium : production aux États-Unis, C 41.
- Usine marémotrice à double flot, 99,
- Utilisation de l’énergie solaire, 315.
- — pacifique de l’énergie atomique : 2e Conférence internationale, 417, 491 -----des bombes atomiques, 88.
- V
- Variation de l’éclat du deuxième Spoutnik, 499.
- Variations climatiques : le glacier d’Aletsch, 331.
- -----: recul des glaciers de la Nouvelle-Zemble, 446.
- Venins de crapaud, 503.
- Verre cristallin : le Pyrocéram, 230.
- Vêtement pour l’Arctique, 217.
- Vickers VC-10, 384.
- Virus et cancer : étude par la mise en culture prolongée de cellules animales, 406.
- Visons en liberté, 422,
- Vitesse des automobiles : contrôle par un appareil, 355.
- Volcanisme et faune fluviale, 244.
- Volcans sous-marins dans l’Arctique, 448.
- Vol des insectes : physiologie comparée et aérodynamique, 117.
- Vols interplanétaires : combinaison pressurisée, 207.
- Voûtes des ouvrages d’art : inspection, 133.
- Z
- Zéro absolu : mesure par thermomètre à résistance de germanium-arsenic, C 337. -------et cryotrons, 55.
- Zêta, accélérateur de particules P 362.
- Zwin et sa réserve ornithologique, 187.
- p.517 - vue 521/527
-
-
-
- LISTE ALPHABETIQUE DES AUTEURS
- A. (A.) — Un nouveau pyromètre pneumatique, 244. — L’enseh gnement des sciences aux États-Unis, 39o. — Première détermination de la structure d’une protéine globulaire, 432.
- Allard (E.). — Enregistrement des pressions et des sons à l’intérieur du cœur, 480.
- Angel (Yves) et Lequeux (James). — La télévision en couleurs. 1. La couleur et l’analyse des images colorées, 170. — 2. La reconstitution et la transmission des images colorées, 208 ; erratum, 37G.
- Anthoine (Roger). — Science et Technique 1958 (Exposition de Bruxelles), 250.
- Antoine (G.). — Présence des Sciences au Pavillon français (Exposition de Bruxelles), 254.
- Aubert de La Rüe (E.). —• Où en est l’Amazonie brésilienne ? 465.
- Aetuier (André). •— Les dislocations dans les cristaux, 346.
- Barriéty (L.). — Le Centre d’études et de recherches scientifiques de Biarritz, 194.
- Baudran (A.-A.). — Dilatomètre absolu enregistreur à haute température en atmosphère contrôlée (Exposition de Bruxelles), 274.
- Baumgardt (Ernest). — Récents progrès en physiologie de la vision, 201.
- Berland (Lucien). — Les Guêpes Pompiles, 351. — Bi-centenaire du Sy s ténia natunc (10e édition), 410.
- Bessis (Marcel). — Le cycle du fer dans l’organisme, révélé par le microscope électronique (Exposition de Bruxelles), 297.
- Buuker (Paul). — Cachalots pris dans les câbles sous-marins, 433.
- Buvet (R.). — L’actualité instrumentale. Les spectropho tome très en infrarouge, 504.
- C. (LL). — Le chemin de fer de La Mecque sera-t-il reconstruit ? 77.
- C. (G.). — Remèdes à la pénurie d'eau douce, 108. — Ce que la Terre reçoit comme poussières cosmiques, 193. — Le séparateur électromagnétique d’isotopes de la Faculté des Sciences de Paris (Exposition de Bruxelles), 285. — La sexualité chez les bactéries (Exposition de Bruxelles), 313. — Faune marine observée à bord du bathyscaphe, 328. — Les diamants de Sibérie, 374. — Prévisions démographiques jusqu’à 1975, 486.
- C. (L.). — Un antibiotique produit par les larves de mouches, 9.
- — CameLères adaptatifs des Araignées en rapport avec le milieu, 37. — Les métamorphoses des Crustacés, 51. — Dépôts de Diatomées d’eau douce au fond de l’Atlantique, 62. — Anomalies du développement causées par des parasites, 97. — Phénomènes allergiques causés par un insecte, 103. — Le vol des insectes, 117. — Intéressante méthode pour déterminer les insectes qui servent de proie à d’autres, 147. — L’action des services entomologiques américains pendant la guerre, 192. — L'écologie enlomologique, 197. — L’accouplement de la reine abeille, 393. — Coloration adaptative et mimétisme, 398. — Les effets biologiques des basses températures, 431. — L’étude des températures anciennes par le dosage des isotopes de l’oxygène, 444. — Hyménoptères de France, 479.
- Châtelain (IL). — Cristaux liquides (Exposition de Bruxelles), 314.
- Chopard (Lucien). — Le mélanisme industriel, 48. — La curieuse nidification des Calaos, 98. — Nouveau cas de dimorphisme lié à la densité de population chez les Insectes, 168. — Le rôle des Blattes dans la propagation des maladies infectieuses, 345.
- — L'orientation des chauves-souris par les ultrasons, 496.
- Cohen (Gaston). — L’élevage du porc danois et l’Institut de
- Roskilde, 68. — L’exploration scientifique de la peinture au Laboratoire du Musée du Louvre, 180. — Biologie et pêche. De la transplantation des plies au marquage des morues, 385. — Le Congrès international d’Allergologie, 442.
- Cohen (Gaston) et Ostoya (Paul). — La Science à l’Exposition de Bruxelles, 249.
- D. (J.). — Rayons gamma et origine de la vue, 9.
- D. (J.). — Le Microradar (Exposition de Bruxelles), 278.
- D. (M.). — L’électroluminescence (Exposition de Bruxelles), 305
- Decary (Raymond). — Les anciens surjougs des pays prépyre-néens, 148.
- Dela.vare-Deboutteville (Claude) et Saint-Girons (Marie-Charlotte).
- — Le plus petit Mammifère de France : la Pachyure étrusque, 447.
- Durât (Capitaine de Corvette G.). — Traîneau d’exploration sous-marine (Exposition de Bruxelles), 271.
- Escande (L.). — Prise d’eau avec fente aspiratrice (Exposition de Bruxelles), 264.
- Faget (J.), Ferré (J.), F'ert (Ch.). — Expériences d’optique électronique (Exposition de Bruxelles), 265.
- Febvre (Docteur Henri). — L’ultrastructure de la cellule normale et cancéreuse (Exposition de Bruxelles), 309.
- Ferlan (L.). — Les Aristoloches et la staurogamie, 128.
- Ferré (J.), Faget (J.), Feiit (Ch.). — Expériences d'optique électronique (Exposition de Bruxelles), 265.
- Fert (Ch.), Faget (J.), Ferré (J.). — Expériences d’optique électronique (Exposition de Bruxelles), 265.
- Fonbrune (IL le). — Micromanipulation (Exposition de Bruxelles), 300.
- Forrer (R.). — Analyseur pour substances paramagnétiques (Exposition de Bruxelles), 277.
- Fouchet (Jacques). •— La machine Zêta n’csL-elle qu’un accélérateur de particules ? 362.
- Fournier (Fernand). — Diffractographe à rayons X pour examens à haute température (Exposition de Bruxelles), 287.
- Friant (M.). — Le Grand Chat des Cavernes, 330.
- G. (IL). — Le soudage de l’aluminium, 193. — Sur de nouveaux engrais azotés, 193. — Les thermistors, 446. — Les agglomérés de minerais dans les hauts fourneaux, 495.
- G. (.L). — Les mutations dirigées (Exposition de Bruxelles), 304.
- — Biologie du Noir, 458.
- G. (P.). —• Essais d’élevage des tortues de mer, 15. — Produits de beauté à base de sucs de légumes, 107. — Des sables colorés au pétrole israélien, 329.
- Gandillot (J.). — La Photogéologie (Exposition de Bruxelles), 258.
- Gauroy (Pierre). — La production de la nacre dans les Établissements français d’Océanie, 47. — Nutrition et psychisme, 332. — Le liège et ses dérivés chimiques, 391. — Yenins de crapaud, 503.
- Godefroy (Alain). — Enregistreur multipiste sur microfilm en couleurs (Exposition de Bruxelles), 268.
- G renon (Michel). — Les réacteurs homogènes. 1. Généralités. Réacteurs homogènes de recherche, 377. 2. Réacteurs homogènes de puissance, 423.
- Gribensici (André). — La mesure des sons et la sensibilité auditive, 10. — L’audition binaurale et l’orientation auditive, 112.
- Grive (Jean). — L’acide désoxyribonucléique, 46.
- IIeuzé (Bernard). — La lutte contre la corrosion. Protection cathodique et revêtements contre la corrosion de l’acier et du béton armé enterrés ou immergés, 472.
- Hoarau (J.). — Appareils de mesure des susceptibilités magnétiques (Exposition de Bruxelles), 311.
- IIusson (Raoul). — Le rôle des sensibilités internes dans le chant, 90. — Le pavillon pharyngo-buccal et sa physiologie phonatoire, 337.
- Julien (Michel-Hervé). — La Réserve du Zwin, 187.
- Kervran (L.). — Le dessalage par congélation, 109.
- L. (J.). — Le radiotélescope géant de Jodrell Bank vient d’être mis en service, 1. — La 55e Exposition de la Société française de Physique : horloge à quartz à transistors, 239.
- Laget (Docteur Paul). — L’électroencéphalographie, 161.
- Lambert (Roger). — Psychologie française (Exposition de Bruxelles), 256.
- Lehman (J. P.). — Une exposition au Muséum : l’évolution des Vertébrés et l’origine de l’Homme, 497.
- Lequeux (James). — Mesures en haute atmosphère par les fusées, 24. — Une horloge atomique à césium construite en série aux Flats-Unis, 54. — La 55e Exposition de la Société française de Physique : Deux spectrographes à résonance magnétique, 234.
- — Observations photographiques à très haute altitude de la surface du Soleil, 354. — L’échelle des distances de l’Univers encore révisée, 438. — L’observation de la granulation solaire en France, 502.
- Lequeux (James) et Angel (Yves). — La télévision en couleurs. 1. La couleur et l’analyse des images colorées, 170. 2. La
- p.518 - vue 522/527
-
-
-
- 519
- reconstitution et la transmission des images colorées, 208 ; erratum, 37ô.
- Loriers (Jean). — La séparation des terres rares à grande échelle.
- L’installation-pilote du Laboratoire de Bellevue, 399.
- Lot (Fernand). — Les prix Nobel de Sciences 1958, 501.
- M. (C.). — Volcanisme et faune fluviale, 244. — Le travail du cœur chez les petits oiseaux, 292. — L’observation des « nuages argentés », 373. — La raréfaction des grands Cétacés, 374. — Recul des glaciers de la Nouvelle-Zemble, 446. — Volcans sous-marins dans l’Arctique, 448. — Microbiologie du pétrole, 458. — Variation de l’éclat du deuxième Spoutnik, 499.
- M. (H.). — Unification du numérotage des textilest 8. — Antigels pour moteurs, 445.
- M. (Y.). — Des Lettres aux Sciences, 58. — Marémotrice à double flot, 99. — Pétrole et eau douce, 116. — Le gisement de thorium de Travancorc (Indes), 329. — La plasmine, solvant des caillots du sang, 345. — Première phase de fonctionnement de la pile G. 2, 383. — Projet américain de lignes à 750-1 000 kV, 500.
- Mériel (Yves). — L’horaire énergétique, 87. — Les audacieuses innovations suédoises en malière d’énergie, 152. — La situation pétrolière française en 1958, 370. — La deuxième Conférence inlcrnationale sur P utilisation pacifique de l’énergie atomique, 417.
- Meyer (R.). — La lutte contre lu corrosion. Rôle et avenir des produits frittés. 1. La métallurgie des poudres, 104. 2. Les produits frittés et la corrosion ; les cermets, 134.
- MohiS'SEt (P.). — La lutte contre la corrosion. Les revêtements métalliques dans la protection contre la corrosion atmosphérique, 364.
- Mowbray (Lionel). — Mesures réalisables par les satellites, 29. — Scaphandre pour le vide et démonstrations d’ « impesanteur », 41.
- N. (R.). — L’automne 1957 en France, 35. — L’été 1958 en France, 390.
- O. (P.). — « La Science antique et médiévale », 34. — Les champignons des termitières (Exposition de Bruxelles), 272. — Primates et Paléontologie humaine, 412.
- Ostoya (Paul) et Cohen (Gaston). — La Science à l’Exposition de Bruxelles, 249.
- P. (IL). — Rhénium et technétium, 324.
- P. (L.). — L’exploitation du fer des marais au Danemark, .229. Pavan (Mario). — Sur la fluorescence des Scoi'pions à la lumière de Wood, 150.
- Pel.uont (Jean). — Les cellules animales en culture prolongée, outil moderne de l’étude des virus et du cancer, 406.
- Perrin (Francis). — Au Palais international de la Science. La présentation française dans le département « Atome » (Exposition de Bruxelles), 289.
- Perruche (Lucien). — La séparation électrostatique des minéraux, 144. — Le scandium, 191.
- Pette (Docteur Francis). — Médecine et Biologie au Pavillon français (Exposition de Bruxelles), 288.
- Poi reau (J.). — Filtrage de fréquences spatiales en optique (Exposition de Bruxelles), 282.
- Prévôt (A.-R.). — Les bactéries marines et les problèmes de biologie qu’elles soulèvent, 325.
- R. (F.). — La 55e Exposition de la Société française de Physique, 232 ; coupleur électro-magnétique à poudre, 241 ; nouveaux oscilloscopes, 242 ; moteur à circuits imprimés, 242 ; chrono-scope pour l’enseignement, 243 ; mesures magnétiques, 243. — Exposition de Bruxelles : Commande de machines-outils par magnétophone, 284 ; réacteur nucléaire à usage pédagogique, 308 ; l'heure à l’Exposition, 315 ; le nouveau contrôle aérien par radar de Bruxeiles-Melsbroek, 316 ; le diamant et sa taille, 320 ; au Pavillon de l’ü.R.S.S., 323.
- R. (R.). — Les principes de la synthèse organique, 157. — Une nouvelle maladie du cresson, 229. — Le cuivre du golfe d’Akaba, 229. — La 55e Exposition de la Société française de Physique : Appareils utilisant les ultrasons, 232 ; chromatographe en phase vapeur, 236 ; thermobalances à enregistrement continu, 238 ; spectrophotomètre automatique, 240 ; ultracentrifugeuse « Spin-eo », 244. — Exposition de Bruxelles : Micro-débitmètre et débit-mètre thermique différentiel, 286 ; la Radiobiologie, 299 ; déminéralisation de l’eau de mer par électrodialyse, 299 ; noyau bactérien et structure des acides nucléiques, 302 ; l’utilisation
- de l’énergie solaire, 315 ; les organométallosiloxanes, 321 ; au Pavillon de la Suisse, 322.
- R. (R.) et R. (F.). — Radioisotopes et recherche scientifique :
- Le phosphore 33, 76 ; mesures des activités par un courant d’air ionisé, 76 ; un « microscope chimique », 76. — La centrale atomique de Shippingport en fonctionnement, 89. — La foudre est-elle le siège de réactions thermonucléaires ? 169. — Un verre cristallin : le Pyrocéram, 230. — Exposition de Bruxelles : Au Pavillon des U.S.A., 322. — L’influence du disulfiram sur le métabolisme de l’alcool éthylique, 411.
- Reboussin (Roger). — La ronde des Étourneaux, 56. — Une réserve naturelle d’Oiseaux, 139. —• La figuration du mouvement en Zoologie, 396.
- Rey (Louis). — L’examen microscopique aux basses températures (Exposition de Bruxelles), 267. 1
- Rivoire (Jean). — Situation de la pêche à la haleine, 151.
- Rosset (Robert). — Exposition de Bruxelles : Un spectrographe à ultraviolet lointain utilisant les « étincelles glissantes », 275 ; le polyéthylène basse pression en continu, 307 ; le polypro-pylène iso tac tique ouvre une voie nouvelle dans le domaine des plastiques, 318.
- Rosset (Robert) et Roy (Félix). — Radioisotopes et recherche scientifique : Étude d’un radioisotope : Al 26, 72.
- Rousseau (Michel). — Sahara vivant de la préhistoire, 59.
- Roy (Félix) et Rosset (Robert). — Radioisotopes et recherche scientifique : Étude d’un radioisotope : Al 26, 72.
- S. (J.). —• L’avion de recherche North-American X. 15, 179. — Une fraiseuse asservie par bande magnétique pulvérise les records de production aéronautique, 451.
- S. (M.). — Divergence et première montée en puissance d’E.L. 3, 88. — Utilisation pacifique des bombes atomiques P 88. Saint-Girons (Marie-Charlotte) et Delamaiie-Deboutteville (Claude). — Le plus petit Mammifère de France : la Pachyure étrusque, 447.
- Sévy (Gabriel). — La céramique guanche, témoin de l’ancienne civilisation des Canaries, 452.
- Sorger (Michel). — L’énergie thermonucléaire. 1. Considérations théoriques, 81. — 2. État actuel des recherches dans le monde, 121. — Appareils de recherches thermonucléaires exposés à Genève, 491.
- Spincourt (Jacques). — Les souffleries à grande vitesse, 52. — Le premier satellite américain, 102. — Un nouveau long-courrier à réaction : le D.C. S, 178. — Une nouvelle orientation des programmes militaires : le chasseur léger simplifié, 218. — Actualités astronautiques, 293. — Les essais de turboréacteurs, 392. — L’aérodynamique supersonique et hypersonique impose de nouvelles formes aux avions, 449.
- Tartois (L.). — Le ciel en chacun des mois de février 1958 à janvier 1959, 37, 77, 117, 157, 197, 245, 293, 333, 374, 413, 459 , 503.
- Thomas (Léon). — Les Sarigues, 3.
- Uzag (Roger). — Le développement des polyesters armés, 16. Vaciion (Max). — Sur la fluorescence des Scorpions à la lumière do Wood, 150.
- Value (Jean-Claude). — La Sardaigne et ses nouraghes, 356.
- Yandel (A.). — Les activités du Laboratoire souterrain du C.N.R.S.
- à Moulis (Exposition de Bruxelles), 280.
- Yaraldi (Marcel). — Quelques Lézards marocains. Les Chalcides. Le Lézard Arlequin, 488.
- Vingent-Cüaz (Louis). — Des tombeaux préislamiques aux gravures rupestres de Mauritanie, 482.
- Vüii.lemey (Paul). — Comment on apprend à parler à un enfant sourd-muet, 63. — La lecture sur les lèvres, remède à la surdité profonde, 220.
- \V. (p.). — Un exemple de colonisation hollandaise au Brésil, 2. — Une grande route va relier Le Cap à Nairobi, 107. — A propos des variations climatiques : le glacier d’Aletsch, 331. — Le Vickers VC-10, 384.
- Wagret (Paul). — Le climat se réchauffe-t-il ? 49. — Nouveaux polders dans le Marais poitevin, 100. —• Le marché mondial du thé, 186. — La conquête des atterrissements littoraux, 223. — Poldérisation en Guyane britannique, 329. — Chemins de fer eurasiatiques, 394 ; erratum, 464. — Le plus grand lac artificiel du monde : Kariba, 439.
- Weil (L.). — Liquéfacteur mixte d’hydrogène et d’hélium (Exposition de Bruxelles), 270.
- p.519 - vue 523/527
-
-
-
- TABLE DES MATIÈRES
- I. — MATHÉMATIQUES ET ASTRONOMIE
- Le radiotélescope géant de Jodrell Bank vient d’être mis en
- service (J. L.).............................................. 1
- L’Observatoire le plus méridional du monde...................G 121
- Photométrie de certaines régions de Mars....................292
- Observations photographiques à. très haute altitude de la
- surface du Soleil (J. Lequeux)...............................354
- L’échelle des distances de l’Univers encore révisée (J. Lequeux)......................................................438
- L’observation de la granulation solaire en France (J. Lequeux).................................................... 502
- Le ciel en chacun des mois de février 1958 à janvier 1959 CL. Tartois), 37. 77, 117, 157, 197, 245, 293, 333, 374, 413,
- 459, 503
- IL — SCIENCES PHYSIQUES 1. Physique.
- Cerveaux électroniques et zéro absolu.......................... 55
- La 55e Exposition de la Société française de Physique ... C 81
- Cellule photoélectrique ultrasensible.......................C 161
- La 55° Exposition de la Société française de Physique (F. R.). 232
- Appareils utilisant les ultrasons (R. R.)................232
- Deux spectrographes à résonance magnétique (J. Lequeux). 234
- Chromatographe en phase vapeur (R. R.)...................236
- Thermobalances à enregistrement continu (R. R.) .... 238
- Horloge à quartz à transistors (J. L.) . . ..............239
- Spectrophotomètre automatique (R. R.).......................240
- Coupleur électro-magnétique à poudre (F. R.)...............241
- Nouveaux oscilloscopes (F. R.)..............................242
- Chronoscope pour Renseignement (F. R.)......................243
- Mesures magnétiques (F. R.).................................243
- Appareils de mesure électroniques...........................244
- Microgalvanomètres Heito....................................244
- Un nouveau pyromètre pneumatique (A. A.).......................244
- Exposition de Bruxelles :
- Expériences d’optique électronique (J. Faget, J. Ferré,
- Ch. Fert)..............................................265
- L’examen microscopique aux basses températures (Louis
- Rey)...................................................267
- Enregistreur multipiste sur microfilm en couleurs (Alain
- Godefroy)..............................................268
- Liquéfacteur mixte d’hydrogène et d’hélium (L. Weil) . . 270
- Dilatomètre absolu enregistreur à haute température en
- atmosphère contrôlée (A.-A. Baudran)...................274
- Un spectrographe à ultraviolet lointain utilisant les « étincelles glissantes » (R. Rosset) .......................275
- Analyseur pour substances paramagnétiques (R. Forrer). 277
- Le Microradar (J. D.)....................................278
- Filtrage de fréquences spatiales en optique (.T. Pouleau) . 282
- Micro-débilmètre et débit-mètre thermique différentiel
- (R. R.)................................................286
- Diffractographe à rayons X pour examens à haute température (Fernand Fournier)..............................287
- L’électroluminescence (M. D.)............................305
- Appareils de mesure des susceptibilités magnétiques (J. Hoa-
- rau)...................................................314
- Cristaux liquides (P. Châtelain).........................314
- Les dislocations dans les cristaux (André Autiiier) .... 346
- Les thermistors (H. G.).....................................446
- L’actualité instrumentale :
- Les spectrophotomètres en infrarouge (R. Buvet) .... 504
- Potentiostats Tacussel et Télec..........................509
- 2. Chimie.
- Agent tensio-actif à partir du sucre............................Cl
- Rayons gamma et origine de la vie (J. D.)................... 9
- L’acide désoxyribonucléique (Jean Grive).................... 46
- Le 31e Congrès international de Chimie industrielle .... G 121
- Les principes de la synthèse organique (R. R.)..............157
- Le scandium (Lucien Perruche)...............................191
- Un prix d’analyse chimique par les méthodes physiques . . C 201 Un verre cristallin : le Pyrocéram (F. R. et R. R.) . . . 230 Exposition de Bruxelles :
- L’aluminium le plus pur du monde ........................279
- Déminéralisation de l’eau de mer par électrodialyse (R. R.). 299
- Le polyéthylène basse pression en continu (R. Rosset) . . 307
- Le polypropylène isotactique ouvre une voie nouvelle dans
- le domaine des plastiques (R. Rosset)......................318
- Les organométallosiloxanes (R. R.)...........................321
- Rhénium et technétium (H. P.)...................................324
- Le liège et ses dérivés chimiques (P. Gauroy)...............391
- La séparation des terres rares à grande échelle. L’installa-tion-pilote du Laboratoire de Bellevue (Jean Loriers) . . 399
- Acides glutamique et nicotinique dans le tabac..............405
- Première détermination de la structure d’une protéine globulaire (A. A.)..............................................432
- 3. Sciences nucléaires.
- Réacteur américain pour la Grèce......................... C l
- L’énergie nucléaire aux Pays-Bas............................ 34
- Radioisotopes et recherche scientifique :
- Étude d’un radioisotope : Al 26 (F. Roy et R. Rosset) . . 72
- Le phosphore 33 (R. R. et F. R.)...................... 76
- Mesure des activités par un courant d’air ionisé (R. R. et
- F. R.)..................................................... 76
- L’énergie thermonucléaire (Michel Sorger) :
- 1. Considérations théoriques................................ 81
- 2. État actuel des recherches dans le monde..............121
- Divergence et première montée en puissance d’E.L. 3 (M. S.). 88
- La centrale atomique de Shippingport en fonctionnement
- (R. R. et F. R.)............................................. 89
- Exposition de Bruxelles :
- Le séparateur électromagnétique de la Faculté des Sciences
- de Paris (G. C.).......................................... 285
- Au Palais internalional de la Science. La présentation française dans le département « Atome » (F. Perrin) . . 289
- Réacteur nucléaire à usage pédagogique (F. R.) .... 308
- La machine Zêta n’est-elle qu’un accélérateur de particules ?
- (Jacques Fouciiet)....................................... . 362
- Le nouveau synchrotron à protons de Saclay..................C 377
- Les réacteurs homogènes (Michel Grenon) :
- 1. Généralités. Réacteurs homogènes de recherche. . . . 377
- 2. Réacteurs homogènes de puissance..........................423
- Première phase de fonctionnement de la pile G. 2 (M. Y.) . 383
- La deuxième Conférence internationale sur l’utilisation pacifique de l’énergie atomique (Y’ves Mériel)..................417
- Appareils de recherches thermonucléaires exposés à Genève (Michel Sorger).............................................491
- III. — SCIENCES NATURELLES 1. Géologie. — Paléontologie. — Gîtes minéraux.
- Un gisement de béryl en Haute-Vienne...................Cl
- Erratum..............................................120
- Dépôts de Diatomées d’eau douce au fond de l’Atlantique
- p.520 - vue 524/527
-
-
-
- 521
- Les insectes de l’ambre......................................... 71
- Le pétrole sicilien.............................................147
- Minéraux précieux en Afrique du Sud.........................206
- Bauxite et houille blanche en A.O.F.........................222
- Le cuivre du golfe d’Akaba (R. R.)..........................229
- L’exploitation du fer des marais au Danemark (L. P.) . . . 229 Exposition au Muséum sur l’évolution des Vertébrés . . . G 249 Exposition de Bruxelles : La Photogéologie (J. Gandillot) . 258
- La carte géologique mondiale................................G 297
- Des sables colorés au pétrole israélien (P. G.).............329
- Le gisement de thorium de Travancore (Indes) (Y. M.) . . 329
- Le Grand Chat des Cavernes (M. Friant)......................330
- Les diamants de Sibérie (G. G.).............................374
- Primates et Paléontologie humaine (P. 0.)...................412
- Microbiologie du pétrole (G. M.)............................458
- Une exposition au Muséum : L’évolution des Vertébrés et l’origine de l’Homme (J. P. Lehman).......................497
- 2. Physique du Globe. — Météorologie. — Océanographie physique.
- Le climat se réchauffe-t-il ? (Paul Wagret)................. 19
- Les études géophysiques au moyen des fusées et des satellites :
- Mesures en haute atmosphère par les fusées (James
- Lequeux).................................................. 24
- Mesures réalisables par les satellites (Lionel Moyverav) . . 29
- L’automne 1957 en France (R. N.)......................... 35
- La foudre est-elle le siège de réactions thermonucléaires ?
- (R. R. et F. R.)............................................169
- Ce que la Terre reçoit comme poussières cosmiques (G. C.) . 193
- Exposition de Bruxelles : Traîneau d’exploration sous-marine
- (Capitaine de Corvette G. Durât) .....................271
- A propos des variations climatiques : le glacier d’Aletsch
- (P. W.).....................................................331
- Magnétisme fossile.............................................350
- L’observation des « nuages argentés » (C. M.) ...... 373
- L’été 1958 en France (R. N.)...................................390
- Annonces météorologiques par signaux lumineux .... 410
- L’étude des températures anciennes par le dosage des isotopes de l’oxygène (L. C.)...................................444
- Recul des glaciers de la Nouvelle-Zemble (C. M.)............446
- Volcans sous-marins dans l’Arctique (C. M.)................448
- Exploration de la plus profonde fosse océanique.................487
- 3. Biologie générale. — Physiologie. — Zoologie.
- Les Sarigues (Léon Thomas).................................... 3
- Un antibiotique produit par les larves de mouches (L. G.) . 9
- La mesure des sons et la sensibilité auditive (André Gri-
- benski)......................................................... 10
- La biosynthèse de l’acide ascorbique.......................... 15
- Caractères adaptatifs des Araignées en rapport avec le milieu
- (L. C.)......................................................... 37
- Un prix sur les effets biologiques des radiations.............G 41
- Le mélanisme industriel (Lucien Chopard)............... 48
- Les métamorphoses des Crustacés (L. C.).............. 51
- La ronde des Étourneaux (Roger Reboussin)........................ 56
- Radioisotopes et recherche scientifique : un ce microscope
- chimique » (R. R. et F. R.).................................... 76
- Le rôle des sensibilités internes dans le chant (Raoul
- IIusson)....................................................... 90
- Anomalies du développement causées par des parasites
- (L. C.)........................................................ 97
- La curieuse nidification des Calaos (L. Chopard).................. 98
- L’audition binaurale et l’orientation auditive (André Gri-
- benski).........................................................142
- Le vol des insectes (L. C.)........................................117
- Intéressante méthode pour déterminer les insectes qui
- servent de proie à d’autres (L. C.)...........................147
- Sur la fluorescence des Scorpions à, la lumière de Wood (Mario Pavan et Max Vaciion)....................................150
- Nouveau cas de dimorphisme lié à la densité de population
- chez les insectes (L. Chopard)...........................168
- L’écologie entomologique (L. C.)............................197
- Récents progrès en physiologie de la vision (Ernest Baum-
- gaudt)......................................................201
- Volcanisme et faune fluviale (C. M.).......................244
- Exposition de Bruxelles :
- Les champignons des termitières (P. 0.).....................272
- Les activités du Laboratoire souterrain du G.N.R.S. à Mou-
- lis (A. Vandel)...........................................280
- Le cycle du fer dans l’organisme révélé par le microscope
- électronique (Marcel Bessis)..............................297
- Noyau bactérien et structure des acides nucléiques (R. R.). 302
- Les mutations dirigées (J. G.)..............................304
- L’uttraslructure do la cellule normale et cancéreuse
- (Docteur Henri Febvre)....................................309
- La sexualité chez les bactéries (G. C.).....................313
- Le travail du cœur chez les petits oiseaux (C. M.) .... 292
- Les bactéries marines et les problèmes de biologie qu’elles
- soulèvent (A.-R. Prévôt)....................................325
- Faune marine observée à bord du bathyscaphe (G. C.) . . . 328
- Le pavillon pharyngo-buccal et sa physiologie phonatoire
- (Raoul IIusson)..........................................337
- Les Guêpes Pompiles (Lucien Berland)...........................351
- A propos de la fluorescence des Scorpions....................353
- L’accouplement de la reine abeille (L. C.)................393
- La figuration du mouvement en Zoologie (Roger Reboussin) . 396
- Coloration adaptative et mimétisme (L. C.)...................398
- Les cellules animales en culture prolongée, outil moderne de l’étude des virus et du cancer (Jean Pelmont) . . . 406
- Les effets biologiques des basses températures (L. C.) . . . 431
- Cachalots pris dans les câbles sous-marins (Paul Budker) . 433
- Le plus petit Mammifère de France : la Pachyure étrusque (Marie-Charlotte Saint-Girons et Claude Delamare-Debout-
- teyille).................................................447
- Le prix Pelnian de Biologie à M. Louis Rey..................C 465
- Hyménoptères de France (L. C.)..............................479
- Quelques Lézards marocains. Les Chalcides. Le Lézard Arlequin (Marcel Varaldi).......................................488
- La respiration chez les Cétacés................................490
- L’orientation des chauves-souris par les ultrasons (L. Cho-pard).......................................................496
- 4. Botanique. — Agriculture. — Élevage.
- Autruches de garde............................................... 9
- Le mouton ermite et sa toison.................................... 9
- Essais d’élevage des tortues de mer (P. G.).................. 15
- L’élevage du porc danois et i’Institut de Roskilde (Gaston
- Cohen)....................................................... 68
- Nectars et miels artificiels ................................... 89
- Sélection pur transplantation d’ovules..........................117
- Les Aristoloches et la staurogamie (L. Ferlan)...............128
- Sur de nouveaux engrais azotés (II. G.)......................193
- Une nouvelle maladie du cresson (R. R.)....................229
- Le Renne en Écosse..............................................344
- Laines d’Afrique du Sud.........................................374
- Traitement des caféiers par les hormones.....................C 465
- 5. Chasse. — Pêche. — Protection de la nature.
- Contre la pollution des eaux de mer.............................C 81
- Une- réserve naturelle d’Oiseaux (Roger Reboussin) .... 139
- Situation de la pêche à la baleine (Jean Rivoire)...............151
- La Réserve du Zvvin (Michel-Hervé Julien).......................187
- Migrations artificielles de la Truite...............»... 231
- Un parc national dans UEifel....................................C 249
- La raréfaction des grands Cétacés (C. M.).......................374
- Nouveau Parc national en Andalousie.............................C 377
- Biologie et pêche. De la transplantation des plies au marquage des morues (Gaston Cohen).................................385
- Visons en liberté...............................................422
- Pour un Parc international dans les Ardennes....................432
- p.521 - vue 525/527
-
-
-
- 522
- IV. — GÉOGRAPHIE. — DÉMOGRAPHIE. ETHNOGRAPHIE. — ARCHÉOLOGIE
- Un exemple de colonisation hollandaise au Brésil (P. W.) . Sahara vivant de la préhis toire (Michel Rousseau) .... Les anciens surjougs des pays prépyrénéens (Raymond
- Decary)................................"..............
- Détections archéologiques au phosphore...................
- Le marché mondial du thé (Paul Wagret)...................
- Le consommateur néerlandais moyen........................
- La Sardaigne et ses nouraghes (Jean-Claude Valle). . . . La céramique guanche, témoin de l’ancienne civilisation des
- Canaries (Gabriel Sévy)...............................
- Où en est U Amazonie brésilienne ? (E. Aubert de La Rüe) . Des tombeaux préislamiques aux gravures rupestres de Mauritanie (Louis YlNCENT-CüAZ).............................
- Prévisions démographiques jusqu’à 1975 (G. C.)...........
- V. — ANTHROPOLOGIE. — HYGIÈNE. MÉDECINE. — PSYCHOLOGIE HUMAINE.
- Miroir à rayons X........................................
- Comment on apprend à parler à un entant sourd-muet (Paul
- Yuillemey)............................................
- Hormone de haleine.......................................
- Antibiotiques et mycoses.................................
- Traitement anti-hormonal du cancer.......................
- Le lait et les toxiques..................................
- Phénomènes allergiques causés par un insecte (L. C.) . . . Produits de beauté à base de sucs de légumes (P. G.) . . .
- Pétrole et eau douce (Y. M.).............................
- L’électroencéphalographie (Docteur Paul Laget)...........
- L’action des services entomologiques américains pendant la
- guerre (L. C.) .......................................
- Rêve et mouvements des yeux..............................
- La lecture sur les lèvres, remède à la surdité profonde (Paul
- Vuillemey) ...........................................
- Exposition de Bruxelles :
- Psychologie française (Roger Lambert).................
- Médecine et Biologie au Pavillon français (Docteur Francis
- Pette) .............................................
- La Radiohiologie (R. R.) . ...........................
- Réaction du verre sur le sang............................
- Nutrition et psychisme (Pierre Gauroy)...................
- Le rôle des Blattes dans la propagation des maladies infectieuses (Lucien Ciiopard)...............................
- La plasmine, solvant des caillots du sang (Y. M.) .... L’influence du disulfiram sur le métabolisme de l’alcool
- éthylique (R. R. et F. R.)............................
- Le Congrès international d’Allergologie (Gaston Cohen) . .
- Biologie du Noir (J. G.).................................
- Enregistrement des pressions et des sons à l’intérieur du
- cœur (E. Allard)......................................
- Yenins de crapaud (Pierre Gauroy)........................
- VI. — SCIENCES APPLIQUÉES
- 1. Mécanique. — Industrie.
- Unification du numérotage des textiles (H. M.)...........
- Le développement des polyesters armés (Roger Uzac) . . .
- La production de l’uranium aux États-Unis................
- La production de la nacre dans les Établissements français
- d’Océanie (Pierre Gauroy).............................
- Une horloge atomique à césium construite en série aux
- États-Unis (James Lequeux)............................
- La corrosion, problème mondial (n° 3271, novembre 1957) :
- erratum ............................................ .
- La lutte contre la corrosion. Rôle et avenir des produits frittés (R. Meyer) :
- 1. La métallurgie des poudres.........................
- 2. Les produits frittés et la corrosion ; les cermets . .
- Remèdes à la pénurie d’eau douce (G. C.).................
- Le dessalage par congélation (L. Kervran)...................109
- Un lubrifiant thixo tropique...................................143
- La séparation électrostatique des minéraux (Lucien Perruche) ........................................................144
- Le soudage de l’aluminium (H. G.)...........................193
- Protection de l’acier par le molybdène......................C 201
- Ciment réfractaire à qualités remarquables..................C 201
- Exposition de la Société française de Physique :
- Moteur à circuits imprimés (F. R.)........................242
- Ultracentrifugeuse « Spinco » (R. R.).....................244
- Exposition de Bruxelles :
- Commande de machines-outils par magnétophone (F. R.) . 284
- L’utilisation de l’énergie solaire (R. R.)..................315
- Le diamant et sa taille (F. R.).............................320
- L’Exposition Mécanélec......................................C 297
- Thermomètre à résistance de germanium-arsenic...............C 337
- Alliage magnétique amélioré (« Supermendur »)..................344
- La lutte contre la corrosion. Les revêtements métalliques dans la protection contre la corrosion (P. Morisset) . . . 364
- Ira situation pétrolière française en 1958 (Yves Mériel) . . 370
- Dynamite radioactive...........................................412
- Chromage par ultrasons......................................C 417
- Nouvel adhésif pour le caoutchouc...........................C 417
- La lutte contre la corrosion. Protection cathodique et revêtements contre la corrosion de l’acier et du béton armé
- enterrés ou immergés (Bernard IIeuzé).......................472
- Les agglomérés de minerais dans les hauts fourneaux (H. G.). 495
- L’actualité instrumentale : Tronçonneuse par usinage chimique..........................................................509
- 2. Électricité. — Télévision. — T. S. F. — Photographie. — Cinéma.
- L’horaire énergétique (Yves Mériel)........................... 87
- Les audacieuses innovations suédoises en matière d’énergie
- (Yves Mériel)..................................................152
- La télévision en couleurs (Yves Angel et James Lequeux) :
- 1. La couleur et l’analyse des images colorées................170
- 2. La reconstitution et la transmission des images colorées. 208
- Erratum.....................................................376
- Recherches sur l’électricité statique........................C 249
- Production chimique de l’énergie électrique..................C 297
- Projet américain de lignes à 750-1 000 kY (Y. M.) .... 500
- 3. Travaux publics. — Urbanisme. — Arts de l’ingénieur.
- Utilisation pacifique des bombes atomiques ? (M. S.) . . . 88
- Marémotrice à double flot (Y. M.)............................... 99
- Nouveaux polders dans le. Marais poitevin (Paul Wagret) . 100 Une grande route va relier Le Cap à Nairobi (P. W.) . . . 107
- L’inspection des voûtes des ouvrages d’art......................133
- Achèvement du tunnel du métro de Haïfa......................C 161
- L’île de Marken a vécu......................................... 167
- Nouvelles techniques pour la construction des digues en
- Hollande.....................................................185
- Pour éprouver la solidité d’une tour de télévision .... 186
- La conquête des atterrissements littoraux (Paul Wagret) . 223
- Exposition do Bruxelles : Prise d’eau avec fente aspira-
- trice (L. Escande).........................................264
- Poldérisation en Guyane britannique (Paul Wagret) . . . 329
- Le plus long câble sous-marin...................................369
- Le plus grand lac artificiel du monde : Kariba (Paul Wagret)........................................................439
- 4. Transports. — Aviation. — Astronautique.
- Scaphandre pour le vide et démonstrations d’ « impesanteur » (Lionel Mowbiiay).................................... 41
- Les souffleries à grande vitesse (Jacques Spincourt) ... 52
- Le chemin de fer de La Mecque sera-t-il reconstruit ? (D. C.). 77
- Observations du premier satellite soviétique (n° 3272, décembre 1957) : erratum......................................... 80
- 2
- 59
- 148
- 151
- 186
- 219
- 356
- 452
- 465
- 482
- 486
- 36
- 63
- 67
- 67
- 89
- 97
- 103
- 107
- 116
- 161
- 192
- 219
- 220
- 256
- 288
- 299
- 288
- 332
- 345
- 345
- 411
- 442
- 458
- 480
- 503
- 8
- 16
- C 41
- 47
- 54
- 80
- 104
- 134
- 108
- p.522 - vue 526/527
-
-
-
- 523
- Saucisses à pétrole............................................ 97
- Le premier satellite américain (Jacques Spincourt) .... 102
- L’aéroport de Croydon va disparaître.......................G 161
- Un nouveau long-courrier à réaction : le D.C. 8 (Jacques
- Spincourt).................................................178
- L’avion de recherche North-American X. 18 (J. S.) . . . . 179
- Combinaison pressurisée pour vols interplanétaires .... 207
- Une nouvelle orientation des programmes militaires : le
- chasseur léger simplifié (Jacques Spincourt)...............218
- Actualités astronautiques (Jacques Spincourt).................293
- Exposition de Bruxelles : Le nouveau contrôle aérien par
- radar de Bruxelles-Melsbroek (F. R.).......................316
- Ferry-bouts d’Italie en Grèce.................................328
- Le contrôle de la vitesse des automobiles..................355
- Le « Caravaning » en Grande-Bretagne..........................363
- Le Vickers VC-10 (P. W.)......................................384
- Les essais de turboréacteurs (Jacques Spincourt)..............392
- Chemins de fer eurasiatiques (Paul Wagret)....................394
- Erratum....................................................464
- Hélium et souffleries supersoniques........................C 417
- Antigels pour moteurs (II. M.)................................445
- L’aérodynamique supersonique et hypersonique impose de nouvelles formes aux avions (Jacques Spincourt) .... 449
- Une fraiseuse asservie par bande magnétique pulvérise les
- records de production aéronautique (J. S.)..................451
- Variation de l’éclat du deuxième Spoutnik (C. M.) .... 499
- VII. — HISTOIRE DES SCIENCES
- « La Science antique et médiévale » (P. 0.)................ 34
- Bi-centenaire du Systema naturæ (10e édition) (Lucien Berland) ........................................................410
- VIII. — VARIA
- Actualités et Informations, C 1, C 41, C 81, C 121, C 161,
- C 201, C 249, C 297, C 337, C 377, C 417, C 465 Les livres nouveaux, 38, 78, 118! 158, 197, 245, 294, 334, 375,
- 413, 459, 510
- Les prix du Conseil supérieur de la Recherche scientifique .- 51
- Des Lettres aux Sciences (Y. M.)............................. 58
- Le 2e Congrès international de Spéléologie...................C 81
- La Foire internationale de Lille.............................C 121
- Le fromage de Hollande restera rond . . . ...............138
- L’exploration scientifique de la peinture au Laboratoire du
- Musée du Louvre (Gaston Cohen)................................180
- Entraîneur mécanique au tennis...................................191
- Le Centre d’études et de recherches scientifiques de Biarritz
- (L. Barriéty).................................................194
- Vêtement pour l’Arctique.........................................217
- Exposition de Bruxelles..........................................249
- La Scie ace ù l’Exposition de Bruxelles (Gaston Coiien et
- Paul Ostoya)................................................250
- Science et Technique 1958 (Roger Anthoine)....................250
- Présence des Sciences au Pavillon français (G. Antoine) . 254
- Micromanipulation (P. de Fonbrune)............................300
- L’heure à l’Exposition de Bruxelles (F. R.)...............315
- Au Pavillon des U.S.A. (R, R. et F. R.)...................322
- Au Pavillon de la Suisse (R. R.)..........................322
- Au Pavillon de l’U.R.S.S. (F. R.).............................323
- L’arabe en caractères latins ?...................................328
- Extraits de revues par voie électronique.....................C 337
- L’enseignement des sciences aux Etats-Unis (A. A.) . . . 395
- Les prix Nobel de Sciences 195S (Fernand Lot)....................501
- N UPP LÉ MENT A U No 3284 (DÉCEMBRE 1958).
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 4e trimestre 1958, n° 3i56. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3xo566), LAVAL, N° 3856. — 12-1958.
- p.523 - vue 527/527
-
-