La Nature
-
-
- LA NATURE
- Science Progrès
- p.n.n. - vue 1/560
-
-
-
- p.n.n. - vue 2/560
-
-
-
- LA NATURE
- science
- progrès
- QUATRE-VINGT-NEUVIÈME ANNÉE 1961
- DUNOD ÉDITEUR 92, rue Bonaparte, Paris
- Page de titre n.n. - vue 3/560
-
-
-
- SUPPLÉMENT AU N° 3320 (DÉCEMBRE 1961 )
- Le gérant : F. DUNOD.
- Laval.
- IMPRIMERIE BaRNÉOUD S. A.
- Imprimé en France.
- p.n.n. - vue 4/560
-
-
-
- Deux titres (un ancien et un nouveau) sur la même couverture, une présentation plus « moderne » sont des signes qui vont, n'en doutons pas, susciter diverses interprétations.
- Prenons les devants en indiquant nous-mêmes les raisons et le sens de cette rénovation, qui n’est pas seulement extérieure.
- « Nature » est un mot et, bien plus, un concept dont Jean-Jacques Rousseau, Béranger et quelques autres ont fait un usage que nous estimons aujourd’hui abusif. Il a en tout cas cessé de couvrir, pour nos contemporains, l’ensemble volumineux de la connaissance scientifique. C’est ainsi que notre revue, aux yeux de ceux qui ne l’ont pas lue, reste centrée sur les sciences dites naturelles. Science-Progrès est là désormais pour dissiper cette erreur.
- Quant à la présentation, c’est simple affaire de mode, laquelle est une forme mineure de l’évolution. Or, nous vivons, nous évoluons et pourrions souffrir d’une apparence contradictoire. N’est-il pas mieux de changer l’ordonnance de nos pages pour nous garer de l’intention péjorative qui pouvait se glisser dans le terme « démodé » ?
- Mais, se demandera-t-on, cette revue qui offre un visage nouveau n’est-elle pas en train de libérer certaines forces secrètes ? Elles s’appellent la facilité, le goût du sensationnel et du pittoresque, l’approximation qui frise l’erreur, en un mot tous les faux prestiges d’une forme de vulgarisation que nous avons toujours refusée.
- Ce refus est maintenu. La science est assez riche pour n’avoir pas besoin de capter l’attention et attiser la curiosité. Mais l’excès même de la richesse nuit parfois à la clarté. Et c’est là la difficulté à laquelle nous nous heurtons. La plupart de nos auteurs possèdent les clés d’un vocabulaire et de méthodes d’investigation qui ne sont pas nécessairement entre les mains d’un public, même hautement cultivé. Il faut, à son intention, aménager le langage et assouplir la forme de pensée.
- C’est sur ce dernier point, le plus important, que va se développer notre programme de rénovation. La tâche n’est pas aisée, car le progrès en clarté ne doit en rien « abaisser le niveau », diminuer le volume et la qualité de l’information. C’est cependant possible, au prix d’un effort soutenu.
- N’en détaillons pas les moyens. Nos lecteurs les discerneront et seront en mesure de les apprécier. Ajoutons qu’ils nous apporteront une assistance précieuse en nous faisant part de leurs observations, de leurs vœux et de leurs critiques constructives. Un peu plus d’une décennie nous sépare seulement de la date où La Nature, sous son nouveau titre, sera centenaire. Une telle longévité n’est concevable qu’à condition de demeurer ce que les biologistes appellent un système ouvert, apte aux échanges constants et se gardant de tout stérile repliement sur soi-même.
- p.1 - vue 5/560
-
-
-
- Éclipse totale de Soleil
- visible en France par Roger Servajean
- le 15 février
- Si vous avez quelques loisirs, le 15 février prochain, ne manquez pas l’occasion que vous offre la ronde des mondes, à deux pas de votre domicile, dans le Sud de la France.
- Ce jour-là, le fin pinceau d’ombre que la Lune traîne derrière elle viendra frapper la Terre, dans l’Atlantique, au large de Bordeaux. Courant sur le sol à quelque 6 000 km/h, il plongera la capitale de l’Aquitaine dans l’obscurité à 7 h 32 mn en temps universel, soit à 8 h 32 heure légale. Il atteindra Montélimar à 7 h 33, Gap à 7 h 34, Florence à 7 h 37. Survolant la péninsule balkanique vers 7 h 50, il obscurcira le ciel de Crimée vers 8 h 10, franchira l’Oural à 8 h 30 et abandonnera notre planète après avoir effleuré le sol des steppes sibériennes vers 9 h 10.
- Le phénomène aura duré une centaine de minutes. Pour les habitants du Sud de la France, c’est le soleil levant qui aura dévoilé la splendeur de sa couronne. Pour ceux des toundras, le crépuscule et la nuit viendront clore le spectacle.
- La beauté des éclipses totales a été maintes fois décrite. Encore une fois, si vous le pouvez, ne manquez pas l’occasion. Mais cependant ce n’est pas pour procurer à leurs astronomes une rare émotion artistique que les grands organismes scientifiques de Russie, des États-Unis, de France, de Hollande, etc., ont égrené tout le long de la ligne de totalité un chapelet de missions qui, à pied d’œuvre depuis janvier, ont déjà commencé le montage de puissants et délicats instruments.
- Cela, on s’en doute, coûte fort cher. Quelles sont donc les raisons scientifiques qui justifient cette imposante mobilisation ?
- La lumière qui nous parvient du Soleil émane d’une région appelée photosphère, enveloppe de gaz d’environ 300 km d’épaisseur dont la température moyenne peut être estimée à environ 6 ooo°. Vue au spectroscope, la lumière solaire'est entrecoupée de raies noires, découvertes en 1814 par Fraunhofer, qui correspondent aux longueurs d’onde absorbées par les atomes dans les couches plus froides situées au-dessus de la photosphère.
- Les régions supérieures de l’atmosphère solaire sont habituellement invisibles par suite de la brillance de la photosphère. Au-dessus de celle-ci se trouve la chromosphère, également masquée par la Lune lors d’une éclipse totale ; on ne peut l’observer que pendant quelques secondes, au début et à la fin de l’éclipse, alors que la Lune ne l’a pas encore masquée ou qu’elle vient de la démasquer. La chromosphère a une vive couleur rose, qui lui a valu son
- nom ; il en émane des jets de même couleur, appelés protubérances, qui peuvent jaillir à plus de 100 000 km de hauteur. Au-dessus de la chromosphère se trouve enfin la couronne, qui retiendra plus particulièrement notre attention.
- Quoique l’étude de la couronne solaire ne soit pas l’unique but de ces missions, c’est évidemment elle qui en a le plus bénéficié et il est impossible de comprendre l’intérêt des expéditions actuelles sans faire, sur ce sujet, l’inventaire de nos connaissances et, hélas ! de nos lacunes.
- La découverte de la couronne se perd évidemment dans la nuit des temps, puisqu’elle est facilement visible à l’œil nu pendant les éclipses, mais on peut dater sa découverte scientifique de 1851. En 1869, l’observation spectro-graphique révélait la plus brillante des « raies coronales » : longueur d’onde, ~k = 5 303 Â. Peu à peu, le spectre se constituait, mais la connaissance ne progressait que très lentement, ce qui n’est guère étonnant puisque de 1851 à 1930 le temps total d’observation n’atteignit pas une heure.
- On sait qu’à cette date notre grand et regretté savant Bernard Lyot (x) résolut un des plus difficiles problèmes posés par l’observation astronomique. Son invention, le « coronographe », installée dans des stations de haute
- 1. Bernard Lyot mourut au Caire en 1952 après une mission d’éclipse particulièrement épuisante pour diverses raisons.
- Fig. 1. — Spectre de la couronne L.
- La grande raie brillante que l’on voit sur la droite est la raie coronale 5 303 Â. Sur la gauche, une autre raie d’émission beaucoup plus faible est visible sur la partie inférieure du cliché. Les points brillants correspondent à des raies de Fraunhofer en émission sur des protubérances ; elles se détachent sur des raies sombres (absorption) ; c’est le « renversement » des raies, particulièrement visible sur le triplet du magnésium (les trois fortes raies sombres un peu à gauche du centre du spectre).
- 2
- p.2 - vue 6/560
-
-
-
- transparence atmosphérique telles que le Pic du Midi, permit l’observation de la couronne en tout temps. On est également redevable à Lyot de l’invention d’un autre instrument, le « coronomètre » qu’il commença à réaliser peu avant sa mort et qui permet de mesurer la couronne polarisée dans des stations de transparence moyenne.
- Depuis lors, des milliers d’heures d’observation ont été effectuées sur la couronne et une imposante masse de documents a été et continue d’être étudiée. Il pourrait sembler au profane que quelques minutes d’observation supplémentaires ne peuvent présenter un intérêt suffisant pour déplacer une mission. Cependant il faut bien comprendre que l’apport immense du coronographe résultait du fait qu’il permettait une observation continue. Mais il n’est bien adapté qu’à certains types de mesures et les progrès mêmes qu’il a permis de réaliser ont révélé autour du Soleil un milieu et des conditions physiques si étranges, que les astronomes théoriciens, désespérant d’établir un « modèle » pleinement satisfaisant, réclament des observations de plus en plus diverses, de plus en plus précises.
- Les trois couronnes
- Qu’est-ce donc que cet extraordinaire milieu ? Les observations spectroscopiques et polarimétriques ont permis d’y distinguer trois régions s’interpénétrant plus ou moins. La couronne L, la plus proche de la chromosphère solaire, les couronnes K et F qui, constituant ce qu’on appelle quelquefois la couronne blanche, se prolongent dans l’espace interplanétaire par la « lumière zodiacale ».
- La couronne L. — Cette région située immédiatement au-dessus de la chromosphère est caractérisée par le spectre d’émission coronal dont on connaît actuellement une trentaine de raies.
- L’identification des éléments responsables a longtemps posé un des plus mystérieux problèmes de l’astrophysique. En désespoir de cause, on en était venu à se rabattre sur un hypothétique élément, le « coronium », lorsque, peu avant la dernière guerre, W. Grotrian émit l’idée féconde, reprise ensuite par B. Edlen, et qui devait enfin résoudre le problème :
- Les raies brillantes du spectre coronal sont des raies dites « interdites » émises par des atomes métalliques très fortement ionisés (2).
- Cette idée ne fut pas immédiatement admise sans réticence. L’existence d’atomes à des degrés d’ionisation très élevés, en équilibre thermique avec des électrons, supposait des températures de l’ordre du million de degrés. Le saut était brusque entre celles-ci et les températures chromosphériques de 5 ou 6 ooo°. Cependant il fallut bien se rendre à l’évidence. Si l’on pouvait suspecter l’identification de trois ou quatre raies, le doute n’était plus possible à mesure que la liste s’allongeait.
- 2. L’émission d’une raie spectrale résulte du passage d’un électron d’un atome d’une orbite possible à une autre. Ces orbites sont définies par leur « nombre quantique ». Les raies produites normalement sont celles qui correspondent à un passage entre deux orbites dont les nombres quantiques diffèrent d’une unité (principe de sélection). La probabilité pour que ce principe ne soit pas respecté est très faible et les raies produites dans ce cas sont dites « interdites ». On les observe lorsque l’atome subit l’action d’un fort champ électrique.
- ANC
- Piémont
- Orange • k
- Cunéo .
- M. Ventoux Provence
- Livournei
- Toscane
- Incône
- Sienne
- Pérouse
- .CORSE
- M^D£I=T=E=ReR;A;NeEeE:
- Nébulosité
- 200km
- Fig. z. — Une portion de la ligne de centralité de l’éclipse du i j février 1961.
- Cette carte, imitée de celle qu’a publiée M. Gérard Florsch (JJAstronomie, juillet-août i960), indique les moyennes des nébulosités observées en février dans les régions intéressées. Si les conditions météorologiques paraissent plus favorables dans l’ensemble à l’ouest de cette carte, le Soleil sera par contre d’autant plus haut sur l’horizon qu’on s’éloignera davantage vers l’est. C’est ainsi qu’une mission officielle de l’Observatoire de Paris-Meudon se rendra dans l’île de Hvar, en Dalmatie, sur la ligne de centralité. Une autre mission française s’établira à l’Observatoire de Siméis, en Crimée. L’éclipse sera totale dans une
- bande d’environ 180 km de large axée sur la ligne de centralité.
- 3
- p.3 - vue 7/560
-
-
-
- Actuellement on a identifié :
- 4 raies du calcium : Ca XII à Ca XV.
- 8 raies du fer : Fe X à Fe XV.
- 6 raies du nickel : Ni XII à Ni XVI.
- z raies de l’argon : A X à A XIV.
- 2 raies du chrome : Cr XI.
- 2 raies du manganèse : Mn XII à Mn XIII.
- i raie du cobalt : Co XV.
- i raie du vanadium : V X.
- Ces raies sont divisées en quatre classes d’après leur potentiel d’excitation et correspondent à une différence d’activité des régions coronales.
- La couronne K. — Au-dessus de la couronne L, la couronne K est constituée par les « jets » et les « plumes » de la couronne blanche. Elle est caractérisée par un spectre continu, sans raies d’absorption ni d’émission. De là, d’ailleurs, vient son nom (K : kontinuum).
- Sa lumière, presque totalement polarisée, résulte de la diffusion du rayonnement photosphérique. L’absence de raies de Fraunhofer montre qu’elle est constituée d’électrons libres. Dans ce cas, en effet, les vitesses d’agitation atteignent des valeurs considérables, donnant des largeurs
- Fig. J. — La couronne photographiée pendant l’éclipse totale du 25 février 1952 à Khartoum (Soudan).
- On distingue les « jets » coronaux et les « plumes », particulièrement visibles dans les régions polaires.
- Doppler d’environ 1 000 À ; les raies d’absorption sont alors tellement étalées qu’elles sont pratiquement invisibles.
- La couronne F. — C’est l’immense nébulosité qui, par-dessus les jets coronaux, affecte une forme à peu près elliptique et se prolonge par la lumière zodiacale. Sa lumière n’est presque pas polarisée. Son spectre est celui de la lumière photosphérique et présente les raies d’absorption de Fraunhofer (F : Fraunhofer).
- Elle doit être constituée d’électrons et de poussières.
- Les problèmes
- Pour l’astrophysicien, connaître la couronne serait pouvoir donner les courbes indiquant la température, le nombre de particules par centimètre cube, ainsi que leur nature, en fonction de la distance au bord solaire. On aura remarqué que les descriptions ci-dessus sont purement qualitatives. Cette imprécision ne signifie nullement que les problèmes coronaux n’ont pas été étudiés. Elle résulte simplement de ce que, attaqués par diverses méthodes, les résultats, jusqu’ici, sont encore imprécis et parfois contradictoires.
- Citons quelques-uns des principaux points d’interrogation posés :
- Par quel mécanisme expliquer la variation extraordi-
- p.4 - vue 8/560
-
-
-
- nairement rapide de la température entre la photosphère (5 à 6 ooo°) et la couronne L (1 à 2 000 ooo°) ? Que se passe-t-il dans la zone de transition chromosphère-basse couronne ? Comment sont produites les raies d’émission coronales ? S’agit-il d’une excitation par absorption de radiation, par collisions d’atomes, ou par les deux processus ? Quelles sont les conditions physiques dans les couronnes F et K ? et d’abord comment séparer dans la lumière qui nous parvient d’une région la part qui revient à chacune d’elles ? Enfin, comment tous ces problèmes dépendent-ils du cycle d’activité solaire ?
- Les méthodes
- La dernière question montre d’abord que les résultats obtenus à chaque éclipse ne peuvent être considérés qu’en tenant compte de la phase du cycle solaire et que, même en admettant qu’un résultat parfait ait été obtenu, il est nécessaire d’échelonner les expériences sur la totalité du cycle.
- Essayons maintenant de donner une idée, nécessairement sommaire, des principales méthodes utilisées pour débrouiller l’écheveau.
- Les températures peuvent être déduites de la considération des largeurs et des profils de raies. La zone de transition chromosphère-couronne L est caractérisée par la présence de spiculés, petits dards acérés qui jaillissent du bord solaire, et par de fortes inhomogénéités de température. Il serait nécessaire d’avoir des spectres concernant des tranches d’une centaine de kilomètres d’épaisseur au maximum. On a essayé par la prise de spectres à cadence rapide au moment où la Lune découvre progressivement ces régions (1 spectre toutes les 0,6 s).
- La présence ou l’absence de telle raie d’émission, la
- Fig. 4. — La chromosphère et les protubérances visibles pendant une éclipse totale.
- Les protubérances sont les immenses flammes d’environ 100 000 km de hauteur visibles sur la gauche de l’image. On peut distinguer sur la droite un certain nombre de « spiculés », petits dards acérés jaillissant de la chromosphère et pénétrant dans la couronne qui n’est pas visible ici, la pose de la photographie étant calculée pour la chromosphère. Remarquer le profil des montagnes de la Lune.
- comparaison de leur largeur donne également des renseignements sur la température.
- Le mode d’excitation des atomes dans L peut être déduit de la variation de la largeur équivalente des raies en fonction de la distance au bord solaire. Cette largeur doit, théoriquement, être indépendante de la hauteur dans le cas d’une excitation par absorption de radiation, décroître avec la hauteur dans le cas d’une excitation par collision.
- La séparation des couronnes K et F peut être effectuée à l’aide de deux méthodes :
- La première, valable jusqu’à environ cinq rayons solaires, utilise le spectre de Fraunhofer par la comparaison des profondeurs de raies coronales et photosphériques. Le
- F
- rapport de ces profondeurs est, en gros, p ^ . La
- deuxième consiste à mesurer la polarisation, ce qui donne le rapport des deux constituants.
- Les densités sont obtenues par la mesure des brillances dans la couronne. Les spectres ultraviolet et X fournissent également des renseignements fort importants, et la mission américaine de 1958 était équipée de fusées destinées à la prise de spectres dans la haute atmosphère.
- On voit que les spécialistes solaires ne manquent pas d’observations à effectuer pendant les une ou deux minutes d’une éclipse totale.
- Au surplus, ils ne sont pas les seuls astronomes intéressés.
- 5
- p.5 - vue 9/560
-
-
-
- Fig. j. — Préparation pour une mission d’éclipse.
- A l’Observatoire de Meudon, montage sur l’équatorial des chambres destinées aux mesures de polarisation coronale pour l’éclipse du 30 juin 1954 à Oehland (Suède).
- L’espace est-il courbe ?
- L’incomparable écran qu’offre la Lune ne permet pas seulement d’observer l’atmosphère extérieure du Soleil, il permet aussi de voir les étoiles près du Soleil.
- Peut-être le lecteur ne voit-il pas immédiatement l’intérêt du spectacle ? C’est qu’il permet de répondre à un des problèmes les plus fondamentaux de la connaissance du monde.
- Le Soleil est la masse la plus énorme dans notre voisinage. Comment va se comporter un rayon lumineux passant dans sa proximité ? S’il n’est qu’une onde il ne sera pas dévié. S’il est constitué de corpuscules, ceux-ci soumis au champ de gravitation décriront une trajectoire hyperbolique que l’on pourra assimiler aux asymptotes. L’angle des asymptotes, calculé d’après les lois de Newton, est o"875. Si l’on fait intervenir dans le calcul la courbure de l’espace d’Einstein, on trouve C'75.
- Une seconde d’arc d’écart, c’est très peu de chose. C’est inférieur à l’agitation atmosphérique moyenne. Tout de même, depuis 1919, on a essayé une dizaine de fois de la mettre en évidence. La méthode consiste à photographier en même temps le champ stellaire autour du Soleil et un champ de comparaison situé assez loin. Quelques mois après, avec le même appareillage, l’opération est recommencée de nuit. La difficulté tient à ce que les conditions ne sont pas identiques, d’où la nécessité du champ de comparaison. Les résultats obtenus aux différentes éclipses sont les suivants :
- 1919 : zuo~] T o"c>9 1922 : i"83 dr o"n 1929 : i"96 4; o"o8
- 1936 : 2"68 db q//37 1947 : 2,,20 ± o"3 1952 : U43 dt 0,/t8
- On voit que les différentes valeurs obtenues serrent assez bien la valeur fatidique de 1 "75 et semblent plutôt, jusqu’ici, confirmer l’univers d’Einstein.
- 6
- Y a-t-il un point commun entre des observations aussi diverses que l’étude de la couronne et la vérification de l’effet Einstein ? Oui ! Ce point commun c’est l’obstacle auquel on se heurte : la diffusion de la lumière photosphérique par notre atmosphère.
- Le coronographe annule pratiquement la diffusion instrumentale. Pour atténuer la brillance du ciel on l’installe en haute montagne, mais sa lune artificielle n’en reste pas moins placée après les perturbations introduites par notre atmosphère ; le message reçu est déjà un peu mélangé. Le spectre obtenu correspond au mieux à une tranche de quelque 1 000 km d’épaisseur.
- Au contraire notre satellite, en éliminant totalement la lumière photosphérique et en nous découvrant secondes après secondes les fines tranches d’atmosphère coronale, effectue la sélection alors que le message n’est pas encore brouillé.
- Résumons-nous. Pour vaincre totalement cette diffusion qui nous gêne il ne peut y avoir que deux solutions :
- i° Supprimer ce qui diffuse, c’est-à-dire transporter l’observatoire hors de l’atmosphère. En 1961, on est en droit de dire que c’est la solution de l’avenir, mais quelques décennies sont certainement encore nécessaires.
- 20 Supprimer ce qui est diffusé, c’est-à-dire la lumière photosphérique. Cela, nous ne le pouvons pas, mais la nature s’en charge. Elle le fait, il est vrai, parcimonieusement dans le temps et l’espace.
- A nous d’être à son rendez-vous.
- Roger Servajean,
- Astronome à l’Observatoire de Paris-Meudon.
- Fig. 6. — Vérification de l’effet Einstein (courbure du rayon lumineux d’une étoile dans le champ de pesanteur du Soleil).
- On voit ici la grande lunette du professeur van Biesbroeck à l’éclipse du 25 février 1952 à Khartoum. Au sommet, près de l’objectif, la plaque de verre inclinée permet la photographie simultanée d’un champ stellaire éloigné du Soleil et celle des étoiles avoisinant le Soleil éclipsé (Photo R. Michard).
- p.6 - vue 10/560
-
-
-
- LES AÉRO GLISSEURS OU VÉHICULES « A EFFET DE SOL »
- vous transporteront sur terre et surtout sur l’eau
- par Jacques Spincourt
- Il y a deux ans on entendait parler pour la première fois de recherches poursuivies pour la construction de véhicules ne comportant ni roues ni système de suspension, mais reposant sur une mince couche d’air comprimé, éjecté en permanence sous la voiture et la maintenant à quelques centimètres du sol. Un véhicule de cette sorte, étudié par la Compagnie Ford, avait déjà reçu le nom de « Levo-car ». En juin 1959, à Cowes (île de Wight), l’industrie britannique présentait publiquement un appareil de ce type, l’aéro-glisseur Saunders-Roe « Hovercraft » (La Nature, décembre 1959, p. 534).
- De tels engins mettent à profit pour se soutenir 1’ « effet de sol » dont bénéficient les hélicoptères en vol stationnaire et c’est pourquoi on les appelle généralement véhicules à effet de sol. L’air, aspiré à la partie supérieure de l’appareil, est comprimé au moyen d’un ventilateur et réinjecté sous l’appareil ; la propulsion horizontale est obtenue par l’éjection d’une partie de l’air vers l’arrière. La stabilité du véhicule est automatiquement conservée, car une augmentation locale de la portance, élevant le côté où elle se produit, augmente la fuite de l’air de ce même côté, où la portance se trouve ainsi aussitôt diminuée. On a calculé qu’un aéro-glisseur pourrait emporter une charge double de celle d’un avion classique de même poids.
- Bien entendu, l’effet de sol se produit tout aussi bien au-dessus d’une nappe liquide et il semble même que l’avenir de ce nouveau mode de locomotion soit surtout sur l’eau. En effet, se déplaçant à faible distance du sol (de quelques centimètres à un mètre pour des prototypes plus importants), les aéro-glisseurs risqueraient d’être plus ou moins gênés par les inégalités du terrain, surtout si leur vitesse devient élevée. On a rêvé dès le début de les faire circuler sur des autoroutes spéciales où ils pourraient atteindre des vitesses de croisière de l’ordre de 400 km/h. Une telle réalisation n’est pas pour demain. Au contraire, des engins de taille considérable pourraient être utilisés à la surface de la mer. Tant aux États-Unis qu’en Angleterre, c’est donc surtout la marine qui s’intéresse à ce type de véhicules. Mais, au-dessus de l’eau, ces plates-formes donnent lieu à des projections d’embruns qui peuvent être particulièrement gênantes en vol stationnaire ; des déflecteurs correctement placés pourront permettre de les réduire.
- Depuis qu’a été présenté le Saunders-Roe « Hovercraft », de nombreuses études et recherches ont été effectuées en divers pays. Pour fixer les idées, rien qu’aux États-Unis, les sommes allouées à ces études pour i960 dépassent
- 1 800 000 dollars et, pour 1961, elles atteindront 7 millions de dollars. Dans toutes ces études,-d’ailleurs, l’expérience a largement dépassé la théorie et de nombreux phénomènes mis en évidence lors des essais demeurent encore inexpliqués.
- Les véhicules à effet de sol sont tous des appareils qui se déplacent sur un coussin d’air dont la pression est légèrement supérieure à la pression atmosphérique. Au point de vue des performances, ils peuvent être classés suivant le rapport de la hauteur de vol au-dessus du sol H au diamètre D de l’appareil. On trouve ainsi :
- — pour H/D <0,1, les appareils de transport ;
- — pour 0,2 < H/D < 0,8, des appareils de soutien terrestre.
- Au point de vue du fonctionnement de l’appareil, on distingue les configurations dans lesquelles le coussin d’air occupe toute la superficie inférieure du véhicule et celles dans lesquelles il est produit par un jet d’air s’échappant à la périphérie (fig. 1).
- Dans le premier cas, l’air qui constitue le coussin est simplement pompé dans, l’atmosphère au moyen d’un ventilateur, et envoyé verticalement au-dessous de l’appareil.
- Entrée d'air ^ p' Ventilateur
- Ventilateur
- 1 \
- Fig. JT. — Diverses formules de véhicules à effet de sol. a, véhicule à cavité interne ; b, véhicule à jet annulaire.
- 7
- p.7 - vue 11/560
-
-
-
- Les machines du second type sont celles qui ont été les plus développées jusqu’à maintenant. Les essais sur maquettes ont montré que la différence de pression entre
- Moteur
- Roue de voiture
- Cabine
- Coussin d'air
- Fig. 2.
- Schéma du « Cushion craft ».
- l’espace ménagé sous la machine et l’atmosphère, différence qui régit la sustentation de l’appareil, était d’autant plus grande que le jet périphérique était plus incliné. Ceci a conduit à incliner vers l’intérieur les orifices d’éjection du jet, comme le montre d’ailleurs la figure i.
- 540 ch monté verticalement. La pression à la sortie du ventilateur y était de 1,125 kg/cm2 et la surpression dans le matelas d’air au-dessous de l’appareil était très faible : moins d’un centième d’atmosphère. Parmi les autres appareils dont la mise au point est assez avancée, il faut citer le « Cushion craft », littéralement « avion à coussin d’air », de conception également britannique. De dimensions inférieures au « Hovercraft », il développe une pression plus élevée dans le coussin d’air, ce qui lui permet de voler à une hauteur plus grande. Le coussin d’air est produit par une roue de soufflante à aubes multiples qui tournent autour de la cabine du véhicule. Cette roue est entraînée par un moteur d’automobile de course au moyen d’une roue de voiture, la liaison se faisant sous l’effet du seul frottement (fig. 2). L’ensemble de cette roue de soufflante est en bois comprimé recouvert de matière plastique.-La propulsion vers l’avant est assurée par deux hélices à pas variable entraînées également par le moteur précédent ; ces hélices jouent également un rôle dans le contrôle de l’appareil au moyen de la variation du pas. La vitesse maximale doit atteindre 65 km/h et la vitesse de croisière 45 km/h. Ce premier prototype recevra déjà une application pratique puisqu’il doit servir au transport des
- Fig. 3. — Véhicule à effet de sol construit par l’Université de Princeton.
- Ce modèle, du type « soucoupe volante », se sustente par l’intermédiaire d’un jet d’air annulaire périphérique.
- {Photo U. S. I. S.).
- Il apparaît qu’il y a intérêt à avoir un rapport H/D aussi petit que possible. Mais ceci n’est vrai que pour un fluide parfait, c’est-à-dire non visqueux ; en réalité, l’expérience montre qu’il se forme par viscosité des tourbillons sous la plate-forme qui induisent des zones de dépression parasites réduisant la sustentation. On peut alors avoir intérêt à ne pas diminuer exagérément le terme H/D.
- Du transporteur de bananes au scooter et au car aériens
- Rappelons que dans le « Hovercraft » le ventilateur d’aspiration était entraîné par un moteur à pistons de
- bananes entre es plantations et les navires dans l’Ouest africain, ce qui permettra de se faire une idée de ses possibilités en tant que véhicule de transport.
- Aux États-Unis, si le nombre de projets est très grand, trois appareils seulement ont déjà volé et tous trois ont en commun le fait qu’ils sont propulsés par un moteur de voiture ou de motocyclette. Le scooter aérien de Bell est le plus petit ; il ne pèse que 73 kg et se déplace à 45 km/h ; son moteur est un moteur de motocyclette à deux temps de 12 ch. Il est entièrement construit en aluminium et fibre de verre et il est très simple à mettre en œuvre.
- Le Princeton X-3 est un engin circulaire, du genre « soucoupe volante », qui est soutenu par un jet annulaire périphérique (fig. 3). L’air du jet est aspiré par une hélice
- p.8 - vue 12/560
-
-
-
- Fig. 4. — Le « Car aérien » Curtiss-Wright.
- Ce véhicule, de 450 kg de charge marchande, est vu ici se déplaçant sut une route {en bas) et sut une rivière {en haut). {Photo U. S. 1. S.)
- entraînée par un moteur de 44 ch ; un petit moteur de 5 ch entraîne en outre un rotor de queue monté sur la dérive et qui sert à la commande de direction. Le contrôle latéral et longitudinal est obtenu au moyen de valves placées dans la tuyère annulaire. Le poids à vide atteint 385 kg et le poids en charge 485 kg ; la vitesse de translation doit être de 65 km/h à environ 1 m au-dessus du sol. < •
- Enfin, le Curtiss-Wright 2500, basé sur les mêmes principes que le précédent, est déjà un appareil opérationnel puisqu’il a même été dénommé « Car aérien » (fig. 4). Sa charge marchande est de 450 kg et il peut servir à de petits transports de passagers ou de fret à une vitesse de croisière qui avoisine 100 km/h. La même société a en projet un véhicule de dimensions plus importantes (26 m de long sur 11 m de large), capable de transporter une
- charge marchande de 6 tonnes à une vitesse de 50 à 60 km/h ; deux soufflantes à basse pression fournissent de l’air à une grande chambre située sous l’appareil pour produire la sustentation, et cet air peut s’échapper sur les côtés à travers des volets réglables, ce qui permet de contrôler la direction.
- Parmi les projets de grande envergure, citons encore celui qui a été établi par la Société Convair et qui ne consiste en rien de moins qu’une aile circulaire de 120 m de diamètre dont le poids total dépasserait x 800 tonnes. La charge marchande serait de 450 tonnes et la vitesse de 160 km/h. Pour propulser un tel monstre, Convair envisage de faire appel à un réacteur nucléaire qui entraînerait des soufflantes. L’endurance minimale serait de 30 h, ce qui permettrait la traversée de l’Atlantique Nord. L’altitude de
- p.9 - vue 13/560
-
-
-
- . j£V *
- Fig. /. — Dessins d’anticipation évoquant l’avenit {Photo U. S. I. S.).
- des véhicules à coussin d’air.
- En haut : Cargo. — Au milieu : Paquebot transatlantique.
- En bas : Bateau de plaisance.
- vol serait de 3,5 à 4,5 m au-dessus de la surface de la mer.
- Enfin, et bien qu’il ne s’agisse pas exactement d’un véhicule aérien, il faut mentionner le Hugues « Hydro-streak », destiné à être utilisé au-dessus de l’eau et dans lequel on engendre un rideau d’eau qui emprisonne le coussin d’air sous sa coque. L’eau de mer ayant une densité 840 fois plus grande que celle de l’air, la puissance des moteurs peut être plus faible. L’eau est aspirée par une pompe et refoulée dans uiie conduite circulaire ; elle est alors chassée par des tuyères à l’avant et à l’arrière pour former le rideau d’eau. Sur les côtés, ce sont les parois de la coque qui limitent le coussin d’air. Pompe, soufflante et hélice pour la marche vers l’avant sont entraînées par trois moteurs de 80 ch. La propulsion est en effet assurée par une hélice marine, le rôle du coussin d’air étant simplement de maintenir la coque hors de l’eau pour réduire au maximum la résistance à l’avancement.
- La figure 5 nous montre en tout cas que les Américains ont des projets grandioses pour remplacer les paquebots transatlantiques ou les cargos par des aéro-glisseurs. De tels véhicules seraient de construction extrêmement économique et n’importe quelle plage pourrait, grâce à eux, se transformer en piste d’atterrissage.
- Jacques Spincourt.
- p.10 - vue 14/560
-
-
-
- Une branche nouvelle de la psychologie sociale
- Le développement des petits groupes
- 3. Les structures de communication
- La communication peut être considérée comme le processus social de base : il supporte la vie sociale, et conditionne toute coopération. En ce qui concerne le développement des petits groupes, qui nous intéresse ici tout particulièrement, il ressort suffisamment de l’observation immédiate et des expériences de laboratoire que, d’une part, la communication est nécessaire à la formation et à l’existence continuée des groupes et que, d’autre part, dès qu’un groupe existe, se constitue nécessairement une certaine manière collective de communiquer, une structure particulière de communications.
- Un groupe ne saurait fonctionner convenablement, c’est-à-dire progresser vers ses buts, réaliser un minimum de cohésion entre les membres, si des échanges ne se produisaient entre ces membres. Il est clair qu’un ensemble d’individus repliés sur eux-mêmes, n’apportant aucune information les uns aux autres, ne se transmettant aucun savoir, ne pourraient absolument pas agir les uns sur les autres, autrement dit entrer en interaction ; ils ne pourraient prendre aucune décision commune quant aux buts qui les rassemblent, ou quant aux moyens de les réaliser. Les interactions qui progressivement structurent le groupe et sont responsables de l’atmosphère groupale aussi bien que de l’efficacité du travail en commun s’effectuent sur la base de rapports de communication entre individus. Que cette communication se fasse mal, que les gens se comprennent mal, ou ne puissent pas s’exprimer, les interactions elles-mêmes diminuent : le groupe perd de son efficacité, de son attractivité et il tend à la désintégration.
- Mais l’efficacité des communications est étroitement liée à la manière dont les communications se sont organisées, informellement ou formellement, dans le groupe. Que dans tout groupe, quelque libre qu’il soit, apparaisse toujours une structure de communications, l’observation suivante en fait foi. Soit une conversation autour d’une table ronde ; supposons, en outre, qu’il s’agit d’une conversation mondaine et qu’aucun des membres n’ait a priori une position dominante (ni « préséance », ni « influence » préalable) : chacun est libre et les échanges s’effectuent en toute liberté. S’ensuit-il que la plus parfaite égalité existe dans ces échanges ? Ce serait une illusion de le croire. Quand en effet un individu parle, c’est-à-dire émet des mots qu’il transmet à un autre ou à plusieurs autres, il s’adresse en réalité plus particulièrement à un individu précis. Or,
- 1. Voit : Le développement des petits groupes, par J.-C. Filloux ; 1, Variables fondamentales, La Nature, novembre i960, p. 465 ; 2. Les facteurs de cohésion, décembre i960, p. 523.
- par Jean-Claude Filloux
- si on fait le compte du nombre de messages ou d’informations qui est transmis d’un individu à un autre ou aux autres, on remarque que la plus grande « quantité » d’échanges s’effectue selon les diamètres : autrement dit, il y a moins d’ « apartés » que de discours aux vis-à-vis (fig. 1).
- Tout se passe comme si les paroles ne s’orientaient pas toujours d’une façon homogène dans toutes les directions. Comme le dit Claude Flament (dont nous citerons plus loin d’intéressantes expériences), « dès que les gens parlent dans une situation que l’on peut considérer comme la meilleure, il s’élabore des structures ; dans la conversation la plus libre que l’on puisse rêver, il y a déjà des structures, des contraintes de fait qui se traduisent par des communications moins homogènes et en altèrent la symétrie à l’intérieur du groupe ». C’est que toute communication demande un support matériel, dont l’espace visuel, dans lequel se situent les mimiques, les gestes de celui qui émet et de celui qui reçoit ; les gens placés en vis-à-vis se voient mieux et, partant, communiquent mieux.
- Le problème se complique évidemment lorsque le groupe doit tenir compte en même temps de règles de préséance (existence d’un président de séance, par exemple) et qu’aux structures informelles qui se développent s’ajoutent des structures formelles. La psychologie sociale s’est attaquée
- A
- Fig. 1. — Conversation libre autour d’une table ronde.
- Les communications émises par A vers D sont plus nombreuses que vers C et E et que vers B et F. Dans ce schéma, imité de C. Flament, T importance des traits est proportionnelle au nombre de communications. On doit entendre ici que le même schéma vaut pour chacun des membres du groupe.
- p.11 - vue 15/560
-
-
-
- expérimentalement à cette question fondamentale des rapports entre structures (formelles ou informelles) et efficacité des communications. Mais, avant d’aborder le point de vue strictement psycho-social, quelques notions sur la psychologie des communications sont utiles.
- Psychologie
- du processus de communication
- Le mot communication désigne donc tout échange de messages. Disons bien « tout échange », car l’idée de « transmission » serait insuffisante. Pour communiquer, il faut qu’il y ait interaction. Appelons, en effet, émetteur celui qui émet, récepteur celui à qui l’émetteur s’adresse et qui donc « reçoit » ; appelons message ou communiqué l’ensemble des significations transférées, moyens le type de signes utilisés (codes) et le support employé (paroles, écrits), effets enfin les résultats obtenus : il est clair que l’émetteur ne peut se borner à émettre, mais doit observer l’effet obtenu en fonction du but qu’il recherche (c’est en général une transformation du récepteur, qui va passer de l’état « non informé » par exemple, à l’état « informé ») ; d’autre part, la réponse éventuelle du récepteur est un stimulus pour l’émetteur qui ajuste alors son message à cette réponse, laquelle est d’ailleurs elle-même une émission de la part du récepteur. Toute communication implique un « feedback », ainsi qu’une constante réciprocité des rôles. C’est pourquoi toute bonne définition du processus de communication doit faire intervenir l’idée d’une interaction comportant la transmission d’un contenu avec l’intention explicite ou implicite d’obtenir un effet perceptible : dès que le « récepteur » devient « émetteur », cette émission-réponse permet à l’émetteur premier de posséder une information sur l’effet du communiqué.
- Or, Vefficacité de la communication dépendra de la façon dont s’opérera cet ajustement réciproque A-B, B-A. Il peut se faire qu’émetteur et récepteur n’aient pas le même code, ne donnent pas, par exemple, le même sens aux mêmes mots ; il peut arriver que le récepteur interprète mal les intentions de l’émetteur ; souvent enfin le message lui-même n’est pas perçu de la même manière par l’un et par l’autre. De nombreuses études psychologiques ont été faites sur ce qu’on peut appeler la « perception du communiqué ». Tout message semble perçu en fonction de deux ordres de facteurs : les uns sont objectifs, les autres sont subjectifs.
- La « Psychologie' de la Forme » a dégagé un certain nombre de facteurs objectifs : ainsi, les stimulus qui ont des qualités homogènes sont perçus comme ; formant un ensemble (deux choses discutées l’une après l’autre peuvent être perçues comme liées entre elles) ; il existe une tendance à simplifier pour avoir une perception complète ; ce qui vient en premier lieu ou en dernier lieu dans un « discours » est perçu comme plus important que ce qui vient au milieu, etc. D’autres facteurs objectifs tiennent à la nature même des symboles utilisés comme moyens : tous les mots ne sont pas maîtrisés au même degré par tous (diversité dans l’étendue du vocabulaire) ; certains sont réellement ambigus, ou ont un sens objectivement différent chez les membres de classes différentes, ou de cultures différentes. D’une façon générale, le communiqué est une sorte de véhicule, grâce auquel l’émetteur transforme son expé-
- rience interne, ses pensées, en une forme extérieure ; et le récepteur transforme une forme extérieure en expérience interne. Mais, malheureusement, on sait combien les mots sont souvent inadéquats pour exprimer la pensée, combien aussi les difficultés de syntaxe, de structuration sont grandes. On a remarqué, en tout cas, que plus les symboles sont abstraits, plus les équivoques peuvent être grandes et, partant, plus les malentendus sont fréquents.
- Les facteurs subjectifs de la perception du communiqué sont peut-être plus importants encore. Le récepteur a une personnalité donnée. C’est en fonction de cette personnalité qu’il va organiser les éléments divers qu’il reçoit, compléter les lacunes, bref, donner une signification au matériel reçu. Cette signification dépend ainsi, d’une part, de ses besoins personnels et de son expérience passée (assimilation du présent au passé, sélection des stimulus familiers, résistance aux nouvelles perceptions, au changement), d’autre part, de ses attitudes sociales (préjugés), enfin de ses états émotionnels présents (humeur, etc.).
- La manière dont émetteur et récepteur se perçoivent réciproquement est également un élément déterminant de l’efficacité de la communication. Chacun se fait une image de P autre en fonction de laquelle il décide de ce qu’il dit, s’il est émetteur, ou interprète ce qui est dit, s’il est récepteur. Pour qu’il y ait communication efficace, les conditions optimales sont réalisées, de ce point de vue, si l’émetteur et le récepteur ont une image adéquate l’un de l’autre. D’où ce qu’on pourrait appeler, avec Hartley et Hartley dans leur Manuel de Psychologie sociale (1954), la « tâche » de chacun d’eux. Avant de commencer la communication, l’émetteur doit être sûr de son intention, de ses buts réels, pour bien connaître l’effet qu’il veut produire. Surtout, il doit attirer et retenir l’attention du récepteur. Pour cela, il part nécessairement d’une hypothèse de départ sur lui : mais cette image de l’autre est souvent un stéréotype, ou un jugement fondé sur l’apparence et, comme c’est en fonction de cette image qu’il choisit les symboles, essaie de se faire comprendre, le risque d’un point de départ si superficiel est grand. C’est pourquoi il est de l’intérêt de l’émetteur de chercher à avoir la connaissance la plus précise possible du récepteur : à quel matériel est-il prêt à répondre ? Comment le percevra-t-il ? Quels sont ses intérêts ? Ses habiletés ? Ses processus de perception ? Il convient en particulier d’apprécier le niveau de l’autre, quant à son vocabulaire, son intelligence, etc. Selon les Hartley, « l’efficacité de l’émetteur dépend de son aptitude à se former une bonne « image de l’autre », à comprendre ses intérêts, tendances personnelles et capacités, et à prédire ses réponses à tout message ».
- Réciproquement, la « tâche du récepteur », si tant est qu’il désire que la communication s’établisse avec l’efficacité la plus grande, est d’abord de découvrir les intentions de l’émetteur, ce qui n’est pas toujours commode : elles peuvent être implicites et cachées, stratégiques, etc. Il ne faut pas toujours prendre au pied de la lettre les phrases conventionnelles, il faut laisser de côté ce qui ne s’adresse pas réellement à nous (mais est dit par l’émetteur pour lui-même), il faut tenir compte de la situation, et des relations entre l’émetteur et nous, comme contexte. En se faisant une image de l’émetteur, le récepteur a souvent tendance à se projeter sur lui, à lui assigner ses propres motivations (ne serait-ce que pour les désavouer chez lui !) ; évidemment une telle tendance est facteur d’incompréhension. Une
- 12
- p.12 - vue 16/560
-
-
-
- « bonne image de l’émetteur » permet de sélectionner des aspects du message, de comprendre le sens qui est mis derrière les mots, et partant de les utiliser comme indices certains. Ajoutons même que le récepteur a intérêt à se faire une représentation de l’image que l’émetteur a de lui, récepteur, à titre de critère d’interprétation.
- Il résulte de tout ceci que l’efficacité des communications dépend pour une grande part de la bonne volonté des interlocuteurs, ou au moins de leurs aptitudes psychologiques à communiquer. Bien des altérations du contenu des communications proviennent de facteurs strictement psychologiques et interpersonnels : distorsions perceptives, mauvaise image de l’autre, projection, manque d’accord sur un code, déformation des informations, insincérité. Pourtant, à ces facteurs psychologiques s’ajoutent les éléments liés à la structure même des systèmes de communication, qui est d’ordre psychosociologique (voire parfois, dans les groupements sociaux complexes, d’ordre socio-logique).
- Conséquences des structures sur le fonctionnement du groupe
- Nous avons vu que, dans la situation de groupe la plus spontanée apparaît toujours une « structure de communications » : les membres parlent plus ou moins et, surtout à certains plus qu’à d’autres, en fonction de conditions spatiales. Si les normes, le statut des divers membres, les moyens techniques de travail introduisent des conditions formelles ou informelles qui organisent les communications d’une façon déterminée (demander la parole à un président avant de répondre à quelqu’un par exemple), une structuration particulière se constitue, dont l’effet est, selon les cas, de faciliter ou d’entraver les communications inter-individuelles. Quand on introduit des limitations dans la possi-
- Pratiquement, la tâche à résoudre prend la forme d’un jeu : ainsi, chacun recevra 5 cartes contenant une série dé symboles, la composition de ces séries étant inconnue des autres membres, et il s’agira par exemple de découvrir le plus vite possible, par échanges de messages, quel symbole est commun à tous. Les principaux systèmes de communication expérimentés furent ceux en « cercle », en « chaîne » et en « croix » (fig. 2). Dans le « cercle », chacun peut communiquer avec deux voisins ; dans la « chaîne » et la « croix », il y a des individus périphériques, et un individu qui occupe une position centrale et privilégiée. Il est possible d’évaluer systématiquement : la distance de chaque individu à chacun des 4 autres dans les différents schémas et la somme des distances qui les séparent de tous les autres ; la somme des distances internes pour chacun des 3 systèmes ; le rapport des premiers résultats aux seconds, autrement dit la centralité relative de telle position dans tel schéma. La question est de savoir ici quelle est l’influence du système de centralisation sur l’apparition d’un leadership, sur le rendement, sur le climat global.
- Les expériences ont montré qu’une organisation stable apparaissait plus vite dans la croix, plus lentement dans la chaîne, mais qu’un mode d’organisation n’apparaissait que rarement dans le cercle : alors, seules interviennent les différences de rapidité et d’activité individuelles. En général, les sujets indiquent après l’expérience le sujet central comme leader dans tous les cas pour la croix et presque dans tous les cas pour la chaîne. D’autre part, le nombre des erreurs commises décroît régulièrement quand on passe du cercle à la chaîne et à la croix. Bavelas et Leavitt assurent que plus le groupe est centralisé, plus il est efficace, même quand les distances sont plus longues ; c’est le cas de la chaîne, où le rendement est meilleur que dans le cercle.
- Quant au moral des membres, il est très variable. Dans
- Fig. 2. — Quelques-uns des réseaux étudiés par Bavelas et Leavitt.
- Les traits indiquent les canaux de communication permis entre les cinq membres d’un groupe chargé de réaliser une tâche, a « cercle » ; b « chaîne » ; C « croix ».
- bilité de communiquer, cela entraîne nombre de phénomènes dont les conséquences peuvent être bonnes ou mauvaises sur le fonctionnement du groupe : efficacité, moral, etc. Les premières études expérimentales effectuées à ce sujet sont celles, classiques désormais, de Bavelas et Leavitt (1947) (2).
- Voici le principe de ces expériences. On installe 5 personnes dans de petits boxes ; elles communiquent entre elles par des messages écrits transmis par des guichets ; on leur donne un travail à effectuer et on impose un certain ordre à suivre pour communiquer entre elles (cet ordre se présente comme la variable indépendante à étudier) ; on observe le résultat du système ainsi imposé (variable dépendante).
- 2. Ces expériences sont rapportées par Bavelas dans un article traduit en 1951, chap. VII du recueil Les « Sciences de la Politique » aux États-Unis, Armand Colin.
- les deux structures centralisées, les sujets périphériques expriment à la fin de l’expérience leur ennui, leurs doutes sur la valeur du travail. D’une façon générale, les membres de cercles sont plus satisfaits que ceux des chaînes, ceux des chaînes plus satisfaits que ceux des croix, comme si l’intérêt au travail et la satisfaction du travail accompli variaient en raison inverse du degré de centralisation : les individus qui se trouvent dans un réseau plus centralisé travaillent très bien, mais ne sont pas contents ; ceux qui se trouvent dans un réseau « tout-circuit » travaillent beaucoup moins, mais sont un peu plus satisfaits. Ceci laisse à penser que la structure des communications a une influence sur les attitudes psychologiques, les motivations et, par ce biais, sur la cohésion groupale. Le fait que moral et rendement semblent varier en sens inverse est gros de conséquences. Bavelas explique qu’il n’y eut expérimenta-
- 13
- p.13 - vue 17/560
-
-
-
- tion que sur 15 épreuves : si ce nombre avait été largement augmenté, des effets nocifs auraient bien pu se produire.
- Structures de communication et mode d’organisation du travail
- L’École de Bavelas n’étudie la performance d’un groupe de travail qu’en fonction de la structure des communications possibles, sans se préoccuper de savoir comment un réseau de communication donné est utilisé au mieux par les membres (on voit de tels cas d’utilisation optimale dans la fig. 4). Des recherches récentes, dont celles de Claude Flament en France, ont montré que pour interpréter l’activité concrète d’un groupe, il convient de considérer les facteurs opérationnels et psychologiques qui sont liés à la fois au type de réseau et à l’utilisation qu’en fait le groupe. Employant des techniques expérimentales analogues à celles de Bavelas (sauf l’emploi du téléphone dans certains cas), Flament a étudié ce qui se passe lorsqu’il y a « adéquation » ou « inadéquation » entre la structure donnée (réseau) et l’organisation pratique du travail et il a mis en valeur l’importance de Jla prise de conscience, par le groupe, des rapports entre cette structure et cette organisation (3).
- L’existence d’une inadéquation demande de la part des membres une activité créatrice importante. Soit un individu A, qui doit communiquer avec un individu B, et qui peut le faire : alors l’adéquation entre communication « nécessaire » et communication « possible » fait qu’il n’y a aucun problème. Mais imaginons une situation telle que le réseau donné interdise la communication directe entre A et B, la communication ne pouvant se faire que par un relais, par l’intermédiaire d’un individu C qui peut communiquer avec B : alors, il se crée une perturbation dans le travail et il n’y a plus d’adéquation entre les communications possibles (B reçoit bien le message de A, mais par l’intermédiaire de C) et les communications nécessaires (A devrait recevoir le message directement de B sans l’intermédiaire de C). Dans le second cas, l’efficacité de la communication dépend de la façon dont on saura utiliser le réseau, de la façon dont A saura utiliser C.
- Dans les groupes de plusieurs personnes, s’il y a inadéquation entre les communications nécessaires et celles qui sont possibles, il appartient au groupe de faire preuve d’initiative pour faire face à la situation : tel est le cas si on impose un programme de travail centralisé à un groupe fonctionnant en « cercle » (avec ou sans système « tout circuit »), ou inversement un programme non centralisé à un groupe possédant un réseau centralisé (groupe en
- Fig. — Types de réseaux possibles autour d’une « table ronde ».
- a, Réseau « en cercle » de Bavelas : chacun ne peut parler qu’à ses deux voisins,
- b, Réseau centralisé : toutes les communications doivent passer par un individu.
- C, Réseau « tout circuit », ou complet : chacun peut parler à tous.
- Supposons que l’on impose à un groupe, chargé d’accomplir une tâche, un autre réseau de communication, par exemple un système « cercle » au lieu d’un système « chaîne ». Dans des cas de ce genre, il se trouve que la performance du groupe est passagèrement abaissée si le changement va dans le sens d’un réseau qui correspond mieux à l’organisation du travail à un réseau qui y correspond moins ; ainsi, s’il y a passage d’un réseau en croix à un réseau en chaîne. Elle est améliorée dans l’hypothèse inverse. Une telle amélioration se révèle d’autant plus durable que les membres ont pris plus nettement conscience du rapport d’adéquation entre le réseau et l’organisation du travail.
- 3. Sur ces travaux, voir Claude Flament : La performance des groupes de travail, Année 'Psychologique, 1958, 71-89 ; Performances et réseaux de communication, Bulletin du C. E. R. P. E., 1958, 97-106 ; et aussi un article, Les Structures de Communication, dans le recueil Psychosociologie des groupes de travail Cahiers du C. E. S. P. C., i960.
- « croix »). Les initiatives évoquées plus haut consistent à tenter de diminuer les communications excédentaires, les redondances, à discuter sur l’organisation du travail, c’est-à-dire les schémas opératoires les plus adaptés au réseau imposé. Plus la prise de conscience des rapports entre réseaux et programmes sera grande au cours de ces discussions, plus la performance finale sera augmentée.
- Étant entendu qu’il y a plusieurs types d’inadéquation possibles, Flament .résume ainsi ses résultats dans le Bulletin du C. E. R. P. E. : « Lorsqu’une tâche admet plusieurs programmes, le groupe a tendance à choisir le programme pour lequel le réseau est le plus adéquat. La performance est détériorée par l’inadéquation, de manière différente selon le type d’inadéquation. La connaissance des rapports entre programme et réseau améliore la performance. L’amélioration de la performance avec la pratique s’explique en partie par un accroissement de la connaissance des rapports entre programme et réseau. » Ceci implique que
- 14
- p.14 - vue 18/560
-
-
-
- le travail d’un groupe dont les communications sont structurées d’avance d’une façon donnée consiste en partie à rechercher l’organisation « optimale » qui lui permettra de parvenir à ses buts : l’échange d’informations concernant la place et le rôle de chacun dans le groupe conditionne pour une grande part la constitution d’une telle organisation.
- Centraux et périphériques.
- Degré de latéralité
- Nous ne pouvons donner qu’un bref aperçu des résultats des multiples travaux (plusieurs centaines) qui ont cherché à relier structures ou réseaux de communication et développement groupal. Signalons encore quelques recherches dont les résultats sont particulièrement intéressants pour des applications pratiques.
- Dans les expériences rapportées plus haut, la tâche du groupe expérimental est essentiellement de transmettre et de comparer des informations, sans qu’il y ait invention, ou décision collective nécessaire. Si on impose au groupe un travail coopératif (par exemple, de reconstituer des figures à partir de morceaux divers remis à chacun), on s’aperçoit que l’efficacité des systèmes centralisés est moindre, en raison du fait que le sujet « central » tend à s’arroger le
- Enfin, signalons les expériences assez récentes de Leavitt sur les conséquences d’une plus ou moins grande latéralité dans la transmission et l’échange des messages. Quand un émetteur reçoit, pour une raison ou pour une autre, peu de réponses, la « latéralité » est dite très forte ; elle est très faible, inversement, dans le cas où il y a dialogue, proportion à peu près égale entre émissions et réponses. Or, il semble bien que le fonctionnement des communications obéisse à un facteur de latéralité. Le rendement est, toutes choses égales par ailleurs, d’autant meilleur que la latéralité est plus faible, bien que le temps de travail soit un peu plus long. Les membres en interaction s’estiment d’autant plus les uns les autres qu’il y a moins de latéralité. Cela donne à penser que le mode de travail en commun du style « dominance d’un leader autoritaire » n’est pas un facteur de rendement, parce qu’il ne favorise pas des échanges véritables, de « feed-back » créateurs.
- Finalement, le niveau de communication d’un groupe (quantité et efficacité des communications qu’on y trouve) paraît bien être fonction à la fois de processus d’ordre purement psychologique, liés à la personnalité de chacun des partici-
- Fig. 4. — Exemple de structuration spontanée d’un groupe à partir d’un réseau.
- A partir d’un réseau « en cercle » (a), le groupe découvre une structure a deux échelons aussi efficace que la chaîne. A partir d’un réseau «tout circuit» (b), découverte d’une structure centralisée à un échelon, aussi efficace que la croix.
- rôle de « penseur » : il résiste aux suggestions des périphériques, les influence pour qu’ils abandonnent leurs idées, et se borne à transmettre les indications qu’il leur réclame. Ce qui donne à penser que plus le degré de centralisation est grand dans un système de communications, moins l’aptitude à Y ajustement mutuel est grande.
- D’intéressants travaux, dus à Gilchrist et Shaw, ont porté sur les conséquences de l’apport d’un plus grand nombre d’informations aux membres périphériques qu’au membre central. Dans ce cas, la satisfaction et le rendement sont grands chez les périphériques, mais le sujet central tend vite à être débordé par le nombre des messages qu’il reçoit, doit transmettre, coordonner, etc., comme s’il existait pour lui un seuil de saturation. En ce qui concerne le rendement et le moral du groupe en lui-même, ils semblent supérieurs dans les groupes les moins centralisés et très bas dans les groupes très centralisés, comme les groupes en « croix ».
- pants, à des aptitudes intellectuelles, affectives, etc., et de facteurs d’ordre psycho-sociologique, liés au réseau des communications possibles et aux structures qui se constituent formellement ou informellement entre les participants.
- Nous avons dit les sources proprement psychologiques des altérations du contenu des communications ; il faut y ajouter les sources qui sont constituées par l’inadéquation des réseaux aux objectifs, ou par les difficultés rencontrées par le groupe pour prendre clairement conscience de l’existence d’une inadéquation et partant y faire face. Il est clair que certaines structures peuvent favoriser ou défavoriser la formation de bonnes « images de l’autre » chez l’émetteur ou chez le récepteur. Réciproquement, les cas de compréhension immédiate entre membres, quel que soit le type de réseau dans lequel ils sont situés, favorisent le travail commun et le contentement.
- Les expériences de laboratoire poursuivies aux États-
- 15
- p.15 - vue 19/560
-
-
-
- Unis et depuis peu en France ne peuvent certes être immédiatement généralisées : elles s’appuient sur des groupes qui ont eu à résoudre des problèmes élémentaires, tenant davantage du jeu que du travail proprement dit ; de plus, elles ne peuvent envisager que des systèmes de communication relativement simples. Toutefois, ces diverses études ont permis, comme nous aurons l’occasion de le montrer ultérieurement, de mettre sur pied des méthodes de travail en groupe et des techniques de « conduite de groupe » qui améliorent véritablement le niveau de communication global et l’efficacité. Il est hors de doute que la progression du groupe vers ses buts est étroitement solidaire de I’exis-tence d’un haut niveau de communication et, particulièrement, d’une bonne structure des communications. Les buts communs, les systèmes de référence seront d’autant plus clairs et mieux acceptés qu’ils auront eux-mêmes été définis par le moyen d’une communication plus profonde. Le niveau de communication conditionne la rapidité et la sûreté des décisions, l’efficacité du leader, la naissance d’une suffisante confiance mutuelle.
- L’importance d’un haut niveau de communication est telle que le conducteur d’un groupe de travail ou de décision doit tendre à susciter dans la mesure du possible des structures telles que le meilleur rendement et le meilleur
- moral se manifestent. En fonction du réseau imposé par les types de rôles et de statuts qui existent dans le groupe, leur hiérarchisation éventuelle, il doit tenter de réaliser la meilleure structure de communications imaginable. Cela peut comporter la poursuite d’objectifs apparemment inconciliables : ainsi, les travaux de Flament ont encore montré que la concision, la rapidité et l’exactitude des communications sont relativement contradictoires et, nous savons aussi que rendement et moral ne vont pas toujours de pair. Mais il existe justement un fonctionnement optimal du groupe qui dialectise dynamiquement ces contradictions relatives. C’est ce fonctionnement optimal que recherchent les « praticiens » de la dynamique des groupes : ainsi, en demandant à un groupe de s’entendre préliminairement sur un certain nombre de normes concernant la façon dont on communiquera, en fonction des contraintes diverses dues à la situation, il est possible de constituer dès le départ une structure de communications la plus adéquate possible aux buts poursuivis.
- Dans une prochaine suite d’articles, nous aborderons précisément les problèmes pratiques posés par la discussion et la solution des problèmes en groupe et, notamment, par la constitution de méthodes pertinentes de conduite des groupes.
- Jean-Claude Filloux,
- Agrégé de l’Université.
- Le passé géologique de la Crimée, alternativement île et presqu’île
- La presqu’île de Crimée, reliée, comme on sait, au continent par un isthme étroit (isthme de Pérékop), fut jadis une île. On ne sait pas au juste à quelle époque cette île se trouvait, pour la dernière fois, entièrement recouverte d’eau, mais il est certain qu’elle avait cessé d’être sous-marine dans la deuxième moitié de l’ère tertiaire. Le peuplement de l’île Taurique (ancien nom de la Crimée) par la flore et la faune terrestre a pu commencer dès le début du Miocène, précise le professeur Mouratov dans Priroda. A l’époque qui suivit son émersion, l’île se trouvait reliée, par de larges isthmes, non seulement à ce qui est maintenant l’Ukraine, mais aussi à la partie septentrionale de la péninsule balkanique.
- Vers le milieu du Miocène, la Crimée redevint une île, seule sa partie montagneuse émergeant de la mer. Mais, à la fin du Miocène, elle se trouvait de nouveau reliée à l’Ukraine. Il est incontestable qu’à cette époque sa flore et sa faune se sont enrichies. Les mammifères y apparurent, notamment dans la région de Sébastopol. Plus tard, au cours du Pliocène, la Crimée fut tantôt une île, tantôt une presqu’île reliée à l’Ukraine ; mais
- aucune liaison terrestre n’existait alors ni avec la péninsule balkanique ni avec le Caucase. Vers le milieu du Pliocène, tant la Crimée que le Caucase, l’Ukraine méridionale et probablement aussi la péninsule balkanique, connurent un climat très particulier, variable, assez chaud et humide. A la fin du Pliocène le climat de la Crimée devint tempéré, et le resta pendant la première partie de l’ère quaternaire. A l’époque où un froid intense régnait sur la plaine russe, au milieu du Quaternaire, le climat était incontestablement très froid en Crimée, sauf, cependant, au voisinage des côtes méridionales, où la flore et la faune méditerranéennes ont pu ainsi se conserver en partie, ce qui explique l’aspect très particulier de la Crimée d’aujourd’hui.
- Le professeur Mouratov conclut en disant que l’hypothèse d’un « continent pontique » doit être abandonnée. Si jamais la Crimée avait été reliée à l’Asie Mineure, elle n’aurait pu l’être qu’à une époque très reculée, par exemple à l’ère secondaire, vers le milieu du Crétacé.
- C. M.
- 16
- p.16 - vue 20/560
-
-
-
- Les Fulgurites du Sahara
- par A. Naegelé
- Nombreux sont les voyageurs qui, au Sahara, ont été frappés par des objets de nature minérale, vitrifiés et le plus souvent tubulaires, rencontrés dans des régions de dunes ou autres endroits sablonneux. Les savants qui se sont penchés sur ces curieuses productions du monde minéral ont constaté qu’il s’agissait de silice fondue par l’effet de la foudre sur les sables quartzeux. Ces vitrifications, en raison de leur origine fulgurale, ont reçu le nom de fulgurites. On les a parfois désignées sous les noms de tubes fulminaires ou d’astrapyalites.
- Il ne faudrait pas croire que les fulgurites se rencontrent exclusivement au Sahara. On en a découvert non seulement dans d’autres régions du continent africain (Sénégal, Moyen-Congo, ...) mais encore en Europe (France, Allemagne, Hollande, Belgique, Angleterre, ...), en Amérique et en Asie.
- C’est en Silésie, en 1711, qu’un pasteur du nom de Hermann aurait, le premier, découvert de ces objets qu’il crut être des ossements fossiles. Les fulgurites suscitèrent encore bien des idées erronées et ce n’est que plus tard, vers la fin du xvme siècle, que l’on put connaître leur nature véritable. Citons à titre d’exemple le cas des fulgurites trouvées dans les sables de Montmartre à Paris, que l’on avait prises pour des tubulations de vers annelés du groupe des Oligochètes. On avait pensé également que les actions de la pluie et du vent n’étaient peut-être pas étrangères à la formation de ces tubes. Par la suite, les découvertes d’autres gisements se multipliant, divers spécialistes ont pu mieux étudier les fulgurites et ont consigné les résultats de leurs recherches dans de nombreuses publications. Mais bien que nos connaissances actuelles sur la nature et l’origine de ces fulgurites soient assez poussées (on verra plus loin qu’il a été possible d’en produire artificiellement au laboratoire), il reste néanmoins encore des points à éclaircir.
- En ce qui concerne les fulgurites sahariennes, celles-ci ont surtout été étudiées par le savant minéralogiste français Alfred Lacroix. Aussi, dans le présent exposé, nous proposerons-nous de donner sur celles-ci un aperçu des connaissances actuelles.
- Répartition géographique et conditions de gisement: — On a d’abord pensé qu’il existait au Sahara des régions privilégiées pour la formation des fulgurites. En effet, c’était principalement au Sahara nigéro-tchadien que l’on en avait découvert de très nombreux gisements alors qu’aucun ou presque n’était signalé dans d’autres régions.
- 17
- p.17 - vue 21/560
-
-
-
- Mais cette localisation s’est montrée par la suite plus apparente que réelle. Elle provenait du fait que le Sahara nigéro-tchadien, à une certaine époque, fut le théâtre de nombreuses reconnaissances militaires et de grandes missions d’exploration. Officiers et voyageurs, en rapportant des échantillons de tubes de silice fondue, ont de ce fait appelé l’attention sur ces productions particulières. Présentement on a pu recueillir des fulgurites dans tout le Sahara.
- Toutes les fulgurites rencontrées jusqu’à présent au Sahara l’ont été dans des régions de dunes. Certaines personnes ont affirmé qu’elles ne se trouvaient que dans les dunes fixées et jamais dans les dunes vives ; d’autres prétendaient le contraire et enfin d’autres encore voyaient difficilement pourquoi la foudre ne frapperait pas les dunes mortes aussi bien que mouvantes. On pensait également que les fulgurites qui se formaient dans les dunes vives étaient très rapidement ensevelies dans le sable et échappaient de ce fait aux observateurs. Cette question semble actuellement résolue puisqu’on a trouvé des fulgurites à la fois dans des dunes mobiles, des dunes partiellement fixées ou totalement mortes.
- Une autre question au sujet de laquelle les opinions des observateurs étaient également partagées intéressait la situation des fulgurites dans les dunes. Les fulgurites se trouvent-elles sur la crête des dunes ou dans leurs creux, ou encore dans une position intermédiaire, ou enfin dans toutes les situations possibles ? A la suite de vérifications effectuées sur le terrain, il semble résulter que les fulgurites sont en général localisées dans des dépressions interdu-naires.
- Par ailleurs, les botanistes ont remarqué, et ceci semble d’une grande importance pour expliquer la présence quasi constante des fulgurites dans les creux de dunes, que ces dépressions interdunaires sont souvent peuplées par des végétaux. La présence de ces plantes indiquerait donc, a priori, l’existence d’un certain degré d’humidité édaphique à une profondeur relativement faible. Aucune recherche précise n’a été faite jusqu’ici pour mesurer cette humidité et en connaître l’origine : présence d’une nappe phréatique peu profonde ou accumulation et condensation par les dunes de l’humidité atmosphérique ? Cette humidité localisée augmenterait sensiblement la conductibilité électrique du sol qui favorise l’influence électrostatique et augmente le champ électrique. C’est ce qui expliquerait la remarquable prédilection de la foudre pour les creux de dunes. Lacroix pense qu’il serait intéressant de pratiquer des sondages sur les surfaces couvertes de fulgurites ; ce serait là, dit-il, peut-être une façon originale de chercher les points d’eau dans les régions désertiques et de démontrer que la foudre pouvait être à l’occasion un « sourcier de marque ».
- Ajoutons enfin qu’on ne rencontre pas les fulgurites à l’état isolé mais qu’elles constituent de véritables champs, mesurant en moyenne quelques dizaines de mètres carrés. Elles sont normalement implantées verticalement dans le sable mais le vent les fait apparaître plus ou moins rapidement. Étant extrêmement fragiles elles se brisent sous le choc des grains de sable. Les débris qui jonchent le sol sont alors roulés et usés pour finalement revenir à l’état de sable sous l’action éolienne qui se poursuit.
- Fig. — Fragments de fulgurites aplaties.
- Morphologie et composition chimique— Les fragments de fulgurite que l’on recueille habituellement sont des tubes d’une longueur qui varie de quelques centimètres à 25 ou 30 cm au maximum. Toutefois, certains observateurs ont pu suivre des tubes, à l’endroit même de leur formation, sur une profondeur de plusieurs mètres, voire 12 m à la faveur d’une coupe de terrain exceptionnelle. Le musée de Chicago possède du reste un exemplaire qui mesure près de 3 m et celui de Dresde un autre de plus de 4,5 m. Ces tubes sont plus ou moins cylindroïdes, creux, à section transversale irrégulière de diamètre intérieur variable sans toutefois excéder une quinzaine de millimètres.
- La surface extérieure d’une fulgurite « fraîche », c’est-à-dire non encore atteinte par les agents érosifs, est couverte d’aspérités en raison de l’adhérence plus ou moins forte du sable quartzeux au verre siliceux. En outre, les fulgurites présentent généralement des saillies extérieures d’une grande diversité de formes : prolongements aliformes, excroissances coralliformes, côtes longitudinales irrégulières, etc. (fig. 1). On connaît également de rares exemplaires ramifiés (fig. 2) ainsi que des spécimens entièrement aplatis (fig. 3).
- La surface intérieure des tubes est, au contraire, vitreuse, brillante et plus ou moins irrégulièrement ondulée ou bosselée. On observe dans la matière vitreuse des bulles gazeuses, nombreuses et petites et, par places, de minuscules cupules attribuées à l’échappement de ces bulles.
- La substance dont sont formées les fulgurites est de la silice quasiment pure, résultant de la fusion de sables presque exclusivement quartzeux. Considérant ce verre naturel comme une espèce minérale spéciale, Lacroix, en 1915, lui donna le nom de lechateliérite, en l’honneur du minéralogiste Henry Le Chatelier connu surtout pour ses importants travaux sur la silice. Cette lechateliérite possède toutes les propriétés du verre de silice fabriqué actuellement par l’industrie. Elle est isotrope et sa densité, difficile à déter-
- 18
- p.18 - vue 22/560
-
-
-
- miner à cause des petites bulles gazeuses impossibles à éliminer complètement, est voisine de 2,1. Elle est normalement incolore mais la grande richesse en bulles gazeuses la rend translucide ou même opaque.
- Mécanisme de formation ; fulgurites expérimentales. — Nous avons vu, dans ce qui précède, que les fulgurites sont constituées par de la lechateliérite. Cherchons maintenant à préciser les détails des faits qui concourent à la formation des fulgurites. Cette dernière résulte de la combinaison de deux sortes d’actions : les unes calorifiques, les autres mécaniques.
- La chaleur mise en action par la décharge électrique doit être considérable si l’on songe que la température de fusion du quartz est de 1 4700 C. Comme la durée de la traversée du sable par la foudre est toujours extrêmement courte, quelques millièmes de seconde seulement, il est permis de penser qu’à elle seule, elle n’explique pas la fusion d’une quantité de sable telle qu’elle puisse engendrer des tubes mesurant parfois plusieurs mètres de longueur. En effet, on admet que l’action de la chaleur ne s’exerce pas uniquement sur les grains de quartz mais encore sur l’air et l’humidité qui les enveloppent. Autrement dit, la chaleur excessive dégagée par la foudre sur toute la longueur de son trajet souterrain entraîne non seulement la vitrification des grains de quartz les plus rapprochés de l’étincelle mais aussi la volatilisation de l’humidité et la dilatation de l’air liés à ces grains. Ces fluides gazeux (air et vapeur d’eau), considérablement échauffés, sont de ce fait fortement dilatés. Leur intervention est donc non seulement calorifique mais aussi mécanique en raison de la pression qu’ils exercent. Celle-ci détermine la cavité des tubes et empêche ainsi l’accolement de leurs parois. L’action de ces gaz est d’ailleurs attestée par la présence de bulles dans la masse vitreuse. Elle est, en outre, d’une durée assez brève mais cependant très supérieure à celle, extraordinairement courte, de la traversée du sable par la foudre.
- La solidification du magma siliceux est, elle aussi, extrêmement rapide, même en tenant compte du refroidissement plus lent des gaz surchauffés. En effet, la silice, comme
- on le sait, ne peut rester à l’état de fusion qu’au-dessus de 1 470° C. Dans le cas qui nous intéresse, cette haute température ne peut évidemment être maintenue longtemps si l’on songe à la petitesse de la fulgurite par rapport à l’énorme masse de sable non échauffée qui l’entoure. La lechateliérite est donc refroidie rapidement, ce qui explique son isotropie complète et partant l’absence totale de cristo-balite ou de tridymite, qui sont les deux formes anisotropes (cristallines) de la silice produites à haute température.
- Les savants, loin de se contenter de l’étude des fulgurites naturelles, ont cherché expérimentalement à en obtenir de semblables. Rappelons à ce sujet quelques-uns de leurs essais. Déjà en 1828, les Français Félix Savart, physicien, et François Beudant, minéralogiste, réalisaient au Conservatoire des Arts et Métiers des fulgurites artificielles à l’aide de la batterie du cabinet Charles, la plus puissante qui existât alors à Paris. Ces savants faisaient passer une décharge électrique à travers de la poudre de verre tassée dans un trou ménagé dans une brique. Ils obtenaient de la sorte des tubes fondus de 25 mm de longueur et d’un diamètre de 0,5 mm. En utilisant un mélange de poussière de verre et de sel marin (NaCl), mélange plus fusible, les dimensions des tubes étaient accrues.
- Plus tard, en 1866, le savant allemand W. Rollmann obtenait également des fulgurites en employant du soufre en poudre. Cet expérimentateur avait remarqué que le diamètre des tubes ainsi formés variait en raison inverse du tassement de la poudre, ce qui reviendrait à dire que moins la poudre est tassée, plus faible est la cohésion du milieu traversé, et d’autant plus grand est le diamètre des tubes.
- Pour terminer, signalons encore les expériences plus modernes, effectuées en 1934 par le professeur italien Gino Rebora. Ce chercheur a effectué ses expériences avec des courants électriques de 0,4 à 0,5 A dans le circuit, avec des tensions appliquées de 75 à 116 kW pour un temps de 15 à 20 s. Il avait donc, à l’encontre de la foudre, utilisé un faible courant durant un temps relativement long. Bien que les caractéristiques de cette décharge ne correspondent pas tout à fait à celles de la foudre, Rebora pense néanmoins que les résultats obtenus sont identiques.
- Fig. 4. — Fragments de fulgurites à texture annulaire.
- 19
- p.19 - vue 23/560
-
-
-
- Il a opéré sur des matériaux divers : sable quartzeux provenant du Sahara libyen, sable à silice ordinaire, poudres de calcaire, de silice pure, d’alumine et de dolomite. Il constatait que seuls les matériaux siliceux (fusibles) pouvaient donner des fulgurites artificielles alors que la décharge électrique ne produisait dans les autres que des trous.
- Fulgurites fossiles. — Le sens précis du terme fossile s’applique à des restes d’organismes vivants appartenant soit à la flore, soit à la faune disparues, et conservés dans des formations sédimentaires de l’écorce terrestre. Par la suite, il a fallu élargir cette définition. En effet, on avait découvert dans des sédiments anciens des empreintes qui, bien que produites par des êtres vivants, n’avaient cependant rien d’organique, comme par exemple des pistes d’animaux marins ou terrestres. Puis, par extension encore plus grande de la définition, on parla de vent, de pluie, ... fossiles, voulant désigner ainsi les traces de phénomènes qui s’étaient manifestés à l’époque du dépôt des sédiments qui les contiennent. Des expressions telles que « eau fossile » ou « sable fossile » sont actuellement courantes au Sahara. Dans ces conditions on peut donc se demander si l’on connaît des exemples de foudre fossile.
- Le fait doit être rare, étant donné la fragilité des fulgurites et leur retour facile à l’état de sable. On en a cependant trouvé, ou du moins on l’a pensé. En effet, sous le manteau aréneux actuel existent très souvent, en divers points du Sahara, des sables blancs considérés comme « fossiles » par les préhistoriens ou les spécialistes du Quaternaire saharien. Ces sables « sucre en poudre », comme les a appelés Théodore Monod, lorsqu’ils affleurent localement, révèlent presque toujours une extraordinaire abondance de fulgurites. Aussi a-t-on d’abord pensé que ces tubes vitrifiés devaient ici certainement dater d’une époque où les orages étaient beaucoup plus fréquents qu’aujourd’hui. De plus, on a également constaté que ces sables à fulgurites étaient souvent associés à des foyers d’industrie lithique. Par conséquent, on a cru devoir les dater du Néolithique ou même de périodes prénéolithiques. Mais ce sont là des idées qui ne sont pas partagées unanimement. On pense actuellement que ces sables blancs sont des dépôts aquatiques. Dans ce cas les fulgurites, n’ayant pu se former dans des étangs ou des lacs, datent d’une époque bien postérieure, où ces pièces d’eau se trouvaient définitivement asséchées. En outre, les fulgurites se trouvant associées à des habitats préhistoriques installés sur les sables blancs (si toutefois ceux-ci correspondent réellement au terrain sur lequel étaient établis ces habitats), on voit mal comment ces peuplades anciennes auraient pu respecter des objets aussi fragiles que des tubes de verre plantés verticalement dans le sol. Est-il du reste vraisemblable que les fulgurites puissent demeurer verticales et déchaussées depuis des temps aussi anciens ?
- Sans aucun doute, la production des fulgurites a eu lieu de tout temps, peut-être plus fréquemment lorsque le Sahara n’était pas encore le désert d’aujourd’hui mais, comme nous le disions plus haut, la fragilité de ces tubes ne leur permet pas une longue conservation.
- Les pseudo-fulgurites. — Nous avons indiqué que l’on avait attribué autrefois aux fulgurites des origines très diverses. Nous terminerons en signalant que beaucoup de personnes ont cru voir des fulgurites en des tubes
- Fig. J. — Fragments de fulgurites usées par l’érosion.
- Toutes les fulgurites dont nous donnons les photos proviennent du Sahara nigéro-tchadien.
- pierreux qui n’avaient aucun rapport avec celles-ci. Les conditions de gisement de ces pseudo-fulgurites étant les mêmes que celles des véritables, on explique facilement la méprise des voyageurs qui en ont rencontré. Ces fausses fulgurites, complètement différentes des fulgurites authentiques quant à leur composition et leur origine, sont des pièces plus ou moins régulièrement cylindriques qui ont eu initialement une cavité tubulaire centrale, toujours visible, mais fréquemment obturée. Ces tubes, qui n’ont ni la fragilité, ni la légèreté des fulgurites, se rayent au couteau et font une vive effervescence au contact d’un acide car ils sont formés par des grains de quartz arrondis et intacts plus ou moins fortement cimentés par de la calcite. Ces tubes calcaires se forment généralement autour des racines de certaines plantes désertiques, racines qui, enfermées dans leur gaine pierreuse, finissent par mourir et disparaître. Des tubulations du même genre peuvent également être dues à l’activité de certains termites des régions arides. Les tubes, au lieu d’être calcaires, sont parfois ferrifères, leur ciment étant dans ce cas ferrugineux. La calcite y est alors remplacée par de l’hématite. Comme les fulgurites, les pseudo-fulgurites calcaires ou ferrugineuses se rencontrent en position verticale dans le sable mais le plus souvent brisées à terre, usées et polies par les agents d’érosion.
- Antoine Naegelé,
- I. F. A. N., Dakar.
- 20
- p.20 - vue 24/560
-
-
-
- LA BAISSE DE LA MER CASPIENNE inquiète les techniciens soviétiques
- Nous avons déjà résumé (La Nature, juin i960, p. 247) un article de la revue soviétique Priroda concernant les variations du niveau de la mer Caspienne. L’auteur signalait qu’en dépit des prévisions fondées exclusivement sur les conditions climatiques, le niveau de cette mer intérieure, qui n’avait cessé de baisser depuis de nombreuses années, aurait subitement commencé à s’élever en 1957. Cette élévation imprévue était due selon lui à des causes purement géologiques : le fond d’une partie de la mer aurait commencé à monter progressivement. Or, en août i960, la même revue Priroda publiait un autre article consacré à la Caspienne, où étaient notamment reproduites les conclusions des spécialistes réunis en Congrès en avril i960 à Moscou. Ces conclusions, tout en reconnaissant que les phénomènes géologiques et tectoniques influent sur le niveau de la Caspienne, ne mentionnent même pas l’élévation insolite constatée en 1957. Il faut donc supposer que cette élévation n’a été que provisoire et brève, d’autant plus que les spécialistes en question soulignent particulièrement que, pour les prévisions ultérieures,, il est nécessaire, comme auparavant, de se baser avant tout sur les variations des conditions climatiques et, aussi, sur le volume sans cesse croissant de l’eau qui est prélevée sur les fleuves par l’homme pour les besoins de l’agriculture et de l’industrie.
- Rappelons qu’en théorie les prélèvements sur un fleuve sont compensés par la restitution de l’eau après usage. Cependant, dans le cas de la Volga, on doit tenir compte du vaste bassin de retenue qui sera créé en amont du barrage situé aux environs de Stalingrad. Ce bassin sera soumis à une évaporation bien plus intense que celle qui s’exerce sur le fleuve lui-même. Une évaporation doit être également attendue sur toute la surface des terres irriguées ; elle sera plus intense encore après la mise en culture où interviendra l’évapotranspiration des végétaux. Les hydrologues toutefois tiennent compte en général de la saturation en eau de l’atmosphère qui résulte de pareilles évaporations : une partie de l’eau ainsi dissipée est restituée au bassin sous forme de précipitations, ce qui atténue le déficit.
- C’est en se basant sans doute sur des calculs de cet ordre que les prévisions de i960 sont plutôt pessimistes en ce qui concerne la baisse de niveau de la Caspienne. Ayant déjà baissé, de 1929 à 1959 (c’est-à-dire en 30 ans) de 2,3 m, le niveau baisserait encore de 2,4 m d’ici 1980 (c’est-à-dire en 20 ans), si les conditions climatiques moyennes restent inchangées.
- En effet, le volume d’eau prélevée annuellement par l’homme sur la Volga et les autres fleuves qui débouchent dans la Caspienne atteindra, vers 1980, environ 35 à 50 km3, les conditions climatiques tendant d’ailleurs également à faire baisser le niveau de cette mer intérieure.
- Afin de combattre cette baisse, désastreuse pour certaines activités locales (pêche, agriculture, transports maritimes, etc.), plusieurs projets ont été envisagés visant à régler le niveau de la Caspienne. Il a été proposé, par exemple, de dévier vers le bassin de la Volga une partie du débit des fleuves septentrionaux (Petchora, Vytchegda). Ce projet serait insuffisant pour compenser la baisse du niveau de la mer, mais il pourrait au moins la freiner. Un autre projet implique la création d’un lac artificiel au nord de la Caspienne et la construction d’un immense barrage long de 375 km et haut de 8 m. L’auteur de l’article précise que la construction de ce barrage ne serait pas aussi difficile qu’on pourrait le croire au premier abord. En effet, l’emploi de béton ne serait pas nécessaire, la pierre et des ouvrages de terre étant amplement suffisants. La réalisation du barrage demanderait de deux à trois ans. On a étudié, enfin, la possibilité d’alimenter la Caspienne par les eaux de la mer Noire et de la mer d’Azov. Les niveaux actuels favorisent ce projet, le niveau de la mer Noire dépassant de 28 m celui de la mer Caspienne. Cependant, la réalisation de ce projet hardi exigerait de très fortes dépenses. Au surplus, elle aurait pour conséquence d’augmenter la salinité de la partie septentrionale de la Caspienne, particulièrement riche en poisson, et d’en réduire ainsi très considérablement la productivité.
- C. M.
- Tombeau antique dans le désert de Gobi
- En survolant le désert de Gobi pour observer les conséquences d’un récent tremblement de terre, des aviateurs soviétiques aperçurent, à l’est du massif d’Ihé-Bogdo, une montagne ornée d’un tombeau antique d’une rare beauté, nous dit, dans un de ses récents numéros, la revue Priroda de Moscou. Les observations ultérieures révélèrent que le cône central du tombeau était composé de petits fragments de basalte (de 5 à 7 cm), tandis que l’anneau extérieur, les rayons et les autres parties du tombeau étaient constitués par des dalles de basalte de 25 à 30 cm. Au pied d’une colline, à l’est du tombeau, fut découverte une grande dalle verticale de basalte, large d’environ
- 30 cm, haute de 20 cm et épaisse de 1,5 cm. Sur cette dalle étaient gravées, avec une finesse remarquable, les images d’un renne, d’un arc, d’un poignard à deux tranchants et d’autres objets. D’après les croquis relevés, ces images sont analogues à celles que portent les dalles retrouvées dans la région d’Oulan-Oudé et conservés actuellement au musée d’Irkoutsk. Or ces dalles datent, selon les archéologues, des Ve, vie et vne siècles avant J.-C. Ce tombeau n’est d’ailleurs pas le seul que les aviateurs soviétiques aperçurent dans cette région du désert de Gobi.
- C. M.
- 21
- p.21 - vue 25/560
-
-
-
- Les secrets de Fart
- architectural par Lucien Chopard
- des Termites
- La remarquable organisation des sociétés d’insectes a depuis bien longtemps attiré l’attention des naturalistes et même des simples curieux. Pline ne nous apprend-il pas qu’un sénateur romain avait fait fabriquer des ruches à parois en corne assez transparente pour pouvoir observer les abeilles ? C’est aussi à ces insectes que Réaumur a consacré presque tout le tome V de ses Mémoires pour l’Histoire des Insectes, paru en 1740 ; le tome YII des mêmes Mémoires, qui n’a pas été publié du vivant du grand naturaliste, mais a paru en 1928 seulement, est également consacré à des insectes sociaux, les. fourmis. Ces deux catégories d’insectes ont donné lieu, par la suite, à un grand nombre d’observations, dont les plus remarquables sont certainement celles de von Frisch qui a fait connaître la façon imprévue dont les abeilles communiquent entre elles et sont ainsi capables de coordonner leurs travaux.
- Mais les abeilles, les guêpes, les fourmis ne sont pas les seuls insectes sociaux. Il faut cependant descendre très bas dans la série entomologique pour trouver des sociétés aussi remarquablement organisées que celles de ces Hyménoptères, qui appartiennent à l’un des ordres considérés comme les plus avancés en organisation. On rencontre bien çà et là dans différents ordres d’insectes des formes qui présentent une tendance à la vie sociale ou plutôt à la vie grégaire ; d’après Wheeler, l’un des naturalistes qui connaissaient le mieux cette question, une telle tendance est manifestée dans 24 groupes différents d’insectes. Mais, des sociétés comparables à celles des Hyménoptères supérieurs ne se trouvent que chez les Isoptères ou Termites, insectes sans métamorphoses et présentant une série de caractères qu’on considère à juste titre comme primitifs ; ces caractères les rapprochent étroitement des Blattes, lesquelles comptent parmi les insectes les plus anciens puisqu’ils n’ont guère changé depuis le Carbonifère.
- Les Termites sont donc des insectes assez primitifs en ce qui concerne leur morphologie et leur mode de développement, mais ils montrent une adaptation sociale tellement remarquable qu’elle égale et surpasse même en certains points celle des Hyménoptères. La société elle-même se montre aussi complexe que celle des fourmis les plus différenciées auxquellês elle peut être le mieux comparée. On y trouve en effet, outre le mâle et la femelle, des soldats de plusieurs tailles et présentant parfois d’extraordinaires adaptations, et des ouvriers formant aussi des catégories
- assez différentes (fig. 1). Le mâle et la femelle sont, comme chez les fourmis, ailés mais, chez les Termites supérieurs, les femelles fécondées deviennent de monstrueux sacs à
- ’ / F
- Fig. 1. — Les castes du Termite Bellicositermes bellicosus.
- A, femelle ailée ; B, reine féconde ; C, grand soldat ; D, petit soldat ; E et F, ouvriers. La reine est environ grandeur naturelle ; les autres sont fortement grossis (D’après P.-P. Grassé).
- Fig. 2 (ci-contre). — Nid cathédrale de Bellicositermes natalensis (Termite du Natal) à Makoua (ancien Moyen-Congo).
- La termitière a été ouverte pour montrer l’épaisseur de la muraille, l’habitacle et ses piliers.
- (Photo Pierre-P. Grasse).
- 22
- p.22 - vue 26/560
-
-
-
- p.23 - vue 27/560
-
-
-
- œufs, énormes, incapables de se mouvoir et elles demeurent cloîtrées dans une chambre spéciale de la termitière. C’est cet édifice remarquable qui va nous intéresser ici plus que la composition de la société.
- La termitière, œuvre collective d’un million d’ouvriers aveugles
- Les Termites sont d’extraordinaires bâtisseurs ; certaines espèces élèvent de véritables monuments comme les termitières en forme de cathédrale des Bellicositermes africains (fig. 2) qui atteignent 6 m de hauteur et un diamètre de 15 à 20 m à la base. Ces énormes constructions peuvent arriver à représenter une masse de plus de 1 000 m5 de terre au-dessus du sol. D’autres termitières de dimensions moins considérables présentent des formes remarquables comme les termitières en forme de champignons des Cubitermes (fig. 4). Dans tous les pays tropicaux les Termites sont extraordinairement abondants et les termitières sont tellement nombreuses qu’elles constituent un des éléments les plus typiques du paysage.
- L’intérieur de la termitière (fig. 3) est merveilleusement aménagé, comprenant des chambres pour les œufs et le couvain, pour le stockage des provisions, pour les meules à champignons chez les Termites champignonnistes (voir La Nature, septembre 1959), dont l’ensemble forme ce que Grassé appelle l’habitacle ; dans la profondeur de cet habitacle se trouve la loge royale dans laquelle le roi et la reine sont tenus cloîtrés ; cette loge est de dimensions
- Fig. 4. — Termitières-champignons de Cubitermes, dans une savane sèche de l’Est de l’Oubangui (région de Gounouman)
- (Photo Pierre-P. Grasse).
- Fig. 4. — Coupe schématique dans une termitière de Bellicositermes natalensis.
- B, amas de sciure de bois ; Ca, cave ; Cr, cellule royale ; G, galerie ; M, muraille ; N, partie nouvellement construite ; P, piliers. (D’après P.-P. Grasse).] ^
- variables suivant la taille de la reine, ses parois sont toujours épaisses et elle ne communique avec le reste de l’habitacle que par d’étroites ouvertures, juste suffisantes pour laisser passer les ouvriers qui soignent le couple royal et emportent les œufs qui sont pondus sans arrêt par la reine. Un réseau infiniment compliqué de couloirs et galeries fait communiquer ces différentes parties et s’étend fort loin, permettant aux Termites de s’éloigner de la termitière sans s’exposer à la lumière qu’ils fuient.
- Avant les belles descriptions données par le professeur Grassé, bien des auteurs s’étaient émerveillés devant les constructions des Termites, mais la technique employée par eux n’avait guère été étudiée jusqu’aux travaux dont je vais maintenant parler. Toute l’œuvre de construction
- est due à la caste des ouvriers qui, bien qu’aveugles, réussissent à édifier les différentes parties de la termitière avec une précision et, semble-t-il, un plan d’ensemble vraiment stupéfiants. On pense tout naturellement à des possibilités de communications entre les travailleurs, ce qui leur permettrait de combiner leurs efforts pour parachever l’œuvre entreprise. Lorsqu’on envisage cet ensemble si bien organisé, on est aussi porté à évoquer une direction unique qui orienterait l’effort de cette énorme armée de travailleurs dont le nombre peut atteindre plus d’un million dans une grande termitière. Toutes ces questions ont été posées depuis longtemps mais aucune réponse satisfaisante n’y a été apportée et on peut être surpris de constater une apparente indifférence pour la solution d’un
- 25
- p.dbl.24 - vue 28/560
-
-
-
- problème qui se présente comme un des plus passionnants de la biologie des insectes.
- C’est que les Termites sont des insectes extrêmement difficiles à observer. Ils sont exagérément lucifuges et, en outre, particulièrement sensibles aux ébranlements mécaniques. Dès qu’une ouverture se trouve pratiquée dans une termitière, leur premier soin est de la colmater et le travail de réparation ne reprend à l’intérieur qu’à l’abri de la lumière. Comment dans ces conditions arriver à savoir ce qui se passe au cœur de la termitière et à découvrir les secrets du mode de travail des Termites ? C’est à ce problème, difficile entre tous, que s’est attaqué le professeur Grassé. Depuis plus de vingt ans il observe et étudie avec une méthode et une précision admirables les Termites, sur lesquels il a publié une série de travaux du plus haut intérêt. Mais, c’est surtout l’un des derniers parus qui résume le résultat de ses recherches et nous montre que « les constructions des Termites répondent à des conditions bien définies et indépendantes du mythe de la direction unique ».
- Les méthodes de construction étudiées au laboratoire
- Devant la quasi-impossibilité d’observer ce qui se passe dans une termitière volontairement endommagée, Grassé a dû recourir à une autre méthode pour diriger ses recherches sur la technique de la construction. Après bien des essais, il a réussi à amener les Termites à travailler sous ses yeux dans de grandes boîtes de Pétri de 20 à 25 cm de diamètre environ. Ses observations ont été faites en partie
- 1. La reconstruction du nid et les coordinations interindividuelles chez Bellicositermes natalensis et Cubitermes sp. La théorie de la Stigmergie : essai d’interprétation du comportement des Termites constructeurs, par P.-P. Grassé, Insectes sociaux, t. 6, n° i, 1959, p. 41-84.
- A____
- Fig. j. — Ouvriers de Cephalotermes élevant un pilier avec des boulettes de terre.
- Sur la droite, une lame qui s’unira à une lame semblable provenant d’un autre pilier. A, ouvrier expulsant une goutte de mortier stercoral.
- (.D’après P.-P. Grassé).
- au Laboratoire d’Évolution des êtres organisés, mais bien plutôt durant ses séjours en Afrique tropicale, en Côte-d’Ivoire et dans l’Oubangui. Elles ont porté surtout sur trois espèces ; l’une a une reine relativement petite, ayant conservé assez de mobilité pour circuler dans le nid, passant librement d’un point à un autre ; c’est un Cubitermes dont l’espèce n’a pas été déterminée exactement, qui construit, comme toutes les espèces du genre, des termitières en forme de champignon, très caractéristiques de la zone des savanes arbustives (fig. 4). Les deux autres ont, au contraire, des reines énormes, obèses, incapables de se déplacer ; ce sont également des espèces africaines, Cephalotermes rectangularis et Bellicositermes natalensis.
- Travail des Cubitermes et Cephalotermes— L’étude des Cubitermes est suivie avec une petite population de 350 ouvriers, 3 soldats, quelques larves à divers stades de développement et une reine très agile, qui sont introduits dans une boîte cylindrique de Pétri, dont le fond est recouvert d’une couche d’humus (fig. 6).
- Après une courte période d’affolement des insectes qui sont dépaysés, le travail ne tarde pas à commencer avec des boulettes de terre imbibée de salive ; au bout d’une dizaine de minutes, quelques ouvriers collent des boulettes de terre contre la paroi verticale de la boîte, en ligne à peu près horizontale. Ils posent ces boulettes aussi haut qu’ils le peuvent, chacun d’eux apportant sa charge sans se soucier apparemment des autres travailleurs, avec lesquels aucune coordination ne se manifeste ; ce n’est qu’exceptionnellement que des boulettes sont posées côte à côte. D’autres ouvriers commencent à déposer, à des distances variables de la paroi de verre, des boulettes sur les mottes de terre dressées ; ils cherchent à les placer le plus haut possible, ce qui amène très vite la construction d’un pilier dressé (analogue à celui représenté dans la figure 5). Lorsque ces piliers ont atteint une hauteur de 3 à 4 mm, ils sont continués par une lame de forme à peu près conique, du bord de laquelle partent des lames à direction horizontale. Ces lames, partant de piliers voisins, vont l’une vers l’autre, arrivant à s’unir très exactement pour former une voûte. De la sorte se constitue une zone couverte de forme irrégulière. On constate qu’au fur et à mesure de l’avancement de la construction, le nombre des travailleurs augmente et l’activité individuelle s’accroît. Tout se passe comme si les amas de boulettes imbibées de salive constituaient le stimulus qui déclenche et, en même temps, oriente dans un sens déterminé les réactions des ouvriers. La présence de la reine qui, rappelons-le, est très mobile ne constitue pas un stimulus bien déterminé, sauf si elle s’immobilise pendant un certain temps ; alors les ouvriers construisent fébrilement de part et d’autre de son corps.
- L’activité de la construction devient de plus en plus intense et la cohésion entre ses diverses parties augmente ; de larges galeries couvertes relient les constructions séparées à l’origine, puis des alvéoles sont édifiés partout.
- Fig. 6 (ci-contre). — Reconstruction du nid par des Cubitermes.
- La population était composée d’une reine, 3 soldats, 350 ouvriers, quelque-nymphes et plusieurs dizaines de larves. Ai, aire recouverte de boulettes de terre sur laquelle s’élèvera une lame ; Ch, chantier ; d, ouvrier déposant une bous lette ; Ir, léchage de la reine ; /, léchage entre ouvriers ; P, piliers en construction ; tri, larve nourrie à la becquée.
- {D’après P.-P. Grassé, Insectes sociaux, t. 6, n° 1, 1959).
- 26
- p.26 - vue 29/560
-
-
-
- p.27 - vue 30/560
-
-
-
- Le nid forme finalement une unité parfaite et un seul nid abrite tous les individus. A ce stade, Grassé constate un effet de groupe très marqué. Au-dessous de 50 individus, les Termites travaillent plus ou moins, mais leur œuvre commencée s’arrête en cours d’exécution. Il ne semble pas que l’échec de ces petits groupes résulte d’une capacité de travail trop faible ; il tient à une stimulation sociale insuffisante. Un Termite isolé peut forer une galerie, déposer quelques boulettes de terre, mais il ne construit pas.
- La reconstruction du nid de Cephalotermes rectangularis a été étudiée par Grassé, dans les mêmes conditions, à Danané en Côte-d’Ivoire. La femelle de cette espèce est bien plus volumineuse que celle des Cubitermes. Aussi joue-t-elle un rôle plus important dans la marche de la construction, dont le but premier est de mettre la reine à l’abri. Comme chez les Cubitermes, on observe la construction de piliers et, lorsque ceux-ci ont atteint une certaine hauteur, celle de branches transversales qui finissent par unir deux piliers voisins (fig. 5 et 7). En même temps que cette construction, au-dessus de la reine s’édifient des cellules qui se raccorderont à la loge royale. Il faut noter que les Cephalotermes, outre les boulettes de terre imbibées de salive, font un usage très important de la bouillie contenue dans leur ampoule rectale ; cette bouillie desséchée forme une sorte de carton qui constitue le matériau principal de la construction.
- Fig. 7. — Le nid du Cephalotermes en cours de reconstruction, vu de côté.
- R, reine ; H, chambre construite avant que le toit de la loge royale soit achevé ; C, cellules non terminées, bâties indépendamment de la loge royale.
- (D’après P.-P. Grassé).
- Travail des Bellicositermes. — Les Bellicositermes ont été étudiés, également en Côte-d’Ivoire, sur l’espèce jB. natalensis (fig. 8 à 11). Dans une grande boîte de Pétri, Grassé a installé un groupe comprenant une reine de belle taille (9 cm de long), accompagnée de plusieurs centaines de petits et grands ouvriers et plusieurs dizaines de soldats, au total plus de 1 200 insectes. Us ont à leur disposition plusieurs tas d’argile presque molle, des fragments de meules à champignons (2) et un tampon d’ouate hydrophile imbibée d’eau. Le travail commence après une vingtaine de minutes d’agitation et il est tout de suite axé vers la reine. En un peu plus d’une demi-heure, 17 piliers sont disposés autour de cette dernière ; de ces piliers partent bientôt des lames obliques, toutes tournées vers la reine, qui exerce une attraction très nette. D’ailleurs, pendant toute la durée du travail, les ouvriers ne cessent de lui prodiguer leurs soins, léchant son extrémité abdominale et enlevant
- 2. Sur le rôle des champignons des termitières, voir : La meule alimentaire des Termites champignonnistes, par Pierre-P. Grassé, "La Nature, septembre 1959, p. 385-389-
- les œufs au fur et à mesure de leur émission. On a l’impression que les ouvriers sont en proie à un conflit de stimulations, l’une les poussant à maçonner, l’autre à lécher la reine. Une autre construction est édifiée en même temps juste au-dessus du tas d’argile et les ouvriers y amorcent l’édification d’alvéoles ; un couloir relie cette nouvelle construction à la cellule royale. Celle-ci est alors complètement close et les ouvriers bâtissent sur le toit des piliers délimitant de futurs alvéoles qui composeront un nouvel étage du bâtiment. Toutes les parties du nid sont alors parfaitement réunies et elles forment un tout. Le rétablissement d’un nid et d’une société unitaire n’a pas demandé plus de 8 heures.
- La stigmergie, principe coordinateur des activités des Termites
- Quels résultats Grassé a-t-il tirés de ses longues et patientes observations ? Il a tout d’abord reconnu que, contrairement aux idées qu’il a émises en 1939, la précision du comportement des Termites reconstructeurs ne résulte pas d’une faculté particulière qui leur permettrait d’agir, de régler et d’harmoniser leurs tâches, mais qu’elle « peut s’expliquer en fonction d’un automatisme réactionnel foncier ». Le travail peut être divisé en plusieurs phases.
- La phase d’incoordination. — Qu’il s’agisse de la termitière éventrée par un accident ou des Termites mis en observation dans une boîte de Pétri, la variation brutale de l’ambiance, consistant en un changement du degré hygrométrique, l’exposition à la lumière, le passage de leurs galeries étroites à un espace plus large qui ne satisfait plus leur besoin de contact (thigmotactisme), leur inflige un choc, véritable traumatisme du comportement, dont le résultat est une réaction désordonnée. A la suite de ce trouble, on observe une action stimulante très marquée, à laquelle les ouvriers répondent d’ailleurs de façon assez variable ; certains sujets semblent plus sensibles aux stimulus externes auxquels l’activité constructive apparaît comme une réaction. Cette activité encore incoordonnée se manifeste au début de la construction par la dispersion au hasard des boulettes de terre et par la conduite indépendante et incohérente des ouvriers qui semblent complètement indifférents à l’égard des actes de leurs semblables.
- Cette période donne constamment l’impression d’une réponse automatique à une stimulation complexe, indépendante de l’influence des autres occupants du nid. Grassé note que la présence de la reine, bien qu’exerçant une action considérable, n’est pas le stimulus unique qui incite les ouvriers à bâtir. Cependant, dès cette période, le dépôt des boulettes de terre n’est pas absolument lié au hasard ; les Termites cherchent toujours les points élevés pour les déposer et ils semblent influencés par une géotaxie négative (tendance à s’orienter dans le sens contraire à la pesanteur). Chez les Termites à reine obèse, incapable de se déplacer, celle-ci exerce une puissante attraction, qui stimule l’activité
- Fig. 8 (ci-contre). — État de la construction du nid de Bellicositermes natalensis 1 h 52 mn après la fondation.
- En haut et à gauche, un bloc d’argile ; en haut et à droite, une masse d’ouate imbibée d’eau. Des piliers situés sur la gauche et surtout en avant de la reine partent de larges lames qui recouvrent déjà sa tête et son thorax.
- {Photo P.-P. Grassé, Insectes sociaux, Masson, Paris, 1959).
- 28
- p.28 - vue 31/560
-
-
-
- p.29 - vue 32/560
-
-
-
- des ouvriers et oriente leur construction. Enfin, à ces stimulants doivent s’ajouter l’attraction exercée par les boulettes fraîchement déposées et la tendance, d’ailleurs assez lâche et liée à une certaine mémoire des lieux, qua manifestent les ouvriers à revenir sur les points où ils ont déjà travaillé.
- La phase de coordination. — Le comportement des individus demeure incoordonné aussi longtemps que le nombre des boulettes de terre reste faible. L’ouvrier, répondant à la situation stimulante où il est placé, creuse dans le sol ou confectionne des boulettes et les dépose çà et là, surtout en des points élevés. Si l’activité s’en tenait à ce stade, elle n’aboutirait pas à l’édification d’un nid. Tout change lorsque les boulettes sont assez nombreuses en un point donné pour devenir par elles-mêmes un stimulus significatif. A la stimulation vague du début se substitue une excitation bien plus précise ; un tas de boulettes agit sur les ouvriers constructeurs à la manière d’un centre attractif ; il constitue un stimulus vraiment social.
- Les stimulations simultanées et la stigmergie. —
- Selon la façon dont les boulettes sont disposées, la réponse au stimulus déclenché diffère et acquiert le pouvoir d’orienter la construction. Des boulettes placées les unes sur les
- Fig. ff. — Construction d’un nouveau nid de Bellicositermes natalensis.
- R, reine ; M, roi. Les amas de grains noirs correspondent aux piliers et aux travées qui en partent. Les parties ponctuées représentent le toit (T) de chambres déjà à peu près achevées. Les traits interrompus indiquent l’emplacement des cloisons qui furent élevées, plus tard, entre les piliers.
- (D'après P.-P. Grassé, Journal de Psychologie, juillet-décembre 1939).
- Fig. 10. — Ouvriers de Bellicositermes rex fermant une brèche qui a été ouverte dans leur nid.
- Plusieurs ouvriers portent une boulette de terre entre leurs mandibules.
- (Photo P.-P. Grasse).
- autres sont un point de départ de piliers et ceux-ci deviennent à leur tour le stimulus directeur de l’activité des ouvriers. La stimulation change lorsque les piliers ont atteint une certaine hauteur (4 à 6 mm suivant les espèces) ; les boulettes sont alors disposées non au sommet, mais sur le côté et ces boulettes latérales deviennent le point de départ d’arceaux obliques.
- Le point intéressant est que ce changement dans l’activité des Termites touche des ouvriers nouvellement arrivés sur le chantier ; ils n’ont pas pris part à l’érection du pilier et, cependant, celui-ci ayant atteint la hauteur critique, ils déposent leur boulette de façon à amorcer un arc. Du fait même de la qualité stimulante du pilier, la réponse est automatiquement adéquate. Les piliers isolés sont abandonnés et le travail ne continue que sur les piliers disposés en série, distants les uns des autres de 5 à 10 mm. Alors, l’ouvrier juché au sommet d’un tel pilier est sollicité par deux stimulus ; l’un émane du pilier sur lequel il se trouve et l’incite à construire un arceau, l’autre provient du pilier voisin et oriente le dépôt des boulettes.
- Une autre combinaison de stimulus différents est conditionnée par la présence de la reine ; les ouvriers qui travaillent à la construction de la muraille destinée à la protéger sont stimulés par les piliers, mais aussi par l’attraction exercée par la reine ; par suite, les arceaux sont toujours construits en direction de celle-ci. La conséquence de ce type de stimulation est que la marche du travail se trouve automatiquement réglée. C’est à cette stimulation d’un type particulier que Grassé a donné le nom de stigmergie (de stigma, piqûre ; ergon, travail = œuvre stimulante). Il estime que l’ouvrier répond individuellement et automatiquement aux stimulus qui s’exercent sur lui ; les ouvriers ne construisent pas en constituant une équipe.
- A l’appui de cette proposition, Grassé cite le cas où deux ouvriers construisent des piliers voisins, dans des condi-
- 30
- p.30 - vue 33/560
-
-
-
- tions différentes, l’un partant d’une surface plane horizontale, l’autre d’un petit monticule d’humus. Normalement, tous deux devraient arrêter à peu près à la même hauteur la construction de leur pilier. Il n’en est rien ; alors que le pilier bâti sur un monticule s’arrête, l’autre continue jusqu’à atteindre presque la hauteur du premier. On pourrait penser à un effet de régulation du travail, mais les observations montrent qu’il s’agit d’une réponse automatique à l’influence stimulante du pilier voisin. Les ouvriers de Cubitermes et Bellicositermes étant non seulement dépourvus d’yeux mais même de ganglions optiques, les stimulus olfactifs semblent jouer le rôle prépondérant pendant la construction. La salive joue certainement un rôle important dans la vie des Termites, dans les échanges de nourriture (trophallaxie), le léchage, etc. Grassé a mis en évidence le fait que ce sont les boulettes de terre malaxées avec de la salive qui constituent l’élément essentiel de la stimulation chez les Termites bâtisseurs.
- La haute complexité de l’organisation d’une grande termitière comme celle des Bellicositermes fait naître naturellement l’idée que les Termites travaillent suivant un plan. Pour Grassé, cette idée est très probablement une illusion et le problème du plan lui apparaît comme un faux problème. C’est l’observateur qui imagine un plan, alors qu’il y a simplement des réponses à des stimulations distinctes et successives. La stigmergie permet aussi de ne pas faire appel à une sorte de langage dans les relations entre individus. Sans méconnaître la possibilité de coopération entre les ouvriers, il faut convenir qu’on n’a jamais observé chez les Termites de manifestations comparables aux danses des abeilles qui constituent un extraordinaire code d’information automatique. On peut seulement faire allusion aux trémulations et aux bruits produits par les ouvriers et les soldats ; mais ces manifestations ne se produisent pas lorsque les ouvriers raccordent les deux parties d’un arceau, précisément au moment où ils en auraient, semble-t-il, le plus grand besoin.
- Les beaux travaux du professeur Grassé nous apportent donc de très intéressantes précisions sur les méthodes de travail des Termites et ils lèvent un coin du voile qui couvre les mystères de la termitière. Cela ne signifie pas que tout soit dit sur cette passionnante question. Nous ne savons pas pourquoi les Termites, disposant de techniques peu variées, réalisent des constructions aussi différentes que le champignon des Cubitermes, le splendide château des Bellicositermes natalensis ou la cheminée monumentale du Bellicositermes jeanneli. Ces différences dans le comportement restent jusqu’à présent énigmatiques et sont à ranger parmi les questions qui touchent directement au grand problème de l’évolution.
- Lucien Chopard,
- Professeur honoraire au Muséum.
- Fig. il. — Le nid de la figure 8, 5 h 10 mn après la fondation. Les lames et les arceaux ont beaucoup progressé et la reine est déjà en grande partie recouverte. De nouveaux piliers sont érigés derrière elle.
- {Photo P.-P. Grassé, Insectes sociaux, Masson, Paris, 1959).
- p.31 - vue 34/560
-
-
-
- Le premier homme dans l’espace sera-t-il russe ou américain ?
- par Nicolas Vichney
- Une fusée Redstone porteuse d’une capsule spatiale analogue à celle qui doit abriter le premier Américain à être lancé dans l’espace, est victime d’une défaillance quelques instants avant de quitter le sol...
- Un vaisseau satellite, semblable en tous points (à en croire les déclarations des spécialistes soviétiques) à celui où doit prendre place un passager, se comporte d’une manière sensiblement différente de celle qui avait été prévue et la cabine qui y est logée se volatilise au contact des couches denses de l’atmosphère...
- Telles sont, dans l’un et l’autre camp, les dernières péripéties de la course au lancement d’un homme dans l’espace : deux échecs, d’une portée d’ailleurs bien différente mais qui, tous deux, montrent que tous les problèmes posés par une semblable tentative ne sont pas encore résolus. De surcroît, des bruits courent avec persistance selon lesquels les Soviétiques auraient essuyé au mois d’octobre un grave échec. Ces rumeurs se fondent sur deux constatations et une hypothèse :
- — Des navires soviétiques analogues à ceux qui ont été utilisés lors des lancements expérimentaux des « superfusées » dans le Pacifique ont croisé, apparemment sans but, en haute mer puis ont rallié leur base ;
- — Deux importantes personnalités militaires soviétiques, le maréchal Nedeline et le général Pavloski, ont trouvé la mort dans des conditions qui ne paraissent pas suffisamment élucidées par les déclarations officielles ;
- — M. Khrouchtchev aurait été désireux de souligner par un exploit spectaculaire son séjour à l’Assemblée générale des Nations Unies.
- L’idée a donc été émise qu’un engin à bord duquel un homme avait pris place aurait explosé au sol, tuant les officiels qui devaient assister au lancement. Mais bien d’autres interprétations peuvent être données des faits qui ont été notés et aucune information vraiment digne de foi n’est venue confirmer ces hypothèses. Force est donc de les ranger, pour le moment, au rang des éventualités.
- *
- * *
- L’échec américain a été assez spectaculaire : il s’est déroulé sur la base de Cap Canaveral, en présence des sept pilotes d’essai spécialement entraînés par l’Agence pour l’Aéronautique et l’Espace (N. A. S. A.) pour prendre place à bord d’un engin spatial.
- La fusée Redstone qui devait être mise à feu avait été équipée comme le sera celle à bord de laquelle un homme prendra place. Son ogive avait donc été remplacée par une capsule spatiale d’un poids d’une tonne et demie environ et cette dernière était surmontée d’une « fusée d’échappement ». Cette fusée solidaire de la capsule est destinée à remédier, le cas échéant, aux effets d’une défaillance de l’engin porteur;' Si la propulsion assurée par ce dernier
- vient subitement à s’arrêter lors de l’envol, aussitôt la capsule doit se séparer de l’engin porteur et la fusée d’échappement, automatiquement mise à feu, doit projeter alors la capsule à une hauteur telle que le parachute dont elle est munie ait le temps de s’ouvrir et de freiner sa chute avant qu’elle ne soit retombée au sol.
- Il s’agit donc d’un dispositif de secours dont le montage sur la capsule est bien significatif de la méfiance dont les techniciens témoignent encore envers le fonctionnement des moteurs-fusées. L’allumage de cette fusée d’appoint est automatiquement commandé par un arrêt du mécanisme de propulsion de l’engin porteur.
- Ce dispositif avait été plusieurs fois expérimenté à l’aide d’une fusée spécialement conçue pour la mise au point des capsules spatiales, le «Little Joe», et tous les essais n’avaient pas donné des résultats entièrement satisfaisants. Lors de la dernière tentative de Cap Canaveral, le moteur-fusée de la Redstone n’avait pas plutôt été mis à feu qu’il s’est arrêté, avant même que l’engin n’ait quitté la rampe de lancement. La fusée d’échappement s’est alors allumée, comme prévu, mais le dispositif de séparation de la capsule n’a pas fonctionné et la petite fusée, entraînant son support, s’est arrachée de la Redstone, effectuant un bond en l’air avant de s’écraser au sol.
- Pendant un temps, les techniciens américains ont paru considérer que cet incident serait de nature à retarder de façon appréciable le moment où pour la première fois un homme sera appelé à prendre place dans une capsule. C’est cette opinion, rendue publique dans les heures qui ont suivi l’incident, qui a été partout diffusée ; or, en examinant les circonstances de cet échec, on s’aperçut assez rapidement qu’il était seulement à imputer à une défaillance du dispositif électronique et qu’il serait en conséquence assez aisé d’y remédier. Mais, quelles que soient les conclusions auxquelles on ait en définitive abouti, on peut imaginer que, pour les sept pilotes sélectionnés par la N. A. S. A., l’essai n’a pas été des plus encourageants.
- *
- * *
- La dernière expérience spatiale soviétique, effectuée le ier décembre, était en tous points semblables à celle qui a permis aux techniciens russes de mettre à leur actif, le 20 août dernier, la récupération d’une partie importante d’un vaisseau-satellite de quelque 4 500 kg. Seule différence entre les deux essais : le dernier vaisseau-satellite (le troisième à être lancé) gravitait autour de. la Terre sur une orbite dont l’apogée et le périgée se situaient à des altitudes sensiblement plus basses que lors des essais précédents. A noter également que, cette fois, il n’avait pas été précisé que la cabine placée dans l’engin ferait retour sur terre. Cependant, tout le monde était convaincu qu’une récupération était dans les intentions des Soviétiques et,
- 32
- p.32 - vue 35/560
-
-
-
- lorsque l’engin cessa d’émettre des signaux, tous les spécialistes qui étaient à l’écoute de ses émissions furent persuadés que, comme la fois précédente, le vaisseau-satellite avait fait retour au sol dans de bonnes conditions, avec les animaux qui l’occupaient.
- Tel n’était pas le cas et, quelques heures plus tard, un communiqué diffusé par l’Agence Tass apprenait que l’ordre avait bien été envoyé à l’engin de redescendre en direction du sol, mais qu’il s’était engagé alors dans une trajectoire qui n’était pas conforme aux prévisions ; aussi s’était-il volatilisé en reprenant contact avec les couches denses de l’atmosphère. C’était la première fois que les Soviétiques admettaient un échec, et les explications officielles laissaient la place à diverses interprétations. Faut-il croire que le « freinage » destiné à « décrocher » le satellite de son orbite elliptique a été trop brutal et que l’engin, au lieu de perdre progressivement de l’altitude, a piqué du nez, ce qui l’aurait amené à pénétrer dans les couches denses avec une vitesse supérieure à celle pour laquelle il avait été conçu ? Doit-on penser que lors des opérations de ralentissement, le satellite s’est trouvé déséquilibré et qu’au lieu d’aborder les couches denses dans la position la plus apte à lui permettre d’« encaisser » sans dommage un nombre élevé de calories, il s’est présenté de telle manière que sa protection s’est montrée insuffisante ? Peut-on supposer que les Soviétiques expérimentaient un nouveau type de vaisseau-satellite qui s’est montré inférieur, du moins à cet égard, au modèle précédent ? C’est vraisemblablement l’une des deux premières hypothèses qui doit être retenue, peut-être une combinaison des deux...
- Que, tout comme les Américains, les Russes aient connu des déboires dans leurs essais spatiaux, la preuve n’en était guère nécessaire ; il n’était guère croyable que cela leur fût épargné et, cette fois, ils ne pouvaient pas dissimuler. Mais la preuve est faite surtout que leur engin n’est pas définitivement au point. Sur trois lancements officiellement effectués, le x 5 mai, le 19 août et le 1er décembre, deux se sont soldés par des échecs (la première fois, on se souvient que l’engin avait éclaté et s’était divisé en neuf fragments qui ont continué à graviter autour de la Terre). Ce pourcentage d’échecs semble bien élevé pour que les Soviétiques se résolvent à mettre un homme à bord du quatrième vaisseau-satellite et on peut croire que d’autres engins seront encore lancés avec des animaux comme seuls passagers.
- *
- * *
- Peut-on rapprocher ces derniers essais des Américains et des Russes ? Ils traduisent, à leur manière, l’état d’avancement des travaux entrepris de part et d’autre. Les Américains se proposent de placer un homme dans une fusée qui effectuera un simple bond dans l’espace. Tout se passe comme si les Soviétiques, au contraire, voulaient que d’emblée leur « premier homme de l’espace » gravite autour de la Terre. A en croire certaines déclarations des hommes de science russes, on considérerait en effet en U. R. S. S. que le lancement d’un homme qui ne serait pas « satellitisé » n’aurait aucun intérêt scientifique.
- Reste à savoir, au vu de ces expériences si, à vouloir sauter une étape que les Américains considèrent comme essentielle, les Soviétiques n’ont pas compromis leur chance d’être les premiers à compter parmi eux un vrai astronaute. C’est au mois de janvier qu’en principe l’un des sept pilotes
- Fig. 1. — Envol d’une fusée du projet Mercury, préparatoire à l’envoi d’un homme dans l’espace.
- Au-dessus de la grande fusée porteuse, la capsule (en noir) est surmontée elle-même de la « fusée d’échappement » Little Joe qui doit l’entraîner en altitude pour l’empêcher de s’écraser au sol en cas d’arrêt de la fusée porteuse. On voit ici le départ d’un essai effectué à l’île de Wallops le 8 novembre i960 ; la capsule ne s’est pas séparée du Little Joe et l’ensemble est tombé dans l’Atlantique d’une hauteur de 17 000 m (Photo N. A. S. A., Associated Press).
- choisis par la N. A. S. A. doit prendre place dans une fusée Redstone. D’ici là, les Soviétiques seront-ils arrivés à remédier aux défauts dont est visiblement affligé leur vaisseau-satellite ? Feront-ils machine arrière et, pour ne pas laisser aux Américains le bénéfice, tout moral, d’une « première » à grand spectacle, se contenteront-ils d’un essai à moins grande échelle ? Autant de questions qui viennent à l’esprit mais dont il serait délicat de préjuger la réponse. Toujours est-il que l’issue de la course à l’homme dans l’espace, qui paraissait hier devoir être gagnée par les Soviétiques, semble aujourd’hui encore indécise.
- 33
- p.33 - vue 36/560
-
-
-
- Un nouveau langage découvert chez les insectes le bruit mandibulaire de certains Criquets
- Il y a plus de cent ans que certains entomologistes, étudiant les mœurs des insectes Orthoptères (Grillons, Sauterelles, Criquets), ont été frappés par les variations que présente le chant ou, plus exactement, la stridulation de ces insectes. Ils avaient déjà remarqué la signification sexuelle de certains chants, qui ne sont émis par le mâle qu’en présence d’une femelle, et qui sont très faciles à différencier du chant habituel de l’espèce. Mais, depuis une vingtaine d’années, cette étude a pris un essor tout nouveau grâce à l’application de méthodes d’analyse modernes, en particulier de l’enregistrement sur bande magnétique et du cinématographe (voir La Nature, novembre 1955). Alb. Faber en Allemagne, R. G. Busnel en France, R. D. Alexander aux États-Unis ont publié sur ce sujet un grand nombre de travaux qui montrent l’étroite association qui existe entre la stridulation et le comportement des Orthoptères. Le premier de ces auteurs a étudié surtout les Acridiens (Criquets) chez lesquels il a reconnu au moins six chants différents suivant les conditions momentanées dans lesquelles se trouve l’insecte. Il a présenté au Congrès international d’Entomologie, qui s’est tenu à Vienne en septembre i960, un remarquable film qui permet de voir et d’entendre, car ce film est sonorisé, toutes les étapes de la rivalité des mâles, des préliminaires de l’accouplement, des réponses de la femelle à l’appel du mâle chez plusieurs espèces d’Acridiens.
- La stridulation des Acridiens est produite par le frottement des fémurs postérieurs sur les élytres mais on a observé depuis peu que certaines espèces, ne produisant pas de sons perceptibles par ce procédé, semblent quelquefois employer d’autres moyens de communication, en particulier par des mouvements des mandibules. Beaucoup d’insectes à pièces buccales de type broyeur font un bruit audible en mangeant, mais c’est seulement chez les Acridiens qu’on connaît des cas où ce bruit agit comme un signal de communication entre individus de la même espèce. Cette possibilité a été signalée dans plusieurs genres ; le plus souvent, il s’agit d’une simple réaction à un stimulus produit par la rencontre d’un individu de la même espèce ou par la présence d’un autre animal. Cependant Faber a fait connaître, en 1949, des observations d’après lesquelles le Criquet italien (Calliptamus italicus) produit des bruits mandibulaires qui sont des signaux comparables aux stridulations qui résultent de la friction des fémurs sur les élytres. Ces sons sont produits par les individus adultes des deux sexes quand ils sont dérangés et par les mâles qui se rencontrent à la recherche d’une femelle.
- Le professeur R. D. Alexander, de l’Université de Michigan, vient de publier des observations analogues, plus complètes, sur une espèce abondante sur les collines qui dominent le Mississipi, le Paratylotropidia brunneri (Science, 15 juillet i960). Dans une prairie, au milieu du chant de plusieurs Orthoptères, d’ailleurs assez peu nombreux, il avait observé un bruit de tic-tac assez doux, qui se faisait entendre continuellement çà et là et il reconnut que ce bruit était produit par le Paratylotropidia. Observé de près, un mâle de cet Acridien laissait voir que le bruit était produit par un mouvement des mandibules. Des individus se trouvant séparés par une distance de quelques pieds semblaient se répondre en répétant des séries de tacs rapides, chacune commençant une seconde environ après que le mâle le plus rapproché avait terminé sa propre série. L’auteur a réussi à obtenir, après plusieurs essais infructueux, une réponse d’un mâle en frappant deux objets en métal (un étui de thermomètre contre une boucle en cuivre). Il obtint ensuite de nombreuses réponses à cette excitation artificielle avec le même intervalle d’une seconde environ qu’il avait observé dans les réponses entre deux mâles. Le bruit mandibulaire de cet Acridien est un son simple, sorte de craquement de basse intensité, rappelant en plus faible le chant de certaines sauterelles Phanéroptères du genre Microcentrum ; malgré sa faiblesse, on peut l’entendre à plusieurs mètres de distance. L’analyse audio-spectrographique montre un spectre de fréquence presque continu de 15 kc/s ; les séries comptent 6 à 7 bruits en moyenne. L’auteur suggère que le bruit produit par les mâles isolés, provoqué par des stimulus auditifs, est analogue au chant d’appel des Acridiens Tettigonides (Sauterelles) et aussi de certains Homoptères Auchénorhynques (Cigales).
- Ces observations apportent une addition intéressante à la connaissance de l’acoustique chez les insectes. Il est vraisemblable que le bruit qui constitue maintenant un moyen de communication entre les Acridiens a évolué à partir d’un stade dans lequel ce bruit était produit par une Sauterelle en s’alimentant ; la vue des mandibules agitées peut avoir joué ensuite un certain rôle comme stimulant. Au point de vue de la morphologie, on ne trouve aucune spécialisation de la mandibule. D’autre part, étant donné le rôle important de la mastication dans la nutrition, il est peu probable que les sons produits acquièrent par l’évolution un degré de variation comparable à celui qu’offre la stridulation.
- L. C.
- 34
- p.34 - vue 37/560
-
-
-
- De nouveaux générateurs d*énergie d9un rendement exceptionnel
- Les piles à combustible
- par Robert Rosset
- Il y a trois ans, l’armée américaine expérimentait à Fort Huachuca, en Arizona, la « sentinelle silencieuse », radar portatif permettant aux groupes mobiles de détecter les activités de l’ennemi, même pendant la nuit. Ce radar était alimenté par un générateur électrique d’un type nouveau baptisé par ses constructeurs fuel-cell, c’est-à-dire, littéralement, pile à combustible. Absolument silencieux, ce générateur ne dégageait ni fumée, ni sous-produits détectables, ni chaleur révélatrice et, par conséquent, il était très difficile à repérer. Par ailleurs, son poids était très notablement inférieur à celui des batteries classiques qui auraient été nécessaires pour alimenter le radar. Il avait été construit par la National Carbon Company, filiale de la célèbre Union Carbide Corporation.
- Plus récemment, la Société Allis-Chalmers conviait diverses personnalités à assister à un spectacle non moins étonnant : un ingénieur labourait un champ avec un tracteur qui fonctionnait dans un silence presque absolu et sans dégager la moindre fumée, bien qu’utilisant comme combustible du propane. Le moteur électrique de ce tracteur était alimenté, lui aussi, par une batterie de piles à combustible disposée sous le capot (fig. 9).
- Que sont donc ces mystérieuses piles à combustible et sur quels principes fonctionnent-elles ? C’est ce que nous allons essayer d’examiner.
- L’histoire de ces piles commence en 1809, date à laquelle Sir Humphry Davy, l’éminent électrochimiste anglais, en suggéra le premier la possibilité théorique. Trente années plus tard, en procédant à des essais d’électrolyse d’une eau acidulée en vue de la production d’oxygène et d’hydrogène, Sir William Groves (autre électrochimiste anglais) constata qu’en interrompant le courant, il se produisait une recombinaison de l’oxygène et de l’hydrogène recueillis aux électrodes avec production, pendant un temps très court, d’un courant de sens contraire à celui qui était utilisé pour l’électrolyse.
- C’est de cette observation initiale que découlent les nombreuses recherches entreprises depuis cette époque pour produire directement du courant dans une cellule électrolytique, par combustion d’un combustible comme l’hydrogène en présence d’un comburant comme l’oxygène. La pile à combustible fonctionne donc selon le principe inverse de l’électrolyse. Par exemple dans l’électrolyse de l’eau, il y a à l’anode dégagement d’oxygène gazeux tandis que des électrons (négatifs) sont emportés par l’anode et que des ions. H+ migrent vers la cathode. A la cathode, l’hydrogène est libéré tandis que des ions oxhydriles emportent des électrons fournis par la cathode et se dirigent vers l’anode (A l’intérieur de
- l’électrolyte les ions H+ et H- n’existent d’ailleurs pas à l’état libre car ils se recombinent pour donner de l’eau). Inversement, dans la pile à combustible, la combinaison de l’hydrogène et de l’oxygène produit directement du courant.
- On entrevoit déjà la différence fondamentale qui sépare les piles à combustible des piles et accumulateurs classiques. La pile électrique ordinaire produit du courant à partir de divers produits chimiques incorporés, jusqu’à épuisement de ceux-ci ; l’accumulateur doit être périodiquement rechargé. Au contraire, la pile à combustible, alimentée par des réservoirs extérieurs,- est capable, au moins théoriquement, de produire du courant tant que l’on maintient l’apport de combustible et de comburant.
- Les piles à combustible sont actuellement l’objet de recherches poussées dans de nombreux pays. Disons tout de suite qu’il s’agit d’un domaine difficile et ce n’est que récemment que les études entreprises ont abouti à des réalisations pratiques. Par exemple, c’est en 1932 que Francis Thomas Bacon de l’Université de Cambridge, considéré comme l’un des meilleurs spécialistes actuels de cette question, entreprit de construire une pile susceptible d’applications industrielles. Or ce n’est qu’en août 1959 que M. Bacon présenta, au cours d’une conférence de presse, une batterie de piles capable de débiter un courant suffisant pour alimenter une scie ou une machine à souder, présentation qui suscita, on s’en doute, un intérêt mondial.
- Énergie et piles à combustible
- Pour mieux nous rendre compte de l’aide que peut nous apporter la pile à combustible, voyons succinctement quelles sont actuellement nos sources d’énergie et la manière dont nous les utilisons.
- On peut les classer en deux grandes catégories selon qu’elles sont constamment renouvelées ou non. D’une part, nous disposons de l’énergie solaire actuelle sous toutes ses formes (rayonnement solaire direct, chutes d’eau, vent, vagues) et de l’énergie des marées empruntée à la rotation de la Terre. D’autre part, nous avons des sources d’énergie limitées par nature : énergie fossile qui provient de l’activité solaire du passé (charbon, pétrole, gaz naturel) et combustibles nucléaires.
- Pour ce qui est des sources d’énergie renouvelées, on ne peut pas encore dire aujourd’hui, malgré les progrès substantiels réalisés ces dernières années, qu’elles seront en mesure de répondre à nos besoins croissants. Quant à
- 35
- p.35 - vue 38/560
-
-
-
- l’énergie nucléaire, on sait les problèmes que pose sa domestication. Aussi peut-on dire que ce sont les combustibles fossiles classiques qui constitueront pendant de nombreuses années encore la majeure partie de nos sources d’énergie. Or, ces combustibles ne sont pas en quantités illimitées et, malgré les succès remportés dans leur prospection, il est indispensable dès maintenant de rechercher les moyens de les mieux utiliser et de ne pas les gaspiller dans des installations dont le rendement est toujours très faible : la pile à combustible peut être un de ces moyens. Pour la comprendre, rappelons comment nous obtenons actuellement de l’énergie électrique à partir des combustibles fossiles.
- Une centrale thermique (fig. i), en brûlant un combustible (charbon, gaz naturel, etc.), transforme d’abord de l’énergie chimique en chaleur ; cette chaleur fournit ensuite de la vapeur d’eau qui, par détente dans le cylindre d’une machine à vapeur ou dans une turbine, produit de l’énergie mécanique. Enfin, cette énergie mécanique est transformée, par l’intermédiaire d’une génératrice, en énergie électrique. On voit quelle cascade d’appareils complexes et coûteux est nécessaire pour transformer l’énergie chimique de la combustion en énergie électrique et tout cela pour obliger finalement des électrons à circuler dans divers appareils d’utilisation. On sait également que, d’après le principe de Carnot, la chaleur ne peut être transformée en énergie mécanique avec un rendement élevé et ceci parce que la chaleur, résultant du mouvement désordonné des molécules, est une forme dégradée de
- Charbon
- Combustible
- Comburant
- Cathode
- ions -
- A/'anode : combustible ions+électrons A la cathode : comburant +électrons-* ions
- Génératrice
- Fig. I. — Les différentes étapes de la production d’énergie électrique dans une centrale thermique (à gauche) comparées au schéma de principe d’une pile à combustible (à droite).
- l’énergie. Par suite, sa transformation en d’autres formes plus nobles d’énergie s’accompagne d’un certain déchet qui peut se chiffrer par l’expression du rendement maximal tj d’une machine thermique fonctionnant, de façon réversible (idéale), entre une source chaude à la température absolue Tx et une source froide à la température absolue T2 :
- Cette expression signifie que dans une centrale moderne fonctionnant entre une température Tx voisine de 9000 K (627° C) et une température T2 de l’ordre de 300° K (270 C), le rendement maximal que l’on ne saurait dépasser n’est que de 64 pour 100 et, en réalité, la centrale fonctionnant obligatoirement loin des conditions de la réversibilité, le rendement réel ne dépassera guère 35 à 40 pour 100. Pour élever ce rendement la seule solution est d’augmenter Tl5 donc d’utiliser des matériaux fonctionnant à des températures encore plus élevées. De tels progrès sont prévisibles, mais ils seront lents.
- Revenons maintenant aux piles à combustible : pourquoi sont-elles susceptibles d’améliorer le rendement de la transformation de l’énergie libérée lors d’une combustion en énergie électrique ? C’est que toute réaction de combustion n’est, en définitive, qu’un échange d’électrons entre le combustible et le comburant, le combustible étant oxydé et perdant un ou plusieurs électrons, le comburant étant réduit et gagnant des électrons. Or la pile à combustible réalise précisément le passage des électrons échangés dans le circuit d’utilisation avant que les électrons cédés par le combustible soient capturés par le comburant. Elle alimente donc le circuit extérieur par des électrons de valence au lieu de l’alimenter par les électrons de conduction créés dans les enroulements de cuivre d’une génératrice.
- Principes de fonctionnement
- Sous sa forme la plus schématique une pile à combustible se compose, comme une pile électrique ordinaire, de deux électrodes (une anode, siège, par définition, des phénomènes d’oxydation, où sont libérés des électrons et une cathode, siège des phénomènes de réduction, où sont consommés des électrons) et d’un électrolyte (fig. ' 1).
- L’anode est alimentée par un combustible et la cathode par un oxydant (comburant). A l’anode, il y a oxydation du combustible en ions avec libération d’électrons selon le schéma :
- combustible -> ions -f- électrons.
- Ces électrons se dirigent vers le circuit extérieur et, après être passés par les organes utilisateurs, arrivent à la cathode où ils sont capturés par l’oxydant :
- oxydant -}- électrons —> ions.
- (Anode et cathode doivent en effet être conçues de manière que ces réactions s’y produisent effectivement et c’est une des principales difficultés de la réalisation des piles à combustible).
- La circulation des ions dans l’électrolyte, de la cathode vers l’anode, complète le circuit électrique. L’électrolyte joue donc le rôle d’un isolant électronique empêchant l’échange direct d’électrons entre combustible et comburant et, de plus, il assure la liaison au point de vue électrolytique entre l’anode et la cathode en permettant la circulation des ions entre ces deux électrodes.
- Ce schéma est évidemment très incomplet mais il a l’avantage de montrer immédiatement qu’un tel système échappe à la limitation du cycle de Carnot puisque à aucun moment il ne se transforme de chaleur en travail, la pile à combustible réalisant directement la transformation en énergie électrique de l’énergie chimique de la combustion.
- 36
- p.36 - vue 39/560
-
-
-
- Bien entendu, cela est théorique et le rendement de la transformation n’est pas de ioo pour ioo, pour différentes raisons : irréversibilité des réactions qui se produisent aux électrodes, résistance intérieure de la pile entraînant des pertes de chaleur par effet Joule, diffusion du combustible et du comburant à travers l’électrolyte et réaction à l’électrode opposée, polarisation dé concentration due aux variations de concentration dés réactifs au voisinage des électrodes, etc. Nous rie pouvons entrer dans le détail de ces phénomènes pour la plupart fort complexes. Disons cependant que le rendement' des piles à combustible atteint actuellement des valeurs comprises entre 65 et 85 pour iop,. donc notablement supérieures à celles des centrales thermiques les plus modernes.
- La force électromotrice des -piles r à combustible est de l’ordre de x V. Ce sont donc des générateurs de courant continu sous faible tension, ce qui n’a qu’une importance secondaire puisqu’il Jsuffit de disposer un nombre suffisant d’éléments en série\pour obtenir les tensions' désirées. Il est beaucoup plus\important, par contre, de disposer de piles susceptibles de fournir des densités de courant élevées. La seule manière de parvenir à ce résultat consiste à augmenter la vitesse des réactions qui se produisent aux électrodes, ce qui peut être obtenu en augmentant la surface effective des électrodes, la température et la pression, et en utilisant des catalyseurs. Nous verrons dans ce qui suit comment ces divers moyens ont été utilisés pour obtenir des piles présentant un intérêt pratique.
- Un très grand nombre de piles à combustible font actuellement l’objet de recherches plus ou moins avancées dans divers pays mais, dans un but de simplification, nous les grouperons en trois catégories : les piles à combustibles gazeux, les piles à combustibles solides et les piles du type Rédox. Les piles à combustibles gazeux sont, de loin, celles qui ont fait l’objet des études les plus poussées ; elles sont, de ce fait, plus près que les autres de recevoir une réalisation industrielle et c’est par elles que nous commencerons.
- Piles à combustibles gazeux
- L’exemple le plus simple est celui de la pile à hydrogène et à oxygène, l’électrolyte étant constitué par une solution alcaline, soude ou potasse (fig. 2). Les molécules d’oxygène arrivant à la cathode se combinent à l’eau pour former des ions oxhydriles HO- qui emportent chacun un électron. Ces ions migrent à travers l’électrolyte vers l’anode où ils se combinent à l’hydrogène pour donner de l’eau tout en libérant un électron. On obtient ainsi, dans le circuit extérieur, un flux d’électrons de l’anode vers la cathode ; donc, au sens habituel du terme, un courant électrique de la cathode vers l’anode.
- Plusieurs types de piles à hydrogène et à oxygène ont été réalisés sur ce principe. Parmi eux, c’est certainement la pile Bacon qui a fait l’objet des études les plus suivies ; aussi la décrirons-nous avec quelques détails (fig. 3).
- Chacun des 40 éléments de la pile est constitué de deux électrodes, l’une alimentée en hydrogène pur, l’autre en oxygène pur et séparées par un électrolyte alcalin (solu-
- Sens des ëlecirons.
- Oxygène
- .Cathode
- __—Electrolyte
- (solution aqueuse de potasse)
- A / 'anode
- A la cathode : O2 + 2 H2O + 4e—^4 HO" Réaction globale : H 0 “ + H + —>- H 2 0
- Fig. 2. — Schéma d’une pile à hydrogène et à oxygène. Anode et cathode sont conçues de manière à laisser passage aux gaz.
- tion aqueuse de potasse caustique à 40 pour 100). L’élément fonctionne à 200° C, sous une pression de 28 kg/cm2 afin qu’à cette température il n’y ait pas ébullition de l’électrolyte.
- Les électrodes sont des disques de nickel fritté à double porosité, de 250 mm de diamètre. Les pores de la partie interne, où arrivent les gaz, ont un diamètre de l’ordre de 30 [x. La surface des électrodes en contact avec l’électrolyte comporte une mince couche avec des pores de diamètre plus faible. De ce fait, en raison de la pression du gaz qui s’exerce à l’intérieur des électrodes et des phénomènes de tension superficielle beaucoup plus importants au voisinage des pores de faible diamètre, le liquide ne peut pénétrer dans les pores les plus grands et le gaz s’échappe par la surface des petits pores. Il en résulte que, dans chaque
- + -
- Hydrogène
- Manomètre
- Récipient / à électrolyte
- Niveau
- du
- condeny
- saura
- de purge
- Appareil pour ia mesure des niveaux
- Fig. y — Schéma de fonctionnement de la pile Bacon.
- p.37 - vue 40/560
-
-
-
- électrode, une surface active de 40 m2, c’est-à-dire bien supérieure à la surface géométrique de l’électrode, se trouve imprégnée de liquide et au contact du gaz.
- Par la combustion de l’hydrogène en présence d’oxygène, il y a formation d’eau (un demi-litre par kilowattheure environ), qu’il faut éliminer pour éviter une dilution de l’électrolyte préjudiciable au bon fonctionnement de la pile. Dans ce but, on fait circuler le courant d’hydrogène au dos des électrodes d’hydrogène, de façon à recueillir la vapeur d’eau qui se dégage au travers des pores. Le mélange hydrogène et vapeur d’eau est refroidi extérieurement, et l’eau condensée s’accumule dans un purgeur que l’on ouvre périodiquement.
- D’importants dispositifs de contrôle du fonctionnement de l’ensemble ont été mis au point au cours des 18 mois qui ont précédé la présentation de la pile. C’est ainsi que pour éviter l’endommagement des éléments, la pression des gaz doit être équilibrée avec précision. Le système adopté consiste à maintenir la pression de l’oxygène constante. On règle alors la pression de l’hydrogène, grâce à un manomètre différentiel très précis, qui actionne une vanne commandée par un servo-mécanisme. Un second manomètre, en mesurant la pression exercée par l’hydrogène sur l’électrolyte, contrôle automatiquement l’élimination du mélange hydrogène-vapeur d’eau. Enfin, il a fallu résoudre différents problèmes annexes comme le préchauffage initial de la pile pour l’amener à 2000 C ; il a fallu également résoudre le problème de la dissipation de la chaleur formée et contrôler le fonctionnement de chaque élément individuel au moyen d’enregistreurs.
- La pile Hydrax mesure environ 75 cm de longueur. Le tableau de contrôle a 1,50 m de hauteur et occupe,
- Electrodes creuses et poreuses
- en charbon
- Hydrogène
- Electrolyte
- -(Potasse ~ Zcaustiquej ~
- Vapeur d'eau-ri ^ n 1/ I dans le courant I édJWLÉa
- d'hydroqène ' t—;----------
- circuit extérieur
- Fig. 4. — Principe de la pile à combustible de la National Carbon Co.
- Fig. j. — Centrale électrique portative de la General Electric Co.
- avec les bouteilles d’oxygène et d’hydrogène, un encombrement en plan de 0,54 m2. Il n’a d’ailleurs pas été cherché pour cette pile de démonstration à réduire au minimum le poids et l’encombrement et, pour le tableau de contrôle, on a utilisé des appareils standard du commerce.
- Pour alimenter la pile, on utilise des bouteilles d’hydrogène et d’oxygène contenant chacune environ 4 m3 de gaz (dans les conditions normales de température et de pression). Il faut utiliser toutes les heures deux bouteilles d’hydrogène et une d’oxygène. Le poids des bouteilles de gaz comprimé et le fait que l’oxygène doit être utilisé à l’état pur et non pas en mélange avec l’azote comme il existe dans l’air font que l’ensemble, pour le moment, est peu susceptible de concurrencer des dispositifs transportables comme un moteur à explosion d’automobile, mais il possède déjà dans son état actuel un rendement bien supérieur puisqu’il atteint 65 pour 100 (le rendement optimal d’un moteur à combustion interne ne dépasse pas 30 à 35 pour 100). Enfin, depuis que les techniciens anglais ont cédé une licence de leur procédé à la société américaine Universal Winding Co., celle-ci a annoncé avoir déjà sensiblement réduit l’encombrement de la pile Bacon.
- Autres types de piles à électrolyte liquide. — Aux États-Unis, la National Carbon Co. a réalisé d’importants progrès en construisant une pile à combustible (fig. 4) fonctionnant à 6o° C sous une pression de l’ordre de 10 kg/cm2, c’est-à-dire dans des conditions beaucoup plus proches de la normale que celles de Bacon. Par ailleurs, cet élément serait alimenté en hydrogène et en air, suppri-
- 38
- p.38 - vue 41/560
-
-
-
- mant ainsi la nécessité d’un réservoir d’oxygène comprimé. Ce résultat est obtenu en utilisant des électrodes en carbone poreux traité par des catalyseurs dont la composition n’a pas été révélée. C’est cette pile qui a été utilisée pour l’alimentation de la « sentinelle silencieuse », petit radar portatif de l’armée américaine.
- Une autre amélioration a été apportée par MM. W. T. Grubb et L. W. Niedrach, de la General Electric Co. L’élément réalisé par ces auteurs est constitué de deux demi-boîtiers en plastique, séparés par une membrane échan-geuse d’ions de 5 cm2 environ, limitant ainsi les compartiments anodique et cathodique alimentés respectivement en hydrogène et en air. La nouveauté de cet élément est l’emploi d’une membrane échangeuse d’ions comme électrolyte, ce qui supprime les problèmes d’étanchéité et de lutte anti-corrosion contre les mélanges caustiques. En outre, cette membrane, lorsqu’elle est saturée d’eau provenant de la combustion de l’hydrogène, exsude de l’eau qui ne risque donc pas de diluer l’électrolyte. Toutes ces caractéristiques contribuent à simplifier le fonctionnement de la pile, en réalisant un auto-réglage de l’appareil.
- Le faible encombrement de ces éléments a permis à la General Electric de réaliser une centrale électrique ne pesant que 13 kg, donc transportable à dos d’homme (fig. 5), l’objectif visé étant de construire pour le service des transmissions de l’Armée américaine une source d’alimentation pour un radar d’infanterie du même type que la « sentinelle silencieuse ». Pour un fonctionnement d’une semaine le poids des cartouches d’hydrogène à transporter n’est que de 30 kg alors qu’il faudrait pour le même temps 500 kg de batteries classiques.
- Piles à électrolyte fondu. — Le principal reproche que l’on puisse faire aux piles précédentes, dans leur réalisation actuelle, est d’exiger pour leur alimentation de l’hydrogène pur et, dans le cas de l’élément Bacon, de l’oxygène pur, c’est-à-dire des produits coûteux. Il serait évidemment bien plus avantageux de pouvoir brûler dans ces piles des combustibles gazeux moins nobles, tel que le gaz d’éclairage, le gaz à l’eau, le gaz naturel, les produits résultant de la vaporisation d’hydrocarbures, etc. Les piles à électrolytes fondus permettront peut-être de résoudre ce problème.
- Ces piles fonctionnent à des températures comprises en général entre 500 et 8oo° C, car au-dessous de 5000 C la conductivité de l’électrolyte est insuffisante et au-dessus de 8oo° C les vitesses de corrosion deviennent prohibitives. Le comburant est constitué par l’oxygène de l’air ; quant au combustible, on a utilisé des gaz très variés comme l’oxyde de carbone, le propane, le butane, des vapeurs d’alcool éthylique ou de kérosène, etc.
- Des recherches sont en cours sur les éléments de ce type dans de nombreux pays, en particulier en Grande-Bretagne, Hollande, Allemagne, U. R. S. S., etc.
- En Angleterre, par exemple, c’est au Sondes Place Research Institute de Dorking, pour le compte du Ministère de l’Énergie, que les essais se poursuivent sous la direction du Dr. H. H. Chambers. Le but est de réaliser une batterie d’un type industriel capable d’utiliser comme combustibles des gaz naturels, de l’huile de paraffine, ou différents hydrocarbures dérivés du pétrole. C’est d’ailleurs la raison pour laquelle le groupe Shell subventionne également ces recherches, des piles de ce genre pouvant constituer
- d’intéressants débouchés pour les produits pétroliers. L’électrolyte est un disque de céramique de magnésie poreuse de 25 cm de diamètre imprégnée de carbonates de métaux alcalins fondus. Les électrodes sont constituées de mélanges de métaux et d’oxydes métalliques.
- Aux États-Unis, la Consolidation Coal Co. a entrepris, avec le soutien financier de l’U. S. Army Signal Corps, des recherches qui ont abouti à la réalisation d’une pile à électrolyte fondu (fig. 6).
- L’élément est constitué de deux brides, entre lesquelles est disposée une matrice de magnésie poreuse imprégnée d’un mélange de carbonates alcalins fondus servant d’électrolyte.
- Deux électrodes poreuses sont disposées dans les chambres à gaz situées de part et d’autre de la matrice. Le gaz combustible circule dans une de ces chambres et l’air dans l’autre. L’électrode à air est constituée, selon les modèles, de nickel fritté et poreux, comme dans l’élément Bacon, ou par une toile de fils d’argent. L’électrode à combustible est constituée par frittage de poudre de nickel ou par du fer activé.
- Des résultats intéressants ont été obtenus en utilisant comme combustible un mélange d’oxyde de carbone et de gaz carbonique qui pourrait être préparé par gazéification du charbon. Selon le processus utilisé on soutiendrait un rendement énergétique global variant entre 60 et 70 pour 100.
- Nous signalerons encore les études entreprises par la General Electric Co. et le groupe Esso qui étudie la possibilité de fabriquer une « pile ménagère » alimentée par le réservoir à mazout du chauffage central. Esso estime qu’on devrait pouvoir réaliser une économie de 60 pour 100 sur le prix du courant nécessaire à un logement de 6 pièces. Un tel système serait aussi particulièrement utile dans les contrées reculées.
- Sortie
- d'air
- Entrée
- d'air
- Pôle positif
- __Garniture d'étanchéité
- Fibre _ (isolant)
- Electrolyte
- solide
- Electrode
- -Ecrou de serrage
- Pôle négatif
- Bossage de centrage
- Entrée du gaz combustible
- )ort/e du gaz combustible
- Fig. 6. — Schéma de la pile à combustible de la Consolidation Coal Co. fonctionnant à haute température.
- 39
- p.39 - vue 42/560
-
-
-
- Piles utilisant directement les combustibles solides
- Il semble donc que dans l’état actuel des choses, la réalisation d’éléments capables d’utiliser directement le charbon ne soit guère à envisager dans l’immédiat.
- Les réserves de charbon étant les plus importantes parmi les réserves de combustibles fossiles, il serait très intéressant de pouvoir utiliser directement le charbon dans une pile à combustible, sans avoir à préparer, dans une installation séparée, les gaz nécessaires à l’alimentation de la pile par gazéification de charbon. Un élément de ce genre (fig. 7) comporterait par exemple une anode en charbon, un
- Cylindre en céramique poreuse R
- Cathode
- Anode ^ en charbon pulvérisé
- -Electrolyte
- Fig. 7. — Principe d’une pile à combustible utilisant directement du charbon.
- électrolyte aqueux et une cathode alimentée par l’oxygène de l’air. L’anode serait oxydée électrochimiquement avec production de gaz carbonique comme seul sous-produit.
- Ce serait évidemment la solution la plus parfaite puisqu’elle permettrait l’oxydation complète à froid du charbon en libérant l’énergie maximale que l’on peut retirer de la combustion de cet élément.
- Malheureusement, de nombreuses difficultés s’opposent à la réalisation d’un tel élément. La plus importante est que le carbone est tellement peu réactif qu’il est nécessaire de porter l’élément à haute température pour que la réaction d’oxydation du charbon s’effectue avec une vitesse suffisante pour permettre à la pile de fournir des débits raisonnables. On a utilisé dans ce but des électrolytes constitués de sels fondus, par exemple des carbonates alcalins et on opère au voisinage de 1 ooo° C.
- Mais le fait d’opérer à cette température élevée présente de nombreux inconvénients : corrosion des constituants de la cellule, combustion de l’électrode en charbon sans production de courant par suite de la réaction secondaire du charbon sur le gaz carbonique fourni par sa combustion et conduisant à de l’oxyde de carbone selon le schéma : C -f- C02 -> 2CO ; dépenses considérables de chauffage pour porter l’élément à la température voulue et l’y maintenir, etc.
- Piles Rédox
- Ces éléments doivent leur nom à l’expression « Rédox » qu’on utilise pour caractériser un système siège de phénomènes d’oxydo-réduction.
- Dans ce type de pile, le gaz combustible n’est utilisé qu’indirectement comme réducteur. Chaque cellule (fig. 8) est formée par le groupement de deux demi-cellules dans lesquelles on fait circuler deux solutions contenant respectivement des ions qui peuvent subir aisément une oxydation ou une réduction. Il se produit alors, dans les demi-cellules, au contact des électrodes, des échanges d’électrons, d’où établissement d’une différence de potentiel entre ces deux électrodes et circulation d’un courant dans le circuit extérieur.
- Ces deux solutions sont ensuite régénérées en utilisant un combustible pour leur réduction et de l’air pour leur oxydation.
- Par exemple, dans Yanolyte (on désigne ainsi l’électrolyte en contact avec l’anode) des ions stanneux Sn2+ sont oxydés et transformés en ions stanniques Sn4+ dans le compartiment anodique et, en dehors de ce compartiment,
- Membrane semi-perméable
- Régénération de l'a no (yte
- Sn-^Sn-
- combustible
- Régénération du catho/yte
- „ „ Oxydation „ par l'air > ^p2
- Fig. 8. — Schéma d’une pile Rédox.
- 40
- p.40 - vue 43/560
-
-
-
- Fig. 5). — Batterie du tracteur Allis-Chalmers.
- La batterie de ce tracteur se compose de i 008 éléments qui produisent du courant électrique par réaction de l’oxygène de l’air et de l’hydrogène résultant du cracking du propane. Elle alimente un moteur électrique de 20 ch développant à la barre d’attelage une force de traction de i 350 kg.
- ils sont ramenés à l’état d’ions stanneux Sn2+ par réduction au moyen d’un gaz combustible ou de charbon jouant le rôle de réducteur.
- Dans le compartiment cathodique, du brome est réduit à l’état d’ions bromures Br- et ces ions sont à nouveau transformés en brome par oxydation par l’air dans le circuit de régénération.
- Malgré sa complexité apparente, divers avantages militent en faveur de ce système de pile. D’une part, de nombreux ions minéraux perdent ou gagnent facilement des électrons de sorte que l’on dispose d’un choix assez étendu de réactions pouvant s’effectuer dans chaque demi-cellule. En second lieu, les réactions de régénération peuvent être conduites séparément et, dans chaque cas, dans les conditions optimales. Par exemple on peut opérer à température élevée et sous pression, utiliser des catalyseurs, etc. Quelques résultats ont d’ores et déjà été obtenus en Angleterre au King’s College de Londres, sous la direction de sir Eric Rideal.
- Pour le catholyte (électrolyte en contact avec la cathode), le système brome-bromure s’est révélé comme étant le plus satisfaisant, l’oxydation des ions bromures Br- en solution acide s’effectuant aisément par l’oxygène de l’air si elle est catalysée par le peroxyde d’azote.
- Par contre, le succès a été moins net pour l’anolyte. Le système stanneux-stannique a été le plus étudié, semble-t-il, mais l’oxydation des ions stanneux en ions stanniques ne s’effectue qu’avec un rendement de 20 pour 100 ; de plus, la régénération par un combustible solide comme le charbon est difficile, même sous pression et à température élevée, 15 pour 100 seulement du charbon était utilisé. Mais, en raison du large éventail des couples oxydo-réducteurs possibles, une solution plus satisfaisante ne semble pas impossible.
- De la pile transportable à l’installation industrielle
- On peut, dès à présent, prévoir deux domaines d’emplois des piles à combustible : d’une part les piles transportables où éventuellement le prix du combustible peut ne pas avoir une importance primordiale ; d’autre part les piles stationnaires destinées aux grandes applications industrielles où le prix du combustible ne devra pas dépasser celui des produits que l’on utilise actuellement dans les centrales thermiques.
- Dans la première catégorie nous rangerons toutes les
- 41
- p.41 - vue 44/560
-
-
-
- piles destinées à des installations militaires, radars, appareils de télécommunications, dispositifs électroniques où l’absence de bruits, d’appareils en mouvement, de fumée ou de sous-produits détectables présente des avantages incontestables.
- C’est également à cette catégorie d’applications qu’appartiendront les piles destinées à fournir l’énergie à des voitures automobiles, locomotives électriques, engins téléguidés, etc. Au Salon de l’Automobile de 1959 à Chicago, on pouvait examiner un prototype de voiture électrique à pile à combustible dénommée Cella I.
- Cette voiture est alimentée par une batterie de piles à hydrogène et à oxygène, le courant produit étant dirigé sur quatre moteurs actionnant chacun une roue. Selon ses constructeurs ce modèle présenterait plusieurs avantages : conduite très souple, importante accélération, absence de bruit, entretien réduit. En outre, il n’est pas indispensable de grouper toutes les cellules ensemble ; on peut les disposer en différents endroits du châssis, selon la place disponible et les nécessités de répartition du poids. Certains pensent même qu’un jour viendra où la fabrication des piles à combustible sera moins coûteuse que celle des moteurs à essence !
- On a envisagé l’utilisation des piles à combustible dans les locomotives électriques en raison des frais élevés que représente l’électrification des voies ferrées. Pour les lignes d’importance réduite, l’automotrice électrique à piles à combustible permettrait de bénéficier des avantages de la traction électrique à courant continu, tout en évitant les dépenses d’électrification de la ligne.
- Dans le domaine des satellites artificiels, un laboratoire de l’armée américaine étudie une pile fonctionnant indéfiniment, la régénération du combustible étant obtenue par décomposition des sous-produits de la pile sous l’influence du rayonnement solaire.
- Enfin, on a cité comme application possible l’alimentation des appareils de signalisation des chemins de fer, des stations de relais téléphoniques, les installations de secours des hôpitaux et établissements publics, la production d’énergie électrique dans les lieux isolés à l’écart des réseaux publics de distribution de courant, etc.
- Pour certaines de ces applications, le prix de revient de l’énergie fournie est un facteur secondaire et il est probable que l’hydrogène constituera le combustible idéal. La capacité de stockage de l’hydrogène comprimé dans des bouteilles sous une pression de 100 atmosphères est d’environ 140 Wh par décimètre cube, c’est-à-dire qu’elle est très supérieure à celle d’une batterie au plomb (50 Wh par décimètre cube pour un régime de décharge en 5 h). On a également envisagé l’utilisation d’hydrures métalliques, comme l’hydrure de lithium, qui libèrent de l’hydrogène par simple réaction sur l’eau. Avec un peu plus de 8 g d’hydrure de lithium, on peut produire environ 28 1 d’hydrogène, soit une quantité suffisante de combustible pour obtenir -5 o Wh d’énergie environ.
- Dans le domaine des applications industrielles des piles à combustible de même que dans celui de la traction électrique, il est bien évident que le prix du combustible jouera un rôle important et, à ce point de vue, l’hydrogène est un produit coûteux. Certes, la préparation de l’hydrogène par électrolyse est actuellement en pleine évolution. Des
- électrolyseurs de conception suisse fonctionnant sous des pressions élevées produisent depuis peu de l’hydrogène et de l’oxygène avec un rendement de 80 à 85 pour 100 et à un prix notablement inférieur à celui obtenu avec les électrolyseurs classiques. De ce fait on peut envisager l’utilisation des piles à combustible pour le stockage de l’énergie et sa restitution en période de pointe. Par exemple, on peut concevoir le cas d’une centrale électrique devant travailler à puissance constante et cependant appelée à des pointes de consommation à certaines heures de la journée. Cette centrale pourrait, la nuit, au moyen d’électro-lyseurs fonctionnant sous pression, produire de l’hydrogène et de l’oxygène directement comprimés et qui seraient utilisés pour satisfaire la demande d’énergie aux heures de pointe par l’intermédiaire de piles à combustible.
- Une autre source d’hydrogène est fournie par les formes-d’énergie discontinues, telles que l’énergie solaire ou l’énergie éolienne. L’énergie produite pourrait servir à électrolyser de l’eau et l’hydrogène et l’oxygène fournis seraient stockés pour être ensuite utilisés dans une pile à combustible.
- Enfin, une source intéressante d’hydrogène est représentée par les raffineries de pétrole. Des quantités considérables d’hydrogène sont produites par les installations de craquage et l’utilisation rationnelle de cet hydrogène pose le plus souvent des problèmes difficiles à résoudre. On a calculé que son utilisation dans une pile à combustible permettrait de couvrir tous les besoins de la raffinerie en énergie électrique.
- L’hydrogène n’est d’ailleurs pas, nous l’avons vu, le seul combustible capable d’alimenter une pile à gaz. Dans la mesure où l’on parviendra à résoudre les problèmes que posent les piles à haute température, on parviendra à utiliser par exemple l’oxyde de carbone ou les vapeurs d’hydrocarbures. La gazéification souterraine du charbon, qui constitue un moyen intéressant d’exploiter d’importantes réserves houillères dont la structure ne permet pas une extraction rentable, pourrait dans l’avenir constituer une source possible de combustibles gazeux pour les piles à haute température. Il en est de même des gaz naturels dont on ne sait parfois que faire. On pourrait ainsi implanter, indépendamment des sources d’énergie électrique classique, des industries électro-métallurgiques qui sont d’importants consommateurs de courant continu sous basse tension.
- Disons enfin que la France s’intéresse à ces questions puisque nous avons appris récemment que l’E, D. F. avait décidé de consacrer un premier crédit de 8 000 000 NF à l’étude des piles à combustible. Les résultats obtenus seront publiés intégralement. Il est certain, d’autre part, que les fabricants français de piles et accumulateurs mènent des recherches sur ce sujet.
- Il est indéniable qu’il reste beaucoup à faire avant qu’on puisse penser à utiliser l’énergie des piles à combustible à l’échelle industrielle ; d’aucuns pensent même que lorsque ces piles seront parfaitement au point les progrès dans l’utilisation de l’énergie nucléaire auront été tels que notre approvisionnement en énergie sera définitivement réglé : quoi qu’il en soit, il était bon, croyons-nous, que le problème fût exposé avec ses difficultés et ses possibilités.
- Robert Rosset.
- 42
- p.42 - vue 45/560
-
-
-
- Ce que fut la Science pour René Descartes
- Les Français, qui se disent cartésiens, que tout le monde dit cartésiens, connaissent-ils bien Descartes ? Ils ont lu à l’école quelques pages du Discours de la Méthode où sont énoncées les fameuses règles pour la découverte de la vérité. Ils savent d’autre part que Descartes est l’inventeur de la géométrie analytique, merveilleuse invention qui réduit les problèmes de géométrie à n’être que des problèmes d’algèbre, et qu’il a énoncé les lois de la réfraction, ce qui suffit à en faire un physicien de mérite. Ils ont entendu dire que le cogito est à la base de toute une philosophie, sinon de toute la métaphysique moderne. Beaucoup vont plus loin et s’imaginent que la science moderne, elle aussi, a trouvé en Descartes son législateur, ou tout au moins qu’il a posé les fondements de l’esprit scientifique en jetant bas le dogmatisme scolastique.
- Cependant, Descartes a été vu de façons bien diverses par les philosophes et par les critiques. Et M. Pierre Fré-dérix, voulant connaître le vrai Descartes, a fait de sa vie et de ses écrits, comme des témoignages et des récits que nous ont laissés ses contemporains, une étude approfondie. Il en est résulté un livre assez mordant, Monsieur Descartes en son temps (*), dont nous ne retiendrons ici que ce qui concerne Descartes homme de science, ou se voulant tel. Il faut avouer que le tableau est assez convaincant, et assez noir. Descartes avait les dons d’un très grand mathématicien, mais il n’a fait que peu de mathématiques. Il a aperçu quelques vérités en physique, pour autant qu’elles ne heurtaient pas ses idées préconçues. Pour le reste, il n’a fait qu’échafauder de vaines théories, qui n’ont même pas eu le mérite de provoquer des expériences utiles. Et quant à l’expérience et à l’observation judicieusement conduites, il n’a même pas aperçu qu’elles étaient la base de toute connaissance certaine. Les véritables fondateurs de la science moderne, ce sont ceux qui ont inauguré les observations et les expériences avec toute la rigueur que permettaient les moyens de l’époque ou qui ont donné des lois précises qui relient les phénomènes observés : ce sont Galilée, Gilbert, Kepler, un peu plus tard Newton ; et Descartes, comme Pascal, n’a pas su ou pas voulu prendre parmi ceux-là la place que son génie lui aurait permis d’occuper.
- Si Pascal n’a pas fait davantage, c’est qu’il s’est détourné de la science. Mais sa conception de la science était bien moderne. Descartes, au contraire, a gardé toute sa vie l’ambition de fonder les connaissances humaines sur des bases inébranlables. D’où vient qu’il n’y ait pas réussi ? C’est que sa méthode, malgré toutes ses prétentions, était illusoire. Elle était exactement contraire à celle de ses grands contemporains à qui l’on doit d’avoir posé, sinon en droit, du moins en fait, les bases de l’investigation scientifique.
- Ce qui a pu tromper sur la valeur réelle de l’œuvre cartésienne en matière de science, ce sont les termes dans lesquels
- i. Monsieur René Descar/es en son temps, par Pierre Frédérix, i vol. 14 X 20,5, 340 p., Gallimard, Paris, 1959. Prix : 14 NF.
- le philosophe annonce son programme, ce sont les perspectives qu’il semble ouvrir aux connaissances humaines. C’est d’abord la fameuse « table rase ». Descartes s’est convaincu et nous convainc facilement de l’inanité de l’enseignement scolastique. Il veut donc repartir à zéro, comme on dirait aujourd’hui. Seulement, que va-t-il mettre à la place ? Ni plus ni moins qu’une nouvelle scolastique, et qui n’a, elle, aucune chance de s’imposer car elle est déjà dépassée par les événements.
- Un manuscrit resté inédit, et même inachevé, intitulé Règles pour la direction de l'Esprit, est bien plus révélateur de la méthode de Descartes que le Discours de la Méthode. Voici comment M. Frédérix résume les trois règles qui y sont énoncées : « i° Toutes les sciences sont liées ; au lieu de les cultiver chacune en particulier, accroissons la lumière naturelle de notre raison ; z° Ceux qui cherchent le droit chemin de la vérité ne doivent s’occuper d’aucun objet dont ils ne puissent avoir une certitude égale à celle des démonstrations de l’arithmétique et de la géométrie ; 30 Les deux voies qui conduisent à la certitude sont l’intuition, laquelle ne nous laisse aucun doute sur les « premiers principes », et la déduction, qui nous permet d’en conclure les conséquences éloignées. »
- Ces règles éloignent Descartes de toute expérience particulière ; plus tard il annoncera des expériences, que d’ailleurs il n’entreprit jamais, mais dans son esprit elles n’étaient destinées qu’à appuyerles conclusions de ses raisonnements elles étaient donc d’une importance secondaire. L’important c’est d’abord l’intuition première qui permet d’établir des principes solides, d’où tout le reste se déduira, pourvu qu’on prenne soin de raisonner correctement. La méthode de Descartes, c’est donc ce qu’on pourrait appeler le rationalisme intégral.
- Cette science générale, conçue comme rigoureuse, Descartes l’appelle la mathématique universelle. Et cette mathématique universelle le détourne très vite de la mathématique des mathématiciens, c’est-à-dire de l’arithmétique et de la géométrie, car, écrit-il, « rien n’est plus vain que de s’occuper de nombres vides et de figures imaginaires ». Là encore il va donc manquer à ce qui aurait pu être sa vocation de grand savant : parfaire les outils mathématiques qui vont permettre à ses contemporains et à ses successeurs de traduire scientifiquement les lois physiques.
- Délaissant les mathématiques, ignorant la fécondité de l’expérience,. Descartes va donc bâtir une science imaginaire. Dans la retraite qu’il a choisie, il ne lit pas, il ne se tient pas au courant des travaux scientifiques de son temps. Il s’enferme pour méditer et reconstruire le monde.
- Mis à part un petit nombre de mystères, comme la grâce, la Trinité, l’Incarnation, tout selon lui est démontrable, et d’abord Dieu. Dieu se démontre comme un théorème, et ensuite tout le reste en découle, car Dieu, étant infiniment bon, n’a pas voulu nous tromper, pourvu que nous, fassions un bon usage de notre raison. M. Pierre Frédérix montre qu’à l’égard des principes et des bases de la connais-
- 43S
- p.43 - vue 46/560
-
-
-
- sance, Descartes est en retrait sur Aristote, car il place la métaphysique avant la physique, et prétend déduire celle-ci de la première. Sa méthode réelle n’apporte donc pas une révolution, mais plutôt une contre-révolution. Et, « dans l’ordre du rationalisme, dont il se réclame, c’est, dit M. Fré-dérix, une des entreprises les plus insensées de l’histoire de la philosophie ».
- On a pu dire que si Descartes s’était trompé en beaucoup de choses, du moins sa méthode était bonne. Mais on peut apercevoir, au contraire, que c’est bien sa méthode qui l’a infailliblement conduit à ses plus étranges erreurs. Ainsi, dès le début, Descartes est amené à séparer radicalement la substance pensante de la substance étendue, autrement dit l’âme et le corps. C’est l’âme qui donne l’impulsion au corps, tout comme Dieu a donné l’impulsion au monde. Mais si l’âme est absente, comme dans les animaux, le corps n’est plus qu’une pure machine, qui n’a plus ni pensée, ni sentiments, et ne saurait avoir ni joie ni douleur. Il est bien évident pour un biologiste que Descartes est ici très inférieur à Aristote, qui avait conçu l’unité du monde vivant, en prêtant aux plantes une âme végétative, aux animaux une âme sensitive, et réservant à l’homme une âme raisonnable. Là où Aristote concevait une hiérarchie, Descartes voit une différence d’essence.
- En revanche, on voit bien ce qui a pu le faire soupçonner d’athéisme. Pour lui le corps de l’homme, comme celui des animaux, est une pure machine, et en ce sens on peut tout de même dire , que, sans le vouloir sans doute,
- Ambre jaune dans la terre bleue
- L’ambre est, on le sait, une résine fossile produite, en des périodes géologiques relativement récentes, par les forêts de Conifères. On l’appelle souvent ambre jaune, pour éviter la confusion avec l’ambre gris, substance odorante sécrétée par l’intestin des Cachalots. L’ambre jaune a été en majeure partie exploité, depuis l’antiquité, sur les côtes de la Baltique. Le gisement le plus connu était celui de Palmnicken (Prusse-Orientale). Depuis le transfert de cette province à l’Union Soviétique, l’exploitation s’est poursuivie : elle est actuellement concentrée autour du bourg de Tantarni ÇTaniar est le nom russe de l’ambre), voisin de Kaliningrad, l’ancienne Kœnigsberg.
- On extrait l’ambre jaune d’une terre qu’on appelle « terre bleue » parce qu’elle contient un minéral de couleur bleu-vert. Cette terre est très abondante aux environs du bourg. L’épaisseur de la couche de la terre bleue, d’après la revue Priroda, est généralement de i à 3 m. Cependant, en certains endroits, elle atteint jusqu’à 12 m. Chaque tonne de terre bleue contient de x à 2 kg d’ambre jaune. La limite inférieure de la couche de cette terre se trouve à 7 m au-dessous du niveau actuel de la Mer Baltique. Dans les régions côtières, la couche de terre bleue disparaît donc sous l’eau. Aussi, après les tempêtes, trouve-t-on parfois l’ambre jaune projeté par les vagues sur la côte. En dehors de la région de Kaliningrad, l’ambre est également extrait, en ce qui concerne l’U. R. S. S., en Ukraine et en Lithuanie. Mais on en trouve aussi en d’autres régions, Roumanie, Sicile, Birmanie, etc.
- Rappelons que beaucoup de petits arthropodes, emprisonnés par la résine au moment de son exsudation, se sont merveilleusement conservés dans l’ambre. C’est ainsi qu’on connaît dans leurs moindres détails nombre d’insectes qui vivaient dans les forêts du Nord de l’Europe au milieu de l’ère tertiaire (Oligocène).
- C. M.
- il a été un précurseur du mécanicisme et du matérialisme. Seulement, à l’encontre du matérialisme scientifique, Descartes cherche toute vérité, même matérielle, à partir de principes métaphysiques. C’est ainsi qu’il a été conduit à nier obstinément, contre Pascal, la possibilité du vide et à imaginer partout où nous voyons l’espace vide on ne sait quelle matière subtile dont il ne pouvait, et pour cause, définir la nature.
- Il reste que Descartes a vu clair dans quelques querelles de son temps. Il était partisan de la théorie héliocentrique, quoique la condamnation de Galilée l’ait engagé à n’en rien publier. Il a entrevu la conservation de l’énergie et il a donné une forme approchée du principe d’inertie, fondée, il est vrai, sur d’étranges considérations métaphysiques.
- Son principal titre de gloire scientifique est d’avoir posé les fondements de la géométrie analytique. Il est bien dommage qu’une ambition illusoire l’ait détourné de parfaire cette œuvre et de faire bien d’autres découvertes que celle de la réfraction dans ce domaine de l’optique dont il s’est particulièrement occupé.
- Conclusion : Descartes était intégralement cartésien, il l’était jusqu’à l’excès. Entendons par là que c’était un esprit outrancièrement systématique, et que sa confiance exagérée dans le pouvoir du raisonnement a trop souvent écarté du simple bon sens. Soyons un peu cartésiens, ne le soyons pas trop.
- J. G.
- Formose aura le 2e barrage du monde
- Un gigantesque projet hydroélectrique a été adopté par les autorités de Formose : l’équipement de la vallée de Ta-Chia, dans le Nord de l’île (on sait que Formose est montagneuse et soumise à un climat de mousson particulièrement humide). Le barrage prévu aura 244 m de hauteur et sera le second du monde après celui de la Grande Dixence (Valais suisse, en cours d’achèvement), tandis que les six centrales envisagées disposeront d’une puissance de 1 300 000 kW. Le coût total des travaux atteindrait 158 millions de dollars (près de 800 000 000 NF). Les disponibilités électriques de Formose seront doublées à l’achèvement du plan (1970) (D’après Vie del Mondo).
- Papier de mica
- Une société américaine fabrique un papier inorganique résistant au feu, préparé à partir d’un type spécial de mica synthétique. La substance de base est blanche et possède un indice de réfraction de 1,5 ; son point de fusion est supérieur à 1 ooo° C dans un système fermé ; elle est insoluble dans l’eau et les solvants organiques, n’étant seulement attaquée que lentement par les acides mordants et les bases. La transmission au rayonnement infrarouge est inférieure à 3 pour xoo dans le domaine 0-15 jx pour une épaisseur de 0,18 mm. Ce type de papier, dont la masse volumique peut varier de 0,6 à 1,7 g/cm3 suivant le mode de fabrication, se présente comme un excellent isolant thermique et un protecteur contre le feu ; il peut également servir pour l’isolement électrique à haute température. Une des applications suggérées de ce papier (0,05 à 0,25 mm d’épaisseur) est son emploi comme papier de document résistant au feu.
- H. M.
- 44
- p.44 - vue 47/560
-
-
-
- Le Ciel en Février 1961
- SOLEIL : du Ier février au Ier mars (à oh) sa déclinaison croît de — I7°I3/ à —7°45/ et la durée du jour de gh24m à 3oh54111 ; diamètre apparent le Ier = 32/3i",o, le 28 = 32/2o",o.
- — LUNE : Phases : D. Q. le 8 à i6h5om, N. L. le 15 à 8hnm, P. Q. le 22 à 8^35m ; périgée le 14 à llh, diamètre app. 33/22" ; apogée le 26 à 2ih, diamètre app. 2g'2’]". Principales conjonctions: avec Uranus le Ier à 2ih, à i°55/ S. ; avec Neptune le 8 à oh, à 3°7/ N. ; avec Jupiter le 13 à 6h, à 3°44/ N. ; avec Saturne le 13 à 711, à 3°28/ N. ; avec Mercure le 16 à ih, à 3°22/ S. ; avec Venus le 18 à il*1, à 6°35' S. ; avec Mars le 24 à I7h, à 7°53' S. Principales occultations : le 10, de 24 Scorpion (mag. 5,0), émersion à 5h20m,i ; le 23, de 111 Taureau (mag. 5,1), immersion à l8h9m,2 ; le 26, de S Cancer (mag. 5,9), immersion à 22h31 m3• — PLANÈTES : Mercure, belle étoile du soir dans la première moitié du mois, se couche le 6 à i8h38m, soit lh43m après le Soleil ; Vénus, toujours éblouissante étoile du berger, se couche le 6 à 2ihi6m, soit 4^2 im après le Soleil ; Mars, dans les Gémeaux, très bel astre rouge visible la majeure partie de la nuit, le 16 : diamètre app. io"8 ; Jupiter et Saturne, dans le Sagittaire réapparaissent un peu le matin, le 18 les deux planètes sont en conjonction et se lèvent à 5h27m, soit i^2gm avant le Soleil ; Uranus, dans le Lion peut s’observer toute la nuit, le 15, position : gLjS”1 et -j- I4°22/, diamètre app. 4",0 ; Neptune, dans la Balance se lève vers minuit, le 15, position : I4h38m et — I2°32/, diamètre app. 2",4. — ÉTOILES VARIABLES : minima observables à'Algol (2m,2-3m,5) le 10 à 2h,4, le 12 à 23^,3, le 15 à 2oh,i ; minima de P Lyre (3in,4-4m,3) le 6 à 1 h,o, le 18 à 23h,3 ; maximum de R Lion (5m,4-iom,5) le 11, de R Hydre (4m,o~iom,o) le 20, de R Verseau (5m,8-llm,5) le 21,
- de R Lièvre (5m,9-iom,5) le 23, de R Serpent (5m,7-l4m,4) le 26.
- — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.) : le Ier : 8h53mi2s, le 11 : 9h32m37s, le 21 : iohi2m3s, le 3 mars : ioh5im28s.
- Phénomènes intéressants : Surveiller l’apparition de taches et de facules à la surface du Soleil. — Le 15 éclipse totale de Soleil, visible à Paris comme éclipse partielle ; commencement de l’éclipse générale à 6h8m,6, maximum à 8hi9m,o, fin de l’éclipse générale à ioh29m,4 ; grandeur : 1,018.
- — A Paris : lever du Soleil partiellement éclipsé à 7him, maximum à 7h38m,6, fin de l’éclipse à 8h45m,2 ; grandeur : 0,957. L’éclipse est totale dans le midi de la France, ne pas manquer d’observer ce remarquable phénomène. — Du 16 au ao, lumière cendrée de la Lune, le soir. — Mercure est bien visible le soir jusqu’aux environs du 15, plus grande élongation, le 6 à I2h, à i8°i4' E. du Soleil. — Le 18, Jupiter est en conjonction avec Saturne à o°i4/ S., suivre ce très beau rapprochement avant le lever du jour du 15 au 22. — Observer et reconnaître les belles constellations d’hiver : le Taureau avec Aldébaran et les Pléiades, Orion avec Bétel-geuse, Rigel et la grande nébuleuse, le Cocher avec Capella, les Gémeaux avec Castor et Pollux, le Petit Chien avec Pro-cyon, le Grand Chien avec Sirius.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- LES LIVRES N O
- Récréations mathématiques, par Édouard Lucas. Nouveau tirage. 1 vol 13,5 X 18,5, vm-200 p., 60 fig. Librairie scientifique et technique Albert Blanchard, Paris, i960. Prix : 8 NF.
- Nouveau tirage de six récréations mathématiques parues en 1892, après la mort de l’auteur, grâce à trois de ses collègues qui avaient rassemblé ses notes inédites. Il s’agit en général de jeux mathématiques, mais l’une de ces récréations est consacrée à l’historique des machines à calculer.
- Le Ciel, par Jean-Claude Pecker, astronome à l’Observatoire de Paris. 1 vol 21,5 X 19, 112 p., nombreuses photos en noir et en couleurs. Robert Delpire, Paris, i960. Prix, cartonné : 20 NF.
- Comme les précédents, ce troisième volume de la série Science de l’Encyclopédie essentielle est aussi remarquable par le texte que par la présentation. L’astronomie est sans doute la plus ancienne des sciences exactes, ou à peu près exactes. L’auteur, érudit et disert, nous a brossé de son histoire un tableau souvent fait déjà, mais rarement aussi bien, où le détail, souvent pittoresque, est toujours judicieusement choisi pour éclairer le sujet et renouveler l’attention. Lui-même éminent astrophysicien, il s’est pourtant borné à ce qu’on pourrait appeler un reportage intelligent sur l’aspect moderne de l’astronomie. Ce beau livre se lit ainsi facilement et donnera envie à beaucoup d’aborder un exposé plus approfondi, que Jean-Claude Pecker lui-même pourrait bien nous donner.
- Foundations of Electromagnetic Theory, par John R. Reitz et Frederick J. Milford. i vol. 15,5 X 24, xn-387 p., 135 fig. Addison-Wesley Publishing Company, Reading (Mass.), i960. Prix, relié : 8,75 dollars.
- Principles of Electricity and Magnetism, par
- Emerson M. Pugh: et Emerson W. Pugh.
- 1 vol. 15,5 X 24, xii-430 p., 192 fig. Addison-Wesley Publishing Company, Reading (Mass.), i960. Prix, relié : 8,75 dollars.
- Ces deux ouvrages, écrits dans le même esprit et pour le même public équivalant aux étudiants du 2e cycle en France, exposent les bases et les principaux résultats de l’électromagnétisme, le premier ayant peut-être une tendance- plus théorique. De nombreux exercices et problèmes (avec solutions pour certains d’entre eux) doivent permettre d’approfondir les questions traitées.
- Introduction à la Physique atomique et nucléaire, par Henry Semât. Traduit de l’anglais par Mme C. Shafroth. i vol. 14 X 22,5, xiv-599 p., nombr. fig. Gauthier-Villars, Paris, i960. Prix, relié toile : 50 NF.
- Traduction de la 3e édition de l’ouvrage de H. Semât dont la première, parue en 1939, se donnait pour objet de rassembler les faits et expériences fondamentaux formant la base de la physique atomique et nucléaire et de les expliquer à l’aide des principes issus de la mécanique quantique d’une manière assez simple pour être accessible à un grand nombre de lecteurs. Remis entièrement à jour au moment de la traduction française, l’ouvrage comporte trois parties principales consacrées respectivement aux bases de la physique atomique (principes d’électricité et de magnétisme, particules, atome, rayons X, etc.), à la structure extranucléaire de l’atome et enfin à la physique nucléaire : phénomènes de radioactivité naturelle, découverte de la radioactivité artificielle, description des divers modèles permettant d’expliquer les phénomènes nucléaires, etc. Des données sur les nouveaux éléments et les isotopes, ainsi que sur les accélérateurs de particules et de nombreux tableaux complètent cet ouvrage
- U V E A U X
- dans lequel on trouve également à la suite de chaque chapitre des exercices d’applications dont les réponses sont généralement indiquées.
- Nouveau Traité de Chimie minérale, publié sous la direction de Paul Pascal, membre de l’Institut, professeur honoraire à la Sorbonne. Tome VII : Scandium, Yttrium, Éléments des Terres rares, Actinium, par M. Bouissières, Mme Gaume-Mahn, Mlle Henry La Blan-chetais, MM. Loriers, Trombe. Fascicules 1 et 2. 2 vol. 17,5 X 26, 1 474 p., 351 fig., 363 tableaux. Masson, Paris, i960. Prix, les 2 vol., brochés : 180 NF ; cartonnés, toile : 200 NF.
- Les éléments des terres rares ou lanthanides constituent une famille de 15 éléments, dont le numéro atomique va de 57 à 71 et dont les caractères chimiques sont très voisins, au point que Jean Perrin a pu les appeler « faux isotopes du lanthane ». Ce sont le lanthane, le cérium, le praséodyme, le néodyme, le prométhium (radioélément artificiel), le samarium, l’europium, le gadolinium, le terbium, le dysprosium, l’erbium, l’holmium, le thulium, l’ytterbium et le lutétium. D’un élément au suivant, un électron s’ajoute évidemment, mais il se place au-dessous de la couche externe, dans une couche non saturée, de sorte que la couche externe ne change pas. La séparation des divers éléments, qui sont réunis dans leurs minerais, est de ce fait très difficile. Par suite de leur analogie chimique et de leur présence fréquente dans les mêmes minerais on y joint le scandium (n° 21) et l’yttrium (n° 39) qui se placent dans le même groupe III de la classification périodique, où ils sont suivis par l’actinium (n° 89). Les connaissances sur les terres rares, consécutives à leur séparation et à leur étude détaillée dans de nombreux laboratoires, ont considérablement progressé dans les récentes
- 45
- p.45 - vue 48/560
-
-
-
- années. Les métaux purs ont montré des comportements tout à fait exceptionnels dans les domaines de la dilatation, du magnétisme, des hautes pressions. L’étude des propriétés chimiques a beaucoup avancé mais comporte encore de grandes lacunes. Un certain nombre d’alliages ont été étudiés. Les deux volumes forment une'véritable encyclopédie des terres rares.
- The foundations of Chemical kinetics, par
- Sidney W. Benson. i vol. 15,5 X 23,5, xvm-703 p. McGraw-Hill Book Company, Londres et New York, i960. Prix, relié : 104 sh. 6 d.
- On sait le développement pris par la cinétique chimique durant ces trente dernières années ; le nombre de travaux est considérable et il était essentiel, devant l’éclatement de cette discipline, d’en établir les bases et d’en préciser le vocabulaire. Le présent ouvrage répond à ce besoin ; il sera le guide de tous ceux qui veulent se pénétrer de cette branche de la physico-chimie, évidemment délicate, qui exige de bonnes connaissances mathématiques, mais qui prend de plus en plus d’importance. Après avoir décrit les phénomènes de base caractérisant la réaction chimique, l’auteur expose les théories indispensables à la cinétique : théorie cinétique des gaz, méthodes statistiques, puis la cinétique en milieu homogène et enfin, d’une façon moins étendue, la cinétique des réactions dans les phases condensées. — H. G.
- Chimie organique. Les grandes fonctions simples, par G. Dévoré. 2e édition revue et corrigée. 1 vol. 15,5 X 24, 432 p., fig. Vuibert, Paris, 1959. Prix : 50 NF.
- Cet ouvrage, qui d’après l’auteur s’adresse aux étudiants en P. C. B., M. P. C. et S. P. C. N. ainsi qu’à ceux qui préparent la licence ou certaines grandes écoles dont les concours d’entrée comportent de l’organique, comprend une première partie de généralités où l’auteur expose les principes de l’analyse organique, de. la détermination des masses moléculaires et des questions de la structure, et cinq autres parties où sont étudiées en détail les grandes fonctions simples. D’un esprit moderne et très bien présenté, cet ouvrage constitue une très bonne base de départ pour l’étude de la chimie organique. — H, G.
- Électrochimie théorique, par Eugène Darmois et Geneviève Darmois. i vol. 16,5 X 22, 240 p., 123 fig. Masson, Paris, i960. Prix, relié toile : 39 NF.
- Eugène Darmois, dont la plupart des travaux ont porté sur la constitution intime des solutions et plus spécialement des électrolytes, a consacré les derniers mois qu’il a vécus à la rédaction du présent ouvrage qu’il préparait avec la collaboration de Mme Darmois, et dans lequel apparaissent ses vues personnelles sur de nombreux sujets. Plus spécialement dédié aux étudiants en licence et aux élèves d’écoles d’ingénieurs, il a pour objet l’étude détaillée de tous les phénomènes essentiels d’électrochimie pris dans un sens large, c’est-à-dire dans lesquels la présence de charge ou le transport des charges électriques sont liés à la matière solide, liquide ou gazeuse, que celle-ci se présente sous une forme simple telle que les solutions ou les sels fondus, ou sous une forme plus complexe comme les électrolytes colloïdaux. Il intéressera également industriels ou chercheurs qui désirent perfectionner leurs connaissances théoriques ou trouver des indications sur les applications de cette branche de la chimie, applications qui sont nombreuses et que les auteurs n’ont pas négligées. — H. G,
- La biométrie, par Eugène Schreider, professeur à l’Institut de Démographie de l’Université de Paris. 1 vol. 11,5 X 17,5, 128 p., 7 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, i960. Prix : 2,20 NF.
- La biométrie, dit l’auteur, est une tentative de maîtriser le désordre qui, de plus en plus, déroute l’observateur : elle est la science des variations biologiques, des phénomènes qui s’y rattachent et des problèmes qui en découlent. Au terme de son exposé, il nous fait constater qu’elle change les idées relatives aux aspects
- fondamentaux de la vie : elle détruit les certitudes et dévoile un tableau infiniment plus complexe que celui qu’on souhaiterait découvrir.
- La croissance des végétaux, par Jacques Ricard, chargé de cours à la Faculté des Sciences de Marseille. 1 vol. 11,5 X 17,5, 128 p., 49 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, i960. Prix : 2,20 NF.
- L’auteur a limité son sujet à l’échelle cellulaire. Il analyse d’abord les modifications de structure subies par la cellule au cours de sa croissance, puis il examine les diverses substances qui favorisent la croissance (auxines, gibbérellines). Il étudie ensuite les grandes réactions métaboliques liées à la croissance et il expose les théories générales de la croissance cellulaire.
- Les formations végétales et paysages ruraux, par Georges Plaisance. Préface de Ph. Gui-nier, membre de l’Institut. 1 vol. 16 X 25, 418 p., fig. et pl. Gauthier-Villars, Paris, 1959. Prix : 30 NF.
- Naturel ou remanié par l’homme, le paysage végétal exerce sur celui-ci une profonde influence. Rien d’étonnant donc que nombre de mots définissant les formations végétales nous viennent du fond des âges et se retrouvent dans beaucoup de langues. Les géographes ont en général choisi ces mots, mais les botanistes en ont forgé toute une série en latin. Un lexique expliquant le sens de tous ces mots était à souhaiter et ce livre nous l’apporte. Le botaniste, le géographe et l’agronome y trouveront de nombreux renseignements fort utiles. Un index trilingue permet de s’orienter dans la littérature de langue étrangère. Une bibliographie de plus de 3 000 titres, à laquelle les rubriques du lexique renvoient, complète les indications données en faisant connaître les références d’ouvrages souvent méconnus. Enfin, un index des termes techniques (surtout phyto-géographiques) sera fort utile au lecteur pour lui permettre de comprendre les travaux modernes. — R. D.
- Histochimie et Cytochimie animales. Principes et méthodes, par L. Lison, professeur à la Faculté de Médecine de Ribeirao (Brésil), professeur associé à l’Université de Bruxelles. 3 e édition, Volume I. 1 vol. 16 X 21, 400 p., 25 fig. Gauthier-Villars, Paris, i960. Prix : 45 NF ; 9,50 dollars.
- Pour établir la composition chimique des cellules et des tissus, deux méthodes générales sont employées : on peut extraire les substances, ce qui permet une analyse quantitative très fine ; on peut fixer la substance à étudier et l’identifier sous le microscope à la place même qu’elle occupait dans la cellule vivante. De cette deuxième méthode et des multiples techniques qu’elle met en œuvre, M. Lison est un des spécialistes les plus avertis. On ne peut mieux mesurer les progrès acquis dans ce domaine qu’en comparant cette
- --- A NOS LECTEURS -----------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- troisième édition de son livre, maintenant classique, aux éditions précédentes, dont la première remonte à plus de vingt ans. La méthode « topochimique » a pu, depuis ce temps, devenir elle aussi quantitative. Après avoir défini les conditions d’exactitude de la méthode générale et ses limites, l’auteur décrit les procédés physiques d’analyse (histophotométrie, spectrophotométrie, fluorescence, réfractométrie...), les réactions histochi-miques de radicaux ou fonctions chimiques, puis il aborde l’étude des réactions spéciales, qui s’amorce dans ce volume par l’analyse des protéines et des acides nucléiques, et se poursuivra dans le volume IL
- Lois de la vie, publié sous la direction de Henri Péquignot, professeur agrégé à la Faculté de Médecine de Paris, et André Sou-lairac, professeur à la Sorbonne. Volume 6 de l’Encyclopédie Clartés. 1 vol. 19 X 25, nombreuses illustrations. Clartés, Paris, 1959. Prix, relié « taupeline » : 42 NF ; « similoïd » : 45 NF ; « aluminium » : 52 NF.
- Comme chacun des volumes de l’Encyclopédie Clartés, ce tome 6 forme un ensemble indépendant qui comprend ses tables propres. Son originalité la plus appréciée est qu’il peut être tenu à jour, car chaque grand chapitre se décompose en fascicules autonomes de quelques pages ayant leur numérotation propre et qui font l’objet d’une nouvelle édition quand le progrès des connaissances le rend nécessaire. La reliure mobile en rend le remplacement aisé. Sous le titre général de Cois de la vie, on trouve ici une série d’exposés de Biologie générale (cellule, chromosomes, tissus, métabolismes, reproduction et génétique, embryogenèse, croissance, grandes fonctions animales, éléments de biochimie, système nerveux, etc.) ; Biologie et Médecine (généralités sur la santé et la maladie) ; les grands processus morbides et leurs causes : les grands appareils et leurs lésions ; thérapeutique : principaux termes médicaux. Malgré le titre d’Encyclopédie, il s’agit moins d’une somme de connaissances que d’une oeuvre de culture générale. Les noms des auteurs en garantissent la haute qualité.
- The plasma proteins, édité par F. W. Pütnam. Vol. I : Isolation, characterisation and function. 1 vol. 15,5 X 23,5, xvi-420 p., fig. Vol. II : Biosynthesis, metabolism, alteration in disease. 1 vol. 15,5 X 23,5, xvi-518 p., fig. Academie Press Inc., New York, i960. Prix, relié : 12,50 dollars (vol. I) et 14,50 dollars (vol. II).
- Cet ouvrage a sa place dans la série des importants traités de biologie et de biochimie édités par les Academie Press. Les protéines du plasma sanguin ont fait l’objet de recherches nombreuses et fructueuses : leur relative commodité d’extraction en est une cause, l’intérêt de ces découvertes pour la thérapeutique en est une autre. Le premier volume décrit les techniques de purification et d’isolement des protéines plasmatiques, les méthodes modernes d’analyse de leurs constituants, puis les propriétés physico-chimiques et biologiques des globulines-anticorps et des glycoprotéines. Le rôle des autres constituants protéiques du sang est étudié dans le volume II (lipoprotéines, enzymes, hormones, fibrine et facteurs de la coagulation). Des chapitres essentiels traitent de la biosynthèse des principales protéines ainsi que des altérations pathologiques qui les affectent, notamment des modifications structurales de nature génétique. Sous la direction particulièrement qualifiée de F. W. Putnam, vingt-deux biochimistes et hématologistes américains ont participé à la rédaction. Les cliniciens liront surtout avec profit le second volume. Les zoologistes seront intéressés par une section consacrée à la biochimie et à l’embryologie comparées. Les biochimistes conduits par la nature de leurs recherches à se documenter sur certains aspects de la protéinologie trouveront, soit le compte rendu, soit des références bibliographiques de travaux fondamentaux. — G. B.
- Inhibition in the nervous System and gamma-aminobutyric acid. Rapports du Symposium International de Duarte, Californie, 22-24 mal 19 J9• publiés sous la direction de Eugène Roberts,
- 46
- p.46 - vue 49/560
-
-
-
- i vol. 15,5 x 23,5, xn-591 p., 250 fig. ' Per-gamon Press, Londres, New York et Paris, i960. Prix, relié : 100 sh.
- Cet important volume fait le point des connaissances actuelles sur les phénomènes d’inhibition centrale, connaissances qui ont considérablement évolué depuis la découverte du rôle inhibiteur de l’acide y-aminobutyrique (G. A. B. A.). Les diverses communications et discussions de ce symposium, qui émanent de chercheurs appartenant à des disciplines différentes (pharmacologie, électrophysiologie, biochimie, neuropsychiatrie) envisagent, en outre, les divers problèmes posés par la découverte du rôle majeur des divers métabolites au niveau du système nerveux central. Ce livre remarquable représentant une étape, presque une base, dans la connaissance des métabolismes au niveau du système nerveux, doit être lu par tous ceux qui s’intéressent à ces problèmes nouveaux. — P. S.
- Hérédité et fréquence des dyschromatopsies,
- par R. Kherumian et R. W. Pickford. i vol. 16 X 25, 112 p., 19 tableaux et 2 cartes. Vigot frères, Paris, 1959. Prix : 11 NF.
- Sous un assez faible volume, cet ouvrage fait la somme des recherches pratiquées dans le monde sur l’hérédité des anomalies de la perception colorée ; elles affectent presque uniquement les individus masculins, mais sont transmises surtout
- par les femmes ; les lois de cette hérédité liée au sexe sont des plus rigoureuses ; l’abondante documentation statistique des auteurs a surtout le mérite de préciser les fréquences de certaines anomalies extrêmement rares qui étaient considérées naguère comme des curiosités et presque comme des jeux de la nature ; cet ouvrage définit leur statut héréditaire. Il établit encore des liaisons intéressantes avec d’autres types d’anomalies congénitales. Bref, un beau travail de génétique humaine moderne, riche d’informations. — /. G.
- La Radioactivité. Le point de vue de la Protection et des Services sanitaires, par le vétérinaire-commandant R. Gardel. 1 vol. 18,5 X 27, 397 p., fig. Editions France-Sélection, Paris, 1959. Prix : 16 NF.
- L’ouvrage de M. Gardel restitue en le développant l’enseignement donné depuis 1956 au Centre de radiodétection et de radiodécontamination, créé par le Service vétérinaire de la ire Région militaire avec la collaboration du Service national de la Protection civile. L’ouvrage, nourri de plusieurs collaborations, se recommande de prime abord par la clarté de la présentation et le découpage de l’ensemble à la manière américaine. On y trouve d’abord un rappel très utile de physique nucléaire, auquel fait suite une excellente mise au point de radiométrie. L’action biologique des radiations ionisantes, objet immense de nom-
- breuses recherches contemporaines, est résumée en quelque vingt pages. On trouve ensuite une étude plus approfondie de l’arme nucléaire, puis des chapitres plus originaux sur la contamination des denrées alimentaires, celle des eaux et enfin des sols. Une étude est consacrée à la pasteurisation et à la stérilisation par irradiation. Le dernier chapitre rappelle opportunément les notions de mathématiques et de physique nécessaires aux manipulateurs de radioéléments.
- Folkways, par William Graham Sumner. i vol. 13,5 X 20,5, vnr-692 p. Dover Publications Inc., New York, 1959. Prix : 2,49 dollars.
- Une belle réédition d’un classique de la sociologie, donné au début du siècle par le fameux professeur de la Yale University. Sumner fut l’un des premiers à engager la sociologie dans la voie fructueuse de la description méthodique, et à établir des relations précises entre l’histoire des civilisations et les mœurs. Prenant ses exemples aussi bien chez les anciens Grecs, les Romains, les Juifs ou les premiers chrétiens, que parmi les civilisations orientales et asiatiques ou celles du monde occidental moderne, il analyse leur figure en rapport avec les mœurs sociales, religieuses ou sexuelles. Un travail de réflexion nourri d’une abondante documentation sur les multiples aspects sociaux de l’espèce humaine, qui marque bien la relativité des fondements des morales. — J. G.
- Monographie de la tribu des Ndiki (Banen du Cameroun). Tome II : Vie sociale et familiale, par Idelette Dugast. i vol. 18 X 28, xx-635 p., 33 fig., 4 cartes, 3 tabl., 4 dépl. h. t. Institut d’Ethnologie, Paris, 1959. Prix : 75 NF.
- Nous avons dit ici même, il y a quelques années, le bien que nous pensions du premier tome (vie matérielle) de cette étude relative à une tribu vivant sur le haut plateau du Cameroun occidental. Ce second tome, qui traite de la vie sociale et familiale, révèle le même souci de précision,
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 19551
- 84, rue de Grenelle, Paris-7e
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d’État Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- rüllllllHIIIII Un ouvrage fondamental de Physique théorique lllllllllllll^ Ü de L. LANDAU, Lauréat de la médaille Max Planck 1960, =5
- H et E. LIFCHITZ ||
- | MÉCANIQUE |
- — Ce livre est le premier volume d’un traité —
- SE complet de Physique. jsjjj
- ~ • Il traite des problèmes fondamentaux de la EE
- —— Mécanique théorique. es
- — • Un volume relié : 236 pages. . 10,50 N F —
- S franco. . 11,40 N F es
- ES Toutes librairies et à la ËE
- es LIBRAIRIE DU GLOBE, 21, rue des Carmes, Paris-5” ~
- E= C.C.P. Paris 6711.17. Es
- S Envoi gratuit sur demande du S
- Es Catalogue général des Éditions de Moscou ~
- Tlllllllllllillllllllllllllllllllllllllll en langue française llinilllllilllllllllllllllllllllllllllc
- --- VIENT DE PAITRE -______--------------------
- INITIATION
- A
- L’ÉLECTRONIQUE
- PAR PRÉFACE DU
- R. FAURE Général C. R. TOURNIER
- 376 pages 16 x 22, avec 160 figures. Broché sous couverture illustrée .-. 29 NF
- En vente dans toutes les bonnes librairies et chez
- DUNODi Éditeur, 92, rue Bonaparte. PARIS-6e. DAN. 99-15. C.C.P. PARIS 75-45
- 47
- p.47 - vue 50/560
-
-
-
- de clarté et il a été rédigé avec la même sympathie sans laquelle il n’est point d’ethnologie de bon aloi. Hormis une première partie d’une vingtaine de pages consacrée aux cadres généraux, ce travail se subdivise en trois parties d’inégale longueur : vie psychique (c’est-à-dire phénomènes religieux stricto et lato sensu), la famille (structure et coutumes familiales, cycle de vie), les personnes- et les biens (phénomènes juridiques autres que ceux relevant de l’organisation domestique et du cycle vital individuel). Une lacune : rien, ni dans ce volume, ni dans le précédent, sur les phénomènes esthétiques (jeux, arts, littérature orale). Outre les qualités d’observation propres à l’auteur, les conditions excellentes dans lesquelles l’enquête a été menée contribuent à faire de l’ouvrage une réussite remarquable ; plusieurs séjours répartis sur plus de vingt années ont permis de suivre l’évolution de la coutume à une époque où les changements sont particulièrement rapides et profonds. Très intéressante annexe sur le langage tambouriné ou sifflé. Copieuse bibliographie ; index alphabétique. — L. T.
- Commandos pour l’Univers, par Roger May.
- i vol. 13,5 X 21, 192 p., 16 p. de photos hors
- texte. Collection Découvertes. Marne, Paris,
- 1959. Prix : 9,60 NF.
- Ce livre raconte ce que fut la conquête de l’espace par les Russes et les Américains et émet quelques hypothèses sur le développement que l’on est en droit d’attendre des voyages spatiaux. Il envisage même des voyages vers un système planétaire autre que le système solaire, celui de l’étoile Alpha du Centaure. Ouvrage accessible à un très large public, y compris la jeunesse.
- L’énergie en Europe ; nouvelles perspectives.
- Rapport de la Commission consultative de l’Éner-
- gie. 1 vol. 15,5 x 24, 144 p. Publications de l’O. E. C. E., Paris, i960. Prix : 6 NF.
- Le groupe permanent d’experts de l’O. E. C. E., chargé de suivre les problèmes de l’énergie en Europe, fournit une évaluation des perspectives concernant les besoins et l’approvisionnement de l’Europe occidentale en énergie, ainsi qu’un examen des problèmes économiques, financiers et politiques qui y sont liés. Parmi les conclusions, retenons celles-ci : il résulte de l’expansion des économies européennes que la demande d’énergie primaire en Europe doit augmenter de 25 à 35 pour 100 entre 1955 et 1965 et de 58 à 83 pour 100 entre 1965 et 1975. On ne prévoit pas une pénurie d’énergie d’ici 1975. L’écoulement du charbon dépendra de la possibilité de le produire à un prix concurrentiel et son avenir semble subordonné à la possibilité de le transformer en formes secondaires d’énergie plus faciles à distribuer. Il existe une grande incertitude quant à l’énergie nucléaire. Il semble probable que les approvisionnements en gaz naturel augmentent dans des proportions plus importantes qu’on ne le prévoyait.
- La voix chantée, par Raoul Husson, docteur ès sciences. Préface du docteur André Mou-longuet, de l’Académie de Médecine. 1 vol. 17 X 24, xvi-204 p., 96 fig. Gauthier-Villars, Paris, i960. Prix : 23 NF.
- L’auteur est bien connu des lecteurs de Éa Nature. Dans l’analyse très fine et précise qu’il a faite des processus phonatoires, il a montré que la genèse physiologique de la voix chantée est très différente de celle de la voix parlée, faite d’une série de phénomènes aléatoires. La voix chantée est plus facile à analyser pour l’acousti-cien et le physiologiste et c’est son analyse qui a été à l’origine des découvertes de M. Husson.
- Sur ce point, grâce à lui, on dispose maintenant d’une doctrine à peu près complète. Il suffira d’énumérer les grands chapitres de ce livre pour en rappeler tout l’intérêt : commande cérébrale des cordes vocales ; classification chronaximétrique des tessitures ; mécanismes protecteurs du larynx ; analyse physiologique des techniques vocales et des grandes méthodes pédagogiques. Une véritable science de la voix humaine est née avec les travaux de l’auteur, suivi maintenant par de nombreux disciples et continuateurs. La physiologie générale, la médecine et la pédagogie de la voix doivent en recueillir les fruits.
- Les Chats, par Élian-J. Finbert. i vol. 18,5 X 23,5 de la collection Tout par l’image. Hachette, Paris, i960. Prix, cartonné : 12 NF.
- L’auteur aime et connaît bien les chats. Il a réuni sur leur histoire, leurs mœurs, leurs races une documentation qu’il met en œuvre de façon agréable et surtout il dépeint avec talent toutes les phases de leur vie, cherchant non sans bonheur à nous les faire comprendre. Peut-être aurait-il pu chercher à donner une idée plus précise des travaux qui ont tenté de percer les origines du chat domestique, au lieu de s’en tenir à un tableau ironique et sommaire des déconvenues scientifiques... Mais le livre est charmant et l’illustration fort bien choisie.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- VENDRAIS coll. compl. La Nature 1929-1959. Faire offre Aumônier, Mindin (L.-A.).
- Vient de paraître
- CÉRAMIQUE GÉNÉRALE
- NOTIONS DE PHYSICO-CHIMIE
- par C. A. JOUENNE
- Professeur à l’Ecole Nationale Supérieure de Céramique Industrielle de Sèvres
- Cet ouvrage, présenté en deux tomes, traite de l’ensemble des connaissances physicochimiques fondamentales pour aborder l'étude des techniques particulières à une industrie en pleine évolution. Il dépasse cependant le cadre de la céramique et sera particulièrement utile aux étudiants de faculté en minéralogie et en chimie minérale, ainsi qu’aux technicièns et aux chercheurs qui s’intéressent aux réactions des minéraux aux températures élevées.
- Tome I : 298 pages, 270 figures. Broché : 38 NF. Cartonné : 43 NF.
- Tome II : 408 pages, 183 figures. Broché : 40 NF. Cartonné : 45 NF.
- ANNUAIRE POUR L’AN 1961
- PUBLIÉ PAR LE BUREAU DES LONGITUDES AVEC UN SUPPLÉMENT POUR L’AN 1962
- Nouveauté
- L’ESSENTIEL DES MATHÉMATIQUES
- par Charles VIATTE
- Cet ouvrage a été écrit dans un but précis : mettre à la disposition de ceux qui sont arrivés à une certaine maturité intellectuelle, un livre où ils trouveront, sous forme aussi claire que possible, l’essentiel de ce qu’il faut connaître des mathématiques. Il n’est donc pas fait pour les « initiés », disons pour ceux qui ont pu faire des études secondaires complètes, sans difficultés particulières dans cette matière. Mais il voulait être pour tous les autres et notamment pour les adolescents ou adultes désireux d’acquérir une formation scientifique de base, clef d’une promotion sociale rapide
- 322 pages, 101 figures . . . 9,50 NF
- Quatre chapitres principaux PRÉDICTIONS POUR L’ANNÉE 1961 TERRE
- ASTRONOMIE
- DONNÉES GÉOGRAPHIQUES ET DÉMOGRAPHIQUES
- Hors-texte
- Carte gravimétrique et carte magnétique de la France.
- Positions successives des pôles célestes de l’équateur.
- Signaux horaires. — 6 cartes célestes.
- Notices
- Le grand télescope de l’Observatoire de Haute-Provence, par A. Couder. Les satellites artificiels, par P. Muller.
- Le R. P. Pierre Lejay, par P. Tardi.
- Tableau général des unités de mesures légales.
- In-8, 724 pages. Broché : 40 NF. Cartonné : 45 NF.
- GAUTHIER-VILLARS» 55, Quai des Grands-Augustins, Paris-Vle
- Le gérant : F. Dunod. — bunod, éditeur, paris. — dépôt légal : ier trimestre 1961, n° 3737. — Imprimé en France.
- IMPRIMERIE P4RNÉOUB S. A. (3ia566), LAVAL, N° N° 4203. — 1-1961.
- 48
- p.48 - vue 51/560
-
-
-
- Record actuel ’énergie
- rayons cosmiques
- par Jacques Fouchet
- Deux milliards de fois celle des particules dans les plus grands accélérateurs
- AVolcano Ranch, propriété située à 2 000 m d’altitude et à une trentaine de kilomètres d’Albuquerque (Nouveau-Mexique), on peut voir un plateau herbeux parsemé d’appareils étranges. On ne les aperçoit qu’à courte distance car il s’agit de disques de matière plastique de 1 m de diamètre et de 10 cm d’épaisseur, installés à même le sol. Disposés en 19 groupes de 4 sur une surface de 4 km2, ils sont recouverts de matière fluorescente et servent à détecter les rayons cosmiques qui leur viennent de l’espace.
- Or, en août dernier, l’Institut technologique du Massachusetts (M. I. T.) a annoncé qu’un rayonnement particulaire d’une énergie exceptionnelle avait frappé les appareils que nous venons d’évoquer. La calculatrice électronique chargée de dépouiller les enregistrements n’avait même pas réussi, de prime abord, à donner la solution indiquant le niveau total de l’énergie. Il avait fallu la régler spécialement en vue d’une analyse plus complète. Et cette analyse révélait qu’un rayon cosmique d’une énergie de 2 à 4 x io19 eV avait atteint notre atmosphère, énergie deux milliards de fois supérieure à celle des protons accélérés dans les synchrotrons de Genève et de Brookhaven, où leur vitesse atteint déjà 99 pour 100 de celle de la lumière.
- Avant de décrire avec un peu plus de détail l’appareillage de Volcano Ranch et les résultats qu’on peut en tirer, rappelons par quels procédés on a jusqu’ici décelé et analysé les rayons cosmiques.
- C’est vers 1900 qu’on découvrit, dans les gaz que contenaient des appareils de laboratoire, des phénomènes d’ionisation spontanée dont l’origine était inexpliquée. On pensa d’abord que cette ionisation pouvait' être due à l’agitation thermique qui aurait fourni assez d’énergie pour arracher les électrons de quelques atomes et les transformer en ions positifs, porteurs d’un excès de charge de ce signe ; les électrons libérés se seraient aussi fixés en surnombre sur d’autres atomes pour en faire des ions négatifs. Mais on s’aperçut bientôt que la présence d’un blindage suffisant autour d’un récipient de gaz y diminuait grandement l’ionisation. Celle-ci était donc causée par un agent extérieur. La radioactivité du sol ? Mais l’ionisation se produisait tout aussi bien en pleine mer.
- En 1912, Hess, transportant un électroscope en ballon
- jusqu’à 5 000 m, montra que le phénomène s’accroissait régulièrement avec l’altitude. L’agent mystérieux se situait donc dans la haute atmosphère ou plus loin encore. Cependant c’est en 1926 seulement qu’on admit qu’un rayonnement venait de l’espace, rayonnement extrêmement puissant puisqu’on pouvait en déceler les effets jusque dans les mines à 1 000 m sous terre, ou sous une profondeur d’eau équivalente. On découvrit peu après un effet de latitude : l’intensité du rayonnement diminuait à l’approche de l’équateur (Clay, 1927 ; Compton, 1933).
- De quoi se composaient ces « rayons cosmiques » ? Grâce aux compteurs de particules et aux chambres à détente, on y distingua deux composantes principales : une composante molle d’électrons et de photons (rayons y), et une composante dure, formée principalement de particules de masse intermédiaire entre celle du proton et celle de l’électron ; ce sont les « mésons », dont l’existence avait été prévue théoriquement par Yukawa (1935) et qui furent découverts par Anderson en 1938.
- Rappelons maintenant comment on peut mettre en évidence les trajectoires, les charges et les masses des particules.
- Détection, identification et mesure des particules cosmiques
- Les compteurs de Geiger-Müller contiennent des électrodes chargées qui accélèrent les ions formés par une particule incidente au point de provoquer une décharge, une impulsion, qui est ensuite amplifiée afin de signaler le passage de la particule. En montant plusieurs compteurs en série on peut théoriquement connaître la trajectoire qui les traverse les uns après les autres, mais l’identification de la particule est impossible. Une telle identification est au contraire réalisable dans la chambre à détente de Wilson.
- La chambre à détente de Wilson. — Comme les compteurs, la chambre à détente de C. T. R. Wilson (prix Nobel, 1927) met à profit le fait que des particules chargées électriquement ionisent les gaz qu’elles traversent, c’est-à-dire arrachent des électrons aux atomes, créant ainsi des ions négatifs (les électrons) et des ions positifs (les atomes privés d’un ou plusieurs électrons). Ensuite elle utilise
- 49
- p.49 - vue 52/560
-
-
-
- p.50 - vue 53/560
-
-
-
- Fig. i (ci-contre). — Chambres à détente de Wilson superposées à l’Observatoire du Pic du Midi.
- Le déplacement des pistons, destinés à mettre en état de sursaturation l’atmosphère des chambres, est commandé par des compteurs de Geiger fonctionnant en série et annonçant l’arrivée d’une particule. Les plaques métalliques claires, au-dessus de la chambre du haut, appartiennent à ces compteurs. Un autre étage de compteurs existe entre les deux chambres (correspondant à la plaque à trous munie de fils). La photo de la couverture a été prise dans la chambre du bas, située dans le bâti métallique. D’un volume de 200 litres, elle est la seule à contenir des écrans. Les électro-aimants qui produisent le champ magnétique destiné à courber les particules sont sur les côtés ainsi que les lampes qui illuminent la chambre au moment voulu. Les appareils photographiques se trouvent sur la face cachée. Le dispositif est en état de fonctionnement jour et nuit.
- (Photo aimablement communiquée par le professeur Leprince-Ringuet).
- un phénomène absolument semblable à celui de la formation des gouttes de pluie. Les gouttes de pluie résultent de la condensation de la vapeur d’eau qui se trouve dans l’atmosphère. Cette condensation se produit lorsque, dans l’atmosphère saturée de vapeur, la température vient à baisser. Cependant dans une atmosphère qu’on pourrait qualifier de très propre, la condensation ne se produit pas malgré l’abaissement de la température. Il y a alors ce qu’on appelle une sursaturation. La condensation ne se produit que s’il y a des germes, soit déjà des gouttelettes d’eau, soit des poussières ou de petits cristaux, ou encore des ions, sur lesquels l’eau vient se condenser.
- La chambre à détente est donc en quelque sorte une expérience de pluie artificielle. C’est une grande cage ou un grand cylindre dans lequel se meut un piston (fig. 1). La chambre est remplie d’air sous pression et saturé de vapeur d’eau. On agit sur le piston de façon à produire une brusque détente de l’air saturé. On sait que dans ces conditions on provoque un abaissement de la température et l’air qui était saturé de vapeur devient sursaturé. Néanmoins, s’il n’y a aucun germe dans l’air de la chambre, aucune condensation ne se produit. Mais supposons qu’au même instant une particule ionisante, par exemple
- Fig. 2. — Chambre à bulles à propane liquide en fonctionnement
- à Saclay.
- La chambre à bulles proprement dite, d’une capacité de 16 litres, est située au centre du dispositif. La structure ramassée de l’appareil, construit par le C.E. A., a permis de réduire l’entrefer de l’électro-aimant et d’augmenter l’intensité du champ magnétique (16 000 gauss).
- (Photo C. E. A.).
- un proton, vienne de traverser la chambre. Sur tout son parcours il a arraché des électrons aux atomes. Tous les ions qu’il a produits ainsi sont des germes autour desquels la vapeur d’eau se condense presque instantanément, et le parcours du proton dans la chambre est rendu visible par une traînée de gouttelettes.
- On peut placer la chambre à détente dans un champ électrique ou magnétique. Les particules chargées auront ainsi leur trajectoire courbée, et la courbure de cette trajectoire renseignera sur leur signe et sur leur énergie, les particules légères étant beaucoup plus déviées que les particules lourdes, et les particules lentes plus que les rapides. L’épaisseur de la trace, c’est-à-dire le nombre de gouttelettes formées par une particule, sera prise en considération dans les calculs ainsi qu’un phénomène appelé scattering qui consiste en de légères déviations d’une trajectoire au voisinage de charges électriques déjà présentes dans le milieu.
- En interposant des écrans métalliques à l’intérieur de la chambre, on peut juger de l’aptitude des particules à les traverser et voir si par collision avec les atomes du métal elles feront apparaître des trajectoires supplémentaires (voir la figure de la couverture). Au sein même du gaz de la chambre, il arrive qu’un atome soit brisé en plusieurs fragments par le choc d’une particule incidente ; ce qui donnera lieu à une « étoile » dont les branches sont autant de trajectoires qui apportent des précisions sur la constitution de l’atome éclaté. Certaines particules se désintègrent d’elles-mêmes en fragments plus légers ; les trajectoires de ces fragments forment des angles qui permettent de calculer les énergies transportées. Il est le plus souvent nécessaire d’introduire dans les calculs des « corrections relativistes » car les particules sont animées de vitesses qui ne sont pas très petites par rapport à celle de la lumière. Conformément à la rela-
- Fig. 3, — Une chambre à bulles de l’Université de Californie, à Berkeley.
- La chambre proprement dite, contenant 700 litres d’hydrogène liquide, se trouve au centre du puissant électro-aimant que l’on voit ici. L’hydrogène a l’avantage d’être un milieu homogène, où les seuls noyaux d’atome sont des protons. L’étude des trajectoires des particules s’en trouve simplifiée.
- (Photo U. S. I. S., aimablement communiquée par le Centre culturel américain).
- 51
- p.51 - vue 54/560
-
-
-
- tivité, de telles vitesses modifient largement les masses.
- Le professeur Leprince-Ringuet et son équipe utilisent à l’Observatoire du Pic du Midi une chambre de Wilson de 76 X 76 X 40 cm, située dans un champ magnétique de 3 500 gauss (fig. 1). On peut ainsi étudier des particules de io9 eV dont la trajectoire a, dans un tel champ, un rayon de courbure de 10 m. En effet, si la trace peut être suivie sur 70 cm, la flèche est de l’ordre du centimètre.
- La chambre à bulles de Glaser. — Plus récemment on a utilisé la « chambre à bulles » (fig. 2 et 3) imaginée par M. Donald Glaser (prix Nobel, 1960) où l’on met à profit le phénomène inverse de la sursaturation, à savoir la surchauffe d’un liquide, autrement dit le retard à sa vaporisation. On sait que si l’on cherche à faire bouillir de l’eau parfaitement privée de gaz dissous, par exemple de l’eau déjà longuement bouillie, on constate que l’on atteint la température de ioo° C sans que l’eau se mette à bouillir. On évite ce phénomène dans les chaudières en y plaçant une matière poreuse, où l’ébullition puisse toujours s’amorcer. Or les particules électrisées, qui servent de germes de condensation, peuvent tout aussi bien servir de germes de vaporisation. On comprend alors facilement le principe de la chambre à bulles. C’est une enceinte, munie d’un piston comme la chambre de Wilson. On la remplit d’un liquide (éther, propane, ou hydrogène liquide) au voisinage de son point d’ébullition et maintenu sous une pression constante, supérieure à sa tension de vapeur saturante. Puis on produit une brusque décompression qui a pour effet d’abaisser la température d’ébullition, ce qui équivaut à mettre le liquide dans l’état surchauffé. Si aucun germe n’est présent, il ne se passe rien. Mais si une particule ionisante vient de traverser le liquide, tous les ions qu’elle a créés sur son parcours s’entourent de bulles de vapeur très fines, qui dessinent sa trajectoire, tout comme les gouttelettes dans la chambre de Wilson.
- Fig. 4. — Collision de particules dans une chambre à bulles.
- Un peu au-dessous du centre de la photo, un noyau a éclaté en étoile ; le V renversé qui apparaît au-dessous résulte de la désintégration d’une particule neutre dont le parcours, depuis le centre de l’étoile, est invisible. Sous l’influence du champ magnétique, les trajectoires des particules chargées s’incurvent et le rayon de courbure diminue au fur et à mesure que les particules perdent de la vitesse par freinage dans ce milieu dense.
- La chambre à bulles présente divers avantages par rapport à celle de Wilson. Le milieu liquide étant plus dense, collisions et explosions y sont bien plus nombreuses. On y décèle mieux le passage des particules neutres, comme les neutrons, qui ne produisent pas d’ions directement, et dont l’énergie se déduit de la trajectoire de recul des particules chargées qu’elles heurtent au passage. Une particule neutre peut aussi se désintégrer spontanément en deux fragments plus légers de signes contraires. Par exemple on voit apparaître dans la chambre deux trajectoires qui forment un V ; l’angle des branches du Y fournit des précisions utiles pour la détermination des particules ; la trajectoire de la particule neutre qui est à l’origine du Y se trouve dans le plan des deux branches. Les photons y laissent une trace en formant des paires d’électrons de signes contraires, qui apparaissent de loin en loin et déterminent ainsi la trajectoire invisible. Bien entendu un champ magnétique est aussi créé dans la chambre à bulles pour incurver les trajectoires des particules chargées (fig. 4).
- La croissance des bulles étant plus rapide que celle des gouttelettes, on peut les photographier plus vite, avant que l’agitation du milieu les ait déplacées, et les trajectoires photographiées sont ainsi plus conformes aux trajectoires réelles que dans la chambre de Wilson.
- Émulsions photographiques. — Les rayons cosmiques étant partiellement absorbés par l’atmosphère, il est intéressant de les observer à la plus haute altitude possible. A cet égard de lourds appareils comme les chambres à détente ne sont pas toujours d’un emploi commode. Dans bien des cas, on leur substitue une autre technique, celle des émulsions photographiques épaisses. Ces émulsions sont sans support de verre et atteignent une épaisseur de 1 mm. Leur concentration en grains de bromure d’argent est considérable (90 pour 100), de sorte qu’elles sont facilement impressionnées dans toute leur profondeur par les particules incidentes. On peut même les empiler de façon que les traces des trajectoires se continuent d’une émulsion à l’autre. Leur développement pose quelques problèmes ainsi que leur examen qui est très laborieux, se faisant au microscope sur des séries de coupes minces dans tout le volume de la gélatine ; en outre il est difficile d’y distinguer les événements qui se sont succédé pendant toute la durée d’exposition.
- En revanche la méthode des émulsions a de grands avantages : accumulation et conservation des traces ; étoiles plus nombreuses dans un milieu de densité élevée ; faculté de faire varier le temps de pose avec l’altitude ; légèreté enfin d’un appareillage qu’il est aisé de transporter en ballon ou en fusée et même au sommet des montagnes. C’est ainsi que le professeur Eugster, de l’Université de Zürich, avait confié des émulsions épaisses à Sir Edmund Hillary quand celui-ci fit l’ascension de l’Everest. Mais dans l’ivresse de la victoire, le célèbre alpiniste oublia les plaques près du sommet, au col Sud !
- Scintillateurs. — Enfin les rayons cosmiques peuvent être décelés et leur énergie mesurée par des appareils dont le principe est connu depuis longtemps, mais qui se sont beaucoup développés récemment pour la détection de toutes les radiations. Ce sont les scintillateurs, où l’impact d’une particule provoque l’excitation des électrons des atomes dans une substance appropriée ; les électrons y reviennent à leur état initial dans un temps très court, en
- p.52 - vue 55/560
-
-
-
- Collision nucléaire
- Production de paires
- e~ e+ e~
- TC~ 7T° TT~7T*'
- Production d'un rayon T
- e~ e+ X
- yyw www
- e~de choc
- émettant des photons qui excitent à leur tour un photomultiplicateur à électrons (cellule photoélectrique suivie d’un amplificateur) dont les impulsions peuvent être transmises à un oscillographe et enregistrées. Ce sont des appareils de ce genre qui fonctionnent à Volcano Ranch et nous verrons plus loin comment ils y sont exploités.
- Les grandes « gerbes » de l’air
- Les rayons cosmiques qui, arrivant de l’espace, pénètrent dans la haute atmosphère terrestre sont appelés rayons ou particules primaires, par opposition aux particules secondaires, auxquelles ils donnent alors naissance après collision avec un atome. Les observations à haute altitude ont montré que la majeure partie des particules primaires sont des protons (noyaux d’hydrogène ordinaire). On pouvait prévoir qu’il s’agissait de particules porteuses d’une charge électrique à cause de 1’ « effet de latitude » : si le rayonnement cosmique est moins intense à l’équateur qu’aux pôles, c’est que le champ magnétique terrestre dévie les particules. Outre les protons, on note aussi des particules a (noyaux d’hélium), des noyaux de carbone et de fer ; le rayonnement primaire ne contient pas d’électrons libres.
- Une particule primaire pénétrant dans l’atmosphère ne tarde pas à y heurter un atome qui l’absorbe et, sous l’effet de l’énorme énergie absorbée, se désintègre en fragments secondaires, eux-mêmes animés d’une énergie considérable. Ceux-ci provoquent de nouvelles collisions qui se répercutent en cascade et forment de véritables averses de particules. Ce sont les grandes gerbes de l’air, découvertes par M. Pierre Auger. Bien entendu les particules qui touchent le sol ne possèdent plus qu’une faible partie de l’énergie du proton primaire qui les a engendrées. Cette énergie s’est réduite à chaque génération, mais si l’on dispose d’un appareillage ayant une base suffisante pour évaluer le nombre de particules contenues dans la gerbe, l’énergie
- Fig. j. — Schéma de la formation d’une gerbe de rayons cosmiques., Un noyau primaire, généralement un proton (p) est entré en collision avec un atome de l’air (dans le haut de la figure). Il en résulte une averse de neutrons («), de protons (p), de mésons tt et p, d’électrons (e), de rayons y, de neutrinos (v), d’antiprotons (p), d’antineutrons («), etc. Explication dans le texte.
- (Imité de Scientific American).
- du noyau primaire est calculable. Dans le cas où cette énergie atteint io16 eV les particules formées se comptent par millions et peuvent couvrir des surfaces de l’ordre de l’hectare. C’est justement à cause de leur étendue que les installations de Volcano Ranch présentent tant d’intérêt. Mais avant d’en préciser le fonctionnement il faut nous arrêter à l’énumération des particules et à leurs interactions.
- Quand la particule primaire détruit un atome d’oxygène ou d’azote de l’air (fig. 5), il se forme bien entendu d’autres protons ainsi que des neutrons qui proviennent de la désintégration de cet atome et provoquent à leur tour des explosions secondaires. Il apparaît aussi des mésons, que l’on considère comme la matérialisation corpusculaire de l’énergie de liaison des noyaux atomiques (prévus pour cela par Yukawa avant leur découverte). La désintégration d’un noyau libère des mésons tc qui peuvent être positifs (tt+) ou négatifs (tc~), de masse 273 me (me, masse de l’électron), ou encore neutres (u0), de masse 263 me.
- Les mésons tc+ et vr se désintègrent spontanément (au bout de 2,5 x io~8 s environ) respectivement en mésons et fx~ plus légers (masse, 206 me), avec libération d’un neutrino (v), corpuscule de masse nulle ou quasi nulle qui emporte une part de l’énergie. Les mésons disparaissent en donnant deux photons y qui créent chacun une paire d’électrons de signes contraires, électrons qui à leur tour, en perdant de leur énergie par freinage au voisinage d’un atbme, donnent naissance à de nouveaux photons y moins énergiques que les précédents mais qui peuvent encore produire des paires d’électrons, et ainsi de suite, le processus se renouvelant plusieurs fois. Les mésons [x+ et [T- se désintègrent (au bout de 2,2 x io~6 s
- 53
- p.53 - vue 56/560
-
-
-
- Fig. 6. — Création et désintégration de particules lambda et antilambda.
- Dans la chambre à bulles géante de Berkeley, on voit pénétrer par en bas un antiproton (p). Sa trajectoire s’arrête et, après un vide, il apparaît deux traces en V. Dans la partie vide se trouvent en réalité les trajectoires d’un hypéron lambda (A°) et de son antiparticule (A°) (en pointillé sur le schéma). Ces particules étant neutres (signe °), elles ne forment pas de bulles et sont invisibles. Le V de droite est produit par la désintégration du lambda qui donne naissance à un proton (fi) et à un méson 7t~ (négatif). Le V de gauche résulte de la désintégration de l’antilambda qui forme un méson 7t+ (positif) et un antiproton (fi) (négatif). L’antiproton donne enfin une étoile de quatre mésons n, deux positifs et deux négatifs. Les trajectoires des particules positives et négatives sont incurvées en sens contraires par le puissant champ magnétique que le grand électro-aimant fait régner dans la chambre (Photo U. S. I. S.).
- 54
- p.54 - vue 57/560
-
-
-
- environ) respectivement en électrons e+ et e~, avec libération d’un neutrino.
- Malgré leur vie brève et en raison de leur grande vitesse, les mésons libérés par l’impact d’une particule primaire de très grande énergie parviennent au sol en grand nombre et constituent la partie principale de la composante dite dure, ou pénétrante, du rayonnement cosmique, capable de traverser de grandes épaisseurs de plomb et de s’enfoncer très loin sous la surface du sol (fig. 5).
- On découvre aussi dans le rayonnement secondaire des mésons lourds K, de masses comprises entre 951 et 972 me, et des hypérons, particules de masses diverses, supérieures à celle du proton (hypérons E, 2 et A), dont la vie est beaucoup plus brève encore que celle des mésons. On sait notamment que le E~ se désintègre en A0 et tt. Selon Rossi, le rayonnement secondaire contient aussi des antiprotons (protons négatifs) et des antineutrons. On sait que proton et antiproton, neutron et antineutron, électrons e+ et e~, mésons 7i+ et tt~, et p~, etc., forment des couples particule-antiparticule qui, en se rencontrant, s’annihilent mutuellement, leur énergie étant finalement convertie en photons y. Comme le neutron, les hypérons neutres (2°, A0, etc.) ont aussi leurs antiparticules (2°, A0, etc.) (fig. 6).
- Le grand dispositif à scintillateurs de Volcano Ranch
- Les gerbes de particules cosmiques sont plus ou moins « fournies » selon l’énergie de la particule primaire qui les a engendrées. Par exemple un proton primaire de io10 eV seulement (de l’ordre de l’énergie des particules dans les grands accélérateurs) donnera lieu à une gerbe qui n’atteindra pas le sol, ce que fera au contraire la gerbe issue d’un proton de io16 eV, qui produit des millions de particules. Le « spectre énergétique » (suite des énergies individuelles croissantes) des rayons primaires est assez étendu : il va de io9 eV à io18 eV ; ce dernier chiffre était considéré comme voisin du maximum avant l’annonce faite l’été dernier par le M. I. T. Mais le nombre des particules décroît rapidement avec l’accroissement de l’énergie individuelle. Ainsi, à la limite supérieure de l’atmosphère, il passe environ
- I 000 particules par mètre carré et par seconde ; une seule sur 10 milliards atteint une énergie de io16 eV, et il y a encore 10 000 fois moins de io18 eV.
- Il est heureux que l’atmosphère étale sur une grande surface les gerbes issues des particules primaires les plus énergiques : on a ainsi plus de chances de les découvrir. Ces chances sont encore accrues si l’on utilise un dispositif étendu où les détecteurs sont répartis à d’assez grandes distances les uns des autres, comme ceux que le professeur Bruno Rossi, du M. I. T., a mis en service à Volcano Ranch, où le diamètre du dispositif mesure 2 km. Celui précédemment utilisé par le M. I. T. était situé à la Station astronomique Agassiz, de l’Université de Harvard et n’avait qu’un diamètre de 460 m. A présent les appareils d’Agassiz ont été expédiés en Bolivie à l’Université Saint-André de La Paz où ils sont un peu plus dispersés et couvrent une surface de 700 m de côté. Enfin, un groupe plus modeste, de 36 m de diamètre, a été installé aux Indes à Kodaikanal.
- II n’en a pas moins catalogué jusqu’ici plus de 100 000 gerbes, correspondant à des énergies primaires de io14 à io1* eV.
- Les particules d’une grande gerbe se comptant par millions, chaque détecteur en reçoit un nombre appréciable. Bien entendu, ce nombre varie selon que le détecteur se trouve plus ou moins près du centre de la surface atteinte par l’averse de particules. La densité des particules est la plus forte au centre, là où le proton primaire aurait frappé le sol s’il avait pu y parvenir. Elle diminue progressivement en allant vers la périphérie. Pour fixer les idées, un détecteur de 1 m2 recevra encore quelques particules s’il est placé à 150 m du centre d’une averse de io6 particules. Pour une gerbe xoo fois plus dense (io8 particules) le même détecteur sera encore atteint à 700 m du centre. On voit qu’un dispositif insuffisamment étendu risque de ne pouvoir déceler l’importance d’une gerbe s’il n’est atteint que par sa frange.
- Les particules d’une gerbe voyagent à une vitesse proche de celle de la lumière et leur ensemble forme un disque mince, dont le front nettement défini est perpendiculaire à sa direction de propagation (fig. 7). Dans ces conditions les particules qui traversent la surface fluorescente d’un détecteur l’atteignent pratiquement de façon simultanée. Il en résulte, dans le scintillateur, un « flash » lumineux unique dont l’éclat dépend du nombre de particules reçues. Au centre de chaque détecteur se trouve un photomultiplicateur qui convertit le flash en impulsion électrique proportionnelle à son éclat. L’impulsion est transmise par câble à un oscilloscope. Il y a autant d’oscilloscopes que de détecteurs et ils se trouvent montés en coïncidence dans, une station centrale.
- Si la gerbe tombe verticalement, il est clair que tous les. enregistrements seront simultanés. Mais si la direction des particules incidentes est oblique par rapport au sol, les détecteurs situés aux extrémités d’un dispositif de 2 km de diamètre seront atteints à des intervalles de temps de l’ordre du milliardième de seconde. Les oscilloscopes sont assez.
- •y. 7. — Schéma du dispositif de Volcano Ranch et de l’arrivée d’une grande gerbe cosmique.
- Les points groupés par quatre figurent les 19 groupes de 4 scintillateurs répartis sur une surface de 4 km2. Le front de la gerbe est un disque de particules chargées qui. dans cette figure, atteint obliquement l’aire de détection. Explications dans le texte.
- (Imité de Bruno Rossi, Scientific American).
- précis pour que leurs pointes d’enregistrement ne soient pas simultanées, tandis que la hauteur des pointes varie selon la grandeur de l’impulsion, chaque impulsion dépen-
- 55
- p.55 - vue 58/560
-
-
-
- dant du nombre des particules qui ont frappé le détecteur correspondant. De cette façon, on peut d’une part connaître le point de la voûte céleste d’où proviennent la gerbe et sa particule initiale (fig. 8), d’autre part estimer la densité particulaire en divers points, par là reconstituer l’ensemble de la gerbe et calculer l’énergie de la particule primaire. L’analyse est opérée par la calculatrice électronique de la base aéronautique de Kirtland.
- Zénith
- Fig. 8. — Calcul de l’angle d’arrivée d’une gerbe.
- Deux particules arrivent simultanément en A et A'. Mais celle qui arrive en A' fait un trajet supplémentaire A'B pour atteindre les détecteurs placés au sol. Sachant que les particules voyagent à une vitesse voisine de celle de la lumière on peut calculer l’angle zénithal d’arrivée.
- L’origine des rayons cosmiques
- Depuis qu’on étudie les rayons cosmiques, on a observé qu’ils arrivaient de toutes les directions de l’espace. Leur répartition diurne ne varie que peu, sauf au moment des éruptions solaires, mais la contribution du Soleil doit être faible (0,1 pour 100 du rayonnement total) et il ne semble pas que les particules qu’il émet dépassent 5 X io9 eV. D’autre part les rayons cosmiques ne sont pas plus abondants au moment du passage de la Voie Lactée au zénith du lieu d’observation. Une des causes doit en être cherchée dans l’existence du champ magnétique terrestre (fig. 9). Quoique celui-ci soit faible (inférieur à un gauss au niveau de la mer), il suffit à courber les trajectoires des particules et à écarter de la Terre celles dont l’énergie est au-dessous de io9 eV. A cause de l’effet de latitude, le rayonnement cosmique n’atteint à l’équateur que 30 pour 100 de celui qu’on observe aux environs des pôles magnétiques. Cela tient à ce que les particules traversent moins facilement le champ magnétique quand leur direction est perpendiculaire aux lignes de force de ce champ, ce qui est le cas au niveau de l’équateur (fig. 10 a). Vers le pôle au contraire un rayonnement d’énergie très inférieure à io9 eV peut parvenir à la Terre puisqu’il se déplace parallèlement au champ (fig. 10 b). Quant aux noyaux primaires dépassant io9 eV, leurs trajectoires sont d’autant moins infléchies qu’ils sont plus énergiques ; de sorte qu’ils finissent par être tout à fait insensibles au champ. La direction de l’espace d’où ils proviennent est alors parfaitement précisée par l’angle d’arrivée de leurs gerbes.
- Mais alors, ne pourrait-on localiser dans la Galaxie le point de départ de l’un de ces rayons primaires très énergiques ? Dans ce cas il faudrait tenir compte des champs
- magnétiques interstellaires qui baignent notre galaxie et paraissent atteindre dans les bras spiralés leur maximum d’intensité; Ces champs courbent beaucoup moins que le champ terrestre la trajectoire des particules cosmiques. Mais comme les échelles de distance y sont beaucoup plus longues, il faut que le rayon de courbure de la trajectoire dépasse mille années-lumière pour que le rayonnement échappe au disque galactique dont l’épaisseur est de cet ordre. Cela ne se produit que pour les rares particules dont l’énergie atteint io17 à io18 eV. A partir de ce niveau la propagation tend à être rectiligne d’après les calculs basés sur l’intensité du champ galactique qui n’est que de quelques millionièmes de gauss. On peut dire que vers io18 eV, une particule est si rapide qu’elle arrive en ligne droite de sa source quels que soient les champs magnétiques interposés. Dans ces conditions nous devrions voir les rayons cosmiques les plus énergiques venir de la direction de la Voie Lactée et particulièrement de la région du Sagittaire où se trouve le noyau central de la Galaxie. On sait que la Voie Lactée, telle que nous la voyons dans le ciel, correspond au profil du disque galactique où devraient justement se concentrer les sources de rayonnement les plus intenses : novæ, supernovæ, ou peut-être simplement nuages de gaz et de poussière en état de turbulence. Or l’origine des particules les plus énergiques qu’on ait décelées jusqu’ici paraît se situer au hasard, aussi bien hors du plan de la Galaxie. On peut imaginer que des sources cosmiques sont localisées dans le halo galactique qui est grossièrement délimité par les amas globulaires et contient aussi des étoiles isolées, des nébuleuses planétaires et peut-être des nuages de gaz. Mais nous n’avons aucune confirmation de cette
- Fig. 9. — Lignes de force du champ magnétique terrestre.
- Le champ a été schématisé d’un seul côté.
- hypothèse. De toutes façons c’est le noyau central de notre galaxie qui devrait statistiquement contenir le plus grand nombre de sources puissantes.
- D’autre part, on a suggéré que les particules cosmiques naîtraient de toutes les étoiles à des énergies relativement faibles, inférieures à io9 eV, comme c’est le cas pour le
- 56
- p.56 - vue 59/560
-
-
-
- Soleil. Ces particules seraient ensuite accélérées progressivement par les champs magnétiques galactiques. Selon Enrico Fermi, il y aurait gain d’énergie pour une particule chaque fois qu’elle passerait d’un nuage de gaz à un autre, ces nuages étant toujours associés à des champs magnétiques variables. Mais dans cette hypothèse aussi, les trajectoires des particules cosmiques cessent d’être suffisam-
- même une bombe H n’en utilise qu’une faible partie. Or, selon Bruno Rossi, l’énergie cinétique d’un proton de io19 eV est égale à environ io milliards de fois celle emmagasinée dans sa masse au repos. Il faudrait un accélérateur de particules un milliard de fois plus puissant que ceux que l’on construit aujourd’hui pour produire des énergies de cet ordre.
- Fig. io. — Trajectoires de particules de faible énergie dans le champ magnétique terrestre.
- En a, dans le plan équatorial, on voit que la plupart des particules sont repoussées par le champ magnétique. En b, les particules même les moins énergiques peuvent atteindre le pôle car elles se meuvent alors parallèlement au champ. (D’après Cachon, Jauneau et Daxjdin).
- ment courbées pour demeurer dans le plan de la Galaxie : au-dessus de io17 eV, le rayonnement se perd dans les abîmes intergalactiques. De sorte que celui qui nous parvient avec cette énergie serait pointé directement vers la Terre et devrait paraître localisé dans la région de la Voie Lactée. Comme ce n’est pas le cas, il est vraisemblable qu’un tel rayonnement est en partie d’origine extra-galactique.
- Un record d’énergie
- L’annonce faite l’été dernier par le M. I. T. l’avait été avec quelque retard : c’est en réalité du 3 décembre 1959,
- 9 mn après minuit, que datait l’arrivée à Volcano Ranch d’une gerbe exceptionnelle de rayons cosmiques. La feuille d’enregistrement n° 026508 avait bien paru exceptionnelle à Irma Argandona, la jeune auxiliaire qui l’avait recueillie. Cependant cette feuille, mêlée à d’autres, ne fut envoyée qu’avec un certain délai à la calculatrice électronique de Kirtland. Quand la feuille revint à Volcano Ranch, MM. Linsley et Scarsi, directeurs du centre, furent surpris de l’aspect incomplet des solutions inscrites par la calculatrice. Après quelques vérifications faites avec leurs règles à calcul, ils décidèrent de renvoyer la feuille à Kirtland en vue d’une analyse complète. Quand ils l’eurent de nouveau, la vraie solution était cette fois écrite en toutes lettres. La gerbe cosmique qui avait frappé le sol le 3 décembre 1959 ne comportait pas moins d’un milliard de particules et provenait d’un noyau primaire dont l’énergie atteignait entre 2 et 4 x io19 eV. Le précédent record, enregistré à Agassiz, n’était que de l’ordre de io18 eV, soit environ
- 10 fois moins élevé.
- On imagine mal comment une particule peut atteindre de telles énergies. Celle contenue dans, la masse au repos d’un noyau atomique est déjà considérable puisqu’on sait qu’elle est donnée par la formule célèbre : E — MC2, où M est la masse et C la vitesse de la lumière. Cependant
- Nous voyons donc que si des particules 100 fois moins énergiques (io17 eV) peuvent être considérées comme insensibles aux champs magnétiques, à plus forte raison celle qui était responsable de la gerbe de décembre 1959 à Volcano Ranch devait se propager en ligne droite. Comme cette particule provenait d’une région du ciel assez éloignée de la Voie Lactée, il est raisonnable de situer son origine dans quelque autre galaxie, peut-être éloignée de milliards d’années-lumière. Un projectile cosmique de cette énergie est capable dé voyager indéfiniment dans le vide de l’espace à une vitesse voisine de celle de la lumière. Mais peut-être vient-il de plus loin encore. Il existe une théorie cosmologique qui veut que l’Univers soit né d’une gigantesque explosion primordiale. Il n’est pas .interdit d’imaginer que le noyau primaire de Volcano Ranch en provienne directement...
- Jacques Fouchet.
- 57
- p.57 - vue 60/560
-
-
-
- Pourquoi des oiseaux se frottent-ils avec des fourmis ?
- par Lucien Chopàrd
- Depuis une trentaine d’années l’attention des ornithologistes et des amateurs d’oiseaux a été attirée dans certains pays et surtout en Angleterre sur le singulier comportement que provoque chez certains oiseaux la présence des fourmis. Les auteurs qui s’en sont occupés ont même dû créer le mot anting pour désigner l’ensemble des faits observés ; la traduction française « bains de fourmis » qu’on en a donnée est inexacte et ne peut s’appliquer, à la rigueur, qu’à une partie de ces faits. Faute de mieux, je lui préfère le terme « formicage », plus vague, mais répondant mieux à l’idée qu’évoque le mot anglais. C’est vers le commencement du siècle qu’on trouve quelques brèves notes sur le formicage et une première description un peu détaillée en a été donnée par Osmaton en 1909, dans le Journal of the Bombay natural History Society. Il faut, toutefois, attendre jusqu’en 1934 pour avoir une étude d’ensemble sur cette question, publiée par l’ornithologiste australien A. H. Chisholm dans son ouvrage sur les mœurs des oiseaux d’Australie. Une causerie prononcée en 1938 à la B. B. C. a valu à cet auteur une quantité de lettres relatant des observations plus ou moins précises sur ce comportement, mais présentant toutes certains détails concordants. On peut donner une idée de cette curieuse correspondance en citant le fait raconté par un amateur d’oiseaux qui possédait une pie apprivoisée. Cette pie, ayant saisi quelques fourmis, vint se percher sur l’épaule de son maître dans le but de plonger les insectes dans la cendre chaude de sa pipe avant de les appliquer dans son plumage. Cette originale observation présente peut-être quelque exagération mais elle semble relater dans son ensemble un fait bien observé.
- Depuis cette époque, un grand nombre de notes concer-dant le formicage ont été publiées en Angleterre, en Allemagne, en Suède, en Inde, aux États-Unis, parmi lesquelles il faut signaler les excellentes études de H. R. Ivor, illustrées de belles photographies. Enfin, une nouvelle et remarquable mise au point, due à K. E. L. Simmons, a paru en 1957 dans le périodique Britisb Birds. Il est curieux de constater que, dans une liste de plus de 200 travaux, on ne relève aucun titre français ; il semble que les amateurs d’oiseaux de notre pays ont complètement négligé l’observation de ce comportement.
- *
- * *
- D’une façon générale, le formicage consiste en mouvements stéréotypés par lesquels certains oiseaux cherchent à répandre de l’acide formique ou d’autres liquides organiques sur leurs plumes dans un but encore incomplètement
- élucidé. Pour cela, ils appliquent des fourmis sur certains points de leur plumage et laissent ces insectes pénétrer entre leurs plumes. Si l’on étudie dans le détail ces manifestations, on constate cependant qu’elles présentent deux formes bien différentes, que les Anglais appellent active anting et passive
- Dans le premier cas, l’oiseau venu sur une traînée de fourmis choisit l’une d’elles du bout du bec et, par gestes rapides, qui durent de 5 à 90 s, il la porte sous une aile qui a été élevée et étendue hors du corps. Souvent, pendant cette opération, il ferme les yeux, sans doute pour les protéger de l’action de l’acide formique. Mais la fourmi n’est pas abandonnée dans le plumage ; l’oiseau la frotte contre une des grandes rémiges, faisant courir le bec de la base à l’extrémité de la plume. L’angle des premières rémiges externes est souvent changé de la normale de façon à présenter le champ de la plume pour plus de facilité dans la manœuvre de friction (fig. 2). Quelquefois, l’oiseau passe immédiatement aux plumes de l’autre aile ou aux rectrices de la queue. Ce dernier mouvement lui impose des contorsions qui le font parfois culbuter de façon grotesque, ce qui a fait dire à un observateur anglais qu’il prend des postures « si ridiculement clownesques qu’il tire presque des larmes de rire ». La fourmi est ensuite abandonnée, une autre est saisie et le manège peut durer jusqu’à une demi-heure. Ensuite, l’oiseau cherche souvent de l’eau pour se baigner ; il frotte soigneusement son bec et, assez fréquemment, il mange les fourmis qu’il a ainsi utilisées. Mais
- Fig. 1. — Grive américaine étendue au milieu des fourmis, en posture de formicage passif.
- (.Dessins imités de R. Gillmor, d'après des photographies de B. R. Young, in Simmons, British Birds).
- 58
- p.58 - vue 61/560
-
-
-
- on voit aussi, après le séjour d’un groupe d’oiseaux sur un passage de fourmis, le sol jonché de fourmis mortes ou blessées, la plupart avec l’abdomen écrasé. Le formicage actif peut être pratiqué avec une seule fourmi ou avec un groupe d’insectes écrasés. Ces manœuvres, assez complexes et fort rapides, sont assez difficiles à observer dans la nature et elles n’ont pu être analysées en détail que sur des oiseaux de volière ou fréquentant un jardin et avec l’aide du cinématographe et de la photographie au flash électronique.
- Le second mode de formicage, celui que les Anglais appellent passif, est tout différent et peut à peine être compris dans une même série de réactions, quoiqu’il puisse être pratiqué par les mêmes espèces que le formicage actif (fig. i). Le formicage passif semble avoir été constaté depuis bien plus longtemps, car le célèbre zoologiste et artiste John Audubon parlait déjà, en 1831, de dindons
- Fig. 2. — Grive américaine (Turdus tnigratorius) pratiquant le formicage'actif sur une des grandes rémiges.
- Noter la façon dont l’angle des rémiges primaires externes est modifié pour rendre les plumes plus accessibles.
- sauvages se roulant dans les nids abandonnés des fourmis. Il s’agit, en général, d’oiseaux d’assez grande taille, corneilles, grives, étourneaux, paraissant en mauvais état de santé, qu’on voit se placer sur une fourmilière, ailes et queue étalées ; ils restent ainsi un certain temps, permettant aux fourmis de monter sur leur corps et de pénétrer entre les plumes ; les observateurs pensent qu’ils doivent endurer ainsi une irritation à peine supportable 1
- Le plus grand nombre des observations sur le formicage ont été faites sur des oiseaux en captivité. Cependant, K. E. L. Simmons vient de publier (.British Birds} janvier i960) le résultat d’une enquête faite en Angleterre par différents ornithologistes, portant sur 44 cas de formicage dans la nature. Ces observations difficiles sont toutefois facilitées par le fait que l’oiseau, manifestant pendant cette occupation
- une certaine indifférence aux excitations extérieures, se laisse approcher plus facilement.
- D’une façon générale les mouvements observés dans la nature sont bien les mêmes que ceux qui ont été décrits sur des oiseaux en volière ou en semi-captivité, ainsi qu’on peut en juger par une observation faite sur la mésange bleue. L’oiseau saisit une fourmi et l’introduisit entre les plumes de l’aile étendue et du flanc ; chaque fourmi saisie fut placée alternativement sous une aile et sous l’autre. Après 2 ou 3 mn, la première mésange fut rejointe par une seconde qui reprit le même manège. Plusieurs fourmis tombèrent mortes du plumage et furent mangées ; les deux oiseaux s’envolèrent quand le passage de fourmis eut été complètement nettoyé. Une autre observation se rapporte au formicage passif d’un merle. Très familier, celui-ci s’approchait de l’observateur occupé dans un champ de pommes de terre. Un nid de fourmis s’étant trouvé découvert dans un sillon, le merle s’en approcha, mangea plusieurs fourmis, puis en plaça sous ses ailes ; ensuite, refermant brusquement celles-ci, il s’étala dans le creux qu’il avait produit en grattant la terre, le ventre au milieu des fourmis qui montèrent sur son corps.
- Tous les oiseaux ne pratiquent pas le formicage, et les opinions des auteurs diffèrent assez nettement à ce sujet. Alors que Poulsen, en 1956, cite 110 espèces appartenant à 24 familles et Chisholm 160 oiseaux australiens pratiquant plus ou moins une des formes de formicage, Simmons apporte des estimations bien plus modestes pour les espèces européennes ; il ne cite d’ailleurs que cêlles dont le comportement est confirmé par des observations précises. Il résulte de ces observations bien contrôlées que le nombre des oiseaux d’Europe qui pratiquent le formicage est peu important et qu’ils appartiennent tous à l’ordre des Passé-riformes. Ce sont, par ordre de fréquence des observations dans la nature, l’Étourneau, le Merle, la Grive musicienne, le Rouge-gorge, la Mésange bleue, le Pinson, la Corneille, le Freux ; les observations sur des sujets en captivité permettent d’y ajouter la Pie, le Troupiale d’Amérique du Nord (Icterus spurius), le Rossignol du Japon ; enfin, au Zoo de Londres, des expériences ont permis de retenir 29 espèces d’oiseaux exotiques pratiquant le formicage.
- Quant aux fourmis utilisées, les espèces en sont peu nombreuses et appartiennent presque toutes à la famille des Formicidés qui projettent de l’acide formique quand elles sont attaquées. Les seules espèces régulièrement observées en Angleterre sont Formica rufa (fourmi rousse des forêts), Lasiuc niger, L. flavus, E. umbratus et Camponotus consobrinus.
- Le formicage étant dûment reconnu comme un comportement fréquent chez certains oiseaux, quelle explication peut-on tenter d’en donner ? A ce sujet, une différence doit être établie entre le formicage passif et le formicage actif. Le premier, auquel le vocable de bain de fourmis pourrait être assez justement conservé, trouve un analogue et peut-être une origine dans le poudrage bien connu chez certains oiseaux qui aiment à s’ébattre dans la poussière, par exemple les moineaux, la huppe, les poules, les perdrix. Il est probable que les mêmes excitations agissent dans un cas comme dans l’autre. Quand les oiseaux s’étalent dans la poussière ou au milieu des fourmis, ils éprouvent sans doute le besoin d’un grattage à la suite de démangeaisons d’origine parasitaire.
- 59
- p.59 - vue 62/560
-
-
-
- Fig. 3. — Geai bleu américain (Cyanocitta cristata) récoltant des fourmis pour pratiquer le formicage actif.
- {Photo Frank Lane, Agence Rapho).
- La question du formicage actif est infiniment plus complexe. On peut déjà indiquer que des oiseaux en volière manifestent des mouvements analogues en se servant non de fourmis mais d’autres insectes comme des vers de farine et de petits Coléoptères et surtout de substances acides ou odoriférantes comme du citron, de l’orange, des morceaux de pomme, du vinaigre, ou encore violemment excitantes comme des bouts de cigarette chauds. Il faut indiquer aussi que le formicage est un comportement instinctif, non acquis par apprentissage ; parmi les oiseaux qui le pratiquent on a pu constater la présence de très jeunes étourneaux, n’ayant pas quitté le nid depuis plus d’un mois.
- Avec ces données plus ou moins précises, voyons les explications qu’on a cru pouvoir donner de ce curieux comportement. Rappelons d’abord, pour sa haute fantaisie, l’idée émise par certains que l’oiseau place des fourmis sous ses ailes comme provisions en vue d’un déplacement et venons-en aux interprétations qui méritent d’être examinées soigneusement. On a dit que les oiseaux ne cherchaient
- qu’à débarrasser le corps des fourmis de son acide formique, avant de les manger ; mais, la consommation des fourmis utilisées n’est pas du tout la règle et ce but n’expliquerait aucunement les manœuvres compliquées du formicage actif ; il existe par ailleurs nombre d’oiseaux myrméco-phages qui ne se préoccupent pas de la présence de l’acide dans le corps des fourmis. On a cru aussi constater que les oiseaux paraissent manifester unè satisfaction au contact des fourmis et on a pensé que celui-ci exerçait sur la peau une action stimulante, ce qui reste à prouver. Enfin, la plupart des auteurs ont pensé à une action antiparasitaire. Il est possible que l’oiseau éprouve le besoin, quand il est gêné par sa vermine, de se libérer en appliquant sur son plumage de l’acide formique ou des produits aromatiques. On a objecté que certaines observations ont été faites sur de jeunes oiseaux semblant en bonne santé et non porteurs de parasites, ce qui n’a pas été prouvé. Aussi, la majorité des ornithologistes semblent se rallier à cette dernière explication bien qu’on n’en ait donné aucune preuve et qu’elle n’apporte pas une réponse satisfaisante à l’énigme que pose le comportement compliqué qui a été exposé.
- Lucien Chopard.
- 60
- p.60 - vue 63/560
-
-
-
- Un virus bienfaisant... du moins pour les insectes
- A travers les modalités infiniment variées de la vie, il est difficile de distinguer a priori ce qui est « bon » de ce qui est « mauvais ». Les virus, pour nombre de raisons qu’il est superflu de détailler ici, ont été généralement classés sous l’étiquette « mauvais ».
- Doit-on les réhabiliter ? C’est ce que, pour certains d’entre eux, a entrepris Karl Maramorosch dans un récent article de Scientific American. Les deux premiers exemples choisis par lui ne sont pas entièrement convaincants. Ils visent deux plantes ornementales : les « tulipes rompues » et l’érable tacheté.
- L’histoire des tulipes rompues a été souvent contée. A une certaine période du xvne siècle, elles existaient à un très petit nombre d’exemplaires et les spéculateurs, en raison de leur rareté, en faisaient monter le prix à des cours abracadabrants, rendus possibles par la « tulipomanie » qui sévissait alors aux Pays-Bas. Leur valeur résidait dans des marbrures claires, harmonieusement disposées sur les pétales de la fleur et qui la rendaient plus belle, aux yeux des amateurs, qu’une fleur de nuance unie.
- Les tulipes rompues perdirent leur vogue, du jour où l’on s’aperçut qu’en injectant leur suc à des fleurs normales on produisait le même effet décoratif. On comprit plus tard qu’il s’agissait d’une simple contamination : les virus des tulipes sont actuellement étudiés dans un laboratoire spécialisé, à Lisse. Il a été constaté que l’éphémère beauté des tulipes rompues a pour contrepartie une dégénérescence progressive de l’espèce. Peut-on parler en ce cas d’un virus bienfaisant ?
- L’érable fleuri, autre plante d’ornement, est originaire des Indes. Il appartient au genre Abutilon et l’on constate qu’il existe des individus à feuilles homogènes, d’autres à feuilles tachetées. Ces derniers, de nouveau, font prime auprès des amateurs. C’est E. Baur, généticien de Berlin, qui démontra en 1904 que les taches étaient le résultat d’une infection. Il était parvenu, en effet, à les provoquer en greffant des plantes saines sur des plantes contaminées, ce qui donna lieu à une interprétation erronée d’un autre généticien, Darlington : ce dernier s’imagina que la mise en contact des deux plantes faisait naître le virus, par une sorte de réaction entre les protéines, issues de part et d’autre.
- Le démenti fut fourni par le Brésilien Silberschmidt : au cours d’une expérience pour tacheter artificiellement des érables (placés sous globes de verre), il s’aperçut, par suite d’un globe cassé, que le phénomène se produisait tout naturellement, lorsque des mouches blanches, de l’espèce Bemisia tabaci, venaient se poser sur les plantes. L’insecte était donc le vecteur du virus.
- Signalons en passant que de nombreuses études ont été faites sur un des virus les plus connus, celui de la mosaïque du tabac, et qu’on a réussi à vacciner les plantes au moyen d’un virus atténué. Immunisation dont le mécanisme reste énigmatique car les végétaux, que l’on sache, ne produisent pas d’anticorps. Rappelons toutefois que, mise en présence
- de la sécrétion toxique d’un ail sauvage, la Pâquerette annuelle sécrète elle-même une substance protectrice qui pourrait bien être analogue à une antitoxine (La Nature, octobre 1954, p. 398).
- Un phénomène, dont l’intérêt est incontestable, a été observé par Maramorosch. Ses expériences portaient sur un insecte qu’il nomme leaf-hopper (ou « sauteur de feuilles ») et dont certains groupes vivent aux dépens des asters, d’autres aux dépens du maïs cultivé ou sauvage. Chaque groupe a sa spécialisation alimentaire bien définie et l’expérimentateur constata, par exemple, que les insectes à maïs périssaient en l’espace de trois jours s’ils étaient transférés sur l’aster.
- C’était d’ailleurs une remarque incidente, car l’étude était principalement virologique : l’aster souffre en effet d’une maladie virale, connue sous le nom de jaune de l’aster. Le leaf-hopper en serait le vecteur.
- Pour s’en assurer et sachant que l’insecte conditionné au maïs ne pouvait vivre longtemps sur l’aster, il fut décidé de ne le laisser que quelques heures sur les plantes malades, pour qu’il puisse s’imprégner du virus. Cependant, par suite d’un oubli, un lot de mangeurs de maïs fut abandonné plusieurs jours sur un aster atteint du jaune. A la grande surprise de l’expérimentateur, tous les insectes étaient vivants.
- L’expérience fut répétée systématiquement, ce qui confirma le fait que les mêmes insectes, incapables de vivre sur les asters sains, prospéraient normalement sur les plantes malades. Plus curieux encore, après un stage sur ces plantes, ils avaient acquis l’aptitude de se nourrir sur l’aster sain, sur la carotte et sur le riz, végétaux qu’ils refusaient auparavant.
- Le virus était-il bien la cause déterminante de cette meilleure adaptabilité ? Cela fut vérifié en stérilisant les insectes (ce que l’on réalise facilement en les maintenant quelque temps à une température de 300 C) : débarrassés du virus, ils ont cessé de pouvoir vivre ailleurs que sur leur plante d’origine.
- L’action bénéfique du virus, en ce cas particulier, est donc constatée, mais non expliquée. Fournit-il une enzyme élargissant les possibilités d’assimilation des aliments ? Exerce-t-il un stimulus nerveux sur l’appétit ou supprime-t-il des inhibitions ? Aucune réponse ne peut être actuellement donnée à ces hypothèses.
- Il reste que, sur un plan plus général, les virus pourraient jouer un rôle important dans l’évolution en permettant à des insectes de se transporter d’un milieu écologique dans un autre, alors qu’en l’absence du virus leur espèce est irrémédiablement condamnée par la disparition de l’espèce végétale qui les nourrit.
- En ce cas le virus est effectivement bienfaisant pour l’insecte (puisque telle est la thèse défendue). Mais du point de vue de l’homme et des végétaux, l’étiquette « mauvais » continue à lui être décernée.
- G. C.
- 61
- p.61 - vue 64/560
-
-
-
- Découverte du noyau de notre Galaxie
- ON savait depuis longtemps que la Nébuleuse d’Andromède, la grande galaxie spirale la plus proche de nous, présente en son centre un noyau de petites dimensions, qui est généralement invisible sur les photographies où les régions centrales sont surexposées, mais qui apparaît bien à l’observation visuelle : il a alors l’apparence d’une étoile brillante. Il était tentant de rechercher dans notre Galaxie, dont nous savons maintenant avec certitude qu’elle a une structure spirale analogue à la Nébuleuse d’Andromède, l’équivalent de cet objet particulier. Malheureusement l’Astronomie optique ne nous avait rien appris sur ce point jusqu’à ces derniers temps, car le centre galactique est masqué par d’épais nuages de matière absorbante relativement proche qu’il est très difficile de percer. Des observations récentes, dont l’une appartient au domaine de l’Astronomie classique et les autres sont radioastronomiques, viennent cependant de jeter quelque lumière sur la structure des régions centrales de la Galaxie.
- D’abord la Radioastronomie : on sait depuis longtemps qu’il existe, en direction du centre de symétrie de la Galaxie, une région d’intense émission radioélectrique, la radio-source Sagittarius A ; cependant, le pouvoir de résolution des radiotélescopes était jusqu’à ces derniers temps trop faible pour que l’on pût en détailler la structure.
- Un gros progrès a été fait lorsque F. Drake/a réussi à observer en 1959 le centre galactique sur 3,7 cm de longueur d’onde, avec le miroir de 25 m de diamètre du National Radio Observatory, à Green Bank (West Virginia). L’excellent pouvoir séparateur de cet instrument (environ 6 minutes d’arc) lui a permis de résoudre la radio-source Sagittarius A en plusieurs objets plus petits, dont le plus intense, qui est aussi le plus étroit, est situé exactement au centre de symétrie galactique. Peu de temps après, le radioastronome soviétique I. N. Pariiskii publiait des observations similaires obtenues avec le grand radiotélescope de Poulkovo, près de Léningrad, dont le pouvoir séparateur est le meilleur réalisé à ce jour (près de 1' sur 3 cm de longueur d’onde). De notre côté, nous mesurions avec l’interféromètre à deux antennes de la station de Nançay (Cher), qui fonctionne sur 21 cm de longueur d’onde, le diamètre apparent de cette petite source qui vaut 3,5'. Il est intéressant de comparer les dimensions linéaires correspondantes, soit 26 années-lumière, avec celles du noyau de la Nébuleuse d’Andromède : elles sont tout à fait semblables.
- Il ne fait guère de doute qu’il s’agit du noyau galactique lui-même, qui est probablement identique au noyau de la Nébuleuse d’Andromède. Mais notre noyau galactique ne nous est connu que par son émission radioélectrique, dont les caractéristiques montrent qu’elle doit être due à de l’hydrogène ionisé interstellaire : le noyau ne contiendrait pas moins de 1 000 protons et 1 000 électrons par
- par James Lequeux
- centimètre cube, ce qui est un chiffre très élevé pour l’espace interstellaire. A l’inverse, le noyau de la Nébuleuse d’Andromède n’a été étudié que par les méthodes optiques : ses observations les plus récentes, faites par Lallemand grâce à la caméra électronique, ont montré qu’il s’agit d’un amas d’étoiles très dense qui tourne rapidement sur lui-même. On peut supposer qu’il en est de même du noyau galactique, bien qu’on ne puisse le vérifier.
- Sur les régions qui entourent immédiatement ce noyau, nos connaissances sont encore plus incertaines. Elles ont cependant fait de récents progrès grâce aux travaux de l’équipe hollandaise de Radioastronomie, à laquelle nous sommes déjà redevables d’une grande partie de ce que nous savons sur la structure de la Galaxie. C’est dans la raie 21 cm de l’hydrogène neutre que les Hollandais ont observé le centre de la Galaxie avec le radiotélescope de 25 m de diamètre de Dwingeloo. L’émission provient de l’hydrogène atomique interstellaire, non ionisé cette fois. Il semble qu’elle prenne naissance dans un disque central très plat bordé d’un anneau dense dont le rayon est 550 parsecs (1 parsec — 3,26 années-lumière). Cet ensemble est animé d’un mouvement de rotation extrêmement rapide qui atteint 265 km/s à la périphérie. Dans ces régions, on ne peut par contre déceler aucun mouvement d’expansion du gaz interstellaire, alors que de telles expansions ont été observées à de plus grandes distances du centre galactique.
- Ainsi la Radioastronomie met en évidence non seulement l’existence d’un noyau central très petit qui est semblable à celui de la Nébuleuse d’Andromède, mais de toute une zone centrale en forme de disque aplati qui est animée d’un mouvement de rotation très rapide autour du centre galactique.
- Malgré la difficulté de l’entreprise, des astronomes classiques ont recherché si l’on ne pouvait voir optiquement l’équivalent des structures révélées par leur émission radioélectrique. A l’Observatoire de Haute Provence du Centre National de la Recherche Scientifique, G. Courtès et P. Cruvellier ont construit pour étudier la matière interstellaire, notamment vers le centre galactique, un appareillage qui permet de détecter les nuages étendus d’hydrogène ionisé, avec une sensibilité 50 fois meilleure que celle que donnent les procédés habituels. Dans le domaine optique, l’hydrogène ionisé interstellaire se révèle par l’émission des raies de l’hydrogène et notamment de la raie Ha à la longueur d’onde 6 563 angstrôms.
- On isole préalablement, à l’aide d’un filtre, une région spectrale de 60 À autour de cette raie, afin d’éviter le brouillage de la raie utile par les autres raies du spectre, puis on place dans le faisceau lumineux un système interfé-rentiel de Pérot et Fabry, qui est constitué de deux lames semi-transparentes parallèles. On voit alors apparaître, si la raie Ha est présente, un système d’anneaux concentri-
- 62
- p.62 - vue 65/560
-
-
-
- ques qui sont des franges d’interférence (fig. i a et d). Si l’on vise une nébuleuse galactique qui est constituée de matière interstellaire ionisée, on voit se superposer à l’image des étoiles du champ des anneaux d’interférence donnés par la raie Ha et aussi des anneaux différents, plus faibles, qui sont dus à une autre raie de la matière interstellaire ([Nn] 6 584 À) que le filtre préalable ne permet pas de séparer de Ha (fig. 1 d).
- En pointant cet appareil, adjoint au télescope de 1,93 m de l’Observatoire de Haute Provence, dans la direction
- du centre galactique, Courtès et Cruvellier ont découvert trois petites régions où se manifeste la raie Ha. L’aspect obtenu (fig. 1 b) montre les anneaux normaux de cette raie, assez faibles et superposés aux étoiles du champ, et aussi un autre système d’anneaux qui ne peut être dû à la raie parasite à 6 584 À comme on le voit en comparant les figures 1 b et 1 c. Il s’agit probablement encore d’anneaux dus à la raie Ha, mais dont la longueur d’onde a été déplacée par effet Doppler, et correspond à des régions émissives qui se rapprochent de l’observateur à une vitesse de 188 km/s. Il est tentant d’identifier ces régions, soit au disque central d’hydrogène en rotation rapide qui a été découvert par les Hollandais et pourrait donner des vitesses radiales du même ordre, soit plutôt à des zones en expansion de la Galaxie, découvertes également à Dwingeloo grâce à la raie 21 cm, et qui sont situées plus près de nous que le centre galactique (à 1 000 ou 2 000 par-secs de celui- ci).
- Il est encore impossible de résoudre ce problème, mais l’observation n’en a pas moins d’intérêt. D’ailleurs, Courtès écrivait à l’auteur de cet article : « De toutes façons ce résultat est absolument exceptionnel dans toute la série de ceux que j’ai obtenus dans l’ensemble de la Voie Lactée. » S’il s’agit vraiment des régions centrales de la Galaxie, elles doivent être extrêmement lumineuses pour que l’on puisse encore détecter leur émission, malgré la densité de la matière absorbante interposée qui doit être très grande, même dans les trois « fenêtres » où l’on peut voir la raie Ha.
- Le centre de la Galaxie n’a pas fini de nous étonner : rotation, expansion, cela signifie un vaste brassage de matière, dont nous n’avons encore qu’une faible idée.
- James Lequeux,
- Observatoire de Paris-Meudon.
- Fig. 1. — Détection optique de l’hydrogène ionisé dans la direction du centre galactique.
- Ce montage photographique permet de comparer les anneaux d’interférence de Pérot et Fabry donnés par la raie Ha. De gauche à droite et de haut en bas. a : source de raie Ha pure (lampe à hydrogène); h : région très proche du centre galactique : coordonnées a = 17 h 43 m 4, et S = — 30° 13'. Pose 3 h; c : nébuleuse galactique (M 8). Pose 10 mn; d : source de raie Ha pure (identique à a). Explications complémentaires dans le texte.
- (Document G. Courtes et P. Cruvellier, Observatoire de Haute Provence, obligeamment communiquée par le C. N. R. S.J.
- 63
- p.63 - vue 66/560
-
-
-
- L’amour infantile naît-il
- du doux contact de la mère ?
- Il n’est pas exclu que l’expérimentation scientifique, même rigoureusement conduite, puisse donner lieu parfois à des tableaux de caractère surréaliste. Tel est le cas de l’étude dirigée à l’Université de Wisconsin par le Dr. H. F. Harlow, président de l’Association américaine de Psychologie.
- L’objet de cette étude était de déterminer les facteurs qui jouent dans l’amour que le très jeune enfant éprouve pour sa mère. Le Dr. Harlow a tout d’abord fait table rase de « la force sacrée et mystique », concept habituel qui, dit-il, est sans doute cause que ce sujet n’ait suscité que peu de recherches objectives.
- Pourquoi d’autre part les expériences ont-elles été faites sur des singes de quelques jours ? C’est parce que ces petits animaux sont beaucoup mieux coordonnés que des enfants humains du même âge, bien que leur développement présente, en général, de nombreuses similitudes.
- Il fut tout d’abord vérifié que l’on pouvait, sans inconvénient, séparer les singes nouveau-nés de leur mère : une statistique démontra qu’élevés au biberon ils survivaient en bien plus grand nombre que dans les conditions naturelles. Tout scrupule se trouvait ainsi levé. Une autre observation
- préliminaire fut que les petits singes, une fois sevrés, restaient obstinément en contact avec les coussins ou les surfaces de linges moelleux que l’on disposait sur le sol de leur cage. Aux heures où ces objets leur étaient retirés, pour l’entretien journalier du local, ils manifestaient une réelle détresse. L’amour infantile était-il donc en rapport étroit avec les contacts corporels ?
- Ceci était en contradiction avec les théories psychanalytiques selon lesquelles le visage et le corps de la mère sont émotivement associés à des tensions physiques telles que la faim et la soif. Le développement affectif serait dès lors initié par l’acte d’atteindre et de sucer le sein de la mère.
- Le laboratoire, pour confronter les deux hypothèses, fabriqua deux types de « mères succédanées ». Tous deux étaient constitués par une surface semi-cylindrique, faite de fils de fer entrecroisés et que surmontait une tête en bois, grossièrement représentée. La seule différence résidait dans le contact : l’une des mères, en effet, était en fil de fer nu, l’autre était habillée de tissu-éponge.
- Huit singes nouveau-nés furent chacun dotés, dans des cages individuelles, de mères de l’un et l’autre type. Mais dans quatre de ces cages le biberon était porté par la « mère habillée », tandis que dans les quatre autres il était fixé à la « mère fil de fer », dans les unes comme dans les autres à la hauteur de la poitrine.
- L’expérience fut immédiatement concluante. Tous les petits singes passaient le meilleur de leur temps à grimper et à se pelotonner sur la mère habillée, quelle que fût celle qui portât le biberon. Ceux que nourrissait une mère fil de fer ne restaient à son contact que le temps nécessaire pour vider le biberon. Leur prédilection à tous était telle qu’ils délaissaient même des coussins chauffés électriquement, mis à leur disposition, pour retrouver le contact de la mère
- Fig. I. — L’expérimentateur constate que le bébé singe s’arrache difficilement au contact de la « mère habillée » (Photo U. 5. I. S.).
- p.64 - vue 67/560
-
-
-
- Fig. 2. — Effrayé par la présence d’objets insolites, le bébé singe est venu se réfugier dans le giron de la mère habillée (Photo U. 5. J. S.).
- habillée qui, pourtant, ne dégageait aucune chaleur (fig. i).
- Cette préférence physique, dont on ne saurait s’étonner, avait-elle des prolongements psychologiques ? Les expérimentateurs firent en sorte de mettre les petits singes dans les conditions bien connues où l’enfant, dépaysé ou effrayé, vient chercher sécurité et réconfort auprès de sa mère.
- Première expérience : modifier l’environnement en mettant à nu le sol de la cage et en le parsemant d’objets insolites et hostiles (cubes de bois, plaques de métal, etc.). Si une mère habillée était présente, le sujet venait se réfugier en son giron (fig. 2). Ce contact ayant été maintenu pendant quelque temps, le petit singe reprenait courage, au point d’aller explorer et manipuler les objets intrus. Un tel comportement reproduit fidèlement celui que manifestent les enfants humains qui trouvent réconfort et « regonflage » auprès de leur mère réelle. Il fut en outre constaté qu’en l’absence de mères habillées, les petits singes, ayant ou non à leur disposition une mère fil de fer, ne pouvaient s’extraire de leur état d’extrême anxiété.
- La deuxième expérience fut de mettre les sujets en présence d’un « ennemi », qui n’était autre qu’un ours mécanique battant du tambour. La réaction fut encore plus vive, mais exactement semblable. Après la courte période de réconfort auprès de la « mère », les petits singes retrouvaient un comportement intrépide.
- Pour une dernière épreuve, les sujets étaient placés dans une cellule peu éclairée, mais munie d’ufte fenêtre qu’ils apprenaient rapidement à ouvrir. Si le spectacle que leur offrait cette fenêtre était celui d’un autre singe en liberté ou d’une mère habillée, ils s’y intéressaient d’une manière à peu près égale. La vision de la mère fil de fer, même si elle
- les avait nourris, n’avait pas plus d’attrait pour eux que de contempler un espace vide.
- Toute cette série d’expériences, aux yeux du Dr. Harlow et de ses assistants, confirme la théorie d’un amour infantile, créé et entretenu par un contact moelleux, alors que l’attirance de la mère, en tant que source de nourriture, est un facteur négligeable.
- Notons que ces conclusions sont en accord avec nombre de principes bien établis par les spécialistes de la psychologie animale. La plupart des comportements des animaux, surtout dans la première période de la vie, ne sont pas « élaborés ». Ce sont des réponses immédiates à des stimulus ; on peut s’attendre à les voir d’autant mieux développées par la sélection naturelle que ces stimulus intéressent un appareil sensoriel plus évolué et correspondent à des situations plus fréquentes. Le jeune singe, muni de quatre membres préhensiles et vivant habituellement attaché à sa mère, doit évidemment être très sensible aux stimulations tactiles, et on pouvait prévoir qu’il agirait positivement envers un objet qui reproduit plus ou moins fidèlement la surface corporelle de la guenon. Il s’agit d’un comportement entièrement inné et c’est seulement ensuite que viennent s’y superposer des images plus précises de la mère (ou de l’objet) qu’il saura distinguer de plus en plus finement.
- G. C.
- 65
- p.65 - vue 68/560
-
-
-
- par Yves Mériel
- Des techniques révolutionnaires au secours des trésors de l’antique Nubie
- Aune époque encore mal déterminée, mais que l’on situe généralement entre les années 2500 et 2000 avant notre ère, le centre administratif et religieux de l’ancienne Égypte remonta le long du Nil et vint finalement se fixer dans la ville de Thèbes. La basse Égypte qui, sous les premières dynasties, avait vu s’élever les pyramides de Gizeh et les nécropoles royales de Sakkarah, fut temporairement délaissée par les bâtisseurs, tandis que des monuments toujours plus nombreux s’élevaient ou se creusaient •en haute Égypte. Louqsor, Karnak, Edfou sont les témoins les mieux connus de la grande époque thébaine.
- Mais la longue chaîne de temples et de tombeaux se prolonge vers le Sud, dépassant la première cataracte et s’égrenant le long des rives nubiennes du Nil. Là encore, les pharaons des dynasties thébaines, au premier rang desquels Ramsès II, ont laissé leur vigoureuse empreinte. Gerf Hussein, Ouadi es Seboua, Abou Simbel sont leur œuvre. L’histoire de l’Égypte s’est poursuivie depuis lors par les pénétrations successives des Grecs et des Romains. C’est ainsi qu’une partie de l’ensemble de Philæ est de style hellénique et qu’un des plus grands temples de Nubie, Kalabcha, a été reconstruit à l’époque de l’empereur Auguste. L’Église copte a également laissé des traces, transformant en basiliques certains temples païens et l’on retrouve même, en pleine Nubie, des apports de Byzance.
- L’intérêt historique, archéologique et artistique de cette partie de la vallée du Nil, témoin d’une civilisation quatre fois millénaire, n’est donc plus à démontrer. Il convient d’ajouter que certains des vestiges les plus anciens de cette civilisation se trouvent au delà de la frontière qui sépare l’actuelle République arabe unie de la République soudanaise. Mais il est une autre frontière que n’avaient pas prévue les constructeurs de l’antiquité : c’est celle qui sépare les terres sèches des terres inondées.
- On sait en effet que, depuis une soixantaine d’années, un barrage a été construit sur le Nil, à Assouan, dont la retenue se fait sentir à 300 km en amont. La hauteur du barrage (3 8 m) n’est pas suffisante pour noyer tous les édifices qui bordent cette retenue. Certains cependant, les plus voisins d’Assouan, n’ont pas échappé à la submersion : c’est le cas de Philæ, Kertassi, Beit el Ouali et Kalabcha. Mais, bizarrerie du destin, ces monuments sont hors d’eau quelques semaines par an, car à la fin de l’été la retenue est mise totalement à sec, afin d’éviter l’accumulation du limon. Ce régime intermittent va être complètement transformé
- par le haut barrage (Sadd el Ali) que l’on s’apprête à édifier à quelques kilomètres en amont d’Assouan (sur le barrage d’Assouan et le nouveau projet, voir ha Nature, octobre 1956, p. 388-394). Le nouveau barrage atteindra 110 m de hauteur et la retenue permettra de stocker 90 milliards de mètres cubes, au lieu des 5 milliards emmagasinés derrière le barrage actuel. C’est dire que le lac artificiel existant sera non seulement prolongé de 150 km, mais sa surélévation de plus de 60 m aura pour effet de submerger les rives du Nil sur une grande surface.
- Du même coup 24 monuments ou ensembles architecturaux, dont 18 sur le territoire de la République arabe unie et 6 sur celui du Soudan, disparaîtraient sous les eaux et cette fois définitivement.
- *
- * *
- C’est en avril 1959 que les gouvernements de la République arabe unie et du Soudan ont demandé à l’Unesco d’intervenir auprès de toutes les nations affiliées pour tenter de sauvegarder ces édifices dont la valeur est inestimable. Sculptures, bas-reliefs, peintures, inscriptions représentent un trésor aussi bien artistique que culturel dont on a pu dire, à bon droit, qu’il était parmi les patrimoines communs de tous les peuples.
- Voici maintenant plus d’un an que l’Unesco a lancé son appel pour la sauvegarde des monuments de Nubie, appel auquel il a été largement répondu. D’importantes contributions financières ont été déjà réunies, des missions de plusieurs pays se sont rendues sur place pour étudier les moyens qui devront être mis en œuvre pour accélérer les fouilles, là où c’est nécessaire, et pour préserver la plus grande partie des richesses menacées. Les contributions qui seront apportées ne sont pas « à fonds perdus » : la République arabe unie, tout en consacrant elle-même au sauvetage près de 10 millions de dollars, a offert aux nations qui apporteront leur concours de disposer pour leurs musées d’une part importante des œuvres d’art recueillies.
- Mais ce qui nous intéresse tout particulièrement, ce sont les contributions techniques proposées par différents pays. Car certains des problèmes à résoudre sont exceptionnellement difficiles et ont donné lieu à des projets à la fois
- Fig. 1. — Une paroi des portiques du temple d’Isis, à Philæ, partiellement immergée (Photo Laueœnza, Unesco).
- 66
- p.66 - vue 69/560
-
-
-
- p.67 - vue 70/560
-
-
-
- Fig. 2. — Le kiosque de Trajan à Philæ, émergé pendant la vidange annuelle de la retenue d’Assouan (Photo Laurenza, Unesco).
- originaux et hardis. Même si certains d’entre eux ne venaient pas à exécution, nous pensons que nos lecteurs auront pris quelque intérêt à les connaître.
- Monuments à déplacer
- Commençons par les solutions qu’arbitrairement peut-être, on peut classer parmi les plus simples. Il s’agit, en effet, du procédé qui consiste à démonter, pièce par pièce, un monument pour le transporter en un autre lieu où il sera intégralement reconstitué.
- En général, cette reconstitution sera faite dans les environs immédiats de l’emplacement primitif. Cela, d’une part, épargne des frais élevés de transport. Il est préférable, .d’autre part, de retrouver des conditions naturelles similaires et de restituer au monument un « cadre authentique », difficile à trouver dans des régions éloignées. Ce principe étant posé, il est évident que tous les monuments ne sont pas identiques et que leur dissection suivie de leur reconstruction doit être conduite par des moyens différents, selon la nature de l’édifice.
- Voici tout d’abord la catégorie des constructions faites de blocs de grès de Nubie. L’enlèvement de ces blocs ne pose que des problèmes de détail. Des grues électriques devront être mobilisées ; une protection spéciale sera appliquée aux blocs décorés ; des châssis seront étudiés pour qu’ils soient transportés sans dommage.
- Vient'fènsuite le cas plus ardu et assez fréquent où le monument; a été creusé dans le roc. Il va de soi que ces cavernes artificielles ou speos ne sont pas transportables. Mais leurs plafonds, leurs parois comportent des parties décorées qu’il est désirable de pouvoir enlever. Ces éléments seront sciés en évitant que le « trait de scie » soit trop visible. Des dalles ou des blocs séparés seront ainsi obtenus que l’on transportera jusqu’au nouvel emplacement, c’est-à-dire une caverne artificielle, creusée exactement à l’image de la première et où des excavations auront été réservées pour la remise en place des dalles décorées.
- Troisième éventualité : certains temples sont partiellement aériens, partiellement souterrains. Les deux techniques précédentes seront pour eux successivement utilisées.
- Il existe enfin des édifices, tels que l’église chrétienne d’Abd el Kadir, dont les matériaux sont des briques crues. On a jugé peu intéressant d’en entreprendre le transfert. Seuls, les segments de la maçonnerie qui sont décorés de peintures ou de bas-reliefs seront recueillis. Quant au monument sacrifié, il n’existera plus que sous la forme d’une maquette et d’une documentation graphique qui en perpétueront le souvenir. .
- Nous donnons ci-dessous la répartition des monuments selon les quatre catégories qui viennent d’être définies.
- Constructions en blocs de grès, entièrement transportables.
- — Sur le territoire de la R. A. U. : Époque chrétienne : Église de Kasr-Ibrim. Époque gréco-romaine : Kiosque de Kertassi, temples de Kalabcha, de Dakke et de Maharraka. Époque du Nouvel
- Fig- 3- — Bas-reliefs du temple d’Isis, à Philæ (Photo Mariant, Unesco).
- 68
- p.68 - vue 71/560
-
-
-
- Empire (1580 à 1090 av. J.-C.) : Temple d’Amada (xive siècle). Sur le territoire du Soudan : Temples de Bouhen (xne siècle), d’Akcha (xnie siècle), citadelles et temples de Semna (xve siècle), temple de Kumma (époque non désignée).
- Cavernes à reconstituer après sciage et transport des parties décorées. —• Sur le territoire de la R. A. U. : Époque des 'Ptolémées : Carrières de Kertassi. Époque du Nouvel Empire : Sanctuaire de Beit el Ouali (xme siècle), temple d’EUesyia, chapelles de Kasr-Ibrim, tombeau d’Aniba, chapelles d’Abou-Oda et de Gebel-Chams.
- Constructions mixtes. — Sur le territoire de la R. A. U. : Temples de Ouadi es Seboua (xme siècle), de Derr (xme siècle), de Gerf Hussein (xve siècle).
- Constructions en briques crues. — Au Soudan : Époque chrétienne : Église d’Abd el Kadir.
- Les frais qu’entraînera le déplacement de tous ces monuments se montent à environ 9 500 000 dollars.
- pendant la « vidange » automnale de la retenue. Précisons que le niveau le plus élevé est à la cote 121 m, le plus bas à la cote 98 m : on voit sur la figure 5 A que seul le sommet des portiques dépasse la cote 121.
- Comment la situation sera-t-elle modifiée, lorsque le Sadd el Ali entrera en service ? Philæ a le privilège peu enviable d’être située entre l’ancien et le nouveau barrage, ce dernier devant être édifié à 6 km environ en amont. De ce fait, l’île ne se trouvera plus dans la réserve proprement dite, mais dans un bassin d’égalisation que les soutirages d’eau soumettront à une oscillation quotidienne de niveau d’environ 6 m (entre les cotes 107 et 113 m). La figure 5 B représente cette situation future qui sera fort loin d’apporter une amélioration. Non seulement les monuments seront noyés de manière permanente, mais dans les parties qui seront soumises à la « baignade » et à l’émersion journalières la corrosion des matériaux risque d’être dangereusement accélérée.
- Nous verrons plus loin un autre cas de déplacement, consistant en un soulèvement vertical, envisagé par les ingénieurs italiens pour le grand temple d’Abou Simbel.
- Le sauvetage de Philæ
- En parlant de cette île, généralement submergée, on est obligé de s’exprimer au passé ou au futur. Philæ était donc la plus petite d’un groupe d’îles dont les deux plus grandes, El Hese et Bigeh, divisaient le Nil en trois bras. Philæ, beaucoup moins haute et vaste que ses voisines, était comme posée au ras de l’eau, au milieu du bras oriental»
- On a tout lieu de supposer que cet archipel fluvial, situé dans un étranglement de la vallée que bordent des rochers austères, a été consacré aux dieux de l’Égypte, dès l’époque thébaine. Un temple aurait été édifié sur l’île de Bigeh, soit par Aménophis II (vers 1450 av. J.-C.), soit par Thoutmôsis III (1500), soit même par Sesostris III (1800). Ce sanctuaire aurait été reconstruit sous les Ptolémées. Il n’en reste que des ruines.
- Tous les monuments de Philæ sont encore plus récents. Le plus ancien serait dû à Nectanébo III (359-341 av. J.-C.). Les constructions les mieux conservées sont les deux imposants portiques qui précèdent le temple d’Isis (fig. 1 et 4) et le kiosque de Trajan (fig. 2). L’ensemble que complètent un petit temple d’Isis, un temple d’Hathor et deux colonnades a été manifestement construit au cours des périodes gréco-romaine et romaine. C’est d’ailleurs pendant cette période que le culte d’Isis (on se souvient qu’il se propagea dans une grande partie de l’Empire romain) fut le plus prospère. Philæ était le lieu saint, vénéré par tous les adorateurs de la déesse. Des consignes sévères en défendaient l’entrée. Seuls les prêtres y avaient accès pour l’exercice d’un culte qui prescrivait, entre autres, de fastueuses libations de lait, offertes quotidiennement à Isis.
- Au moment où fut résolue la construction du barrage d’Assouan, les archéologues émirent les plus vives protestations. C’est la raison pour laquelle ce barrage n’atteignit sa hauteur actuelle qu’après plusieurs surélévations. Philæ en effet était la plus exposée de toutes les œuvres antiques destinées à être recouvertes par les eaux. La situation actuelle a été décrite plus haut : immersion presque totale pendant la plus grande partie de l’année, réapparition des temples
- Fig. 4. — Une paroi des portiques du temple d’Isis, à Philæ, pendant l’émersion totale annuelle (Photo Laurenza, Unesco).
- p.69 - vue 72/560
-
-
-
- Barrage d'Assouan
- A
- +55-
- Fig. J. — Situations successives de Philæ.
- A, situation actuelle lorsque la retenue atteint son niveau le plus élevé ; B, situation future, après la mise en service du nouveau haut barrage ; C, situation définitive, après l’édification des barrages de protection.
- ( D’après le rapport hollandais aimablement communiqué par /’A.tn-bassade des Pays-Bas).
- Sadd el Ali
- Barrage d'Assouan
- Barrage d'Assouan
- Sadd el Ali
- HZ2-
- tOQoq.
- Lac de Philae
- Barrage de Philae
- Lac.
- d'Assouan
- C’est pour parer à cette éventualité qu’un projet a été présenté par le gouvernement hollandais. En créant des barrages secondaires, l’île de Philæ se trouverait rétablie, au milieu d’un lac artificiel dont le niveau avoisinerait le niveau primitif du Nil. La figure 5 C représente cette situation définitive.
- La figure 6 montre la disposition schématique des barrages projetés : en amont, barrage unique prenant appui sur la rive orientale et sur l’île de Bigeh ; en aval, deux barrages où se retrouvent les mêmes appuis, auxquels s’ajoute l’îlot rocheux d’Agilkia. Cette disposition générale paraît, à première vue, ne donner lieu à aucune objection. Toutefois, les sondages exécutés en vue de la construction du Sadd el Ali ont démontré que l’actuel lit du Nil se superpose à une vallée fossile, datant vraisemblablement d’avant le pliocène. Le fleuve y coulait à un niveau inférieur de 200 m au niveau actuel et 125 m plus bas que celui de la Méditerranée d’aujourd’hui. L’épaisseur des alluvions est donc considérable, tout au moins jusqu’à l’île de Bigeh. A partir de là le fleuve s’infléchit légèrement vers l’Ouest et retrouve un lit rocheux. Mais Bigeh se trouve exactement au point où la vallée fossile a été désertée par le fleuve : elle se dessine nettement par les formes adoucies de la topographie qui apparaissent à l’Est de Philæ et se prolongent en direction de Shellal.
- On conçoit dès lors que les barrages et en particulier celui de l’amont ne pouvaient être édifiés en toute sécurité sur les alluvions sableuses et limoneuses si une formule rigide avait été adoptée. C’est pourquoi le projet prévoit des digues en terre, analogues (toutes proportions gardées) au Sadd el Ali et à Serre-Ponçon (voir La Nature, janvier 1956,
- p. 24). Certaines dispositions, assez particulières ont cependant été adoptées : les barrages utiliseront par endroits les enrochements, surtout au contact des rives. Une partie sera constituée par de l’argile, l’autre par du sable. Jusqu’à un certain niveau, les pentes amont seront recouvertes d’un revêtement imperméable. Pour les deux plus grands barrages, la crête sera couronnée par une file continue de
- Fig. 6. — Carte du site de Philæ et des barrages projetés pour sa protection.
- En noir, les trois barrages projetés, s’appuyant sur la rive droite du Nil et sur les îles de Bigeh et d’Agilkia. La vallée fossile, colmatée par les alluvions, est reconnaissable, entre Philæ et Shellal, par l’espacement des courbes de niveau.
- (D’après le rapport hollandais).
- El Hese
- 500 1000m
- 70
- p.70 - vue 73/560
-
-
-
- caissons en tôles d’acier qui seront remplis de sable et de graviers. Un écran ou noyau central en béton assurera la stabilité de l’ensemble.
- La plus grande originalité de ces ouvrages est que l’on n’a pas songé (bien au contraire) à les rendre rigoureusement étanches. Ils comporteront même, à un certain niveau, un « lit filtrant », à travers lequel l’eau du Nil pourra passer, en débit réduit. La première raison invoquée est que le prix des barrages aurait été bien plus élevé s’il avait fallu assurer une étanchéité totale. D’autre part, on peut prévoir que le lac qui entourera Philæ sera soumis à une évaporation intense : il faut éviter, en conséquence, qu’il se transforme en un bassin d’eau croupissante. La perméabilité partielle des barrages permettra au contraire de maintenir une nappe d’eau claire. Une station de pompage sera installée, afin de rejeter les excédents d’eau, le niveau du lac étant prévu aux environs de la cote ioo m. ,
- Tout ceci a été minutieusement calculé par les hydrologues qui ont évalué l’évaporation à 2 ioo ooo m3 par an, les pertes par écoulement souterrain à 40 000 m3. Les infiltrations des barrages apporteraient 7 000 000 à 12 000 .000 m3. Le pompage devrait évacuer l’excédent, soit 5 000 000 à 10 000 000 m3.
- Les travaux ne seront entrepris qu’après la construction du Sadd el Ali, lorsque le niveau du lac de régularisation d’Assouan se sera fixé à la cote moyenne 110 m (au lieu des 121 m atteints aux époques où le réservoir actuel est plein). Cela n’élimine qu’une partie des difficultés : le lac d’Assouan en effet subira une variation quotidienne de
- niveau qui rappellera aux ingénieurs hollandais le flux et le reflux des marées qu’ils ont eu si souvent à affronter. Ils ont dû également tenir compte des vagues, soulevées par les vents violents, soufflant du Nord et dont la hauteur pourra atteindre par endroits 1,20 m. Tous ces éléments conditionnent la technique d’exécution des barrages. Les ingénieurs estiment que, dans les parties les plus profondes, la mise à sec derrière des batardeaux ne peut être réalisée. L’accumulation des matériaux devra se faire sous l’eau, jusqu’à des profondeurs de 40 m, en faisant appel à des techniques nouvelles, aujourd’hui en pleine évolution et très différentes de celles utilisées dans les barrages « normaux ». Le devis estimatif des travaux de Philæ se 'monte à 5 500 000 dollars.
- Les deux temples d’Abou Simbel
- Le site d’Abou Simbel abrite l’ensemble architectural le plus imposant de toute la Nubie. L’un des temples creusés dans le roc (le moins grand des deux) a été construit en l’honneur de la reine Nefertari, l’épouse préférée de Ramsès II. Six grandes statues debout ornent la façade, dont quatre représentent le pharaon, deux la reine. Sur les bas-reliefs de l’intérieur du temple, on peut voir les époux se prodiguer mutuellement les honneurs et les offrandes.
- Fig. 7. — Abou Simbel : sur la façade du grand temple, les deux génies du Nil, nouant le lis et le papyrus, symbolisent l’union des terres fertiles de la Haute et de la Basse Égypte (Photo Laurenza, Unesco).
- p.71 - vue 74/560
-
-
-
- Le deuxième temple, qui dépasse le premier en grandeur et en somptuosité, a longtemps échappé aux regards. Une coulée de sable, qui maintenant encore remplit un ravin de la falaise entre ce temple et celui de Nefertari, s’était gonflée à tel point que la façade et l’entrée étaient entièrement masquées. C’est un voyageur suisse, Burckhardt, qui, en 1813, fit sortir ce monument de l’oubli où il était resté pendant plus d’un millénaire. Selon le récit de Burckhardt, ce sont d’immenses têtes de pierre, émergeant à peine du sable, qui lui révélèrent l’existence d’un édifice exceptionnel.
- Les nombreux épisodes, qui se succédèrent par la suite, pour parvenir enfin au déblaiement total de la façade et du temple souterrain, sont résumés dans un numéro spécial du Courrier de P Unesco. On rappelle que les archéologues et leurs équipes d’ouvriers eurent la plus grande peine à venir à bout de leur tâche, l’opposition de la population locale s’ajoutant aux obstacles rencontrés dans l’exécution du travail. Il a fallu un siècle pour qu’Abou Simbel, entièrement désensablé, apparaisse dans toute sa majesté, avec les quatre colosses assis (représentant Ramsès II) qui montent la garde devant sa façade (fig. 8).
- C’est à une époque toute récente que les égyptologues, aidés par des moyens spéciaux d’éclairage nocturne, ont réussi à déchiffrer un document qui retrace les principaux événements du règne de Ramsès II (1290 à 1223 av. J.-C.). C’est une stèle, rongée par l’érosion éolienne et par la corrosion atmosphérique, qui a été taillée dans le grès de la façade d’Abou Simbel. On l’appelle la stèle du mariage, car après avoir relaté les combats où le pharaon paya audacieusement de sa personne et la guerre longtemps indécise contre les Hittites, elle marque enfin le grand jour où le roi de cette nation implora la paix et donna sa fille en mariage à Ramsès IL Personne ne garantit que cette page glorieuse, gravée sur la pierre, soit entièrement véridique. Toujours est-il que le grand temple d’Abou Simbel a été construit pour commémorer le triomphe du pharaon vieillissant. Les historiens pensent qu’il avait dépassé la soixantaine lorsqu’il épousa solennellement la princesse hittite.
- Voilà pour le passé et ses prestiges légendaires. Le présent nous apparaît plus prosaïque, bien que les constructeurs modernes qui sont prêts à préserver Abou Simbel, avant l’inexorable montée des eaux, démontreront qu’ils sont les dignes rivaux des bâtisseurs de pyramides et de spéos.
- Deux projets sont en présence : celui du bureau d’études français Coyne et Bellier, celui d’Italconsult, patronné par le gouvernement italien.
- Le barrage en ellipse de Coyne et Bellier. — La solution proposée par les ingénieurs français est classique, en ce sens qu’elle fait appel à un grand barrage de protection, établi selon une technique éprouvée. Elle a dû cependant s’inspirer de données géologiques et d’impératifs esthétiques qui concourent à la conception d’un ouvrage de grande ampleur et d’une incontestable originalité.
- Du point de vue géologique, on retrouve à Abou Simbel des conditions voisines de celles déjà décrites, à propos de Philæ et du Sadd el Ali. Comme en aval, le Nil coule sur un lit d’alluvions, accumulées en grande épaisseur depuis le temps où le niveau relatif de la Méditerranée, par rapport à cette partie du continent africain, a commencé à s’élever.
- Fig. 8. — Abou Simbel : façade du grand temple avec les quatre colosses à l’effigie de Ramsès II. Entre les jambes des colosses, les petites statues figurent les enfants du pharaon {Photo Laurenza, Unesco).
- 72
- p.dbl.72 - vue 75/560
-
-
-
- La hauteur mesurée entre le roc et le lit actuel du fleuve n’est pourtant pas aussi considérable qu’à Philæ. N’empêche que la formule du barrage en béton ne pouvait être retenue. Et c’est le barrage en terre et enrochements qui a été tout naturellement adopté. Il se trouve d’ailleurs que cette formule se prête tout particulièrement à l’aménagement du site, à condition, bien entendu, de donner au barrage une forme appropriée (fig. 9). C’est ainsi que cet ouvrage se développerait selon une courbe plus ou moins elliptique, à l’intérieur de laquelle le grand temple d’Abou Simbel occuperait une position centrale. Le plan que nous reproduisons montre que sur toute une portion de la crête, le temple serait vu en contrebas, mais sans plongée excessive, à des distances variant entre 300 et 400 m. Cela suppose évidemment une assez grande longueur de la courbe : environ 1 800 m.
- Ajoutons, parmi les aspècts esthétiques et touristiques du projet, que la route d’accès déboucherait sur la crête du barrage et descendrait en pente douce, le long de son flanc intérieur, pour aboutir finalement à proximité des temples.
- Quelques indications à présent sur la structure du barrage qui s’élèvera à environ 70 m au-dessus du lit actuel du fleuve, de manière à dominer de quelques mètres la cote maximale de la retenue.
- De part et d’autre d’un noyau en limon compacté, s’étend la masse des recharges en enrochements et sable. Des enrochements viendront consolider leurs parements. L’ensemble du barrage reposera sur un tapis étanche en limon compacté. La largeur sera d’environ 250 m. Sous le noyau, l’étanchéité des alluvions sera assurée, comme à Serre-Ponçon, par un rideau de ciment injecté. Le sable sur lequel le barrage est fondé sera compacté par vibrations.
- Fig. çf. — Plan schématique du projet français de barrage en ellipse destiné à protéger les temples d’Abou Simbel.
- (D’après l’avant-projet du Bureau d’études Coyne et Bellier),
- On estime qu’un certain volume d’infiltrations ne pourra être évité. Elles seront partiellement absorbées par des forages de drainage, au bas de la pente intérieure. Un plan d’eau de faible profondeur sera d’ailleurs maintenu devant les temples. Son niveau sera réglé par une station de pompage.
- Le projet Italconsult. — La solution proposée par les ingénieurs italiens est toute différente. Ce n’est plus une protection par barrage qui est envisagée, mais un soulèvement de chacun des temples, par le moyen de vérins hydrauliques. Le gain d’altitude serait de 62 m, entre la cote de départ 125. m et la cote d’aboutissement 187 m.
- Ce projet d’une hardiesse extrême a été minutieusement étudié. Pour mieux apprécier la complexité des problèmes que devront affronter les exécutants, il suffit de rappeler que, la hauteur du déplacement mise à part, la masse à soulever pèsera, dans le cas du grand temple, 300 000 tonnes et qu’elle sera répartie autour d’un espace vide (l’intérieur du temple) dont les parois sont recouvertes de précieux bas-reliefs. Toute dislocation du rocher risquerait d’être désastreuse.
- Voici quelles seraient les différentes phases de ce travail hors série (fig. 10) :
- i° Une digue de protection contre d’éventuelles crues du fleuve sera élevée, pendant que divers étaiements, consolidations et protections des œuvres d’art seront effectués à l’intérieur du temple.
- 20 Afin de soulager le travail des vérins, la partie supérieure de la colline sera arasée, en descendant jusqu’à une cote d’environ 150m.
- 30 Une des phases les plus délicates sera de découper le bloc cubique dans lequel s’inscrit le temple. Pour les trois faces verticales, deux tranchées latérales et une tranchée postérieure seront creusées. C’est évidemment le découpage horizontal, sous le temple, qui requiert le plus d’attention : à partir d’une tranchée, creusée devant la façade, des galeries s’enfonceront à travers le rocher. Ces galeries seront percées par séries alternées et dans chacune d’elles sera coulée une puissante dalle de béton armé qui devra par la suite servir d’assise à tout l’édifice. Le plafond des galeries sera soutenu par des piliers provisoires.
- 4° Vient à présent la tâche essentielle qui est de ceinturer le bloc sur toutes ses faces, grâce à une gigantesque structure en béton armé. Elle apparaît, sous une forme schématique, sur la figure 10. On voit que la « boîte » dans laquelle le temple est enfermé est faite, à la partie inférieure et sur les. côtés, de cellules de béton. La structure est complétée, au sommet, par des poutres qui assurent la rigidité de l’ensemble. Bien entendu, les parties antérieure et latérale droite de la structure, absentes sur le schéma, sont supposées, existantes.
- 50 Posés sur une série de piliers qui prennent eux-mêmes; appui sur la dalle d’assise, les vérins (au nombre de 300) entrent en action. A chacune de leurs poussées, 30 cm doivent être gagnés en hauteur. Aussitôt que ce gain est acquis et alors que toute la masse repose sur les vérins,, des blocs préfabriqués sont placés sur des piliers intermédiaires qui vont servir d’appuis, pendant que l’on enlève les vérins. Après rehaussement de leurs piliers, ils sont ai nouveau mis en place et la poussée suivante a lieu. Cette opération devra se répéter 207 fois. Chaque déplacement sera contrôlé par l’ingénieur chef des travaux, qui aura; sous les yeux un tableau de bord où tout incident sera, immédiatement enregistré. En dehors des interventions, télécommandées qui sembleraient opportunes, le système comprend également des dispositifs automatiques qui doivent parer à toute éventualité.
- 6° Le temple étant parvenu à l’altitude prévue, il resterai, à masquer la structure en béton, partiellement conservée,,
- 74
- p.74 - vue 76/560
-
-
-
- et à reconstituer l’environnement. C’est l’architecte paysagiste qui aura la charge de composer un site rappelant celui qui existait 62 m plus bas.
- Notons que malgré son caractère acrobatique et toute la gamme des moyens mis en œuvre, le système des vérins entraînerait une moins forte dépense que le barrage :
- 5 8 millions au lieu de 68 millions de dollars (chiffres estimatifs). Dans l’un et l’autre cas, le travail devra être parachevé avant la montée en eau du Sadd el Ali, prévue pour 1967-1968.
- Archéologie sous pression
- Le concours apporté par les ingénieurs au sauvetage artistique et historique de la Nubie est évidemment le plus spectaculaire. Il n’en est pas moins vrai que les archéologues ont, dans les mêmes délais, une rude tâche à accomplir. Huit ans tout au plus pour fouiller une région qui recèle encore tant d’inconnues. N’est-ce pas tout récemment encore que l’on découvrit les vestiges de deux civilisations oubliées, celle des Blemmyes, celle de Méroé ? Et cependant les recherches en territoire égyptien datent à présent d’un siècle et demi. Par contraste, le Soudan est, pour les archéologues, une terre presque vierge, bien que riche certainement en vestiges des époques les plus diverses.
- Fig. 10. — Vue en arraché du temple d’Abou Simbel pendant son déplacement vertical (projet italien).
- On voit les détails de la structure en béton armé. La « boîte » serait complétée, dans la réalité, par des parois cellulaires qui masqueraient le bloc rocheux. On distingue, à la partie inférieure, les piliers, surmontés des vérins qui soulèvent le temple.
- (imité du rapport de la Société îtalconsult).
- Ce n’est pas là une des moindres préoccupations de l’Unesco et une véritable mobilisation archéologique est prévue, pour venir en aide au Service des antiquités de la République du Soudan, jusqu’ici faiblement doté en moyens d’investigation. Tout un programme de relevés aériens par photogrammétrie et d’exploration sur le terrain, kilomètre par kilomètre, s’élabore actuellement. Il est vraisemblable que des fouilles, conduites à une cadence ultra-rapide, permettront d’exceptionnelles moissons. Tout sans doute ne pourra pas être sauvé, mais un intense travail de relevés, de prise de documents photographiques et photogrammétriques fournira tout au moins un abondant matériel artistique et historique, issu des terres que les eaux du Nil s’apprêtent à recouvrir.
- Yves Mériel.
- 75
- p.75 - vue 77/560
-
-
-
- L’horloge interne des êtres vivants
- se laisse dérégler par Gaston Cohen
- de façon instructive
- L’idée selon laquelle les rythmes biologiques, c’est-à-dire le découpage cyclique du temps par les êtres vivants, est en étroite dépendance des cycles géophysiques ne peut déconcerter personne. On pourrait même s’étonner que tant de chercheurs aient consacré une large somme d’efforts à observer et noter d’innombrables rythmes, aussi bien chez les algues unicellulaires que chez l’homme, en passant par l’ensemble des végétaux et des animaux : tout cela pour constater en définitive que l’on retrouve, dans l’immense majorité des cas, une nette concordance avec l’alternance des jours et des nuits, les mois lunaires et la succession des saisons.
- On aurait pu en rester là et ne pas extraire la science des rythmes biologiques de cette catégorie de connaissances qui se borne à constater et classer. Pourtant, quelques auteurs ont voulu pousser plus loin leurs investigations jusqu’à découvrir un hypothétique mécanisme de régulation temporelle qui ferait partie du patrimoine génétique des espèces : en un mot une « horloge interne » dont le réglage sur les rythmes cosmiques serait en quelque sorte facultatif.
- Un article récent de Frank A. Brown {Science, n° 3388) vend compte des controverses qui se sont instaurées sur ce sujet et cherche à y mettre le point final.
- Cycle autonome et mémoire génétique
- La théorie « autonomiste » a eu comme point de départ une série d’expériences faites par Pfeffer sur les haricots. On sait que, normalement, ces végétaux étalent leurs feuilles à la lumière et les replient en position de sommeil dès que la nuit est tombée : rythme nycthéméral, dont les analogues sont nombreux dans la nature.
- Or des plants de haricot, placés dès leur germination dans l’obscurité, gardaient constamment leurs feuilles dans la même position. Il suffisait par contre de les éclairer pendant un bref espace de temps pour que la levée et le repliement des feuilles s’amorcent et se poursuivent dans l’obscurité, selon la période typique de 24 heures, avec cette particularité que le rythme était indépendant de la succession réelle des jours et des nuits. C’est l’heure de l’éclairement initial qui, une fois pour toutes, réglait l’alternance des mouvements cycliques (fig. 1). Bien mieux, en maintenant des conditions constantes d’éclairement et de température, on pouvait voir apparaître des périodes aberrantes, variant entre 19 et 29 heures. Les végétaux, ostensiblement, faisaient fi du rythme cosmique des 24 heures.
- Un deuxième auteur, Kleinhoonte, entreprit de « dresser » systématiquement les haricots à obéir à des cycles « hérétiques ». Le procédé était de réaliser des jours artificiels (lumière -j- obscurité) dont la durée totale allait de 18 à 30 heures. Les végétaux se plièrent à ces contraintes (fig. 1), mais si l’une des limites, inférieure ou supérieure, était dépassée, ils revenaient automatiquement à la période de 24 heures, tout en étant maintenus sous un cycle artificiel.
- Il était pareillement artificiel de laisser les végétaux exposés à une température rigoureusement invariable. Un nouvel expérimentateur, Bünning, procéda à cet essai, mais en choisissant successivement plusieurs températures constantes. Il s’agissait pour lui de voir si des températures de plus en plus élevées allaient accélérer le rythme, de même qu’elles stimulent la plupart des processus biologiques. Cet effet fut constaté, mais l’accélération était loin de correspondre à l’intensité des stimulations. C’était un argument de plus à l’appui de l’existence d’une « horloge interne », indépendante des cycles cosmiques et que les agents extérieurs ne faisaient que dérégler, sans toutefois la dépouiller de son rôle fondamental.
- Ces différentes expériences ont permis de formuler avec plus de précision la thèse du cycle biologique autonome : c’est au cours de l’évolution que les espèces auraient acquis et se seraient transmis des rythmes dont la période cadre avec les cycles cosmiques, mais qui peuvent être largement décalés, dès que l’être vivant cesse d’être soumis aux conditions matérielles.
- Cette théorie paraît tenir debout. Mais voyons quelles sont ses implications. Il faudrait qu’existe une sorte de « mémoire génétique », présente dans toutes les semences et où seraient enregistrées les périodes diurne, mensuelle et annuelle des cycles cosmiques. De quelle nature est ce mécanisme ? Physique ? Biochimique ? Quelle est sa localisation ? Autant de questions auxquelles il était embarrassant de répondre.
- Mais en regard, l’idée plus simple d’une relation permanente entre cycles biologiques et cycles cosmiques ne pouvait être aussi aisément défendue qu’avant les expériences de Pfeffer, Kleinhoonte et Bünning.
- Dépendance des rythmes cosmiques
- On pouvait cependant se référer à des expériences contradictoires, celle par exemple menée par Stoppel : des huîtres furent prélevées dans un parc du port de
- 76
- p.76 - vue 78/560
-
-
-
- New Haven au nord de New York où l’ouverture et la fermeture des valves étaient rythmées par la marée ; de là, elles furent transportées dans des caisses à parois opaques jusqu’à une chambre noire, située dans l’Illinois. On constata alors qu’en l’espace de deux semaines ces lamellibranches s’étaient « déphasés » et n’ayant plus le repère marée haute-marée basse de New Haven se guidaient désormais avec ponctualité sur celui du zénith et du nadir lunaires de l’Illinois. Obéissance des plus nettes à un rythme cosmique !
- Mais les perturbations mises en évidence par Pfeffer et les autres « autonomistes » demandaient à être expliquées. C’est à quoi se sont attachés Brown (l’auteur de l’article de Science), Webb et Stephen. Leur hypothèse de base est qu’il n’existe pas de régulateur unique, qui régisse tous les cycles biologiques. Il est normal au contraire, dans une même espèce, de se trouver en présence de deux rythmes superposés. L’un est instable et se laisse facilement perturber par des conditions anormales, telles que l’éclairement étiré ou rétréci des jours artificiels. L’autre est le rythme fondamental, asservi aux cycles cosmiques : si les perturbations disparaissent, et même en cours de perturbation, il peut faire « rentrer en phase » le premier rythme instable.
- Cette hypothèse méritait d’être vérifiée. Et c’est pourquoi une nouvelle série d’expériences a été entreprise, à dessein de faire apparaître le rythme fondamental dans une fonction physiologique essentielle, tout en démontrant sa concordance avec certains phénomènes géophysiques. La fonction choisie est celle du métabolisme, choix qui se justifie pleinement en raison de 1’ « universalité » du métabolisme que l’on peut mesurer aussi bien chez les végétaux inférieurs que supérieurs, chez les invertébrés comme chez les vertébrés. Or, il a été démontré, à travers une foule d’exemples, que le métabolisme obéit à des rythmes et que ces rythmes sont en concordance avec les cycles cosmiques.
- Cette démonstration, résultat de travaux poursuivis pendant six ans, paraît avoir été assez difficile à établir. Si les expérimentateurs avaient relevé les chiffres d’un jour ou d’un mois pris au hasard, ils auraient sans doute présenté des courbes peu significatives. Mais, en prenant des valeurs moyennes, ces courbes ont finalement donné un aspect relativement uniforme du rythme métabolique journalier (fig. 2). On est en tout cas frappé par la montée rapide de la consommation d’oxygène entre 1 et 6 heures et la chute à partir de 18 heures, l’année 1958 étant à cet égard plus douteuse. D’autres courbes, faisant état de
- Fig. 1. — Expériences sur le haricot.
- La même plante, obéissant normalement au rythme diurne des 24 heures (a) retrouve ce même rythme dans l’obscurité (b) à condition d’avoir été soumise à un éclairement initial. C’est l’heure de cet éclairement qui jalonne désormais le cycle. Elle peut également (c) être dressée pour un cycle perturbé de 30 heures si elle subit une alternance de lumière et d’obscurité composant un jour artificiel de cette durée.
- 77
- p.77 - vue 79/560
-
-
-
- 102- A
- ['Moyenne des trois . années)
- Fig. 2. — Cycle quotidien du métabolisme de la pomme de terre (consommation d’oxygène), établi selon les moyennes de trois années successives.
- Courbe A : 1956. Courbe B : 1957. Courbe C : 1958.
- La courbe D représente la moyenne des trois courbes précédentes.
- moyennes constatées au cours du mois lunaire et de l’année, semblent également modelées par des rythmes.
- On pourrait penser que le métabolisme a été tout simplement influencé par les fluctuations diurnes, mensuelles et annuelles du milieu. Il n’en est rien car les végétaux (tels que la pomme de terre) et les animaux (tels que le « crabe violoneux », Uca sp.) furent maintenus sous des conditions constantes : éclairement invariable, température invariable, pression invariable.
- Mettons l’accent sur ce dernier terme de la pression, car ce sont les variations de la pression atmosphérique qui ont été choisies comme terme de comparaison avec le phénomène biologique du rythme. Une nouvelle investigation statistique devenait nécessaire, car la pression atmosphérique, relevée heure par heure ou jour par jour, est bien entendu fonction de faits météorologiques irréguliers dans leur succession et leur durée. Il était exceptionnellement difficile de reconstituer un rythme, sinon en établissant des moyennes calculées sur de longs espaces de temps.
- Par ailleurs et pour que la « règle du jeu » soit stricte»
- ment observée, il fallait évidemment que les sujets biologiques n’aient pas connaissance des variations de pression. En les maintenant sous une pression constante, cette information leur faisait défaut.
- En résumé, les deux éléments dont la corrélation fut recherchée étaient d’une part le cycle biologique fondamental (détecté par le métabolisme) et le cycle régulier de la pression, hors des turbulences de la troposphère et tel qu’il peut se présenter dans les espaces calmes de la stratosphère.
- La corrélation qui a été finalement mise en évidence trouve sa représentation graphique dans la figure 3 où quatre courbes ont été tracées, l’une et l’autre traduisant un rythme journalier. La courbe A est celle des fluctuations métaboliques de la pomme de terre, pendant les journées de la période chaude de l’année (mai à août). La courbe B représente, pendant la même période, le cycle quotidien de la pression barométrique. La courbe C exprime les consommations d’oxygène du crabe Uca. La courbe D est celle de ce même crabe, après qu’il a été soumis par les expérimentateurs à une « inversion de 1800 ».
- Expliquons-nous à ce sujet : le crabe violoneux est un des favoris des expérimentateurs, en raison de sa coutume
- 29,33- B
- Fig. 3. — Comparaison entre trois cycles biologiques (A, C, D) et un cycle géophysique, celui de la pression barométrique (B).
- Ces cycles ont été relevés sur la période estivale (mai à août), ce qui explique la différence qui existe pour la pomme de terre entre la courbe A ci-dessus et la courbe D de la figure 2. L’inversion que l’on constate entre les courbes C et D du crabe Uca est expliquée dans le texte.
- (D'après la revue Science).
- 78
- p.78 - vue 80/560
-
-
-
- caractéristique qui est de changer de couleur sous l’influence de la lumière. Il obéit ainsi à un rythme biologique superficiel que l’on peut aisément perturber par la méthode des « jours artificiels ». Mais la perturbation risque d’être elle-même instable si elle n’est pas sanctionnée par l’horloge biologique fondamentale de l’animal. Si elle est ordonnée de telle sorte que le changement de couleur a se produise à l’heure habituelle exacte du changement de couleur b, l’horloge fondamentale « accepte » en quelque sorte que son cadran soit viré de i8o°, le point midi venant prendre la place du point minuit.
- Quoi qu’il en soit, la concordance des quatre courbes de la figure 3 (y compris la courbe D inversée) est assez frappante. Et l’on est en droit de souscrire à la théorie d’une correspondance profonde entre les cycles biologiques et les cycles cosmiques.
- Toutefois les auteurs de cette théorie ne se sont pas contentés de leur première distinction entre rythmes instables et rythme fondamental. Ils ont fait intervenir la notion, plus abstruse, d’un régulateur, baptisé horloge primaire, dont le rôle serait de mémoriser un rythme permanent d’origine cosmique, capable de redresser les rythmes occasionnels.
- Adaptations aux rythmes
- Etant acquis que le rythme biologique fondamental est d’origine cosmique, les expérimentateurs devaient trouver l’explication de certains phénomènes aberrants. Voici par exemple le plant de haricot qui, placé sous un éclairage constant, perd son rythme de 24 heures pour adopter une période un peu plus longue ou un peu plus courte. Il se stabilise sur son nouveau rythme et paraît s’entêter dans son hérésie. Pourquoi ? Il faut considérer que dans les conditions naturelles, il manifeste une sensibilité aux variations de la lumière, sensibilité qui l’aide à se mettre en phase avec le cycle quotidien. Cela ne se pro-
- Moteurs électriques submersibles
- On essaie depuis quelques années de construire des moteurs d’induction à « cage d’écureuil » capables de fonctionner dans l’eau de mer. Un isolement spécial permet aux enroulements d’y rester immergés indéfiniment sans dommage. Tous les organes mécaniques, notamment l’arbre du moteur et les paliers que lubrifie l’eau salée, sont faits de métaux résistants à la corrosion, à l’exception des empilements de tôles dont se composent le stator et le rotor.
- Aux essais, qui ont comporté des immersions intermittentes et continues de 300 heures à 18 mois respectivement, l’isolement s’est comporté de façon très satisfaisante, et l’on n’a eu à remédier qu’à des ennuis mineurs, dans la tenue des paliers en particulier. Le problème le plus ardu est d’empêcher l’attaque des tôles du stator et du rotor, aucun des aciers magnétiques actuels ne se montrant capable d’éviter à la longue la corrosion de l’eau de mer. La solution consisterait, bien sûr, à les en protéger en les dotant d’un revêtement « anticorrosion » ; encore faut-il que cette couche protectrice n’altère pas leurs qualités fonctionnelles ; il y a là une difficulté que l’on s’emploie actuellement à résoudre.
- duit pas sans des tâtonnements qu’imposent les irrégularités d’éclairement qui régnent dans la nature. Le rythme régulier dans l’ensemble est rompu par des accélérations et des ralentissements momentanés, au cours desquels le plant de haricot réalise une sorte d' autophasage.
- Mis dans les conditions anormales de la lumière constante, le végétal conserve sa faculté d’accélérer ou de ralentir, mais son éclairement-repère le trompe dans l’un ou l’autre sens et il se fixe sur une période « fausse », influencée d’ailleurs par le régulateur primaire qui lui impose d’en choisir une, aussi voisine que possible du cycle cosmique.
- Ce régulateur a d’ailleurs le pouvoir de faire observer ses règles envers et contre tout. C’est ce qui ressort d’une curieuse observation de Webb. Ayant imposé à un crabe, par le moyen des jours artificiels, d’allonger son rythme quotidien des changements de couleur au delà d’une période de 30 heures, l’expérimentateur a constaté que cette période se fixait avec précision sur 32 heures. Ce choix n’était pas fait au hasard et se commente facilement par l’égalité suivante :
- 32 X 3 = 96 — 24 X 4.
- Le cycle imposé (96 heures) était en réalité un multiple de 24, satisfaisant pour le régulateur !
- Après cet exemple curieux, on peut conclure en notant que la théorie des rythmes multiples à influences réciproques est plus satisfaisante pour l’esprit que celle de l’horloge autonome. Elle a l’avantage en tout cas, malgré sa complexité, de rattacher de manière plus rationnelle les rythmes biologiques aux cycles cosmiques : fait qui peut paraître évident, mais qu’il fallait démontrer scientifiquement sans avoir recours à une « mémoire génétique ». Ce dernier mécanisme, de nature obscure, ne pouvait être accepté que sous la forme d’un postulat qui bloquait nécessairement toute recherche en ce domaine.
- Gaston Cohen.
- Un radar au secours des aveugles
- Valradio Limited présentait au dernier Salon de la Radio de Londres un ingénieux appareil permettant aux aveugles de déceler la présence d’obstacles, y compris les bordures de trottoir, à une distance de 6 m. Son principe est fondé sur l’observation des chauves-souris qui peuvent se diriger dans l’obscurité grâce à l’émission de sons réfléchis par les obstacles. A peine plus gros qu’un appareil photographique, ce radar tient dans la main et émet un faisceau étroit de sons très aigus qui sont réfléchis par les obstacles et avertissent l’aveugle de leur présence.
- Le signal du Sondar, ainsi qu’on l’appelle, se compose d’une succession rapide (de 50 à xoo par seconde) de vibrations sonores d’une fréquence audible élevée, de l’ordre de 10 000 cycles/ seconde. Il est fourni par des transistors fonctionnant sur pile ou accumulateur de 9 à 12 V. Le signal réfléchi par des obstacles situés jusqu’à 6 m de la source d’émission fait varier le ton et l’usager expérimenté peut en déduire la distance et la position des obstacles. Le Sondar ressemble à une lampe de poche dont l’ampoule et le réflecteur seraient remplacés par un haut-parleur. Les études en cours devraient permettre de réduire encore la grosseur et le poids de l’appareil et d’améliorer son rendement.
- 79
- p.79 - vue 81/560
-
-
-
- Les
- turboréacteurs à double flux
- par Jacques Spincourt
- Malgré les avantages de vitesse pure qu’ils procurent, le succès des turboréacteurs dans l’aviation commerciale reste lié pour une bonne part à la possibilité de réduire la consommation de carburant. Des progrès dans cette voie avaient déjà été obtenus grâce à l’augmentation du taux de compression et de la température admissible pour les gaz de combustion à leur entrée à la turbine, ce qui avait permis d’atteindre des valeurs de 0,9 à o,8 kg/kgp/h (consommation par kilogramme de poussée et par heure). Mais le développement des turboréacteurs à double flux a conduit à des consommations encore plus faibles. Comme, en outre, la souplesse de fonctionnement de ce type de moteur lui ouvre des horizons très variés dans le domaine de la propulsion aéronautique, il ne faut pas s’étonner qu’il recueille la majeure partie des efforts des constructeurs de moteurs.
- Principes de fonctionnement. — Nous avons déjà eu l’occasion d’esquisser ici en quoi consistait un turboréacteur à double flux (La Nature, août 1959). Rappelons que son principe essentiel consiste à mélanger aux gaz chauds sortant de la turbine un flux d’air secondaire à température plus basse qui vient augmenter considérablement le débit des gaz éjectés au prix d’une petite réduction de leur vitesse ; mais la quantité de mouvement mv de ces gaz qui seule entre en ligne de compte dans l’expression de la poussée du moteur est augmentée.
- Le flux secondaire est produit par un ventilateur, entraîné comme le compresseur par la turbine du réacteur et qui peut se trouver soit à l’avant, soit à l’arrière du moteur
- (fig- O*
- Par rapport au turboréacteur ordinaire ou au turbo-propulseur, le réacteur à double flux présente un rendement de propulsion supérieur, du moins dans la gamme des nombres de Mach entourant 1 (fig. 2). Ceci peut encore s’exprimer en disant que la poussée par kilo d’air absorbé par le moteur est plus élevée dans le cas du double flux que dans les deux autres cas.
- Les performances d’un tel moteur dépendent toutefois du taux de dérivation, c’est-à-dire du rapport des débits du flux secondaire et du flux principal. On voit sur la figure 3 que la consommation spécifique, qui est le paramètre le plus important pour un moteur d’avion de transport, décroît quand le taux de dérivation augmente, mais tend vite vers une valeur-limite. Il y a donc un taux de dérivation optimal qui se situe aux alentours de 0,5 et qui doit permettre d’atteindre une consommation spécifique de 0,7 kg/kgp/h.
- En réalité, il faut tenir compte dans ce choix du taux de dérivation des facteurs liés à l’installation sur avion qui peuvent légèrement modifier le compromis à tenir entre l’évolution du poids et celle de la consommation spécifique. Enfin, il faut encore noter que le mélange des deux jets dans la tuyère d’éjection se fait avec un rendement d’autant moins bon que le rapport de dérivation est plus grand. Si par contre il s’agit d’obtenir une poussée au décollage très importante par rapport à la poussée en croisière, comme c’est le cas pour les projets d’avions à décollage vertical, on peut être amené à adopter des taux de dérivation supérieurs à l’unité. En allant au delà de 10, on peut presque tripler la poussée du turboréacteur de base.
- Dans cette optique, on peut même être amené à séparer le ventilateur du moteur de base qui fonctionne alors comme un véritable générateur de gaz. Le ou les ventilateurs sont alors directement placés dans la voilure et l’air qu’ils aspirent est automatiquement dirigé vers le bas, sans aller se mélanger dans la tuyère d’éjection avec les gaz chauds issus du réacteur. La firme américaine General Electric a réalisé un tel moteur qui sert actuellement dans plusieurs projets d’avions à décollage vertical.
- Lorsque l’avion a atteint une vitesse suffisante pour assurer sa sustentation uniquement par des moyens aérodynamiques, le ventilateur est désaccouplé et toute l’énergie motrice est appliquée au moteur principal.
- Jusqu’ici nous avons envisagé l’application de ce type de moteur à des avions subsoniques, mais il peut aussi présenter de l’intérêt pour des avions supersoniques, principalement moyennant certains aménagements particuliers. Le premier avantage est d’ordre acoustique. Les moteurs à post-combustion qui seuls permettent actuellement le vol supersonique présentent un niveau de bruit tel qu’ils seront certainement prohibés sur les aéroports. Les doubles flux permettront une diminution du niveau de bruit de l’ordre de 10 décibels. Cet affaiblissement du bruit peut être expliqué par le fait que le mélange des deux jets gazeux, l’un chaud issu de la turbine, l’autre froid amené par le ventilateur, réduit la vitesse moyenne des gaz qui s’échappent de la tuyère dans l’atmosphère. En contrepartie, le bruit dû à l’entrée d’air est augmenté, puisque le débit d’air qui la traverse est plus grand, mais cette augmentation est faible en comparaison de l’affaiblissement du bruit produit par l’échappement.
- En outre, la portance nécessaire est plus facile à obtenir en supersonique qu’aux vitesses d’atterrissage ou de décollage par suite justement du niveau élevé de la vitesse
- 80
- p.80 - vue 82/560
-
-
-
- Chambre de
- Air secondaire
- combustion
- Ventilateur
- Turbine
- N Compresseur Air principal
- Fig. I. — Schéma d’un turboréacteur à double flux.
- Nombre de Mach
- Fig. 2. — Évolution du rendement de propulsion r avec le nombre de Mach.
- TP, turbopropulseur ; TR, turboréacteur ordinaire ; DF, réacteur à double flux.
- Poids spécifique
- Consommation spécifique
- Rapport de dérivation
- (Rappelons que pour une configuration d’avion donnée, la portance varie avec le carré de la vitesse de vol). On pourra par suite étudier l’avion, et en particulier déterminer la surface de voilure, en se basant principalement sur les nécessités du vol supersonique, le supplément de portance aux basses vitesses étant fourni par l’orientation vers le bas d’un flux secondaire produit par le moteur.
- Application de la post-combustion. — La plupart des firmes américaines de construction de moteurs étudient la possibilité d’augmenter encore la poussée des turboréacteurs à double flux en leur appliquant la post-combustion dans le flux secondaire.
- Les principales caractéristiques envisagées pour ces moteurs sont les suivantes : le compresseur aurait un taux de compression modéré compris entre 5 et 8 obtenu à l’aide d’une dizaine d’étages, chaque étage ayant lui-même un taux de compression faible. La surface frontale du compresseur pourra être plus grande que pour les turboréacteurs ordinaires, le maître couple du moteur étant conditionné par la section de la tuyère d’éjection, et celle-ci étant plus grande du fait des deux flux qui la traversent. La soufflante à un seul étage serait montée à l’arrière et entraînée par la turbine du moteur ; elle serait suivie de la chambre de combustion secondaire dans laquelle la combustion doit s’effectuer à une pression beaucoup plus faible que dans une chambre de combustion classique.
- Enfin, la tuyère d’éjection doit être telle que le rapport de la section de sortie à la section au col puisse varier dans de larges limites. La meilleure solution réside dans la tuyère à cône directeur dans laquelle un cône central peut se déplacer axialement pour obturer plus ou moins la section de sortie.
- Du fait de la grande masse d’air disponible pour la postcombustion, un turboréacteur à double flux et à postcombustion développe une poussée plusieurs fois plus grande que le turboréacteur classique également à postcombustion. Du fait de la pression plus faible, cette augmentation de poussée se produit aux dépens d’une consommation spécifique accrue. Mais si l’on n’opère qu’une post-combustion partielle, c’est-à-dire sans utiliser comme comburant la totalité de l’air disponible, on peut obtenir la même poussée de croisière qu’avec un turboréacteur classique, mais une poussée au décollage supérieure, et ceci avec une consommation spécifique plus faible. Enfin, il faut mettre à l’actif du moteur à double flux, dans le cas de l’avion supersonique, la consommation plus faible qui lui permet de tenir l’air plus longtemps si une attente est imposée à l’atterrissage par suite de l’encombrement du trafic.
- D’ores et déjà, les avions en projet équipés de moteurs à double flux sont nombreux et certains sont déjà au stade de la construction, tels que ceux qui sont tirés d’avions de transport existants (Boeing 707 et Caravelle entre autres). Attendons donc de voir quels seront leurs résultats en exploitation pour fixer objectivement l’avenir des « double flux ».
- Jacques Spincourt.
- Fig. 7. — Influence du rapport de dérivation sur le poids et la consommation spécifiques.
- 81
- p.81 - vue 83/560
-
-
-
- par D* Guinot-Dumortier
- Crabes, Crevettes et Langoustes ne sont pas toujours silencieux
- Mais on s’interroge encore sur le
- sens de leurs stridulations
- Dès qu’il est question d’émission sonore chez les Arthropodes, quelques noms viennent immédiatement à l’esprit : Sauterelles, Grillons, Cigales. S’il est vrai que ces Insectes sont les chanteurs les plus manifestes, nombre d’autres animaux sont dotés d’un appareil stridulatoire perfectionné : Coléoptères, Hémiptéroïdes autres que les Cigales, Lépidoptères. Cette liste ne se limite d’ailleurs pas aux seuls Insectes, puisqu’on connaît de nombreuses Araignées et des Scorpions stridulants, et que bien des exemples se rencontrent aussi chez les Crustacés. Dans
- Orthoptères ou même les Coléoptères, les Crustacés, on le voit, n’en constituent pas moins un ensemble important par la grande variété et la haute différenciation des appareils dont ils sont pourvus. Il convient en outre d’ajouter que les Crustacés stridulants sont, pour la plupart, fort peu connus des non-spécialistes, du fait que cet aspect si particulier de leur morphologie et de leur éthologie est toujours quelque peu négligé, voire passé sous silence, dans les traités.
- Intéressants tant par les nombreux exemples qu’ils offrent que par la très remarquable évolution de leurs appareils, les Crabes nous retiendront tout d’abord (x).
- P, .ch
- —-mxPj
- Fig, I, — Vue schématique de la face ventrale d’un Crabe.
- Pj(= ch), chélipède ; P2, P3, P4, P5) pattes ambulatoires ; ex, coxa ; b, [basis ; i, ischion ; m, mérus ; c, carpe ; p, propode ; d, dactyle ; a, abdomen ; s, sternum ; mxpa, maxillipède (3e paire) ; pi, région ptérygostomienne ; jo, région sous-orbitaire ; a, œil ; ax, antennule ; aa, antenne.
- Grande variété instrumentale chez les Crabes
- Le corps des Crustacés Décapodes (Crabes, Crevettes, Langoustes, Bernard-l’Ermite, etc.) est constitué par un céphalothorax (tête et thorax soudés) suivi d’un abdomen segmenté qui, chez les Crabes, est de dimensions réduites et rabattu sous la face ventrale du thorax. Les Décapodes possèdent cinq paires d’appendices thoraciques, ceux de la première paire (chélipèdes) étant munis de pinces, formées par les deux derniers articles (propode et dactyle), les quatre autres paires constituant les pattes ambulatoires.
- cette dernière classe, on a actuellement dénombré près de cinquante genres pourvus d’un appareil stridulatoire. Tous, ou presque, appartiennent à l’ordre des Décapodes, et parmi ceux-ci, les Crabes sont particulièrement bien représentés. En effet, à eux seuls, ils comptent plus de trente genres renfermant des espèces stridulantes. Sans pouvoir, sous le rapport du nombre, rivaliser avec les
- Fig. 2. — Moitié gauche de la carapace du Crabe Ovalipes oceîlatus. On voit la pars stridens (P. S.) et le plectrum (PL.) qui n’est d’ailleurs que partiellement visible sur ce dessin ; ch, chélicère. Grossissement : X 6,5.
- 1. Une partie du présent article est extraite de « La stridulation chez les Crabes », par Danièle Guinot-Dumortier et Bernard Dumortier, Crusta-ceana, i960, 1 (2), 117-155.
- 82
- p.82 - vue 84/560
-
-
-
- Fig. 3. — Le Crabe Helice tridens, d’Extrême-Orient.
- La pars stridens (P. S.) de cette espèce, en position sous-orbitaire, est une des plus développées qui se rencontrent chez les Crabes. On aperçoit sur le mérus du chélipède gauche la côte saillante du plectrum (PL.) (Photo Dumortier).
- La figure 1 rappelle schématiquement la morphologie d’un Crabe et précise la position des différentes régions et articles nommés dans le texte.
- Le dispositif stridulatoire des Crabes se compose schématiquement de deux parties susceptibles de venir en contact : l’une, dite pars stridens, présente un relief généralement bien marqué de tubercules, côtes, stries, etc., que vient gratter une arête ou une dent constituant la seconde partie, ou plectrum. On connaît aujourd’hui près d’une centaine d’espèces pourvues d’un tel appareil. Cependant, si sa structure et sa localisation varient considérablement d’un genre à l’autre, deux grands types se dégagent : dans l’un, la stridulation s’opère par friction d’appendices (chélipèdes le plus souvent) sur le céphalothorax, dans l’autre, par friction d’appendices entre eux.
- Crabes stridulant par friction d'appendices sur le céphalothorax. — Les exemples en sont assez nombreux, et nous ne signalerons que quelques-uns des plus typiques. Dans la plupart des cas, l’appendice utilisé est le chélipède. Chez certaines formes, la pars stridens est placée sur le céphalothorax et rappelle assez précisément celle que l’on observe sur les élytres des Orthoptères Tettigonides (Sauterelles proprement dites) tandis que le plectrum est porté par un article du chélipède ; chez d’autres au contraire, la pars stridens apparaît sur le chélipède, et le plectrum sur le céphalothorax.
- Le Crabe Ovalipes ocellatus, forme nageuse et fouisseuse de la côte atlantique nord américaine, appartient à la famille des Portunidés. Sa carapace jaune parsemée de taches rouges qui l’a fait surnommer en anglais Calico Crab, porte sur la face ventrale, dans la région ptérygostomienne, une longue côte arquée creusée d’une cinquantaine de petites cannelures transversales. Un mouvement d’avant en arrière du chélipède fait frotter contre ce relief une double crête du mérus de cet appendice (fig. 2).
- C’est un dispositif très comparable qui se retrouve chez Ommatocarcinus macgillivrayi de la famille des Gonéplacidés.
- Cette espèce aux chélipèdes démesurés et aux yeux portés par un long pédoncule, vit dans les eaux profondes, du Japon à l’Australie (fig. 5).
- Un peu différent est l’appareil qui caractérise le genre Helice (Grapsidés) que l’on rencontre en Extrême-Orient dans les estuaires vaseux. En effet, au lieu d’une crête finement cannelée, c’est un chapelet de gros granules prismatiques qui s’étend dans la région sous-orbitaire, sur lequel vient gratter une côte robuste, en saillie sur le mérus du chélipède (fig. 3).
- Toutes ces espèces portent leur pars stridens sur la carapace, mais, nous l’avons dit précédemment, certaines offrent un dispositif inverse. C’est ainsi que la pince des Matuta (Calappidés) est formée de deux aires profondément striées qui viennent, une fois l’appendice replié, au contact de granules épars sur la région ptérygostomienne de la carapace. Divers auteurs ont entendu ces espèces nageuses et fouisseuses qui vivent sur le littoral de la Mer Rouge et de l’Indo-Pacifique, et ils ont comparé le bruit qu’elles font à celui d’un clou frottant sur une lime, ou encore au chant du Grillon (fig. 4).
- K 5.
- Fig. 4. — Appareil stridulant du Crabe indo-pacifique Matuta lunaris.
- Double pars stridens (P. S.) sur la pince (p), venant frotter, quand l’appendiçe est replié, contre un semis de granules (plectrum, PL.) sur la face ventrale de la carapace X 1,9.
- Fig. j. — Moitié gauche de la carapace du Crabe Ommatocarcinus macgillivrayi.
- La fine cannelure de la pars stridens (P. S.) est bien visible ; PL., plectrum ; m, mérus du chélipède. Remarquer aussi le grand développement du pédoncule oculaire X 2,3.
- (Photo Dumortier).
- 83
- p.83 - vue 85/560
-
-
-
- C’est par contre à un cri d’Oiseau que fait penser la stridulation de certaines espèces du genre Menippe, de la famille des Xanthidés. Ces animaux, qui se rencontrent sur les plages de l’Amérique Centrale et de l’Amérique du Sud, présentent sur la pince une striation très finement dessinée qui évoque assez une portion d’empreinte digitale (fig. 7).
- Un type d’appareil très original qui, dans son principe, rappelle un peu celui que l’on connaît chez les Mygales et quelques Scorpions, s’observe dans les espèces africaines du genre Potamon. Les Potamon sont des Crabes d’eau douce vivant au voisinage des rivières et des marais, mais qui gagnent parfois la terre ferme pour se creuser des terriers entre les racines des arbres. Ces animaux habitent principalement les régions chaudes, mais on en rencontre aussi en Grèce et en Crimée. Jadis, il s’en trouvait dans les fontaines de Rome et sur le bord des canaux à Venise. Au début du xixe siècle, une espèce se rencontrait même dans le midi de la France.
- La stridulation chez ces Crabes est produite par le frottement de deux régions pourvues de soies de forme très particulière. La coxa (c’est-à-dire l’article basal) du chéli-pède et des premières pattes ambulatoires, ou des pattes ambulatoires seules chez certaines espèces, porte à sa partie supérieure une plage de soies couchées très raides. D’autres soies, beaucoup plus grosses et renflées à leur extrémité, pendent en regard des brosses coxales, au plafond de la cavité articulaire où se loge la coxa (fig. 6). L’interaction de ces structures produit un grésillement bien audible qui, selon les indigènes, ressemblerait à un cri d’Oiseau.
- Pour terminer cet aperçu des différentes modalités de stridulation impliquant le passage d’un ou de plusieurs appendices sur le céphalothorax, nous citerons des animaux qui, pour être dépourvus de formations aussi bien différenciées, n’en sont pas moins très bruyants. Il s’agit des Doti/la, de la famille des Ocypodidés, que l’on rencontre sur les plages, de l’Afrique orientale à la Malaisie. Ce sont des animaux grégaires que leurs couleurs vives et leurs évolutions en cohortes bien groupées ont fait surnommer « Crabes soldats ». Lorsqu’une troupe est effrayée, elle prend la fuite et son mouvement s’accompagne d’un bruissement comparable à celui des feuilles mortes, vraisemblablement
- --Scx
- Fig. 6. — Appareil stridulant du Crabe d’eau douce Potamon africanum.
- Coupe schématique au niveau de la première patte ambulatoire (P2) montrant la position des soies stridulatoires (scx) sur la coxa (ex) et celle des grosses -soies (r) de la cavité coxale. En haut à gauche, une de ces grosses soies (taille réelle : 1 mm).
- produit par le frottement des pattes contre la carapace couverte de papilles.
- Crabes stridulant par friction d’appendices entre eux.
- — Le premier exemple nous est fourni par les espèces du genre Ocypode (Ocypodidés) dont l’appareil est connu depuis plus d’un siècle. Ces Crabes sont les habitants typiques des plages tropicales (Indo-Pacifique, Afrique, Amérique). Une espèce se rencontre jusque dans l’est du bassin méditerranéen. Très agiles, ces animaux courent sur le sable et, à la moindre alerte, se réfugient dans leurs terriers. Aristote les nommait, sans doute à cause de la rapidité de leur course, les Crabes-Chevaux (fig. 9).
- L’appareil stridulatoire des Ocypodes apparaît sur la grosse pince (l’inégalité de taille des chélipèdes est un caractère parfois sexuel, fréquent chez les Crabes). Le milieu de la pince est transversalement parcouru sur sa face interne par un alignement de petites dents ou de côtes, dont l’ensemble constitue la pars stridens (fig. 8). Un article basal (ischion) du chélipède porte une crête contre laquelle
- Fig. 7. — Pars stridens « en empreinte digitale » sur la face interne de la pince du Crabe Menippe obtusa.
- Grossissement : X 6 environ (Photo Gaillard).
- la denticulation de la pince vient frotter, une fois l’appendice replié.
- La stridulation des Ocypodes a fréquemment été entendue ; amplifiée par la cavité du terrier, on a pu la comparer au coassement d’une grenouille. Souvent, toute une population stridule en chœur, chacun au fond de sa galerie paraissant répondre au voisin. Le naturaliste anglais Anderson écrit en 1894 à ce sujet : « Je me promenais un jour sur la plage de Bingaroo, une des îles Laquedives, quand j’entendis une espèce de son rauque qui semblait venir de la lisière de la jungle qui couvre l’île. Je pensai d’abord qu’il s’agissait de grenouilles, tant ce bruit ressemblait à un coassement de Batraciens, mais en me guidant à l’oreille, je découvris qu’il provenait des terriers d’Ocy-podes, nombreux en cet endroit. Les animaux étaient cachés dans leurs galeries, et tous chantaient de concert. »
- 84
- p.84 - vue 86/560
-
-
-
- Fig. S. — Grand chélipède du Crabe Ocypode platytarsis.
- On voit la pars stridens (P. S.) sur le propode (p) et la côte du plectrum (PL.) sur l’ischion (i) . X 1,4.
- A la même famille appartiennent des Crabes que leur comportement très particulier a rendus célèbres, les Uca. Comme les Ocypodes, ces animaux habitent les plages des régions chaudes. Ils creusent également des terriers et, tout autour, les mâles s’approprient un territoire qu’ils défendent vigoureusement contre les intrus, et où ils se livrent à leurs
- Globopilumnus. Chez ces Crabes de la famille des Xanthidés, qui vivent principalement sur le littoral africain, souvent associés à la faune des coraux, le troisième article (mérus) du chélipède est garni sur un côté d’une plage granuleuse, à laquelle fait face un relief identique de la première paire de pattes ambulatoires. Ces zones stridulantes appariées existent aussi parfois sur un second couple d’appendices formé par la première et la seconde paire de pattes (fig. io). En manipulant un spécimen mort, on constate qu’il est aisé de produire un bruit, mais personne n’a jamais entendu la stridulation de l’animal vivant.
- Fig. 9. — Un des Crabes stridulants les plus anciennement connus, le Crabe-Cheval d’Aristote (Ocypode cursor).
- L’appareil sonore est situé sur le chélipède droit qui se trouve ici en position de stridulation. Les yeux sont ornés d’un pinceau de poils, caractéristique de
- cette espèce.
- (Photo Dumortier).
- parades nuptiales. Celles-ci consistent en danses et en mouvements du grand chélipède, brillamment coloré à l’époque de la reproduction ; c’est un comportement rituel complexe destiné à attirer les femelles. Des noms d’espèces comme terpsichores, saltitenta ou pugilator sont assez évocateurs de ces conduites spectaculaires.
- En plus de ce langage gestuel, quelques espèces (Uca musica par exemple) pourraient bien faire usage de messages sonores si l’on en juge par l’appareil stridulatoire qu’elles présentent. Celui-ci consiste en une série de petites côtes alignées à la face interne de la grande pince, venant en contact avec une rangée de granules qui ornent la première patte ambulatoire du même côté. Il convient de dire cependant que l’émission sonore de ces animaux n’a jamais été entendue.
- Une variante de ce dispositif est présentée par le Crabe de la figure n, où l’on voit, sur la première patte ambulatoire, un bourrelet susceptible de frotter sur une forte striation de la pince.
- Un dispositif plus généralisé est présent dans le genre
- Fig. 10. — Appareil stridulant de Globopilumnus stridulans.
- On voit sur les pattes ambulatoires les plages granuleuses qui ornent la face interne des mérus. Un relief comparable existe sur la face externe, de sorte que la stridulation peut se produire par friction de deux pattes contiguës, X 2,4.
- 85
- p.85 - vue 87/560
-
-
-
- Fig. n. — Stridulation par friction d’un bourrelet de la première patte ambulatoire sur une striation de la pince (Ovalipes punctatus).
- Crevettes et Langoustes
- Les Crevettes vont nous donner l’exemple de deux types tout à fait différents d’appareils. Celui de certaines espèces de la famille des Pénéidés est constitué par un alignement, sur les côtés du céphalothorax, de petites crêtes contre lesquelles vient frotter le bord antérieur du premier segment abdominal (fig. 12). Assez curieusement, ce dispositif rappelle celui que l’on rencontre chez les Araignées de la famille des Thérédiidés où une striation de l’arrière du céphalothorax est grattée par un relief situé sur la face antérieure de l’abdomen.
- 1 cm
- Fig. 12. — Dispositif stridulatoire d’une Crevette Pénéide.
- Le bord antérieur du premier segment abdominal (ax) vient frotter sur la pars stridens ps ; th, thorax.
- (D'après Kubo).
- Avec les Alphéidés, nous rencontrons des animaux infiniment plus curieux, dont il a déjà été question dans cette revue (La Nature, mars 1957). Leur façon de faire du bruit est en effet unique, mais avant d’en dire davantage, il convient de parler des circonstances de leur « découverte » par la Marine américaine, qui valent d’être rapportées.
- Au début de la guerre américano-japonaise, les navires de la flotte du Pacifique signalèrent à de nombreuses reprises qu’ils avaient entendu des bruits non identifiés, crépitements, pétarades, craquements, sans qu’on ait pu jamais repérer un bâtiment ennemi aux alentours. Plus étrange encore, les mines acoustiques (munies d’un système microphonique destiné à provoquer la mise à feu sous l’effet d’un bruit de moteur) explosaient parfois toutes seules. Éliminant une à une les autres hypothèses, on en arriva à supposer que tout ce vacarme avait peut-être bien une origine biologique. La preuve en fut donnée le jour où, ayant réuni dans un aquarium un certain nombre de petites crevettes, on ne tarda pas à entendre le bruit qui avait si longtemps intrigué l’Amirauté. Ceci se passait en 1942, il y avait tout juste un siècle que l’Allemand Krauss avait, le premier, signalé le phénomène !
- Cependant tout n’est pas dit pour autant, car si la Marine sait maintenant que les Alphéidés font du bruit, les zoologistes, eux, ignorent encore la façon exacte dont il est produit, bien que l’appareil qui en est à l’origine soit parfaitement connu.
- 86
- p.86 - vue 88/560
-
-
-
- Chez les Crevettes des genres Alpheus (Crangon des auteurs américains), Synalpheus, Pontonia, Lypton, Coral-liocaris (les trois derniers genres appartenant à la famille des Palémonidés), la grande pince présente une conformation particulière ; le doigt mobile (dactyle) porte à sa face inférieure une dent, souvent très développée, qui vient se loger, quand la pince est fermée, dans une cavité de la face supérieure du doigt fixe, comme un bouchon dans le goulot d’une bouteille (fig. 14). Le claquement que produit l’animal a été expliqué de diverses manières. Selon les uns, il surviendrait à l’ouverture de la pince et résulterait de la brusque extraction de la dent hors de sa cavité. Pour d’autres, au contraire, c’est la fermeture qui en serait la cause. Cette dernière explication nous semble plus vraisemblable. Quoi qu’il en soit de son origine exacte, ce bruit, extrêmement bref puisqu’il dure à peine un millième de seconde, est particulièrement intense ; c’est une véritable détonation qui a du reste valu à ces animaux le surnom de Pistol-Shrimps ou Crevettes-pistolet. On dit même que l’onde de choc est telle qu’elle peut briser un bocal de verre où l’on a enfermé l’animal. Cependant, il semble bien qu’il y ait là beaucoup de bruit pour rien, car tout laisse croire qu’en fait, la Crevette tire profit non du bruit, mais du brusque courant d’eau que projette vers l’avant la fermeture de la pince. Ce serait là un comportement défensif destiné à faire reculer un adversaire, ou à étourdir une proie.
- Si les Alphéidés utilisent leur pince pour se faire entendre, les Langoustes, elles, emploient leurs antennes (JLa Nature, mars 1957). Au 111e siècle de notre ère, Athénée, dans un aimable traité philosophico-gastronomique, Le Banquet des Sophistes, faisait déjà état de leur capacité d’émettre des
- Fig. 13. — Région antérieure gauche de la Langouste. a, antennule ; ac, appareil acoustique ; œ, œil ; r, renflement du rostre ; ro, rostre ; 1, 2, 3, articles de l’antenne. Ce dispositif se retrouve du côté
- droit.
- (D’après B. Dumortier) .
- Fig, 14. — Une Crevette du genre Alpheus.
- On voit l’énorme développement de la grande pince, représentée ouverte, qui porte le système « détonant » ; c, cavité du propode (p), où vient se loger l’expansion (e) du dactyle (d).
- sons. Aussi peut-on considérer ces animaux comme les Crustacés stridulants les plus anciennement connus.
- Comment l’appareil sonore de la Langouste est-il constitué ? De l’article basal de l’antenne part vers l’intérieur une expansion dont l’extrémité élargie et concave vient s’appliquer sur le renflement longitudinal qui borde latéralement le rostre (fig. 13). A sa face inférieure, l’extrémité de l’expansion antennaire présente une membrane ovale et striée (fig. 15). C’est le mouvement d’arrière en avant de l’antenne qui, faisant frotter la membrane sur le renflement rostral, produit le grincement que l’on peut entendre quand on capture un de ces Crustacés, ou même lorsqu’on manœuvre les antennes d’un spécimen mort. Il ne semble pas que cette émission sonore soit seulement la conséquence fortuite de l’agitation des antennes. En effet, on peut observer que les mouvements antennaires ne s’accompagnent pas toujours d’une stridulation. Celle-ci paraît donc bien être
- IJ" Face inférieure de l'appareil acoustique de la Langouste. Sa forme concave lui permet d’épouser exactement la surface du renflement latéral du rostre (voir fig. 13). Une dent (d) fait saillie et se loge dans un sillon qui parcourt le renflement sur toute sa longueur, maintenant en place 1 appareil acoustique dans son déplacement ; mb, membrane striée productrice du son ; p, poils.
- (D’apres B. Dumortier
- 87
- p.87 - vue 89/560
-
-
-
- produite « délibérément » par l’animal, en particulier lorsqu’il est inquiété.
- Bernard-l’Ermite et les autres
- Les Pagures, ou Bernard-l’Ermite, sont certes plus fameux par le regret qu’ils ont manifestement de n’être pas des Gastéropodes (dont chacun sait qu’ils empruntent les coquilles), que par leurs capacités vocales. Pourtant, parmi leurs formes terrestres, deux Cénobites (Cœnobita rugosus et C. psrlatus) possèdent un appareil constitué par un alignement de grosses côtes sur la pince, contre lesquelles vient gratter une crête dentée située sur le dactyle des deux premières paires de pattes ambulatoires (fig. 16). Enfermés dans une boîte, écrit un naturaliste, ces animaux font entendre en permanence un bourdonnement grave.
- Les Pagures marins ont, eux aussi, quelques représentants présumés stridulants, réunis dans le genre Tri^opagurus (du grec trisein : grincer). La face interne de chacune de leurs deux pinces porte une plage de tigelles cornées. C’est donc en se frottant les mains que ces animaux peuvent se singulariser acoustiquement. Signalons que quelques grosses araignées, des Mygales, stridulent de façon comparable, en passant l’une contre l’autre leurs chélicères.
- Tout comme les Pagures, les Thalassines appartiennent à la section des Anomoures. Ce sont des animaux dont le corps ressemble assez à celui d’un Scorpion, et qui creusent sur les plages tropicales de profonds terriers. L’une d’elles, Thalassina anomala, qui vit aux Philippines, fait entendre, du fond de son repaire, un son qui ressemble à celui que l’on fait en débouchant une bouteille. Elle pose aussi un problème au naturaliste, car on ne lui a pas découvert de dispositif auquel ce bruit puisse être attribué avec certitude.
- Fig. 16. — Un Bernard-l’Ermite du genre Cénobite.
- A, grosses côtes de la pince sur lesquelles viennent frotter les crêtes dentées (B) des dactyles des deux premières pattes ambulatoires.
- Tous les Crustacés dont nous avons parlé jusqu’à présent, étaient des Décapodes, mais les formes stridulantes ne se limitent pas à cet ordre, car on en rencontre quelques-unes aussi parmi les Stomatopodes, Crustacés dont les pattes-mâchoires de la deuxième paire sont transformées en pattes ravisseuses qui rappellent celles de la Mante religieuse.
- Lorsqu’on capture une Squille de la Méditerranée (Squilla mantis), on peut entendre une vigoureuse protestation que l’animal émet en frottant ses uropodes (appendices de l’abdomen) contre son telson (partie terminale de l’abdomen). Diverses espèces du genre Gonoâactylus, de leur côté, produisent un claquement sonore en ouvrant brusquement leurs pattes ravisseuses.
- Enfin les Balanes (Crustacés Cirripèdes), qui vivent fixées par milliers sur les rochers de nos côtes, crépitent à intervalles réguliers sans que l’on sache de quelle façon elles procèdent. Avec les Crevettes Alphéides, elles sont à l’origine de ce « bruit de fond » de la mer, parfois très intense.
- A quelles fins tout ce bruit ?
- Bien que sommaire, cette revue donne déjà une idée de la variété des dispositifs et des méthodes de stridulation dont les Crustacés offrent l’exemple.
- A ce titre, il est intéressant de tenter une comparaison entre les Crabes, les mieux adaptés à la stridulation des Crustacés, et des Insectes comme les Orthoptères. Chez ces derniers existent principalement deux grands processus d’émission : le passage des fémurs sur les élytres, et la friction réciproque des élytres, qui constituent des caractères de sous-ordres. A l’inverse, c’est la plus grande diversité de localisation et de structure qui caractérise les Crabes. Non seulement leurs appareils stridulatoires sont apparus de façon erratique, présents dans un genre, inconnus dans un autre, mais cette dispersion s’est faite de façon telle que sa seule considération ne permet pas de retrouver les relations systématiques fondées sur d’autres caractères morphologiques. C’est ainsi que des formations comparables existent chez des espèces de parenté lointaine, alors que d’autres, très proches, montrent des dispositifs fort différents entre eux.
- Tout ceci laisse supposer que la stridulation est une acquisition récente chez les Crabes. Son caractère bien plus accidentel dans les autres groupes de Crustacés ne se prête pas à un essai d’interprétation de cette nature.
- Il reste à se demander quelle peut être la signification de la stridulation. Dans la plupart des cas, les appareils dits stridulatoires n’ont été considérés que sur le plan morphologique, la stridulation n’ayant effectivement été entendue que dans une quinzaine de genres. Chez beaucoup d’autres cependant, la différenciation et l’adaptation des régions supposées stridulatoires sont souvent si remarquables que l’hypothèse de leur utilisation effective par l’animal est des plus vraisemblables. Ceci est tout particulièrement vrai pour les Crabes.
- Les cas de stridulation observés permettent toutefois de reconnaître quelque sens à cette manifestation en la replaçant dans son contexte éthologique, c’est-à-dire dans ses rapports avec le comportement général des animaux. Quatre types de comportements lui sont associés : comportement sexuel ; défense du territoire ; comportement collectif ; enfin comportement individuel particulier à certaines situations, particulièrement quand l’animal est en danger.
- Nous avons décrit précédemment l’appareil stridula-toire de certains Uca, en signalant d’ailleurs que personne n’avait encore observé l’animal en faisant usage. Par contre, on a reconnu chez quelques-uns de ces Crabes une autre
- 88
- p.88 - vue 90/560
-
-
-
- possibilité d’émission. Il s’agit d’une vibration rapide du grand chélipède qui s’accompagne d’une sorte de bourdonnement grave. La façon précise dont ce bruit est produit n’est pas connue. On a constaté que, pendant la nuit, des rassemblements d’Uca pugilator, à l’entrée de leurs terriers, exécutaient ainsi de véritables concerts. Les mâles appellent-ils les femelles de cette façon pendant la nuit, alors qu’ils font usage de gestes durant le jour ? Certaines observations le laissent supposer.
- On sait que chez de nombreux Oiseaux (Passereaux), le mâle, par son chant, délimite autour de lui une certaine aire dans laquelle il ne tolère la présence d’aucun autre mâle. Si, malgré ce signal d’avertissement, un second individu s’approche, il est immédiatement attaqué. Un comportement assez comparable se rencontre chez quelques Crabes. Nous citerons encore Uca pugilator qui, lorsqu’un intrus pénètre dans son terrier, produit avec son chélipède un bourdonnement de menace, souvent suivi par un combat entre les deux animaux. Les Ocypodes ont un instinct de propriété tout aussi développé, et la stridulation de l’occupant suffit en général à faire rebrousser chemin à celui qui tente d’entrer dans un terrier qui n’est pas le sien. Si les faits d’observation se réduisent à ces deux exemples, il est cependant probable que ce comportement territorial existe chez d’autres espèces à la fois fouisseuses et stridulantes, comme le sont par exemple les Thalassines.
- Des rassemblements d’individus en activité sonore sont bien connus chez les Cigales, où ils conduisent à des groupements spécifiques de population dans lesquels augmentent les chances de rencontre entre les sexes, et où les risques d’hybridation sont réduits. Peut-être faut-il voir une signification de même nature à la stridulation collective des Crabes telle qu’on a pu l’observer dans plusieurs espèces. En outre, chez les Dotilla qui vivent en bandes, il n’est pas impossible que le bruissement qui accompagne la fuite soit, conjointement à d’autres stimulus, un élément de maintien de la cohésion du groupe.
- Il est enfin des cas où l’animal se fait entendre en dehors de tout rapport social avec ses congénères. On sait que de nombreux Insectes (Cigales, Criocères, Sphinx, Ephippi-gères, etc.) stridulent violemment lorsqu’on les saisit, lorsqu’ils sont aux prises avec un prédateur, et d’une façon générale dans toute situation contraignante. Plusieurs Crustacés, tels les Crabes Menippe, Matuta, Ocjpode, les Langoustes, les Squilles, les Cénobites, ont le même compor-
- tement dans des circonstances analogues. Que signifie cette conduite, quel avantage en tire l’animal ? Questions auxquelles seules les hypothèses peuvent répondre. L’observation montre que le prédateur ne prête le plus souvent aucune attention aux cris de sa proie qui de ce fait ne paraît pas mieux protégée qu’une espèce muette. Il paraît vraisemblable d’admettre que ces manifestations représentent, sans plus, la libération d’une énergie que des conditions accidentelles (capture, immobilisation) ont privée de ses effecteurs habituels, et à laquelle la stridulation sert d’exutoire.
- Dans tout ce qui précède, nous avons supposé que le signal émis pouvait être perçu par un individu de la même espèce, car hormis les « cris de protestation » d’un animal capturé, toutes les autres manifestations acoustiques ne peuvent avoir un sens dans le comportement que si celui à qui elles sont destinées est capable de les percevoir.
- Or, que savons-nous de l’audition chez les Crustacés ? Fort peu de chose, et les seuls résultats sûrs ont été acquis sur le Homard. Chez cet animal, le récepteur « auditif » est représenté par le statocvste, petite vésicule située dans la base de l’antennule, servant fondamentalement à l’équilibration. L’étude des potentiels d’action recueillis sur le nerf qui part de cet appareil, a montré qu’il n’était pas sensible aux sons transmis par l’eau ou par l’air, mais qu’il percevait par contre les vibrations passant par le substrat. Il ne s’agit donc pas d’un véritable appareil auditif, mais d’un mécanorécepteur. Les autres Décapodes possèdent aussi une paire de statocystes, et il est assez vraisemblable que leur rôle est le même que chez le Homard. Il n’est donc pas impossible qu’ils perçoivent de l’énergie vibratoire, la fraction qui se transmet par le sol.
- *
- * *
- Sans doute, le déséquilibre est flagrant entre les données morphologiques et les connaissances éthologiques, mais si les secondes sont encore très fragmentaires, elles montrent déjà combien, chez les Crabes en particulier, le signal sonore paraît être intégré au comportement, et par là, laissent entrevoir un niveau psychique que des études ultérieures pourraient bien révéler comparable à celui de l’Insecte.
- Danièle Guinot-Dumortier,
- Laboratoire de Zoologie du Muséum.
- Larves mangeuses de bactéries
- Selon les observations recueillies par F. J. H. Fredeen à la station de recherches agricoles de Saskatoon (Canada), des larves de mouches seraient susceptibles de se nourrir de bactéries. L’hypothèse en avait été faite précédemment par Petersen et le fait semblait confirmé par la présence de nombreuses larves d’une simulie de l’espèce Sitnulium arcticum dans les eaux de la rivière Saskatchewan, à l’époque des crues. Il se trouve en effet que, par très hautes eaux, le plancton, nourriture habituelle des larves, est absent, tandis que de nombreuses bactéries, provenant des égouts des villes et de la terre végétale des rives, sont emportées par le courant.
- Différentes expériences, notées dans la revue Nature (io septembre i960), ont été entreprises pour vérifier cette « bactério-phagie » des simulies. En premier lieu, des larves ont été élevées dans une eau stérile chargée de matière nutritive en dissolution : ces larves ne se sont pas développées. Utilisant la même solution» non stérile, les larves ont franchi leurs phases successives, jusqu’à la formation d’adultes. Un résultat équivalent a été obtenu dans de l’eau distillée où avait été introduite une population de Bacillus subtilis.
- Ainsi serait expliquée la prolifération croissante des simulies le long des fleuves où se déversent des égouts.
- 89
- p.89 - vue 91/560
-
-
-
- L’origine des tectites probablement interplanétaire
- reste énigmatique par Roger Freux
- C’est en 1787 que Joseph Mayer décrivit pour la première fois de curieux fragments de roches, découverts en Bohême-Moravie et auxquels il donna le nom de moldavites. D’autres noms ont été proposés par la suite, y compris celui de tectites qui a finalement prévalu.
- Les tectites varient grandement dans leur couleur et leur forme. Plus souvent noires ou vert foncé, elles peuvent également être roses, rouge-violet et incolores. Quant aux formes, elles vont de la sphère pleine ou creuse à la poire plus ou moins étirée, en passant par le disque, l’ellipsoïde, la larme, le doigt de gant, etc.
- Dans tous les cas, les contours et la structure évoquent un objet visqueux qui a subi une solidification rapide, conservant assez souvent la trace de bulles qui avaient été englobées dans le magma. Cet aspect est d’ailleurs en rapport avec la texture physique des tectites dont la masse est entièrement vireuse, c’est-à-dire dépourvue du moindre élément cristallin.
- A l’analyse chimique, on découvre une prédominance de la silice (70 à 71,6 pour xoo) et de l’alumine (12,2 à 13,6 pour 100), généralement accompagnées d’oxydes de fer, de calcium, de magnésium et de potassium. La présence de nickel doit être également notée, ainsi que celle (récem-
- ment signalée par la revue soviétique Prirodd) de deux isotopes radioactifs, l’aluminium 26 et le béryllium 10, fort rares dans les roches terrestres.
- Les tectites sont presque toujours de petites dimensions, leur poids variant de 10 à 90 g. On peut cependant voir dans la Galerie de Minéralogie du Muséum national d’Histoire naturelle, à Paris, trois exemplaires beaucoup plus gros, qui pèsent respectivement 2,840 kg, 3 kg et 3,060 kg.
- L’ensemble de ces caractéristiques n’a cessé d’intriguer les géologues et les minéralogistes et de nombreuses interprétations ont été fournies, notamment par Alfred Lacroix en 1932, après une étude sur un gisement très étendu de tectites, découvert en Indochine. Les tectites dont nous reproduisons les photographies sont de cette provenance ; elles font partie de la collection réunie par Alfred Lacroix, exposée dans la Galerie de Minéralogie du Muséum.
- A l’époque où Lacroix se livrait à cette étude, on avait cru devoir tenir compte de la répartition géographique des tectites : partant de Bohême, on les retrouvait en Indochine, Malaisie, Insulinde, Australie et jusqu’en Tasmanie, c’est-à-dire jalonnant un cercle qui ceinturait notre planète et en dehors duquel les tectites auraient été absentes. De nouvelles découvertes en Côte-d’Ivoire, au Pérou et en Colom-
- Fig. 1. — Deux faces d’une même tectite en forme de poire.
- Sur la face a, on distingue des stries d’étirement au voisinage de la « queue » et des « aires de calme » dans la gibbosité ; sur la face b, plusieurs gouttières et cassures.
- Grossissement : x 1,5. (Photos aimablement communiquées par le professeur Jean Orcel, directeur du Laboratoire de Minéralogie du Muséum).
- 90
- p.90 - vue 92/560
-
-
-
- Fig. 4. — Tectite en forme de disque, où les cannelures vermiculées se rejoignent curieusement en un point central.
- Grossissement : x 1,5.
- Fig. 4. — Deux faces d’une même tectite aplatie, avec profondes cannelures d’étirement.
- Grandeur naturelle.
- bie ont montré que la dispersion était plus grande qu’il n’avait été d’abord imaginé.
- Un fait plus significatif est que les tectites se rencontrent toujours dans des formations alluvionnaires de dates relativement récentes : quaternaire ou tertiaire supérieur. C’est en se fondant à la fois sur ce fait et sur les caractères décrits ci-dessus que différentes hypothèses ont été faites au sujet de l’origine des tectites.
- Ces « objets » en verre sont-ils une fabrication humaine ? Cette hypothèse, formulée par certains auteurs, doit être écartée en raison des très grandes surfaces occupées par les gisements. Peut-on les assimiler aux fulgurites (voir La Nature, janvier 1961, p. 17) ? La forme des tectites ne se prête pas à cette interprétation : l’action de la foudre donne lieu en effet à des formes tubulaires caractéristiques, très différentes de celles des tectites.
- Il était plus vraisemblable à première vue d’attribuer aux tectites une origine volcanique, étant donné leur ressemblance avec l’obsidienne et d’autres roches vitreuses formées lors des éruptions de volcans. Là encore, l’hypothèse a dû être écartée, en tenant compte de l’aire d’expansion des tectites, bien trop vaste pour que l’on puisse supposer la projection de ces objets par des volcans, même s’ils développent une énergie exceptionnelle. En outre, les tectites n’ont aucune similitude chimique avec les roches vol-
- Fig. J. — Tectite en forme d’haltère.
- L’étirement qui est ainsi réalisé pourrait s’accentuer et aboutir à une cassure médiane ; on aurait alors deux « poires ». Grandeur naturelle.
- 91
- p.91 - vue 93/560
-
-
-
- caniques que l’on peut relever dans les régions où elles ont été découvertes. Leur composition est même entièrement différente de celle de l’ensemble des roches issues du volcanisme terrestre.
- Mentionnons encore une interprétation de Van Lier, selon qui les tectites ne seraient pas des verres, dus à une prompte solidification, mais des gels siliceux et alumineux qui auraient subi, dans certaines conditions, une déshydratation progressive.
- Une origine extra-terrestre
- Finalement, la plupart des auteurs se sont ralliés à l’hypothèse d’une origine extra-terrestre : les tectites seraient des météorites d’un genre spécial, très différentes des bolides cosmiques généralement recueillis et où dominent les métaux fer et nickel. Mais de quelle région de l’espace ont pu venir les tectites ? De nouveau apparaît une série d’hypothèses divergentes.
- L’une d’elles a été formulée par Stair : à une époque déjà ancienne, remontant à environ ioo millions d’années, une planète du système solaire qui gravitait entre Mars et Jupiter aurait été pulvérisée au cours d’une collision avec un autre corps céleste. Parmi les débris dispersés à travers l’espace, certains auraient subi l’attraction de la pesanteur terrestre, les plus lourds parvenant sous la forme de météorites. Ceux au contraire qui avaient été arrachés à la partie superficielle de la planète détruite (où dominaient les roches acides) auraient subi un échauffement allant jusqu’à i 500 à 2 ooo° C et se seraient dispersés sous forme de nuages ou de gouttelettes. On peut supposer que cette matière, prenant contact avec l’atmosphère terrestre, ait pu être entièrement « désintégrée » (comme on le pense en ce qui concerne la plupart des météorites pierreuses), ou bien s’être agglomérée en petites masses vitreuses, animées d’un mouvement de rotation et qui seraient retombées en pluie de tectites.
- Une variante de cette hypothèse fait intervenir une comète dont le noyau serait entré en collision avec la Terre. Cet événement relativement récent (il remonterait à 500 000 ans ou un million d’années) expliquerait le cercle mentionné plus haut : les fragments de comète auraient, en effet, obéi à la pesanteur, le temps d’une seule rotation de notre planète. Pour expliquer qu’ils n’aient pas été volatilisés, on ajoute qu’ils ont abordé l’atmosphère tangentiellement, comme l’ont fait en ces derniers temps les capsules récupérées des satellites artificiels.
- On a également attribué l’origine des tectites à de gigantesques éruptions de volcans lunaires, ou encore à des débris de notre satellite projetés à la suite de l’impact des météorites qui l’ont criblé de cratères. Cette hypothèse a été
- Fig. 6. — Tectites en bâtonnets, avec cannelures régulières. Grossissement : X i,j.
- appuyée par la situation géographique des gisements de tectites à la surface de la Terre, leurs emplacements étaient considérés comme particulièrement bien orientés pour recevoir des projections lunaires.
- Ultime hypothèse, mentionnée par la revue Priroda et qui se fonde sur la présence de l’aluminium et du béryllium radioactifs : l’origine des tectites devrait être recherchée hors du système solaire où ces radioéléments sont rares. Les tectites seraient tombées sur notre planète après avoir erré plus d’un million d’années dans l’espace interstellaire. Mais on doit remarquer que la présence de raluminium 26 et du béryllium 10 n’est pas une preuve que les tectites n’appartiennent pas au système solaire. De récentes études ont établi que ces deux radioisotopes peuvent s’être formés, aussi bien dans les tectites que dans les météorites, sous l’action de rayons cosmiques primaires, émis par le Soleil.
- Ces différentes interprétations des tectites font largement appel à la conjecture. Aucune d’elles ne saurait être considérée actuellement comme définitive. Une origine terrestre ne comporterait d’autre explication qu’un improbable phénomène cataclysmique. Quant aux hypothèses extra-terrestres, aucune d’elles n’a encore prévalu pour dissiper l’énigme qui continue à entourer ces curieux fragments de matière.
- R. F.
- 92
- p.92 - vue 94/560
-
-
-
- Le Ciel en Mars 1961
- SOLEIL : du Ier mars au Ier avril (à o'1) sa déclinaison croît de — 7°45/ à + 4°22/ et la durée du jour de ioh57m à I2h45m; diamètre apparent le Ier = 32/2o",o, le 31 = 32/3",6.
- — LUNE : Phases : P. L. le 2 à I3h55m, D. Q. le 10 à 2h58m, N. L. le 16 à 18h51m, P. Q. le 24 à 2h49m ; périgée le 14 à i8h, diamètre apparent 32/58" ; apogée le 26 à 1511, diamètre apparent 2C/31". Principales conjonctions : avec Uranus le Ier à 2h, à 2°2' S. ; avec Neptune le 7 à 511, à 3°6/ N. ; avec Saturne le 12 à 2011, à 3°I9/ N. ; avec Jupiter le 13 à oh, à 3°24/ N. ; avec Mercure le 14 à 20h, à o°5ô' N. ; avec Vénus le 18 à 19*1, à n°39/ S. ; avec Mars le 24 à i8h, à 6°50/ S. ; avec Uranus le 28 à 7h, à 2°4/ S. Principales occultations : le Ier, de R Lion (var. de mag. 5,4 à 10,5), immersion à 3[l41rn,5 ; le 21, de y Tauri (mag. 3,9), immersion à 2ih46m,6 ; le 29, de 59 Lion (mag. 5,1), immersion à 23ll54m,2. — PLANÈTES : Mercure n’est pas visible ; Vénus, étincelante étoile du berger, mais se rapproche du Soleil à la fin du mois, diamètre app. le 10 : 41",4, le 20 : 48",4, le 31 : 56",o ; Mars, dans les Gémeaux brille encore la plus grande partie de la nuit, mais faiblit d’éclat, le 16 : diamètre app. 8",4 ; Jupiter et Saturne, dans le Sagittaire sont étoiles du matin et se lèvent plus de 2 heures avant le Soleil à la fin du mois ; Uranus, dans le Lion est observable presque toute la nuit, le 16, position : q^o10- et + I4°45'. diamètre app. 4",o ; Neptune, dans la Balance apparaît dans la soirée, le 16, position : I4ll37m et— 13025', diamètre app. 2",4.
- — ÉTOILES VARIABLES : minima observables d'Algol (2m,2-3m,5) le 5 à ih,o, le 7 à 2ih,9, le 10 à 18h,7, le 27 à 23^5, le 30 à 20h,4 ; minima de (3 Lyre (3m,4-4m,3) le 3 à 2ih,7, le 16 à 2oh,o, le 29 à i8h,4 ; minima de S Balance (4m,8-5m,9) le 7 à 511,5, le 14 à 5h,l, le 21 à 4,1,ô, le 28 à 4h,2 ; maxima de B Cancer (6m,2-iim,8) le 20, de B Cygne (6m,5-14rn-,2) le 21, de B Vierge (6m,2-i2m,i) le 21, de R Andromède (6m,i-i4m,9) le 25. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.) : le Ier : ioh43m35s, le 11 : uh23mis, le 21 : i2h2m26s, le 31 : I2h4im52s.
- Phénomènes intéressants : Surveiller l’activité solaire.
- — Équinoxe de Printemps le 20 à 20h3am. — Lumière cendrée de la Lune, le soir, du 18 au 22. — Le 2, éclipse partielle de Lune, invisible en France, commencement à ioh34m,2, milieu à I3h28m, fin à i6h2im,8 ; grandeur : 0,801.
- — On observera que le croissant de Vénus s’agrandit en s’amincissant. — Les planètes Jupiter et Saturne s’éloignent peu à peu l’une de l’autre. On pourra rechercher dans une petite lunette, aux positions indiquées, les planètes Uranus et Neptune dont le mouvement est rétrograde. — Les belles constellations d’hiver, signalées le mois précédent, se couchent de plus en plus tôt.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- fondée en 1887 par C. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc.
- Demandez les programmes au Siège Social de la
- Société Astronomique de France, 28, rue Serpente, Paris-6*
- Permanence, tous les jours non fériés de 14 à 17 h
- Cotisations : Région Parisienne, 25 NF ; France, 20 NF ; Étranger, 30 NF ; Étudiants, 3 iNF ; Droits d’inscription pour tous, 2 NF.
- Spécimen gratuit de la revue sur demande.
- Demandez « Splendeur de l’Astronomie », les plus belles photographies astronomiques : 1(1 pages 13,5x20,5, tirage néogravure bleu nuit. 0,65 NF franco. — Compte Ch. post. Paris 1733.
- CONTROLE ET MESURE QUANTITATIVE DU
- DANGER BIOLOGIQUE
- DES RADIATIONS IONISANTES " X " ET "Y"
- PAR LES NOUVEAUX
- DOSIMETRES
- INDIVIDUELS "P H Y"
- BREVETS FRANÇAIS iS.GD.Gi
- Dépense Noiîonole V
- Huzor
- PhysioiecHme te
- ET BREVETS te
- ÉTRANGERS 1// te ]/
- bracelet] V\>
- USINE - 34, Avenue Arislide-Briond ARCUEIL (Seine)
- LA PHYSIOTECHNIE
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d’État Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- MATHÉMATIQUES MAGIE ET MYSTÈRE
- PAR
- M. GARDNER
- TRADUIT DE L’AMÉRICAIN PAR R. ROSSET
- x-179 p. 14x22, avec 86 fig. 1961. Broché sous couvert, ill... 8,80 NF
- En vente dans toutes les bonnes librairies et chez .LvTJNOD> Éditeur, 92, rue Bonaparte, Paris-6'. DAN 99-15.
- 93
- p.93 - vue 95/560
-
-
-
- LES L I V
- Annuaire pour l’an 1961, publié par le Bureau des Longitudes, i vol. 13 X 19, 728 p., nombreux tableaux et figures, 9 pl. hors texte. Gau-thiers-Villars, Paris, 1961. Prix, broché. : 40 NF ; cartonné : 45 NF.
- Rappelons qu’on trouve tous les ans dans cet Annuaire : les prédictions pour l’année en cours (calendrier ; levers, passages, couchers des principaux astres du système solaire ; éclipses, occultations, satellites de Jupiter, phénomènes astronomiques ; positions d’étoiles ; marées, etc.) ; les généralités sur l’astronomie, les temps légaux dans le monde, les signaux horaires ; les études sur le Soleil, la Lune, les grosses planètes, les comètes, les constellations ; enfin, dans un supplément, les principales prédictions pour l’année suivante. On trouve en outre cette année : étude des divers calendriers ; géodésie ; physique solaire ; parallaxes stellaires et distances des astres lointains ; géographie et démographie ; météores ; données numériques importantes en astronomie stellaire ; novæ et supernovæ galactiques. Quatre notices : le grand télescope de l’Observatoire de Haute-Provence ; les satellites artificiels ; le R. P. Pierre Lejay ; tableau général des unités de mesure légales.
- Lilavati la séduisante, Mathématiques, par Paul Chary. Préface de Maurice Roy, de l’Académie des Sciences. 1 vol. 13,5 X 21,5, 92 p. Chez l’auteur, 6, boulevard de Lémenc, Chambéry (Savoie) (C. C. P. 465-54 Dijon), 1959. Prix : 8,15 NF.
- Sous ce titre poétique, qui désignait la Science du Nombre chez les mathématiciens hindous, se cache une entreprise souvent tentée : faciliter la compréhension et l’étude des mathématiques. L’auteur pense avec raison que toute intelligence moyenne peut assimiler une grande partie de ce domaine, dont beaucoup s’effraient tant ; mais il convient de s’y prendre de bonne heure. Les méthodes préconisées ici reposent essentiellement sur des opérations concrètes ; elles mériteraient
- R E S NO
- d’être mises à l’épreuve, et il paraît dommage que ce petit livre n’ait pas retenu l’attention d’un éditeur.
- Nouveau Traité de Chimie minérale, publié sous la direction de Paul Pascal, membre de l’Institut, professeur honoraire à la Sorbonne. Tome XV : Uranium et transuraniens, avec la collaboration des ingénieurs du Commissariat à l’Energie atomique. Préface de M. Salesse, chef du Département de Métallurgie. Premier fascicule : Uranium, sous la direction de R. Caillât et J. Elston, avec la collaboration de Mme Oxley, MM. P. Albert, J. Artaud, B. Boudouresques, P. Bussy, G. Cabane, J. Chervet, M. Englander, H. Huet, J. Huré, P. Mouret, E. Roth, J. Sauteron, A. Sime-
- ---- A NOS LECTEURS -------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient a la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- U V E A U X
- NAUER, J. STOHR, Pr P. LACOMBE. I Vol
- 17.5 X 26,4, 734 p., 317 fig., 155 tableaux,
- 2 pl. en couleurs. Masson, Paris, i960. Prix,
- broché : 115 NF ; cartonné toile : 127 NF.
- Le développement considérable des connaissances acquises dans le domaine des sciences nucléaires et des applications de l’énergie atomique a conduit les auteurs de ce tome XV à le scinder en trois fascicules. Le premier, que voici, est consacré à l’uranium en tant qu’élément avec ses isotopes, en tant que métal et dans ses alliages ; le second décrira les combinaisons chimiques de l’uranium ; le troisième étudiera les réactions de fission, les transuraniens et tous les problèmes chimiques relatifs à la protection contre les radiations. Comme on l’a fait pour les éléments des terres rares, ces trois fascicules formeront un ouvrage capable de se suffire à lui-même dans le cadre du Traité. Ils comportent plus de documents techniques que les autres volumes. Le premier fascicule traite donc des isotopes de l’uranium, de leur séparation et de leur analyse, puis des minerais. On étudie ensuite la préparation de l’uranium et l’élaboration du métal, les propriétés physiques et mécaniques et l’altération de ces propriétés par suite du séjour dans les réacteurs, la mise en forme, avec nombreux schémas de fabrication, photographies d’atelier, coupes métallo-graphiques. Les alliages de l’uranium font l’objet d’un chapitre copieux, suivi d’un chapitre sur la métallographie. L’uranium et ses alliages sont ensuite considérés en tant que combustibles nucléaires (comportement sous l’action des neutrons). Puis sont étudiées les propriétés chimiques et les méthodes d’analyse, enfin la corrosion aqueuse de l’uranium et de ses alliages. 2 270 références bibliographiques.
- Problèmes de Physique et de Chimie, par
- G. Dévoré. 2e édition revue et corrigée. 1 vol.
- 15.5 X 24, 372 p., fig. Vuibert, Paris, 1959.
- Prix : 32 NF.
- Cette édition revue et corrigée s’adresse aux
- BORDAS VIENT DE PARAITRE ANALYSE
- 27 bis, rue du Moulin-Vert, PARIS XIVe
- Ouverture de souscription QUALITATIVE RAPIDE
- NOUVEL ATLAS
- DES CHAMPIGNONS DES
- TOME III CATIONS ET DES ANIONS
- Parution : premier trimestre 1961
- 82 planches en couleurs, accompagnées de descriptions PAR
- détaillées représentant plus de MO espèces et variétés. G. CHARLOT
- 42 planches sont dues à J.-L. Lemoine, les autres à Professeur à la Faculté des Sciences
- F. Margaine, G. Malençon, A. Bride, J. Lignier, et à l’École Supérieure de Physique et de Chimie industrielles.
- J. Chenantais et H. Romagnesi. Tirage lithographique en 12 couleurs
- réalisé par MOURLOT FRÈRES 96 pages 16 x 25. 3“ édition. Broché 9,50 NF
- Prix de souscription valable jusqu’au 28 février : 61 NF
- TIRAGE STRICTEMENT LIMITÉ En vente dans toutes les bonnes librairies et chez IJUNOD, Éditeur, 92, rue Bonaparte, Paris-6". DA.N 99-15.
- 94
- p.94 - vue 96/560
-
-
-
- élèves -qui préparent un examen ou un concours dont le programme est plus étendu que celui de ïa classe de Mathématiques spéciales (Â2), celui du -certificat de M. P. C. pouvant être pris comme référence. Parmi les 160 problèmes posés, certains sont traités complètement, tandis qu’on donne pour un assez grand nombre des solutions écourtées et pour d’autres uniquement les résultats. On a éliminé les problèmes longs et difficiles, mais ces exercices judicieusement choisis permettront aux élèves d’acquérir une méthode de travail et de résoudre les problèmes des divers types qu’ils -rencontreront par la suite. Ces exercices portent •sur la mécanique physique, la chaleur, l’électricité, l’optique et la chimie.
- Problèmes de Chimie, Préparation aux grandes écoles. Propédeutiqne, par G. Dévoré, i vol. 15,5 X 24, 193 p. Vuibert, Paris, 1959. Prix : 18 NF.
- Une bonne connaissance de la chimie générale exige de savoir faire des problèmes et la propé-deutique comme les concours aux grandes écoles comportent de tels exercices. L’auteur a fait œuvre utile en réunissant une centaine de ceux-ci dans cet ouvrage et en les traitant avec tous les détails nécessaires. Ils sont groupés sous les rubriques : thermochimîe, dosage en chimie minérale, équilibres chimiques et ioniques, cinétique chimique et chimie organique.
- Fluid Fluel Reactors, édité par James A. Lane, H. G. MacPherson et Frank Maslan. i vol. 15 X 24, xxvi-979 p., fig. Addison-Wesley
- Publishing Company, Reading (Mass.), 1958. Prix, relié toile : 11,50 dollars.
- Dans cet ouvrage qui présente les résultats de recherches conduites durant les dix dernières années aux États-Unis, on se propose plus spécialement une étude de génie chimique des réacteurs à combustibles fluides, c’est-à-dire utilisant soit des solutions aqueuses de sels d’uranium tels que le sulfate d’uranyle ou des suspensions aqueuses d’oxyde de thorium, soit des mélanges de sels fondus contenant par exemple du fluorure d’uranium ou thorium, soit enfin des métaux ou des alliages fondus. Si de tels réacteurs posent des problèmes difficiles du fait de la nécessité de traiter de grandes quantités de liquides extrêmement corrosifs et radioactifs, ils présentent deux avantages sur les réacteurs à combustibles solides : les circuits de combustibles sont plus simples et on consomme moins de neutrons. — H. G.
- Soap Films, par Karol J. Mysels, Kozo Shinoda et Stanley Frankel, i vol. 14,5 X 22,5, x-116 p., fig. texte et h. t. Pergamon Press, Londres, New York et Paris, 1959. Prix, relié : 40 sh.
- Étude très particulière des films de savon et plus spécialement de leur amincissement.
- Manuel d’Ethnographie, par J.-A. Mauduit, attaché au Musée de l’Homme. 1 vol. 14 X 22,5, 318 p. Payot, Paris, i960. Prix : 21 NF.
- L’auteur définit ainsi le domaine de l’Ethnographie : « C’est la discipline qui se propose la connaissance de l’ensemble des productions
- humaines, tant dans le domaine matériel qu’immatériel. Elle se traduit donc par l’étude de tous les objets et constructions que produit un groupe humain : armes, pièges, vêtements, habitations, etc. Elle se traduit aussi par la recherche des structures et des formes immatérielles issues de la nécessité sociale et des besoins spirituels... » Cette science couvrirait donc tout l’immense domaine des sciences de l’Homme, à l’exception de l’anatomie et de la physiologie. Cependant
- LES POLDERS
- PAR
- P. WAGRET
- Agrégé de l’Université,
- Ancien membre de l’Institut français d’Amsterdam.
- 332 pages 15 x 22, avec 89 figures. 1959. Broché sous couverture illustrée ........................................... 18,50 >F
- En vente dans toutes les bonnes librairies et chez
- DUMOD, Éditeur, 92, rue Bonaparte, Paris-6°. DAX 99-15.
- Collection LES BEAUTÉS DE LA NATURE
- ^Série Exotique)- Nouveauté
- NICOLAS MÉLIDES
- et
- rfoçuets
- illustré de 32 planches en couleurs par P. A. Robert
- Dans la même collection
- LA VIE DES COLIBRIS ORCHIDÉES EXOTIQUES
- Chaque volume : 29,50 NF
- OELACHAUX ET NIESTLE, 32 RUE DE GRENELLE - PARIS
- 95
- p.95 - vue 97/560
-
-
-
- il ne s’agit pas d’étudier les productions complexes des sociétés industrielles qui relèvent plutôt de la sociologie, mais celles des sociétés dites primitives dont les rouages relativement simples permettent une plus grande facilité d’accès. Au moment où les dernières sociétés primitives sont en voie de disparition, l’Ethnographie pourrait donc se classer dans les sciences historiques. Dans son domaine propre, elle pose le problème de nos origines, récentes ou très anciennes. De purement descriptive et classificatrice, elle s’élève progressivement au rang de science explicative. C’est par là surtout qu’elle peut nous passionner et nous enrichir.
- La grotte de Rochereil, par le docteur P. E. Jude. Mémoire 30 des Archives de l’Institut de Paléontologie humaine. 1 vol. 23 X 28,5, 76 p., 29 fig. Masson, Paris, i960. Prix : 16 NF.
- La grotte de Rochereil située dans la commune de Grand-Brassac (Dordogne) a été fouillée par l’auteur depuis 1935, avec une longue interruption due à la guerre. Elle a livré une importante industrie lithique et osseuse, avec faune associée, du Magdalénien et de l’Azilien, avec des sépultures. A la lumière de son analyse technique, l’auteur examine les diverses hypothèses qui ont été faites sur les changements constatés dans les peuple-
- aùf seri/ïee du t/ess/w fechw/que
- PORTE-MINE de PRÉCISION
- ECRIFIX
- Ci- _________**iZrU2.
- 1929
- Brevets
- 1959
- ECRIFIX de LUXE
- avec cannelures
- CARAN D'ACHE crée un porte-mine breveté de précision à l’usage du dessin technique et de l’écriture.
- Les ECRIFIX CARAN D'ACHE sont toujours les meilleurs et les plus appréciés des porte-mine à longue mine.
- 7 POINTS de SUPÉRIORITÉ font de l'ECRIFIX de LUXE l’instrument de dessin le plus réputé.
- CRAYONS et MINES
- TECHNOGRAPH
- au GRAPHITE “ micromsé Son grain quasi colloïdal donne à la mine des qualités inégalées et tout spécialement une densité du trait permettant des reproductions hêlio aussi nettes qu’à l’Encre de CHINE.
- En COULEURS, Crayons PRISMATEC et Mines PRISMA offrent les mêmes avantages.
- Trait de mine TECHNOGRAPH (Grossi 30 fois)
- §3$
- m
- Trait de mine X (Grossi 30 fois)
- La PINCE FIX
- n’a jamais été égalée Elle serre la mine comme un étau
- DISTRIBUÉ par CORECTOR -ADHÉSINE
- tUJ.EMONNIER lû t,
- ments et les industries qu’une modification du climat ne saurait seule expliquer. Malheureusement, des fouilleurs clandestins ont pillé le gisement et il serait bien souhaitable de le voir classé.
- Géographie Universelle Larousse, publiée sous la direction de Pierre Deffontaines, avec la collaboration de Mariel Jean-Brunhes Dela-marre et de 62 spécialistes. Tome III et dernier : Extrême-Orient, Plaines eurasiatiques, Amérique. 1 vol. 21 X 30, 420 p., 583 illustrations en noir dont 74 cartes, 36 planches h. t. en couleurs dont 6 doubles-cartes en relief. Index. Larousse, Paris, i960. Prix, relié : 77,70 NF.
- Avec ce tome III se termine la monumentale Géographie Universelle Larousse, dont nous avons précédemment présenté les deux premiers tomes, parus respectivement en 1958 et 1959. Ce tome III achève, le tour du monde par l’étude de l’Extrême-Orient, de l’U. R. S. S. et du continent américain. C’est dire l’intérêt capital et dense de ces pages, écrites par des spécialistes chevronnés (la Chine, par J. Chesneaux ; le Groenland, par J. Malaurie ; l’U. R. S. S., par le regretté G. Jorré ; les États-Unis, par J. Canu ; le Brésil, par P. et J. Monbeig). L’information est naturellement à jour, tous les problèmes sont évoqués, notamment ceux des États sud-américains, souvent ignorés (et auxquels La Nature avait consacré une étude, en août 1956, sous le titre « Transformations récentes en Bolivie »). L’illustraticn est au-dessus de tout éloge : il n’est pas plus attrayante invitation au voyage. Qui osera prétendre désormais que le Français ne s’intéresse pas à la géographie ? P. Deffontaines et M. Jean-Brunhes Delamarre et leurs collaborateurs ont admirablement « humanisé » la géographie, science du concret, panorama du monde réel, mais- aussi forme artistique d’expression. Spécialistes comme grand public devraient faire à cet ouvrage l’accueil qu’il mérite. — P. W.
- Un mélange d’algèbre et de statistique : le plan d’expériences, par Daniel Dugué, professeur à la Sorbonne. 1 brochure 13,5 X 18, 18 p. Édition du Palais de la Découverte, Paris, i960. Prix : 1,30 NF.
- Intéressante conférence faite au Palais de la Découverte, où l’on voit « l’énorme importance du rôle joué en statistiques par les dispositions (...) décrites sous le nom de plan d’expériences (carrés latins orthogonaux, blocs incomplets équilibrés) ».
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- OCCASION : Beau microscope bact. stat. noir. Rév. à 4, platine car. mouv. microm. perp., 4 obj. 3, 5, 7 fluor, 1/12 imm., 2 ocul. 5, 10. Parf. ét. avec boîte. Prix : 600 NF. S’adresser Revue, sous n° 258.
- A VENDRE : Collection complète La Nature, 9 volumes reliés, années 1945 à 1953. Faire offre Revue, sous n° 259.
- VENDRAIS : La Nature, années 1919 à 1922 (compl.), Ier janv. à Ier juin 1923, années 1937» I938> 1939. T945> 1946, 1947 (compl.), 1940-1942 (22 numéros), 1948 (13 numéros). Ecr. Revue, sous n° 260.
- J. H. 26 ans, M. P. C. Physique générale, lib. serv. milit. en mai, recherche travail intéressant. Ecr. Revue, n° 261.
- Le gérant : F. Dunod. — dunod,- éditeur, paris. — dépôt légal : ier trimestre 1961, n° 3737. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lC>566), LAVAL, N° 4225. - 2-igffl.
- 96
- p.96 - vue 98/560
-
-
-
- Le déplacement et les inégalités
- Terre
- La représentation simple de la rotation de la Terre, celle qu’on enseigne aux enfants, et que par la suite on admet comme une évidence, si l’on n’a pas eu à s’intéresser aux problèmes de l’astronomie, est la suivante : il existe dans l’espace un axe, autour duquel la Terre tourne d’un mouvement uniforme ; les points où cet axe traverse la Terre sont invariables. La représentation matérielle de ce phénomène est une mappemonde qui tournerait d’un mouvement parfaitement régulier.
- Cette description de la rotation terrestre était si bonne qu’elle n’a pu être mise en défaut avant la fin du siècle dernier. Elle est insuffisante maintenant. En effet, en 1885, Chandler découvrait les déplacements des pôles : l’axe de rotation se déplace par rapport au sol ; autrement dit, la terre a du « jeu » autour de son axe. Plus tard, E. W. Brown, De Sitter, Spencer Jones, puis N. Stoyko reconnurent diverses irrégularités de la vitesse de rotation.
- La conséquence la plus apparente de la rotation terrestre est le mouvement diurne auquel participent tous les astres et qui règle leurs levers et leurs couchers avec une période voisine de 24 heures.
- Il existe bien d’autres phénomènes où se manifeste la rotation terrestre : l’expérience du pendule de Foucault, la déviation des vents, des courants, des corps en chute libre sous l’influence de l’accélération complémentaire, la tendance de l’axe d’un gyroscope à rester pointé dans une direction fixe par rapport aux étoiles, ce dernier phénomène étant utilisé couramment dans les compas gyroscopi-ques des avions et des navires, etc. On peut donc affirmer que des habitants de la Terre, aveugles à tout rayonnement de la part des astres, auraient tout de même conclu à la rotation de la Terre dans l’espace. Mais aucun de ces phénomènes ne peut fournir les caractéristiques du mouvement avec autant de précision que l’observation du mouvement diurne. C’est à cette observation que l’on s’adresse et elle constitue l’une des tâches des astronomes.
- Précisons quelques points en nous excusant de la longueur de ce préambule : le problème s’éclaire dès que l’on voit bien comment il se pose.
- Tout d’abord, l’axe de rotation terreste, ou axe du monde, ne conserve pas une direction fixe dans le ciel : le point où il perce la sphère étoilée (pôle céleste) décrit une courbe festonnée. Il est actuellement près de la Polaire ; dans 13 000 ans, il s’approchera de l’étoile Véga. Ce mouvement du pôle céleste qui se décompose en précession et en nutation ne nous intéresse nullement ici : on doit en tenir
- des pôles de la rotation
- par Hernard Guinot
- compte lors du calcul qui suit les observations, mais nous admettrons qu’il est connu avec toute la précision requise.
- Ensuite, la Terre « joue » autour de cet axe : il perce le sol en des points mobiles (pôles terrestres) qui décrivent des courbes bouclées appelées polhodies. La détermination de ces points permet de fixer la position de l’axe par rapport à la Terre. Il reste encore à connaître la vitesse angulaire de la rotation, pour être en possession de toutes les caractéristiques du mouvement. Ce sont ces problèmes que nous allons traiter.
- Les mouvements du pôle terrestre
- Le système des coordonnées qui sert à exprimer la position des points sur la Terre est lié au pôle. La latitude en un lieu est la hauteur du pôle céleste au-dessus de l’horizon ; la longitude est l’angle de deux plans passant par la ligne des pôles, l’un contenant l’observateur, l’autre un point de la Terre arbitrairement choisi. Les points d’égale latitude et les points d’égale longitude dessinent respectivement les parallèles et les méridiens.
- Si la Terre a du jeu autour de l’axe des pôles célestes, il en résulte que les pôles terrestres se déplacent sur le sol, en même temps que tout le réseau des parallèles et des méridiens : latitudes et longitudes des points fixes varient, ainsi, du reste, que Yazimut Q) d’une direction fixe. C’est à la mesure de ces trois éléments qu’on a recours pour tracer la polhodie. Mais c’est surtout la mesure de la latitude et l’étude de ses variations qui ont été pratiquées.
- La variation des latitudes. — Lorsqu’un astre passe au méridien, à la distance angulaire % du zénith (distance zénithale), il existe une relation simple entre sa déclinaison S et la latitude 9. Dans le cas de la figure 1 par exemple, on a :
- 9 = K 4- S.
- La mesure de % est relativement aisée : elle n’exige ni mesure de temps, ni connaissance précise du méridien, car l’astre passe alors à sa plus grande hauteur au-dessus de l’horizon et, pendant un temps assez long, son mouvement vertical est quasi nul.
- La mesure en une seule station (fig. 2) ne suffit pas à fixer le pôle sur la Terre. Elle fournit en effet la distance de
- 1. Rappelons que l’azimut est l’angle que fait le plan vertical qui contient une direction avec le méridien.
- 97
- p.97 - vue 99/560
-
-
-
- l’observateur au pôle, mais une infinité de points de al Terre répondent à cette propriété. La Terre étant supposée sphérique, ces points seront sur un cercle Cx, centré sur Ax. Mais si l’on observe aussi en d’autres stations A2, A3,..., on obtient des cercles C2, C3, ... qui devront tous se couper en un point P : position du pôle sur la Terre.
- C’est en étudiant des observations de ce type que Chandler put annoncer en 1885 que le pôle se déplaçait et qu’il put donner les caractéristiques principales de ce mouvement.
- Zénith
- Astre
- Equateur
- Horizon
- Fig. 1. — Relation entre la déclinaison d’un astre (S), sa distance zénithale fy) et la latitude (<p).
- On voit que cp = ^ -f- 8.
- Pour une étude plus poussée, la méthode a dû subir quelques aménagements ; notamment les divers observateurs ont été placés à peu près sur un même parallèle afin d’observer les mêmes étoiles et que s’éliminent certaines erreurs communes, la principale étant celle qui affecte les déclinaisons S dans les catalogues d’étoiles. Cette organisation reçut le nom de Service international des Latitudes (S. I. L.) ; elle fonctionne depuis 1900 ; ses principales stations, placées sur le parallèle 39°8' sont Carloforte (Italie), Ukiah (U. S. A.), Mizusawa (Japon), Kitab (U. R. S. S.).
- La figure 3 représente le tracé de la polhodie de 1949 à 1955. L’échelle est donnée en mètres : depuis qu’on détermine son mouvement, le pôle n’est pas sorti d’un cercle de 30 m de diamètre tracé sur le sol. Cet effet correspond à une variation de la latitude d’amplitude inférieure à 1".
- U analyse de la polhodie ; les difficultés rencontrées. — Les promoteurs du S. I. L. s’attendaient à observer un mouvement très régulier et pensaient que quelques années d’observations suffiraient à en fixer les caractéristiques. La réalité a déçu leurs espoirs et l’étude de la polhodie révèle bien des points obscurs.
- Très vite, on a reconnu une polhodie annuelle, de forme ovale, dont le grand axe mesure o",i5, soit 4,5 m. Cette variation annuelle est attribuée aux phénomènes saisonniers qui déplacent des masses sur la Terre : vents, courants. Il s’y superpose une variation de période 14 mois mise en évidence par Chandler : la variation chandlérienne. Cette dernière a ses justifications mécaniques, si la Terre ne tourne pas exactement autour de son axe géométrique et si elle se comporte comme un corps élastique. Mais depuis que l’on a fait ces constatations de base, nos connaissances n’ont guère progressé.
- Le mouvement annuel n’est probablement pas rigoureusement périodique. Il est tributaire de toutes les irrégularités des facteurs météorologiques et peut différer d’une
- l ------1 J Direction de
- Echelle ! Greenwich
- Fig. 3. — La polhodie, de 1949 à 1955, d’après le S. I. L. (trajectoire du pôle Nord).
- année à l’autre. Son étude détaillée est rendue très difficile, à cause de l’existence d’erreurs saisonnières dans les mesures : effets thermiques sur les instruments, -anation de la réfraction dans l’atmosphère, etc. En dépit de toutes les précautions prises, ces erreurs affectent la polhodie annuelle.
- Quant au mouvement chandlérien, on ne sait pas encore si sa période est rigoureusement constante. D’autre part, son existence pose un problème : quel est le phénomène qui vient de temps en temps « relancer » l’oscillation chandlérienne ? Cette oscillation a une tendance naturelle à s’amortir. Or, il se présente souvent de brusques variations de son amplitude, qui tantôt croît, tantôt décroît. L’ampli-
- 98
- p.98 - vue 100/560
-
-
-
- tude totale a atteint, par exemple, c/,55 (17 m) vers 1950. Elle était quasi nulle en 1927. De nos jours, elle est de c/,46 (14 m).
- Toutes ces difficultés pourraient être aplanies par des observations plus précises, si l’on ne se heurtait pas à une grave difficulté de principe.
- Prenons l’exemple où l’on a mesuré la latitude en trois stations, Ax, A2, A3. Quand on a entrepris les mesures, la position relative de Ax, A2, A3 n’était pas connue, et c’est précisément à des mesures de la latitude qu’on doit s’adresser pour les situer sur la Terre. On doit donc tirer de ces observations à la fois les positions de Ax, A2, A3 et celle du pôle. Les positions des stations sont définies par leur latitude mojenne ; quant à leur longitude, une valeur approximative suffit dans ce cas. On a utilisé, pour résoudre ce problème, le fait que les trois mesures de latitude faites à l’origine devaient définir le pôle, point unique, et par conséquent les courbes Cx, C2, C3 (fig. 2) devaient concourir. Mais on constate que par la suite, les courbes Cx, C2, C3 ne concourent plus si on les trace à partir des points fixes Ax, A2, A3. De toute évidence, les stations se sont déplacées les unes par rapport aux autres (fig. 4) ; leurs latitudes moyennes ont changé. On peut, si l’on veut, déplacer la station A3 en A'3 pour rétablir l’accord des courbes, on
- Fig. 4. — Effet des déplacements relatifs des stations d’observation.
- Explications dans le texte.
- obtient ainsi le pôle P. Mais l’on pourrait tout aussi bien déplacer l’une des autres stations et l’on obtiendrait les positions de P aux sommets du triangle hachuré sur la figure 4. On peut aussi supposer que deux des stations ont bougé ou même les trois : alors le mouvement du pôle devient complètement indéterminé.
- Ces effets faussent les termes périodiques dont il a été question ci-dessus. Mais surtout ils empêchent de trouver une réponse à ce problème extrêmement important : le pôle dérive-t-il à la surface du sol, c’est-à-dire : a-t-il un mouvement progressif dans une direction particulière ? En soixante ans, le pôle s’est apparemment déplacé de o",i5, soit 5 m environ dans la direction du méridien de 65° W. Mais il est impossible de savoir si cet effet est réel, ou s’il est dû au mouvement particulier de quelques stations. Les avis des spécialistes restent partagés. Comme la géologie n’apporte pas non plus de preuves irréfutables que le pôle se soit déplacé dans les temps reculés, le problème demeure entier.
- Géométriquement, trois stations placées sur le même parallèle suffisent à fixer la polhodie sur une Terre solide.
- Mais à cause des déformations de la Terre, le problème du mouvement du pôle n’a pas de solution géométrique, il n’a qu’une solution statistique. Il faut que les stations se comptent par dizaines à la surface du globe et non par unités, de façon à obtenir une compensation de leurs mouvements particuliers. Un tel accroissement du nombre des stations est concevable maintenant, nous reviendrons sur ce point.
- A cause de la même difficulté, il n’est pas possible actuellement de dire si les mouvements des pôles terrestres Nord et Sud sont strictement symétriques. Ils le sont au moins de façon approchée, comme l’ont montré des observations simultanées faites en 1891 à Berlin et à Honolulu, plus d’autres mesures à La Plata et à Adélaïde. Aujourd’hui, la détermination de la polhodie se fait surtout à partir de stations situées dans l’hémisphère boréal.
- Les variations de Fhorloge-Terre
- La vitesse de rotation de la Terre ; comparaisons astronomiques. — Pour mesurer la vitesse de rotation de la Terre, il faut rapporter sa rotation à une certaine échelle de temps supposé « uniforme ». Quel est ce temps uniforme idéal ? C’est celui qui rend vraies les équations de la mécanique classique, corrigées, si la précision l’exige, des effets relativistes. Ainsi pour construire un étalon de temps, on s’adresse à un phénomène mécanique simple dont on sait calculer, en fonction du temps, tous les états successifs : l’observation de ces états donne le temps. C’est le cas, par exemple, de l’oscillation d’un balancier. La Terre étant supposée être un solide, non soumis à des forces extérieures autres que l’attraction du Soleil et des autres astres, attraction dont on sait calculer les effets, sa rotation doit être uniforme et elle a longtemps constitué l’horloge idéale, .fixant l’unité de temps, et aussi l’échelle de temps ; horloge merveilleuse dont aucun incident ne pouvait troubler le fonctionnement.
- Pourtant Kant, puis Lalande, estimaient déjà que la dissipation d’énergie par les marées devait exercer un freinage de la Terre, mais cette hypothèse que nulle observation ne pouvait confirmer tomba dans l’oubli.
- Comment consulter l’horloge-Terre, pour obtenir l’heure précise ? Partant de l’hypothèse d’une Terre en rotation uniforme, la mécanique céleste permet de fixer le point où l’on se trouve de l’échelle de temps lors du passage au méridien d’une étoile par exemple : c’est-à-dire l’heure de ce passage. Il ne reste donc qu’à observer le passage avec toute la précision possible ; l’heure terrestre que l’on obtient est appelée Temps Universel (TU). Jusqu’à ces dernières années, c’est la seconde de Temps Moyen (identique à la seconde de Temps Universel) qui était l’unité de temps.
- Les cieux, cependant, nous montrent d’autres mouvements que la rotation terrestre : notamment les révolutions des planètes autour du Soleil et des satellites autour des planètes. D’où autant d’horloges, mais des horloges encore plus difficiles à consulter que l’horloge-Terre, à cause de la lenteur des mouvements.
- Néanmoins, en s’adressant au plus rapide d’entre eux, celui de la Lune, Newcomb s’aperçut que les positions de la Lune ne concordaient plus avec la théorie établie auparavant et que la Lune se trouvait en avance par rapport aux instants calculés dans l’échelle de temps de l’horloge-
- 99
- p.99 - vue 101/560
-
-
-
- Terre. Newcomb pensa que l’horloge-Terre avait ralenti son mouvement et ce point de vue fut confirmé par l’avance, moins considérable et moins facilement mesurable, des planètes et du Soleil. Les lois de la gravitation appliquées à la Lune et aux planètes définissent donc une autre échelle de temps. Ce temps fut appelé d’abord temps newtonien, puis Temps des Ephémérides.
- Le Temps des Ephémérides est-il plus voisin du temps « uniforme » que le Temps Universel ? Sans aucun doute. Les planètes peuvent être considérées comme des points matériels et l’analyse de leur mouvement est plus aisée que celle de la rotation d’un corps aussi complexe que la Terre. D’ailleurs, les diverses planètes donnent des échelles de temps identiques. C’est pourquoi, en octobre 1956, le Comité International des Poids et Mesures a adopté comme étalon de temps, la seconde de Temps des Ephémérides (TE), fixée comme une certaine fraction du temps que la Terre met pour accomplir sa révolution autour du Soleil. C’est donc le mouvement apparent du Soleil sur la sphère des fixes (et non plus le mouvement diurne) qui définit notre seconde. Dans la pratique, on s’adresse au mouvement de la Lune parmi les étoiles, plus facilement observable, et l’on note les instants où la Lune, dans sa course, occulte les étoiles.
- On peut donc maintenant mesurer la vitesse de rotation de la Terre dans un système de temps réputé uniforme. Mais le Temps des Ephémérides étant fourni par des mouvements très lents, on ne peut ainsi mettre en évidence que des irrégularités s’étendant sur de longues périodes. On a pu remonter assez loin dans le passé grâce aux observations d’éclipses et l’on a reconnu ainsi deux phénomènes :
- i° La rotation de la Terre ralentit progressivement,
- + 1.2 _
- t 0.8 _
- + 0,6 _
- 1830 /40
- 90 1900
- « -0,2
- -0.8 _
- -1,0 _
- Fig. J. — Variation annuelle de la durée de rotation de la Terre.
- (D’après Mme A. Stoyko).
- sous l’effet des frottements dus aux marées. Chaque siècle dure environ une minute de plus que le précédent. Le retard accumulé depuis le début de l’ère chrétienne, par exemple, atteint à peu près 3 heures.
- 20 La rotation de la Terre présente en outre des fluctuations irrégulières. La figure 5 établie par Mme A. Stoyko montre la variation annuelle de la durée de la rotation de la Terre, c’est-à-dire les variations du temps pris pour
- Fig. 6 — Étalon de temps à ammoniac, associé à une horloge à quartz.
- L’étalon moléculaire (tube horizontal à gauche) est entouré de ses instruments de contrôle ; il ne constitue pas une horloge proprement dite, car il fonctionne de façon intermittente ; il sert seulement à contrôler la marche de l’horloge à quartz (située à l’extrême droite!.
- p.100 - vue 102/560
-
-
-
- effectuer environ 365 rotations. Le retard, ou l’avance, pris en une année atteint 1,4 s. Il peut s’accumuler pendant plusieurs années consécutives et l’avance ou le retard par rapport au temps uniforme corrigé de la variation progressive peut atteindre plusieurs dizaines de secondes.
- La vitesse de la rotation de la Terre, rapportée aux horloges. — La lecture du temps astronomique est peu commode. Pour des besoins pratiques, l’homme a construit des appareils qui imitent les mouvements des astres et qui sont plus faciles à consulter : les horloges. Tant que l’on supposait uniforme la rotation de la Terre, on réglait les horloges par l’observation du mouvement diurne : les horloges donnaient le temps universel. Mais les horloges finirent par avoir un mouvement plus régulier que la Terre. En 1936, N. Stoyko constata que toutes, elles avançaient pendant 6 mois, puis toutes, elles se mettaient à retarder pendant 6 autres mois. Il conclut à une irrégularité saisonnière de la rotation terrestre : le retard sur le temps uniforme atteint 0,040 s en mai, l’avancé 0,030 s en octobre. Cette irrégularité saisonnière, tout comme le mouvement annuel du pôle, est due aux déplacements saisonniers de masses d’air à la surface de la Terre.
- Où en sommes-nous maintenant ? Les horloges modernes sont en général des oscillateurs. Les dimensions de ces oscillateurs ont décru au fur et à mesure qu’on leur demandait une précision plus grande, tandis que leurs fréquences d’oscillation augmentaient : balancier battant la seconde ; diapason de fréquence 1 000 c/s ; cristal de quartz (fréquence 100 000 c/s) ; atome de césium (fréquence 9 x io9 c/s). Les horloges les plus précises sont actuellement les horloges au césium, dont l’irrégularité de marche n’excède pas 0,00001 s par jour.
- D’autre part, les progrès des télécommunications permettent de rapporter toutes les observations de phénomènes physiques à n’importe quelle horloge et de comparer toutes ces horloges entre elles. Toutes les horloges atomiques donnent des résultats en accord. Elles définissent elles aussi un nouveau temps qu’à défaut d’appellation officielle j’appellerai le Temps des Horloges.
- Il est hors de notre sujet de discuter des avantages respectifs du Temps des Ephémérides et du Temps des Horloges. Pour l’étude de la rotation terrestre, leurs rôles sont distincts : le Temps des Ephémérides permet de reconnaître les inégalités à très longue période, le Temps des Horloges révèle des irrégularités aussi brèves que l’observation astronomique du mouvement diurne l’autorise. C’est en fait la précision des observations astronomiques qui limite actuellement nos connaissances. Pourtant de gros efforts ont été consacrés à leur amélioration et de nouveaux instruments, lunettes photographiques zénithales, astrolabes impersonnels, remplacent peu à peu les petites lunettes méridiennes affectées à la détermination de l’heure.
- Quittant l’étude générale du problème de la rotation terrestre, nous consacrerons quelques instants aux travaux récents effectués dans ce domaine à l’Observatoire de Paris.
- L’astrolabe impersonnel A. Danjon, instrument de très haute précision
- Si, à un instant lu sur une horloge, on peut fixer la position du zénith parmi les étoiles, on peut calculer,
- Fig. 7. — L’astrolabe impersonnel A. Danjon, type O. P. L.
- connaissant la position de ces étoiles sur la sphère des fixes :
- i° La latitude, comme dans le cas de la figure 1.
- 20 La correction à apporter à l’horloge pour obtenir l’heure TU (c’est-à-dire l’heure basée sur la rotation uniforme de la Terre). Si c’est à l’horloge qu’on attribue le privilège de distribuer du temps uniforme, cette correction est identique au retard de l’horloge-Terre et son étude est celle des irrégularités de la rotation terrestre.
- L’astrolabe impersonnel de M. André Danjon (fig. 7) permet cette mesure, par l’observation du passage des étoiles à une distance zénithale fixe, dans des azimuts variables. Chaque nuit de beau temps, on observe 3 groupes de 28 étoiles chacun (ce qui demande environ 6 heures de travail). A l’issue des calculs, on obtient le temps et la latitude avec des erreurs probables de 0,003 s et C’est là une des meilleures précisions obtenues jusqu’à ce jour par les divers instruments. Il convient de noter, d’ailleurs, que la comparaison des instruments, à ce degré de précision, devient difficile à cause de l’existence d’effets parasites locaux, extérieurs à l’appareil : notamment, la turbulence des images des étoiles.
- La figure 8 présente la variation de la latitude à Paris, depuis la mise en service de l’astrolabe (juillet 1956). L’échelle a été portée en secondes de degré et aussi en mètres.
- 101
- p.101 - vue 103/560
-
-
-
- L’interprétation des mesures de temps est plus compliquée. Il se superpose plusieurs effets : le ralentissement progressif et la fluctuation irrégulière dont il a été question, l’inégalité saisonnière et enfin des termes dont nous n’avons pas parlé jusqu’ici : ceux d’origine polaire. Par suite du mouvement du pôle, les méridiens se déplacent et les temps observés sont affectés de petites inégalités qui reflètent les caractéristiques du mouvement du pôle : inégalités de période 12 et 14 mois.
- L’analyse du temps permet d’isoler assez facilement le terme de 14 mois. Associée à l’analyse de la latitude, elle permet, en un seul observatoire, de déterminer toutes les caractéristiques de la polhodie chandlérienne. Ce travail effectué à Paris a donné une polhodie quasi circulaire de diamètre o",47, parcourue en 1,2 an.
- Mais en un seul observatoire, il est impossible de séparer du terme annuel polaire l’inégalité saisonnière de la rotation. On ne peut obtenir qu’une inégalité annuelle globale. Pour que la séparation devienne possible, il faut comparer entre elles les inégalités globales obtenues en deux observatoires éloignés. On obtient alors l’ensemble des caractéristiques du mouvement du pôle, par les observations de temps seules.
- Il paraît peu vraisemblable que la coïncidence des trois phénomènes soit fortuite. Comment expliquer les répercussions des éruptions solaires sur la rotation de la Terre ? On en est réduit aux hypothèses : celle d’E. Schatzman explique l’ordre de grandeur des effets observés par une capture de protons par le champ magnétique terrestre, mais il est encore trop tôt pour se prononcer sur sa validité.
- Ce n’est que depuis quelques années que l’astronome dispose des outils nécessaires à l’étude de la rotation de la Terre : instruments astronomiques suffisamment précis, horloges donnant un temps uniforme. Il a reconnu les déficiences de l’horloge-Terre. Pourquoi, alors, continuer à consulter cette vieille horloge, qui ne peut plus nous donner l’heure ?
- Tout d’abord, parce que c’est conforme à l’esprit de la recherche fondamentale. L’étude d’un phénomène ne nous a jamais tout livré et son observation de plus en plus précise nous amène à des découvertes qui ont leur répercussion dans la science entière. N’en avons-nous pas la preuve ? La relation entre la vitesse de rotation de la Terre et l’acti-
- •• ! ’ ' \ lOmètres.. ... ...
- • • ’ •*
- 1957.0 1958.0 1959.0 1960.0
- Fig. 8. — Variation de la latitude à Paris, mesurée avec l’astrolabe impersonnel A. Danjon.
- Les points représentent des moyennes brutes de poids égaux.
- Fig. 9. — Différence entre le temps défini par l’étalon au césium d’Essen et Paris et le Temps Universel dépouillé de ses inégalités périodiques.
- 1957.0
- 1958.0
- 1959.0
- 1960.0 1961.0
- Cette courbe montre aussi le retard pris par ]a Terre par rapport au temps uniforme. Les points représentent des moyennes brutes de poids égaux. On a ajouté une correction linéaire en fonction du temps pour que la courbe se développe autour d’une parallèle à l’axe des abscisses.
- On conçoit l’importance de ce nouvel accès à l’étude du mouvement du pôle. Désormais, aux mesures de latitude, il faut associer les mesures de temps et résoudre l’ensemble des équations obtenues, en un système unique.
- Revenons aux résultats obtenus à Paris seulement. Une fois les mesures de temps dépouillées de leurs irrégularités périodiques, M. Danjon a obtenu la figure 9 qui représente exactement le retard de l’horloge-Terre par rapport à l’étalon atomique au césium du laboratoire d’Essen à Teddington (Grande-Bretagne).
- Sur cette courbe apparaît d’emblée une particularité étonnante : un point anguleux qui se situe en juillet 1959. Ce point anguleux correspond à une brusque augmentation de 0,00085 s de la durée du jour. La durée du jour a ensuite décru pour reprendre peu à peu sa durée initiale. Que s’est-il passé à cette époque ? Un phénomène non moins remarquable, une succession d’éruptions solaires d’une violence exceptionnelle, accompagnées d’intenses courants corpusculaires en altitude. Un troisième phénomène est apparu à la même époque : une perturbation des marées de l’écorce terrestre.
- vité solaire fait avancer d’une façon inattendue l’étude du rayonnement corpusculaire. Autre exemple : si l’on parvient à déterminer la migration du pôle, on étayera certaines hypothèses géologiques fondées sur ce phénomène. D’une manière plus immédiate, la rotation de la Terre, le mouvement du pôle, constituant une porte d’accès vers l’intérieur du globe, si mal connu, permettront peut-être de mettre en évidence des mouvements cycliques de la matière terrestre. Nous avons vu, d’autre part, que les observations montraient que la Terre était déformable, que les stations glissaient les unes par rapport aux autres.
- La tendance actuelle est donc de multiplier les stations qui déterminent à la fois le temps et la latitude et de les disperser le plus possible à la surface de la Terre, d’étudier leurs déplacements relatifs, puis de déterminer les caractéristiques de la rotation terrestre qui représentent dans leur ensemble les mouvements particuliers des stations. Cette vaste entreprise demandera une coopération internationale qui n’est encore qu’à l’état d’ébauche.
- Bernard Guinot,
- Observatoire de Paris.
- p.102 - vue 104/560
-
-
-
- La biochimie du soufre et ses incidences en agriculture
- Quoique le soufre ne représente qu’un faible pourcentage dans la constitution de l’écorce terrestre (d’après Polynov, 0,06 pour ioo de la masse totale), il a une importance biologique considérable car il est, avec le phosphore et l’azote, un des éléments indispensables pour la nutrition de toutes les formes de vie (végétale, animale et bactérienne).
- Contrairement au phosphore, qui n’existe pratiquement dans la matière vivante que sous la forme de dérivés de l’acide phosphorique (esters), le soufre, indépendamment de la forme minérale sulfate, existe sous des formes organiques multiples qui interviennent dans de nombreux processus vitaux d’oxydo-réduction, de transméthylation, de catalyse, de détoxication, etc. Mais ces phénomènes sont difficiles à étudier à travers les formes organiques covalentes du soufre, contrairement à ce qui se produit pour le phosphore dont les formes esters sont facilement hydroly-sables ; c’est pourquoi la biochimie du soufre est restée pendant longtemps inaccessible.
- L’étude du mécanisme intime de transformation des molécules soufrées n’a pu être abordée que depuis une quinzaine d’années, grâce au perfectionnement des techniques d’expérimentation : micro-analyse, chromatographie, emploi du soufre radioactif 35S, spectrographie moléculaire. Le rôle du soufre dans le métabolisme des êtres vivants commence donc seulement à se dégager, mais cette partie de la biochimie prend une extension considérable depuis quelque temps et donne lieu à l’organisation fréquente de colloques scientifiques (Roscoff 1956, Falmouth 1958, Aix-les-Bains i960, etc.).
- Le soufre, élément plastique. — Le soufre, considéré pendant longtemps comme un élément secondaire, voire même comme un oligo-élément (c’est-à-dire un élément intervenant en quantité infime), tend à être admis aujourd’hui parmi les éléments constitutifs des cellules au même titre que l’azote et le phosphore, c’est-à-dire parmi les éléments dits plastiques. Les travaux de G. Bertrand et de L. Silberstein ont montré que les teneurs en soufre des végétaux sont du même ordre que celles en phosphore (de 0,1 à 1 pour 100 du poids de la matière sèche). Le soufre et l’azote sont étroitement associés, puisque le soufre entre dans la constitution d’acides aminés essentiels (cystéine et méthionine) et qu’il participe à Lélaboration des protéines ; celles-ci renferment en moyenne de 0,3 à 2,4 pour 100 de soufre. Ceci explique pourquoi les symptômes visibles des
- carences en soufre chez les végétaux ressemblent étrangement à ceux de la carence azotée. Dans l’un et l’autre cas, il s’agit d’un dérèglement du métabolisme et, en l’absence d’analyses chimiques, les deux carences peuvent être confondues.
- En ce qui concerne le métabolisme cellulaire, cinq coenzymes soufrés exerçant une activité capitale ont été identifiés jusqu’à présent. Quatre d’entre eux interviennent dans le métabolisme général des glucides, des lipides et des protides : ce sont la diphosphothiamine (D. P. T.), l’acide thioctique ou lipoïque, le coenzyme A (CoA), la vitamine H ou biotine. Le glutathion, d’autre part, joue le rôle de coenzyme dans les fermentations.
- La biochimie du soufre fait partie des recherches qui se sont développées récemment et dont l’objectif principal est de mieux définir la composition optimale qualitative et quantitative des aliments de l’homme et des animaux (voir La Nature, août 1957, p. 324, Colloque international sur la qualité des végétaux). Rappelons aussi l’exemple cité dans La Nature (janvier i960, p. 18) : pour évaluer la valeur nutritive d’un fourrage, tel que la luzerne, on se bornait jusqu’ici à doser la matière azotée, ce qui indique la teneur en protéine brute de la plante. Or, ce facteur quantitatif ne rend pas un compte exact de la valeur nutritive réelle du fourrage, conditionnée par sa teneur en méthionine. Nous savons à présent que cette dernière substance est en relation directe avec le soufre fourni par le sol. S’il est en quantité insuffisante, le taux de méthionine s’abaisse, ce qui entraîne une carence en cascade : pour le végétal en premier lieu, pour le bétail ensuite.
- Des expériences récentes faites par l’Institut de recherches pour les huiles et oléagineux, station de Bambey, avec du soufre radioactif, ont permis de déterminer par autoradiographie la distribution de cet élément dans de jeunes plants d’arachide et d’en apprécier la rapidité de migration. On sait que l’autoradiographie consiste à mettre le tissu vivant en contact direct avec la plaque photographique, qui est impressionnée proportionnellement à la concentration de la substance radioactive en chaque point.
- Les photographies qui illustrent cet article nous ont été aimablement prêtées par l’I. R. H. O. ; l’expérience a été la suivante :
- On cultive tout d’abord les plantes sur du sable avec une solution nutritive complète, non radioactive. Trente jours après le semis, on extrait délicatement les plantules des vases de végétation, de manière à conserver leurs racines
- 103
- p.103 - vue 105/560
-
-
-
- aussi intactes que possible. On trempe les racines de ces plantes dans une solution contenant du soufre 35, radioactif, sous la forme d’ions sulfate et on prend des clichés après 6 heures, après 24 heures et après 4 jours de trempage. Ces photos montrent comment' se localise le soufre ; le rapport des intensités initiales a été scrupuleusement respecté pour la reproduction de ces trois clichés.
- La figure 1 montre que déjà, après 6 heures, le soufre commence à atteindre les zones d’accumulation, c’est-à-dire uniquement les feuilles en cours de développement. Les tiges sont très faiblement radioactives malgré leur épaisseur ; on voit donc que le phénomène d’accumulation ne concerne que les organes en voie de croissance.
- La figure 2 montre qu’après 24 heures, seuls les bourgeons, les feuilles terminales des tiges, les pétioles des feuilles et les nervures des folioles sont devenus fortement radioactifs. Par contre les feuilles âgées n’ont absorbé que des quantités infimes de soufre radioactif.
- comportant pas le dosage systématique du soufre assimilable, on ignore totalement le niveau de cet élément dans les sols de culture. Quelques analyses faites par des organismes de recherches établissent que bien souvent la quantité du soufre présente dans ces sols est inférieure à celle du phosphore et parfois même inexistante.
- Cette lacune provient d’une conception désuète de la notion de fumure minérale dans la plupart des pays du monde, où le rôle de fertilisant est attribué presque exclusivement au triplet : azote, phosphore, potassium. Une évolution de ce concept est actuellement en cours sous l’impulsion des travaux du professeur Homes (La Nature, novembre 1954, p. 436) et d’autres chercheurs.
- D’après cette nouvelle école, il faut associer à N, P et K trois autres éléments fondamentaux : soufre, magnésium et calcium, pour avoir une fumure dite équilibrée. Pour assurer un rendement optimal ainsi qu’une qualité de la récolte la meilleure possible, il faut que ces six élé-
- Fig. I. — Autoradiographie d’un plant d’arachide, après six heures de trempage de ses racines dans une solution contenant du soufre radioactif.
- Le soufre, marqué à l’isotope radioactif de masse 35 (période, 87 jours), s’est déjà accumulé dans les feuilles jeunes, encore en voie de croissance, qui apparaissent plus sombres.
- La figure 3 montre que, même après 4 jours de trempage, les vieilles feuilles ne sont toujours pas radioactives ; pour les feuilles d’âge moyen, le soufre reste localisé dans les nervures et ne diffuse pas dans le limbe, observation très importante en ce qui concerne la physiologie de la plante.
- Ces expériences montrent la fixation élective du soufre dans les organes jeunes et en voie de croissance et font comprendre l’importance de l’élément pour ces organes ; les organes vieillis paraissent incapables de fixer cet élément. Elles établissent aussi la nécessité de procurer du soufre à la plante au moment de la croissance.
- Incidences agronomiques. — Les besoins physiologiques des plantes en soufre étaient jusqu’ici ou bien ignorés, ou bien sous-estimés. Les analyses classiques des sols ne
- ments soient fournis à la plante en proportions ioniques convenables établies d’après des essais agronomiques.
- La généralisation de ces techniques de fertilisation présente sur le plan pratique un intérêt indiscutable car, du fait des cultures intensives pratiquées aujourd’hui, il existe en plusieurs régions un déficit en soufre dans les sols de culture. Si l’on n’y remédie pas, ce déficit s’accumulera d’année en année, aux dépens des réserves du sol.
- Nous terminerons en évoquant la curieuse succession des faits économiques qui a conduit les agriculteurs à effectuer tout d’abord une fertilisation soufrée abondante à leur insu, puis à sevrer leurs cultures de cet élément par le seul fait que la composition des engrais mis à leur disposition par l’industrie a changé.
- Pendant longtemps en effet, l’azote et la potasse étaient fournis aux cultures sous forme de sulfates d’ammonium
- p.104 - vue 106/560
-
-
-
- Fig. 2 et 7. — Autoradiographies de plants d’arachide après 24 heures (en haut) puis 4 jours (en bas) de trempage des racines dans une solution de sulfate marqué au soufre radioactif.
- Coniparer avec la figure 1 : le noircissement de la plaque s'est accusé par une plus grande accumulation du soufre radioactif. Après 24 heures, on note l’accumulation dans les pétioles et les nervures ainsi que dans les bourgeons et les limbes des feuilles terminales. Après 4 jours, seul le limbe des vieilles feuilles n’est pas devenu radioactif. (Photos aimablement communiquées par /'Institut de recherche pour les huiles et oléagineux).
- et de potassium, renfermant respectivement 24 et 18 pour 100 de soufre ; le phosphore sous forme de superphosphates renfermant 11 pour 100 de soufre. Atteinte par la pénurie de soufre, l’industrie chimique s’est orientée ensuite vers des formules où les éléments considérés comme essentiels (N, P et K) se trouvaient concentrés. C’est ainsi que l’ammoniac anhydre, l’acide phospho-rique, les phosphates et nitrates d’ammonium ont été substitués aux engrais traditionnels, en éliminant ainsi le soufre, considéré comme une « impureté ».
- A la lumière des études biologiques qui viennent d’être exposées, il semble que cette conception industrielle soit plutôt néfaste pour l’agriculture. On peut s’attendre dans les prochaines années à une nouvelle orientation de l’industrie des engrais, grâce à la découverte récente de l’important gisement de gaz naturel de Lacq, qui est aussi une des sources de soufre les plus importantes du Monde (La Nature, avril 1957, p. 121). D’importatrices qu’elles étaient, la France et l’Europe vont se trouver grâce à cette production inespérée de soufre, qui atteindra 1 400 000 tonnes à la fin de cette année, parmi les plus importants producteurs de soufre du Monde. L’agriculture bénéficiera certainement de ce revirement économique.
- Roland Fort,
- Ingénieur-docteur,
- Service des Recherches de la Société Nationale des Pétroles d’Aquitaine, Paris.
- p.105 - vue 107/560
-
-
-
- La radiation orangée du krypton 86 remplace le Mètre en platine iridié
- par Jean Terrien et Henri Moreau
- La définition de Vunité de longueur sera 200 fois plus précise
- La Onzième session de la Conférence générale des Poids et Mesures s’est tenue du n au 20 octobre i960 à Paris, au ministère des Affaires étrangères. On sait que cette conférence sexennale, formée des délégués des états qui adhèrent à la Convention du Mètre (1875), est l’organe suprême qui contrôle le fonctionnement du Bureau international des Poids et Mesures à Sèvres 0 et l’instance supérieure pour les questions concernant les unités des grandeurs de base. Sur les 36 états adhérents de cette convention, 33 étaient représentés par une centainè de délégués. D’importantes questions administratives et de métrologie scientifique étaient à l’ordre du jour de cette session ; leur discussion a donné lieu à des décisions et des résolutions que nous exposons ci-après.
- L’adoption d’une nouvelle définition du mètre est sans conteste l’événement métrologique le plus important de cette session. Après 71 ans de règne, le Prototype international du mètre en platine iridié a été définitivement détrôné ; la définition de l’unité de longueur, fondée depuis 1889 sur cet étalon matériel, a été changée le 14 octobre i960 à 18 heures pour être maintenant rattachée à une longueur d’onde lumineuse. Voici la Résolution 6, adoptée à l’unanimité des délégués de la Conférence, qui a sanctionné cette décision historique :
- La Onzième Conférence Générale des Poids et Mesures, considérant
- que le Prototype international ne définit pas le m'etre avec une précision suffisante pour les besoins actuels de la métrologie, qu’il est d’autre part désirable d’adopter un étalon naturel et indestructible, décide :
- 10 Le mètre est la longueur égale à 1 6jo 763,73 longueurs d’onde dans le vide de la radiation correspondant à la transition entre les niveaux zp10 et /d5 de l’atome de krypton 86.
- 20 La définition du mètre en vigueur depuis 1883, fondée sur le Prototype international en platine iridié, est abrogée.
- 1. Voir : Le Système Métrique et le Bureau international des Poids et Mesures, par H. Moreau, La Nature, décembre 1948, p. 353-358.
- 30 Le Prototype international du mètre sanctionné par la Première Conférence Générale des Poids et Mesures en 1883 sera conservé au Pureau international des Poids et Mesures dans les mêmes conditions que celles qui ont été fixées en 1883.
- Nous avons déjà eu l’occasion d’exposer ici les raisons de ce changement et les grandes lignes des travaux qui l’ont précédé (2). Il n’est toutefois pas sans intérêt de préciser plus en détail les aspects de cette question.
- Les qualités d’une raie spectrale pour le métrologiste
- Il y a 133 ans, le physicien français J. Babinet avait déjà fort bien expliqué pourquoi l’étalon primaire de longueur devrait être cherché dans une longueur d’onde lumineuse, et non dans un objet matériel, que cet objet fût le globe terrestre ou un étalon de métal construit par l’homme. A plusieurs reprises on a cru avoir trouvé la longueur d’onde idéale mais, à mesure que progressait la spectro-scopie, apparaissaient de plus en plus nombreuses les causes de variation de la longueur d’onde d’une même raie et de plus en plus rares les raies simples lorsqu’on les étudiait avec un pouvoir séparateur de plus en plus élevé. Et, si cette complexité et cette variation sous de multiples influences permettent de tirer tant de renseignements de l’étude des spectres, il faut reconnaître aussi qu’elles compliquent à plaisir la tâche du métrologiste.
- Autrefois, par exemple, on a proposé sérieusement de définir le mètre au moyen de la longueur d’onde de la radiation jaune du sodium, mais quiconque a observé dans un spectroscope la lumière émise par une lampe à vapeur de sodium sait bien que c’est un « doublet » dont l’écartement est le millième environ de la longueur d’onde moyenne. On a proposé ensuite la radiation verte du mercure ; or c’est une des radiations les plus complexes, dont la largeur couvre un intervalle d’un dix-millième de la longueur d’onde moyenne. La précision du Prototype en
- 2. Vers une nouvelle définition du mètre, par H. Moreau, La Nature, janvier 1954, p. 34-36 ; le mètre sera défini par la raie orangée du krypton, décembre 1957, P- 477-
- 106
- p.106 - vue 108/560
-
-
-
- platine iridié est bien meilleure puisqu’elle atteint deux dix-millionième s.
- Aujourd’hui, parmi les centaines de milliers de raies des spectres des éléments naturels, quelques dizaines au plus ont une longueur d’onde assez bien définie pour constituer des étalons de longueur acceptables ; encore faut-il que le spectre, soit produit dans des conditions étroitement spécifiées de pression, de température, de densité de courant, etc. Que faut-il donc pour qu’une raie spectrale constitue un bon étalon ? Pour répondre à cette question il faut rappeler d’abord qu’une radiation dite monochromatique est constituée d’un ensemble continu de longueurs d’onde présentant un ou plusieurs maximums d’intensité. La courbe qui représente ces intensités en fonction de la longueur d’onde (ou de la fréquence, qui en est l’inverse) est appelée profil spectral, ou en abrégé profil de la raie (fig. i, 2, 3).
- A cela s’ajoute que la plupart des raies données par les corps naturels sont en réalité des mélanges de raies très voisines, plus ou moins confondues. On dit qu’elles
- possèdent une structure hyperfine dont on sait aujourd’hui qu’elle est due à deux causes principales : i° un gaz pur naturel est un mélange d’isotopes et les radiations émises par chacun de ces isotopes sont légèrement différentes (fig. 3) ; 20 beaucoup de noyaux atomiques n’ont pas la symétrie sphérique ; ils peuvent occuper plusieurs orientations quantifiées par rapport à l’ensemble des électrons périphériques de l’atome ; la diversité de ces états donne lieu à l’émission de radiations légèrement différentes.
- La condition principale pour qu’une raie constitue un bon étalon est donc avant tout l’absence de structure hyperfine mais ce n’est pas la seule. Les raies produites réellement sont en effet toujours beaucoup plus larges que ne le prévoit la théorie, la cause principale de cet élargissement étant l’effet Doppler-Fizeau : lorsqu’un atome en mouvement s’approche de l’appareil d’observation, la longueur d’onde que l’on mesure se trouve diminuée ; lorsqu’il s’éloigne, elle se trouve augmentée. Dans un gaz, les atomes sont en mouvement d’agitation thermique,
- -3 -2 -1
- Fig. I. — Profil spectral de la radiation orangée du krypton 86 dans les conditions reconnues les meilleures pour la mesure précise de la
- longueur d’onde.
- La radiation est produite dans la lampe à krypton 86 de la figure 4, refroidie à — 2100 C, densité de courant 0,3 A.cm-2. La largeur du profil à mi-hauteur {marquée d’une flèche) est 1,34 m-1, ce qui veut dire que le nombre d’ondes par mètre diffère, d’une extrémité à l’autre de la flèche horizontale, de 1,34 (par exemple, les nombres d’ondes par mètre sont 1 650 763,06 et 1 650 764,40). Ce profil a un axe de symétrie vertical repérable avec une précision d’un millième de la largeur.
- Fig. 2. — Profil spectral de la radiation rouge du cadmium naturel produite dans de bonnes conditions.
- La largeur à mi-hauteur est 4,7 m-1. Malgré la présence de plusieurs isotopes et une structure hyperfine, les diverses composantes de cette raie se recouvrent exactement ; leur ensemble présente un profil légèrement élargi mais dont les défauts de symétrie, s’ils existent, sont tellement légers qu’ils n’ont pu être mis en évidence. C’est là un cas exceptionnel.
- Fig. 3. — Profil spectral de la radiation verte du cadmium naturel. Longueur d’onde moyenne, Xvi.le = 5 087 X io~10 mètre. La structure hyperfine, due aux différents isotopes, apparaît nettement ; les flèches verticales indiquent remplacement des principales composantes.
- 107
- p.107 - vue 109/560
-
-
-
- et chacun émet une radiation un peu différente, selon la composante de sa vitesse vers l’observateur, et par suite la raie s’en trouve élargie. Il faut donc réduire l’influence de cet effet : on y parvient en utilisant un noyau lourd, (car la vitesse moyenne est plus faible à une même température pour un atome lourd), et en choisissant un élément capable d’émettre un spectre même à basse température.
- Il faut aussi utiliser une raie qui ne soit pas facilement réabsorbable par la vapeur de l’élément dont on produit le spectre. En effet, la raie d’absorption est plus fine que ne le sont en général les raies d’émission : la vapeur absorbe uniquement le centre de la raie, tandis qu’elle est transparente pour les « ailes », ce qu’il faut évidemment éviter.
- Enfin, le corps choisi doit avoir un spectre où les raies soient peu nombreuses et faciles à séparer les unes des autres. Aucun élément naturel ne permet de satisfaire à ces conditions.
- Du cadmium naturel à l’isotope 86 du krypton
- Depuis une quinzaine d’années, on sait séparer les isotopes : trois nuclides ont été aussitôt proposés pour la production d’une radiation étalon sans structure hyper-fine : le cadmium 114 (Institut de Métrologie D. I. Mendé-léev, Léningrad), le mercure 198 (National Bureau of Standards, Washington), le krypton 84 ou 86 (Physikalisch Technische Bundesanstalt, Braunschweig). A la température la plus basse compatible avec une tension de vapeur suffisante pour une décharge électrique, les radiations du krypton sont les moins élargies par l’effet Doppler-Fizeau d’agitation thermique, mais d’autres considérations sont également intervenues.
- Les meilleurs spécialistes, groupés au Comité consultatif pour la Définition du Mètre institué en 1952 par le Comité international des Poids et Mesures, avaient l’ambition que l’étalon de longueur soit une longueur d’onde dans le vide émise par un atome non perturbé et en repos relatif par rapport à l’observateur, afin que cette longueur d’onde fût une constante naturelle.
- En effet, les longueurs d’onde ne sont pas toujours mesurées dans le vide. Elles se trouvent alors diminuées par la réfringence de l’air ambiant et il faut en tenir compte, par une première correction, pour que toutes les longueurs d’onde soient comparables entre elles. Cette correction est d’usage courant en spectroscopie. D’autre part, la radiation est produite dans une ampoule où les atomes du gaz sont excités par une décharge électrique (fig. 4). D’où il résulte des perturbations qui varient avec l’atome choisi et les conditions de l’expérience (pression dans l’ampoule, intensité du courant, etc.). Il convient qu’elles soient minimales et soigneusement évaluées, pour leur apporter encore les corrections nécessaires.
- Le Bureau international des Poids et Mesures a donc entrepris de mesurer ces perturbations dans les sources de lumière proposées. Ses conclusions, adoptées en 1957 par le Comité consultatif, furent que le choix devait se porter sur la raie orangée du krypton 86 (radiation correspondant à la transition entre les niveaux zplfj et 5^ de ce nuclide (fig. 1) parce que : a) elle peut être produite avec un minimum de perturbations, dans une lampe à décharge
- à cathode incandescente, cette lampe étant refroidie au voisinage du point triple de l’azote, 63° K (—zio°C) ;
- b) les perturbations résiduelles peuvent être mesurées ;
- c) elle souffre peu de l’autoabsorption ; d) sa luminance est suffisante. Les recherches ultérieures ont confirmé la justesse de ces conclusions.
- Convenait-il de mesurer la longueur d’onde de la radiation choisie par comparaison directe avec le prototype international en platine iridié ? Le Comité consultatif a considéré qu’il était plus sage de la mesurer par comparaison avec la radiation rouge du cadmium naturel, cette radiation étant produite dans une lampe de Michelson conforme aux spécifications internationales.
- En effet, en 1892, Michelson, ayant constaté que cette raie (fig. 2) avait une finesse et une reproductibilité inégalées à l’époque, l’avait jugée digne d’être comparée directement au prototype international de Sèvres. Ses mesures et celles de ses imitateurs montrèrent que, dans l’air sec à i5°C, la longueur d’onde de cette raie est Àcd = 6 438,4696 x 1 o-10 m.
- Il est beaucoup plus simple de comparer entre elles deux longueurs d’onde que de comparer l’une d’elles à un étalon matériel, opération réservée à des spécialistes éprouvés. Par accord international, en 1927, on convint donc que la raie rouge du cadmium naturel devenait l’étalon de longueur pour la spectroscopie. L’unité de longueur était l’angstrôm, désormais défini par la relation Xcd = 6 438,4696 À. De cette manière, même si à l’avenir une mesure plus exacte indiquait que Xca était légèrement différent par rapport au mètre, le chiffre indiqué était conservé par convention et toutes les longueurs d’onde mesurées en angstrôms resteraient inchangées. On saurait seulement, dans cette hypothèse, que 1 À diffère légèrement du dix-milliardième de mètre.
- Or, la longueur d’onde de la raie rouge du cadmium a été comparée à sept reprises, de 1892 à 1945, à des règles à traits étalonnées au Bureau international des Poids et Mesures ; la moyenne de ces sept comparaisons, par un hasard providentiel, a confirmé la valeur internationale précédente avec un écart-type de trois dix-millionièmes. Ainsi se trouvait sauvegardée, en même temps que la validité des tables spectroscopiques, la continuité de la définition du mètre.
- Pour passer à la longueur d’onde dans le vide, le Comité consultatif a recommandé l’emploi d’une formule due à Edlén, que des expériences récentes ont confirmée.
- Tels sont les éléments de départ qui ont servi à fixer la valeur numérique de la nouvelle définition : 1 mètre = 1 650 763,73 longueurs d’onde dans le vide de la radiation orangée du krypton 86. D’après des résultats expérimentaux divulgués en octobre i960 par le Conseil national des recherches d’Ottawa, le mètre ainsi défini a la même longueur qu’auparavant avec la précision attendue. La différence mesurée est de deux dix-millionièmes : le nouveau mètre serait plus court que l’ancien, mais d’une quantité équivalente à l’incertitude sur le prototype international. Le B. I. P. M. prépare de semblables expériences.
- Fig. 4. — Le nouvel « étalon optique » du mètre : lampe à krypton 86.
- Cette lampe à cathode chaude contient environ i cm3 de l’isotope 86 du krypton, d’une pureté ^ 99 pour 100. La décharge produite illumine le gaz dont la raie orangée (Avide = 0,605 780 21 X io-6 m) constitue le nouvel étalon fondamental de l’unité de longueur. Cet étalon, rattaché à un phénomène naturel reproductible en tous temps et en tous lieux, actualise la célèbre devise « A tous les temps, à tous les peuples » donnée au Système Métrique il y a plus d’un siècle et demi (Photo Bureau international des Poids et Mesures).
- 108
- p.108 - vue 110/560
-
-
-
- p.109 - vue 111/560
-
-
-
- Fig. j. — Cryostat à vide pour la lampe à krypton 86.
- La lampe de la figure 4 fonctionne à la température de 63° K (— 2100 C). Elle est placée dans le cryostat à vide ci-dessus rempli d’azote ou d’air liquide en ébullition sous pression réduite et agité continuellement. Le tube vertical est un manomètre pour le contrôle de la pression dans le cryostat et le réglage de la pression du krypton gazeux dans la lampe.
- {Photo B. I. P. M.).
- Le mètre à un milliardième près : quelques diamètres atomiques
- Deux dix-millionièmes, telle était la marge d’incertitude qui affectait la valeur du mètre, définie par le prototype en platine iridié, et celle de la raie rouge du cadmium naturel (mélange de plusieurs isotopes) était du même ordre. La nouvelle définition, tout en maintenant le mètre à l’intérieur de cette marge, va permettre d’en fixer la longueur avec une précision qui bientôt sera deux cents fois supérieure.
- Depuis 1957, date de la recommandation du Comité consultatif, plusieurs laboratoires nationaux et le Bureau international ont repris plus en détail la mesure des variations de longueur d’onde de la radiation choisie, afin d’extrapoler sa valeur à pression nulle et à intensité nulle du courant électrique, et d’atteindre ainsi la longueur d’onde théorique, sans perturbation, qui est la longueur d’onde de la définition du mètre. Ces mesures très fines n’ont été entreprises qu’après l’élimination patiente de
- petites erreurs systématiques autrefois négligeables ; les variations à mesurer sont en effet de l’ordre d’un cent-millionième de la longueur d’onde, et la précision la meilleure des spectroscopistes est insuffisante. La lampe à décharge dans le krypton est faite de façon que la pression gazeuse soit réglable par la température de la paroi la plus froide, sur laquelle le krypton se condense à l’état solide ; la tension de vapeur à cette température fixe la densité volumique du krypton gazeux. On mesure cette température, ainsi que la densité du courant continu dans le capillaire de la lampe.
- L’expérimentateur est donc maître de ce s variables et, grâce à la finesse de la radiation et à l’amélioration de la sensibilité des mesures, il peut étudier des phénomène-à peine soupçonnés auparavant, tels que la variation de la longueur d’onde avec le sens du courant dans le capillaire observé en bout, la variation en fonction de la densité du courant, et la variation en fonction de la pression du gaz, jusqu’à des pressions basses (quelques microns de mercure) et des densités de courant faibles (50 milliampères par centimètre carré). L’interprétation de ces résultats conduit à la longueur d’onde théorique sans perturbation et sans mouvement relatif de l’émetteur et de l’observateur, par une courte extrapolation, avec une incertitude qui est aujourd’hui d’environ trois milliardièmes et qui, dans peu de temps, sera sans doute abaissée à un milliardième.
- Fig. 6. — Enceinte à vide pour l’interféromètre de Michelson.
- Dans cette enceinte à vide isotherme est placé l’interféromètre de Michelson utilisé pour l’étude des radiations monochromatiques.
- {Photo B. I. P. M.).
- p.110 - vue 112/560
-
-
-
- Fig. 7. — Comparateur longitudinal photoélectrique et interférentiel du Bureau international des Poids et Mesures.
- Ce comparateur, auquel est associé un interféromètre de Michelson (M), est destiné à la mesure, par la méthode du déplacement longitudinal, des étalons à traits par comparaison directe au nouvel étalon de longueur d’onde, à la comparaison d’étalons à traits entre eux et à l’étude de leurs subdivisions. Les microscopes visuels classiques sont remplacés par des microscopes photoélectriques (pj, />,) permettant d’effectuer les pointés des traits avec une précision de 0,01 jjtm (voir L.a Nature, août 1951, p. 252). La console de commande (C) contient les moteurs et embrayages pour la commande à distance des déplacements des organes du comparateur (chariots, microscopes, etc.). Le réglage et la lecture des microscopes s’effectuent sur le pupitre (P). Cet instrument, qui est actuellement le seul exemplaire au monde et a demandé plusieurs années de travail pour son étude et sa construction, sera placé dans une enceinte à pression constante où la température sera stabilisée à 0,001 degré près.
- (Photo Société Genevoise d’instruments de Physique).
- Le nouvel étalon est donc reproductible et utilisable avec une précision qui donne à peu près neuf chiffres significatifs. Le mètre est défini à quelques diamètres atomiques près. L’étalon primaire de longueur a repris, sur les besoins pratiques et scientifiques, l’avance qu’il avait en 1899, lorsque le prototype international du mètre a été fait en platine iridié, alliage choisi pour sa stabilité malgré les difficultés de fusion et de polissage.
- Le Bureau international vient d’acquérir, auprès de la Société Genevoise d’instruments de Physique, un comparateur longitudinal photoélectrique et interférentiel pour la mesure des étalons à traits par comparaison directe avec une longueur d’onde, par la méthode dite du déplacement, proposée par Ch. Volet, directeur du!
- B. I. P. M. (fig. 7). Ce comparateur est muni de microscopes à lecture photoélectrique, qui permettent, avec les tracés modernes, une précision de io nanomètres, soit un cent-millionième de l’intervalle de i mètre. La température sera stabilisée et mesurée au millième de degré. Les étalons à bouts pourront aussi être mesurés dans ce comparateur. Les bénéfices de la nouvelle définition du mètre seront donc accessibles dans l’avenir immédiat.
- Mais les exigences de la science et de la technique moderne en matière de précision dans les mesures ne peuvent cesser de croître. Que l’on songe par exemple à la précision requise dans la construction des systèmes de guidage des engins spatiaux. Or l’étalon primaire doit être au moins dix fois plus précis que les mesures qui en dérivent.
- Le Bureau international se préoccupe donc de l’avenir plus lointain ; il se prépare à étudier des techniques encore plus fines, soit par absorption, soit par émission d’atomes en mouvement dirigé dans un « jet atomique ». Des réussites prometteuses ont été déjà publiées par K. G. Kessler à Washington. Les difficultés sont encore grandes ; en effet, la luminance d’un jet atomique excité est trop faible et le bruit de fond inévitable entrave la précision ; de plus, la direction d’un jet atomique est définie par des fentes refroidies qui s’encrassent d’atomes condensés, ce qui dévie le jet et change la longueur d’onde par effet Doppler-Fizeau. K. G. Kessler a expérimenté avec du mercure 198 ; K. M. Baird, à Ottawa, et E. Engelhard, à Braunschweig, expérimentent des jets de krypton.
- p.111 - vue 113/560
-
-
-
- Vers l’étalon atomique de temps
- La Conférence a ratifié la nouvelle définition astronomique de l’unité de temps adoptée par le Comité international en 1956. Cette définition rattache la seconde non plus au mouvement de rotation de la Terre (jour solaire moyen) dont les irrégularités ont été mises en évidence ces dernières années (voir ce même numéro, p. 97), mais à son mouvement orbital (année tropique ou intervalle de deux équinoxes de printemps consécutifs) pratiquement indépendant de la nature physique des corps en mouvement ; rappelons le texte de la nouvelle définition (3) :
- « La seconde est la fraction 1/31 jj6 92 9,974 7 de l'année tropique pour 1900 janvier 0 à 12 heures de temps des êphêmé-rides ».
- Le gain de précision obtenu par cette définition apparaît cependant encore insuffisant pour satisfaire les exigences des physiciens et des radioélectriciens qui proposent de substituer à la définition astronomique actuelle de la seconde une définition physique. Les progrès accomplis et les résultats expérimentaux, obtenus ces dernières années sur les étalons atomiques de fréquence, ont prouvé qu’un étalon d’intervalle de temps basé sur la transition entre deux niveaux d’énergie d’un atome ou d’une molécule peut être réalisé et reproduit avec une précision très élevée (de l’ordre de 10-10 à io-11). Dans ce sens, la Conférence a invité les laboratoires nationaux et internationaux à poursuivre leurs études pour le perfectionnement de l’étalon de temps et à coopérer avec le Comité international des Poids et Mesures en vue de permettre à la Conférence de 1966 de prendre une résolution sur ce point.
- Les astronomes sont eux-mêmes vivement intéressés à une définition physique de l’unité de temps, car elle leur permettra, ainsi que le notait au cours de la Conférence, M. A. Danjon, directeur de l’Observatoire de Paris, de sortir d’une apparence de cercle vicieux : le mouvement des astres ne peut être étudié actuellement que par le temps qui est lui-même défini par le mouvement des astres.
- Système international d’unités
- En 1954, la Dixième Conférence générale avait déjà fixé les six unités de base (mètre, kilogramme-masse, seconde, ampère, degré Kelvin, candela) d’un système pratique de mesures pour les relations internationales. En 1956 et en 1958, le Comité international adoptait pour ce système la dénomination Système International d'Unités en lui attribuant l’abréviation internationale « SI », sanctionnait la liste des préfixes pour la formation des multiples et sous-multiples des unités et recommandait une liste d’unités dérivées et supplémentaires à employer dans ce système (voir l’article cité dans la note précédente).
- Toutes ces recommandations ont été adoptées. La nouvelle loi française sur les unités de mesure qui doit paraître prochainement s’inspire étroitement de ces décisions.
- Notons que plusieurs délégués ont critiqué la tendance actuelle à donner de nouveaux noms de savants à certaines unités (par exemple : pascal pour le newton par mètre carré,
- 3. Voir : Système international d’unités et nouvelle définition de la seconde, par H. Moreau, La Nature, octobre 1957, p- 384-385.
- tes la pour le volt, seconde par mètre carré ou weber par mètre carré, poiseuille pour le newton, seconde par mètre carré), en remarquant que la généralisation de cette tendance ne peut qu’apporter la confusion dans l’emploi des unités.
- Litre et décimètre cube
- La différence d’environ 28 millionièmes entre le litre, unité de capacité définie comme étant le volume occupé par la masse de 1 kg d’eau pure à sa densité maximale (40 C) et sous la pression normale (101 325 N/m2), et le décimètre cube, unité de volume définie à partir de l’unité de longueur, est depuis longtemps considérée comme une atteinte à la pureté du Système Métrique. Considérant que les déterminations de grandeurs physiques qui impliquent des mesures de volume ont une précision de plus en plus élevée, aggravant par là les conséquences d’une confusion possible entre le décimètre cube et le litre, la Conférence a invité le Comité international à mettre ce problème à l’étude et à préparer ses conclusions. On peut donc penser que la Dou2ième Conférence générale sera amenée à prendre une décision qui fera cesser cette dualité que les fondateurs du Système Métrique n’avaient certainement pas envisagée.
- Fig. 8. — Pont de Smith, type III, pour thermomètres à résistance.
- Cet appareil, construit par Tinsley à Londres, constitue une forme de pont double de Kelvin (appareil qui permet la mesure des résistances électriques avec une grande précision). On distingue les sept décades de bobines résistantes (io3 Q à io~3 Q) qui permettent d’effectuer, avec des thermomètres à résistance de platine de caractéristiques normales, des mesures de température à 0,000 i degré. Le pont fonctionne à une température de 270 C contrôlée par thermostat à.± 0,01 degré (Photo B. I. P. M.).
- 12
- p.112 - vue 114/560
-
-
-
- Fig. çf. — Installation pour la détermination absolue de l’intensité de la pesanteur.
- Cette installation a été utilisée au Bureau international des Poids et Mesures en 1957-195 8 pour la mesure absolue de g par la méthode de la cinématographie ultra-rapide d’une règle divisée (Mètre en platine iridié) tombant en chute libre dans le vide. De gauche à droite : le tambour portant le film cinématographique sur lequel sont enregistrées, à des intervalles de temps prédéterminés, les images d’un repère fixe et celles des traits de la règle pendant sa chute ; le système optique et le thyratron amorçant l’éclairage par éclairs de très brève durée (quelques dixièmes de microseconde) ; le dispositif pour la chute de la règle sous vide (cloche à vide relevée) (Photo B. I. P. M.).
- Suivant l’usage, la Conférence générale a entendu les rapports sur les principaux travaux effectués par le Comité international, par ses comités consultatifs et par le Bureau international depuis la Conférence de 1954. En dehors des travaux sur lesquels nous venons de donner quelques détails, nous mentionnerons :
- — Mesures de longueurs (comparaisons des Mètres nationaux ; étude et mise au point du comparateur longitudinal interférentiel à microscopes photoélectriques mentionné plus haut ; étude de divers étalons de longueur et de fils géodésiques) ;
- — Mesures de masse (vérification périodique des Kilogrammes nationaux et étude d’étalons de masse divers) ;
- — Electricité (comparaisons périodiques des étalons nationaux de l’ohm et du volt ; étude sur des étalons de 1 O en métaux purs (platine, mercure)) ;
- — Photométrie (comparaison périodique des étalons nationaux d’intensité lumineuse (candela) et de flux (lumen)) ;
- — Température (étude sur les thermomètres à mercure en quartz fondu ; installation d’un pont de Smith (fig. 8) pour la mesure des températures à l’aide de thermomètres à résistance afin de réaliser l’Echelle internationale pratique de température).
- Cette échelle pratique de température, adoptée en 1927 et révisée en 1948, a été amendée par la Conférence notamment sur les points suivants : adoption du point triple de l’eau (-f- o,oi° C) au lieu du point de fusion de la glace ; recommandation d’utiliser le point de congélation du zinc (419,505° C) à la place du point d’ébullition du soufre (444,6° C). Les travaux en cours conduiront très probablement à réviser complètement l’Echelle pratique en 1966 afin de la rendre mieux conforme à l’échelle thermodynamique et de l’étendre jusqu’au point d’ébullition de l’hydrogène (— 252,770 c) alors qu’elle est actuellement limitée à celui de l’oxygène (— 182,97° C).
- Notons enfin que le Comité international a reçu de la Conférence générale le pouvoir de décider le changement du système gravimétrique de Potsdam, dès que la correction à apporter à g (accélération due à la pesanteur) sera connue avec assez d’exactitude. Les mesures absolues indiquent que la valeur de g prise actuellement comme base de référence mondiale serait trop élevée d’environ 13 milligals (1 gai = 1 cm/s2) (fig. 9).
- Un rapport sur les progrès du Système Métrique dans le monde a été également présenté : poursuite de la réforme métrique en Inde, décidée par la loi de décembre 1956 ; adoption définitive du S. M. au Japon le Ier janvier 1959 ; adoption des mesures métriques en Grèce en 1959 ; progrès du S. M. en Asie et Océanie (Chine, Corée, Indonésie, Philippines, Viêt-Nam) ; enquêtes et discussions sur le S. M. dans les pays anglo-saxons.
- Le rôle du Bureau international des Poids et Mesures
- Les décisions de cette Onzième Conférence générale sont non seulement importantes du point de vue de la métrologie scientifique, mais aussi pour le Bureau international des Poids et Mesures car elles marquent une nouvelle étape dans le développement des activités de cet organisme qui, créé en 1875, est probablement la plus vieille institution scientifique intergouvemementale.
- Une importante décision, prise conformément à l’avis d’un Comité consultatif spécial constitué en 1958 par le Comité international, a étendu les attributions du B. I. P. M. aux domaines de la radioactivité et des radiations ionisantes ; il devient l’organisme central : 1° pour la définition des grandeurs et des unités ; 2° pour l’établissement des étalons internationaux de mesure d’activité et de mesure des radiations ionisantes, neutrons compris ; 3° pour assurer la continuité et l’extension des comparaisons effectuées dans ces domaines par les laboratoires nationaux et internationaux. Une contribution exceptionnelle a été votée pour l’agrandissement des laboratoires de Sèvres et leur équipement, ainsi qu’une augmentation de la dotation annuelle du Bureau international, jugée indispensable pour le développement de ses activités et l’installation d’instruments de mesure de premier ordre.
- Il est intéressant de noter à cette occasion comment le Bureau international a progressivement modifié ou enrichi
- 113
- p.113 - vue 115/560
-
-
-
- ses moyens d’action, toujours en vue de favoriser l’unification et l’amélioration des mesures dans le monde ; malgré son âge, et sans perdre les traditions du siècle passé, il s’adapte aux progrès de la science, à l’évolution des méthodes, et peut aborder avec succès des domaines nouveaux pour lui.
- Depuis 1889, le Bureau international est détenteur du Prototype international du kilogramme ; l’unification des mesures de masse est donc assurée par le simple fait que, seul, ce Bureau peut en dernier ressort contrôler les étalons de masse.
- Il n’en est plus tout à fait de même maintenant pour les mesures de longueur, puisque le Prototype international en platine iridié a perdu son rôle d’étalon primaire ; mais, prenant les devants, le Bureau international a fait une étude expérimentale approfondie des radiations optiques proposées comme nouvel étalon. C’était là un travail de recherche scientifique indispensable pour départager plusieurs laboratoires nationaux soutenant des propositions diverses ; mieux que tout autre, le Bureau international pouvait le faire en toute indépendance, avec un personnel délivré de tout souci de prestige national. Non seulement ce travail a fourni les arguments scientifiques attendus, mais le Bureau international a acquis une autorité accrue, au moins aussi grande que celle qu’il tenait du Prototype international du mètre confié à sa garde.
- La mise en application de la nouvelle définition du mètre devra nécessairement être surveillée pour que le nouvel étalon, maintenant accessible à tous mais combien plus difficile à employer qu’un Mètre à traits (4), conduise bien à des mesures uniformes de longueur dans le monde, avec plus de précision que par le passé. C’est là un rôle que le Bureau international s’est préparé à assumer, avec un équipement qu’il a mis à l’étude depuis plusieurs années.
- Contrairement à certaines craintes, le remplacement du Prototype international du mètre a donc renforcé l’importance du Bureau international.
- 4. Sur l’emploi des interférences lumineuses, voir les trois articles de J. Terrien publiés dans La Nature, août 1955, p. 302 ; septembre 1955, p. 345 ; octobre 1953, p. 392.
- Deux autres faits assurent au Bureau international sa stabilité.
- D’abord, c’est lui qui organise les réunions des comités consultatifs qui groupent les spécialistes les mieux qualifiés, à quelque pays qu’ils appartiennent, pour discuter des mesures de longueur, d’électricité, de photométrie, de temps, de température, ou de radiations ionisantes. Les grands laboratoires nationaux, qui établissent eux-mêmes la valeur de leurs étalons par des mesures absolues très difficiles, peuvent ainsi se renseigner mutuellement dans ces comités, coordonner leurs recherches, organiser des comparaisons internationales d’étalons qui s’effectuent le plus souvent dans les laboratoires de Sèvres, et préparer les projets de décisions à soumettre à la Conférence générale. Tout cela répond à un besoin évident bien prouvé par le succès de ces comités consultatifs et le développement de leurs activités.
- Enfin, les pays moins fortunés, ne disposant pas d’un grand laboratoire national, peuvent faire vérifier leurs étalons au Bureau international, dans un laboratoire dont ils sont copropriétaires, sans être obligés de se tourner vers un pays étranger.
- On peut dire que le Bureau international des Poids et Mesures, en infléchissant son action dans les directions où il comprenait qu’elle était utile, a défini lui-même sa mission, qui est avant tout d’être le centre mondial unique pour le choix et l’uniformité des étalons les plus importants, ceux dont on part pour toutes les mesures scientifiques, industrielles et commerciales. Avec des moyens modestes, mais adaptés aux circonstances et employés aux actions les plus efficaces, il assure non seulement le maintien de l’uniformité des mesures dans le monde, mais encore l’amélioration de leur précision, dans le domaine de la physique ancienne comme de la plus moderne.
- Jean Terrien,
- Sous-Directeur du Bureau international des Poids et Mesures ;
- Henri Moreau,
- Chef de Travaux.
- Grosse météorite ferreuse en Azerbaïdjan
- La revue soviétique Vriroda a donné récemment des détails sur la chute d’une météorite ferreuse en Azerbaïdjan, le 24 novembre I959à8h5 mn (heure locale). Un brouillard très dense recouvrant cette région le jour de la chute, les témoins n’ont pu voir qu’une lueur subite, très intense, qui les éblouit malgré le brouillard. Cette lueur persista pendant 5 à 10 s. Elle fut observée dans une zone d’un rayon de 30 km au moins. La lueur fut suivie d’une cascade de grondements rappelant celui du tonnerre, mais beaucoup plus puissants. A ces grondements, qui ne durèrent que très peu de temps, succéda un roulement sourd qui persista pendant 5 à 6 mn. Ces manifestations sonores furent perçues dans une zone ayant à peu près là forme d’une ellipse de 120 km
- environ (grand axe). Cinq fragments de la météorite (pesant de 360 g à 127 kg) ayant été découverts dans la région entre le 24 novembre et le 5 décembre, on a pu constater qu’il s’agissait d’une météorite ferreuse contenant relativement peu de nickel et une assez forte quantité de graphite. Avant son éclatement, la météorite se déplaçait dans la direction SO-NE. A en juger par l’intensité de la lueur, par la puissance et la durée des manifestations sonores, l’éclatement de la météorite dut se produire à une altitude comprise entre 10 et 20 km. C’était la première météorite ferreuse tombée sur le territoire de l’U. R. S. S. depuis 1947.
- C. M.
- 114
- p.114 - vue 116/560
-
-
-
- Les avions de transport à réacteurs à Farrière
- par Jacques Spincourt
- Les projets d’avions de transport civils à réaction à moyen et long rayon d’action qui sont en cours d’étude ou de réalisation un peu partout dans le monde comportent, pour la plupart, des réacteurs accolés à l’arrière du fuselage, suivant la disposition désormais bien connue innovée par la Caravelle (fig. i). C’est là une évolution très nette dans la construction des avions de transport.
- Il faut se rappeler en effet que, lors de l’apparition du moyen-courrier français en i954,les techniciens britanniques continuaient d’affirmer la suprématie de la technique des réacteurs noyés dans l’aile, à la manière du Cornet ou des bombardiers V, Vulcan, Valiant et Victor. Or, il semble maintenant que, pour des raisons de sécurité en cas de rupture d’aubes de turbine ou d’autres types d’avaries, les Anglais aient adopté les réacteurs accolés au fuselage, du moins dans le domaine des avions civils. Seuls les Américains restent fidèles à la formule des moteurs « en pods »,
- c’est-à-dire suspendus dans des nacelles à une certaine distance en dessous des ailes (Boeing 707, D. C. 8) (fig. 2), certains constructeurs comme Lockheed commençant cependant à adopter les moteurs arrière.
- Quels sont donc les facteurs qui rendent si attrayante une telle formule, jusqu’ici inhabituelle ?
- Le point de vue aérodynamique. —• Pour un avion destiné à atteindre des vitesses subsoniques élevées, c’est-à-dire peu inférieures à la vitesse du son, l’évolution de la résistance à l’avancement ou traînée de l’aile avec la vitesse de vol prend une importance considérable. On la caractérise par ce qu’on appelle le nombre de Mach critique de la voilure, qui est le nombre de Mach pour lequel la vitesse
- Fig. j. — La Caravelle en vol.
- On voit les réacteurs de part et d’autre, à l’arrière du fuselage.
- (Photo Sud-Aviation).
- p.115 - vue 117/560
-
-
-
- du son est atteinte localement en un point de la voilure, 2- — Le D- c- 8 au décollage,
- soit pratiquement celui pour lequel commence l’augmenta- °n notera la Posidon des réacteurs en fuseaux suspendus,
- tion brutale de traînée. Du fait des interférences nuisibles entre les fuseaux suspendus sous l’aile et cette dernière,
- le nombre de Mach critique est légèrement plus grand De point de vue structural. — On aborde ici le problème pour une voilure pure que si on lui adjoint des nacelles de la sécurité en vol ou en cas d’accident à l’atterrissage
- de réacteurs. La vitesse maximale de l’appareil se trouve ou au décollage. Dans le cas d’une rupture de disque de
- donc augmentée dans les mêmes proportions. turbine, les pièces éjectées du réacteur situé à l’arrière
- Les interférences aile-nacelles se répercutent aussi sur ont peu de chances d’aller frapper une autre partie vitale
- la portance maximale qu’il est possible d’obtenir. L’aug- de la structure, et l’accident se réduit à l’arrêt d’un moteur,
- mentation de portance peut se traduire soit, à poids égal, Si maintenant on considère le cas où l’avion prend violem-
- par une réduction de la vitesse d’atterrissage, soit par ment contact avec le sol, ou même d’un atterrissage sur
- une augmentation de la charge marchande, soit encore le ventre, la grande distance qui sépare alors les réacteurs
- par une diminution de la surface de voilure. Il faut encore des réservoirs de combustible garantit un affaiblissement
- signaler que l’alimentation des entrées d’air des réacteurs des risques d’incendie.
- est sensiblement meilleure lorsque ceux-ci sont à l’arrière La position du moteur a également une grande influence par suite de la diminution de l’angle d’attaque de l’air sur le niveau du bruit à l’intérieur de la cabine, qui peut après passage autour de l’aile. être un facteur commercial important. Ce bruit est dû
- Quand les réacteurs sont à l’arrière, la position de l’em- aux gaz d’éjection des réacteurs et se transmet par l’inter-
- pennage horizontal doit être surélevée par rapport à ce médiaire des vibrations de l’air et de la structure. On conçoit
- qu’elle est sur un avion où les moteurs occupent une posi- facilement que si les réacteurs sont placés très en arrière,
- tion plus classique ; il faut en effet éviter que les gaz chauds le jet influencera moins la structure de l’avion et que, de
- issus des réacteurs n’aillent perturber l’écoulement de l’air ce fait, le bruit sera plus faible.
- autour des gouvernes de profondeur, risquant de modifier Enfin, cette solution permet un raccourcissement du leur action. Aussi certains projets prévoient-ils même un train d’atterrissage qui se traduit par un gain de poids
- empennage placé complètement au sommet de la dérive, notable. En effet, l’un, des principaux facteurs qui gouver-
- II ne semble pas que les inconvénients dus à cette position nent la longueur du train d’atterrissage d’un avion à réac-
- du point de vue du flutter, c’est-à-dire des vibrations de tion est la hauteur des réacteurs au-dessus du sol, hauteur
- la structure, soient très importants ; en tous cas, ils sont qui doit être suffisante pour qu’aucun élément nuisible ne
- pratiquement compensés par certains avantages d’ordre soit absorbé dans les entrées d’air. Or, la hauteur moyenne
- aérodynamique, tels que l’amélioration de l’efficacité de d’un réacteur accolé à l’arrière du fuselage est à peu près
- la dérive. deux fois plus grande que celle de réacteurs suspendus
- Enfin, en cas de oanne d’un moteur, le moment de lacet sous l’aile, crée par la dissymétrie de la poussée est plus faible que Ces divers avantages ont évidemment leur contre-dans le cas des moteurs suspendus à l’aile, car les axes des partie qui est un accroissement du poids à vide de l’avion
- moteurs sont alors beaucoup plus rapprochés de l’axe de l’ordre de 2 à 4 pour 100. Mais, en définitive, cet incon-
- du fuselage, donc passent plus près du centre de gravité, vénient est bien faible en regard des autres gains et il
- Par suite, le braquage de la gouverne de direction néces- est logique de penser que la solution des moteurs accolés
- saire pour maintenir l’avion en ligne droite sera plus faible. à l’arrière du fuselage finira par se généraliser.
- Jacques Spincourt.
- 116
- p.116 - vue 118/560
-
-
-
- Paisibles et prospères malgré leur nombre
- Les grands Mammifères du Parc Albert
- n’ont guère à craindre que
- Le continent africain renferme une faune de grands Mammifères unique au monde. Des réserves nombreuses ont été créées pour protéger cette faune, très menacée de disparition en certains endroits. L’intérêt scientifique de telles réserves est immense, car la plupart de ces animaux sont encore très mal connus en ce qui concerne leur biologie et leurs mœurs. Le Parc Albert, créé au Congo ex-belge il y a un quart de siècle, et qu’on s’est efforcé jalousement de protéger depuis lors contre toute intervention humaine, est l’endroit idéal pour de telles études. Il a l’avantage de réunir en une superficie relativement restreinte un ensemble d’habitats unique en Afrique. Les belles publications de l’Institut des Parcs nationaux du Congo belge nous ont apporté sur les réserves du Congo mainte monographie du plus haut intérêt, et tout récemment encore les premiers résultats d’une mission accomplie au Parc Albert de 1957 à 1959 par le professeur François Bourlière et M. Jacques Verschuren, « première tentative d’étude écologique d’ensemble d’un secteur du continent africain encore vierge de toute intervention humaine récente » (1).
- Le Parc national Albert est situé sous l’Équateur, entre les latitudes o055' Nord et i°3 5' Sud, et la majeure partie de sa surface occupe le fond de la grande fosse tectonique de l’Afrique centrale. Cependant, sur une étendue totale de 8 090 km2, entre les altitudes extrêmes de 700 m et de 5 119 m, il présente un relief très accidenté et des aspects extraordinairement différents, d’où une grande variété d’habitats.
- 1. 'Exploration (lu Parc national Albert. Fascicule i : Introduction à P étude des Ongulés du Parc national Albert, par François Bourlière (Paris) et Jacques Verschuren (Rutchuru). 2 vol. 18,5 X 28, 160 p., 49 planches de photos. Institut des Parcs nationaux du Congo belge, Bruxelles, i960. Les photos qui illustrent cet article sont extraites de cette publication. Nous avons également consulté, dans la même collection, les travaux de Hediger (Observations sur la psychologie animale dans les Parcs nationaux du Congo belge, 1951), Verhayen (Contribution à l’étude éthologique des Mammifères du Parc national de l’Upemba, 1951 ; Monographie de l’Eléphant d’Afrique, 1954).
- par Roger Dajo^
- les épidémies et les volcans
- On peut y distinguer trois secteurs. Le secteur méridional, limité par le lac Kiwu à i 460 m d’altitude, comprend la chaîne des volcans Virunga avec huit sommets principaux de 3 000 à 4 500 m, dont le plus connu est le Nyiragongo, popularisé par le vulcanologue Haroun Tazieff. Ces volcans émergent eux-mêmes d’une plaine de lave de 3 000 km2 de superficie. Le secteur central est constitué par la plaine alluviale des Rwindi-Rutshuru au sud du lac Édouard, dont l’altitude est de 1 000 m. Le secteur septentrional est essentiellement représenté par la plaine alluviale de la Sem-liki qui s’abaisse progressivement en direction du lac Albert jusqu’à 700 m d’altitude.
- L’ensemble de ces trois secteurs forme un long ruban nord-sud de 300 km de long, ne dépassant guère 50 km de large. On y trouve cependant un échantillonnage presque complet des divers habitats que peut réaliser la nature africaine et que nous allons brièvement définir. On peut les ranger d’abord en habitats ouverts, habitats fermés et habitats d’altitude.
- Dans les habitats ouverts entrent les différents types de steppes et de savanes herbeuses ou boisées qui constituent l’habitat d’élection des grands troupeaux d’herbivores grégaires. La prédominance de la strate herbacée leur permet de supporter des populations très denses d’herbivores. Les précipitations y sont faibles, la température moyenne journalière est élevée (2306 pour l’année) avec de très faibles variations d’un mois sur l’autre ; l’hygrométrie y est faible. Les groupements se reconnaissent facilement.
- Les steppes sont des formations herbeuses discontinues, dont le tapis de Graminées ne dépasse pas 80 cm, parfois mêlées de plantes ligneuses ; le tapis herbacé est fréquemment interrompu par des plages nues. La steppe herbacée, pratiquement dépourvue d’arbres et de buissons, est l’habitat d’élection de deux Ruminants : le Cob de Bufîon et le Topi.
- Les savanes sont des formations herbeuses dont les Graminées dépassent 80 cm et atteignent fréquemment 3 m.
- 117
- p.117 - vue 119/560
-
-
-
- Lorsqu’elles sont dépourvues d’arbres, elles sont parcourues par le Buffle, la grande antilope Waterbuck et le Phacochère. Les savanes arbustives et boisées, comme la savane à Acacia, constituent l’habitat d’élection de l’Eléphant.
- Les milieux humides, mares et étangs, sont très fréquentés par certains Mammifères, hippopotames en particulier.
- Les habitais fermés sont caractérisés par le grand développement des arbres et la pauvreté des herbes. Le caractère « clos » de l’environnement limite le champ visuel des animaux et réduit de ce fait leurs moyens d’intercommunication. De plus la faible quantité d’herbes interdit la présence de bandes nombreuses d’herbivores. Seules les formes solitaires à faible densité de population ou les espèces grégaires dont le régime comporte une importante quantité de feuillage peuvent y prospérer.
- Ces milieux comprennent : les fourrés, la forêt sèche, la forêt dense humide. Les deux premiers sont surtout occupés par l’Éléphant, par des Ruminants comme les Céphalophes forestiers, par l’Hvlochère, le dernier par l’Okapi.
- Les habitats d'altitude comprennent d’abord l’étage des Bambous de 2 000 à 3 000 m, limite supérieure pour de nombreux herbivores. La forêt basse à Hagenia abyssinica (arbres de 10 à 12 m) qui lui succède constitue l’habitat du célèbre Gorille de montagne, aujourd’hui menacé par les incursions des pasteurs Watusi (voir La Nature, avril i960, p. 144-145). Au-dessus les herbivores sont encore plus rares : seuls les petites antilopes Céphalophes et les Buffles fréquentent l’étage alpin.
- *
- * *
- Aussi étrange que cela puisse paraître, l’inventaire des Mammifères des divers secteurs du Parc Albert n’est pas encore terminé, surtout en ce qui concerne les espèces de petite taille. Nous allons envisager quelques-unes des espèces les plus importantes, en résumant l’essentiel de nos connaissances sur chacune d’elles.
- Kikanga ^
- o /
- BENI
- 'Sibendire
- Kasindi
- LUBERO
- LAC
- GEORGE
- ’IE DOUAR D,
- h...... y-/
- «amande.
- Nyamushingera
- (Bitshumbi)// Rwindi kampj^/i; May Yamoto T?\
- RUTSHURLJ
- Lac Mutanda'
- Sabinyo
- Nyamuragira
- Rumangabo/
- 1 : ï R..
- P Lac\ Butera^. S Lac Ruonda
- 'Bishokcd' ÏRuhengeri; y^'Karisimbi^Nd
- R U A N D A
- /«isenyi
- LAC Ç
- 'Kl VUl J
- p.118 - vue 120/560
-
-
-
- L’Éléphant
- L’Éléphant d’Afrique (Loxodonta africana) fréquente tous les milieux, forêts de la Moyenne Semliki, zone subalpine, mais il a une nette préférence pour les savanes boisées, les forêts sèches ou humides de plaine et de montagne, et les peuplements de bambous. Les « milieux fermés » sont donc des habitats préférentiels alors que les savanes herbeuses ne constituent que des habitats marginaux où il ne séjourne guère. Au-dessus de l’étage des bambous, ses incursions paraissent peu fréquentes : on l’a vu cependant jusqu’à 3 474 m dans le cratère du Bishoke au milieu des séneçons géants et des bruyères arborescentes. Dans la zone des volcans actifs il est abondant même sur les coulées de lave récentes (fig. z et 3).
- L’espèce semble assez vagabonde ; cependant, certains individus sont remarquablement fidèles à une région particulière. Des déplacements de grande amplitude sont certainement fréquents. Dans le massif des Kasali la ligne de crête, vers 2 200 m, est parcourue par une longue piste d’éléphants sans laquelle toute circulation serait impossible
- L’amplitude des déplacements est principalement conditionnée par la quantité de matières végétales nécessaires à l’alimentation. Un adulte a besoin de 150 kg de nourriture fraîche par jour. Heureusement le régime de ces animaux est extrêmement varié. Les plantes herbacées et les Graminées diverses sont arrachées par touffes avec la trompe et ensuite agitées et frappées contre le sol comme pour enlever la terre qui adhère aux racines. Les plantes aquatiques sont aussi recherchées et longtemps rincées dans l’eau. Les branches d’Acacia sont souvent cassées en si grand nombre sur les arbres que ceux-ci sont véritablement mutilés et que leur survie est compromise. Les bambusaies sont souvent ravagées ; les fruits, l’écorce et le bois (dépourvus de latex toxique) des euphorbes arborescentes (Euphorbia calycina) sont aussi consommés. Les éléphants recherchent encore une sorte de schiste tendre qui existe dans la région, ainsi que le kaolin. L’appétit des éléphants pour les aliments minéraux a déjà été signalé.
- On a voulu distinguer deux races de l’Éléphant d’Afrique : une race forestière et une race de savane. La première serait de petite taille, avec les défenses longues, minces et
- Fig. 7. — Un éléphant femelle avec ses deux jeunes. Le plus petit, de moins de 18 mois, n’a pas encore de défenses apparentes. Remarquer la position des mamelles, très visibles sur la mère allaitante, ainsi que les défenses asymétriques. Une telle anomalie constitue un marquage naturel et permet de suivre les déplacements des animaux.
- pour l’observateur. Une série de pistes présentent une topographie en escaliers, dans les rochers, ce qui permet à ces pachydermes d’escalader des pentes de 80 pour ioo. Bien peu d’obstacles sont capables de gêner sérieusement les déplacements de ces énormes animaux. Les cours d’eau même sont franchis fréquemment, les traversées se faisant de préférence en certains points où l’eau est assez peu profonde. On en a même vu s’aventurer à plus de i km des rives. Et pourtant, contrairement à une croyance fort répandue, l’éléphant ne sait pas nager. Si la profondeur est trop grande, il doit marcher sur le fond, l’extrémité de la trompe émergeant seule, comme un « schnorkel » de sous-marin.
- L’éléphant aime à se baigner longuement, de préférence dans les grandes flaques à fond de limon gris et remplies d’une eau pâteuse. Après le bain il frotte toutes les parties de son corps contre certains arbres et aussi contre des quartiers de roc dont certains deviennent arrondis et polis à la suite d’un usage séculaire par des générations d’animaux.
- faiblement recourbées, l’oreille plus arrondie et la peau de teinte plus noirâtre que chez la race des savanes. Cette dernière, de taille sensiblement plus grande, à défenses courtes et fortement recourbées, a les oreilles plus grandes et la peau plus grise et plus ridée. Dans le Parc Albert les intermédiaires entre les deux formes ne manquent pas, ce qui n’a rien d’étonnant après ce que l’on sait sur les déplacements de ces animaux. Si l’on veut continuer à distinguer deux races, force est d’admettre qu’elles s’hybrident largement.
- Il est extrêmement difficile de déterminer le sexe d’un éléphant sur le terrain, sauf en certains cas, comme celui des femelles allaitantes avec mamelles saillantes et gonflées de lait (fig. 3). On peut cependant supposer que le sex-ratio (rapport des nombres respectifs d’individus des deux sexes) est à peu près égal à i. La croissance est lente et remarquablement prolongée. A l’aide de critères établis sur des animaux vivant en captivité, on peut répartir les éléphants africains en trois classes d’âges :
- i° Les jeunes de moins de 18 mois, mesurant entre 0,80 et
- 119
- p.119 - vue 121/560
-
-
-
- llSti
- ^ \ m*-
- 1,20 m au garrot et dont les défenses ne sont pas extérieurement visibles ;
- 2° Les immatures et « subadultes » mesurant entre 1,20 et 2 m au garrot et à défenses de petite taille ;
- 30 Les adultes âgés de plus de 12 à 14 ans, ayant plus de 2 m au garrot, à défenses bien développées chez le mâle et généralement (mais pas toujours) plus petites chez la femelle.
- L’estimation de l’âge suivant ces critères, chez 1 229 éléphants du centre et du nord du Parc Albert, a donné les résultats suivants : Ier groupe : 170, soit 13,8 pour 100 ; 2e groupe : 300, soit 24,1 pour 100 ; 3e groupe : 759, soit 62,1 pour 100. En admettant que le taux de mortalité reste le même entre la naissance et l’âge d’un an et demi (ce qui n’est certainement pas le cas, mais permet une estimation approchée), le taux de naissance serait de 9,2 pour 100.
- Le comportement social du plus gros Vertébré terrestre actuel reste encore à étudier en détail, aucune observation méthodique n’ayant été tentée. Le groupement social le plus fréquent est le troupeau, constitué de femelles adultes accompagnées de leur progéniture. Verheyen cite ainsi des rassemblements de 40 têtes, sans mâle adulte dans les parages. Ces derniers ne s’intégrent au troupeau que lors de la reproduction ; le reste du temps ils vivent en solitaires ou en petits troupeaux unisexués. Ces solitaires seraient aussi moins nomades.
- Dans les troupeaux, les jeunes de tous âges se groupent autour de leurs mères respectives. Au cours d’une retraite précipitée, une femelle robuste se trouve ordinairement en queue du peloton, les jeunes plus mobiles n’ayant pas manqué de prendre les devants dans le sillage d’un subadulte qui a pris la tête du troupeau. Tous les auteurs s’accordent à dire que les femelles accompagnées d’éléphanteaux sont très dangereuses. Quand un déplacement doit s’effectuer dans des conditions qui réclament une certaine prudence, on voit les jeunes s’immobiliser en un endroit déterminé, tandis que la mère part prudemment en reconnaissance. Arrivée à destination, elle appelle ses petits qui la rejoignent sans tarder.
- La vue est remarquablement faible pour un animal terrestre. Il est possible de s’approcher à moins de 8 m de distance d’un éléphant, mais par vent debout, car l’odorat est très développé. Mais il semble que l’ouïe joue le rôle essentiel.
- L’éléphant adulte dort debout en s’appuyant contre un support, tel que le tronc d’un gros arbre, un roc, une paroi verticale, mais souvent aussi le sommeil le surprend sans qu’il ait un appui quelconque. La trompe repose alors sur l’une des défenses. Il arrive plus rarement que l’adulte se couche sur le flanc. Les jeunes s’étendent fréquemment sous leur mère.
- Aucune espèce de Mammifère ne semble rechercher la compagnie des éléphants ; les phacochères, les buffles et les hippopotames préfèrent les éviter. Plusieurs auteurs ont d’ailleurs signalé l’aversion qu’éprouvent certains éléphants pour la compagnie d’autres espèces de Mammifères. Quant aux oiseaux, on note que des garde-bœufs (sorte de hérons insectivores qui débarrassent souvent les Ruminants de leurs parasites) sont parfois juchés sur le dos des élé-
- Fig. 4. — Troupeau d’hippopotames au bord de la Rwindi, dans une zone de forêt galerie.
- Ce rassemblement comporte bon nombre d’individus subadultes.
- 121
- p.dbl.120 - vue 122/560
-
-
-
- phants en pâture. L’intérêt que ces oiseaux leur témoignent s’explique par le fait qu’en marchant les éléphants font lever une multitude d’insectes. Plus rarement que l’hippopotame, l’éléphant peut servir d’observatoire aux martins-pêcheurs quand il se promène sur les rives de la Semliki ou du lac Édouard.
- L’Hippopotame
- Le bassin du lac Édouard, au sud du Parc Albert, abrite probablement à l’heure actuelle les plus fortes densités de population de cette espèce dans tout le continent africain. L’Hippopotame peut s’accommoder de conditions de vie très variées. Il abonde dans les basses plaines dont la température moyenne oscille autour de 230 C mais aussi vers 2 000 m où il supporte des minimums nocturnes n’excédant que de peu o° en saison sèche. La température de l’eau n’est pas non plus un facteur limitant : les auteurs ont observé une piste régulière traversant un ruisseau dont l’eau atteignait 500 C. Souvent les hippopotames paraissent rechercher délibérément ces sources chaudes. La profondeur de l’eau doit être suffisante pour permettre l’immersion complète pendant le repos diurne. Par contre, un cours assez rapide est peu favorable. Mais la structure des rives paraît jouer un rôle capital. Les berges plates, dénudées ou
- Fig. J. — Territoires contigus d’hippopotames, d’après Hediger.
- En traits épais, limites des territoires ; en traits fins, les passées ; petits cercles, lieux de marquage par défécation ; petites croix, abris dans la rivière.
- Fig. 6. — Points de défécation des hippopotames le long de leurs pistes partant de la rivière Semliki.
- à herbes courtes, donnant facilement accès aux terrains de pâture, sont délibérément recherchées (fig. 4). Par contre, les rives marécageuses à haute végétation de Carex ou de Papyrus sont évitées.
- En général l’hippopotame s’éloigne peu de la rivière. Cependant certains individus vont très loin de l’eau à la recherche des pâturages. L’hippopotame se raréfie en forêt. Le long de la Semliki, la densité de population passe de 600 en forêt à 6 000 en savane pour des longueurs de bief à peu près égales. Pendant la nuit ces animaux se dispersent sur la presque totalité des savanes de la plaine au sud du lac Édouard. Un certain nombre d’individus peuvent même y séjourner longtemps dans des bauges très éloignées de tout cours d’eau et qui disparaissent en fin de saison sèche.
- Dans les populations d’hippopotames du Parc Albert, le sex-ratio semble égal à 1. Il n’y a en tout cas aucune prédominance des femelles. La structure sociale des groupements d’hippopotames a fait l’objet d’indications assez contradictoires. L’organisation est patriarcale, c’est-à-dire qu’un mâle domine le groupe. C’est à lui qu’incombe la défense du territoire et surtout de l’abri où les animaux se reposent dans la journée. D’après Hediger, chaque famille occupe un territoire piriforme marqué de dépôts d’excréments et d’urine jalonnant les passées (fig. 5 et 6) (voir La Nature, septembre 1952, p. 271-273). Cette théorie n’est cependant pas admise par tous. Pour Verheyen la crèche serait le noyau de la société. Elle consiste en un nombre indéfini de mères accompagnées de leurs jeunes disciplinés. En descendant l’échelle de la communauté hippopotamienne, on trouve les mâles adultes, les femelles avec un jeune à charge et enfin les mâles non adultes. Les pistes seraient utilisées par une quarantaine d’hippopotames de tous âges à la fois, ce qui exclut leur utilisation par un groupe familial. Bourlière et Verschuren ont observé plusieurs mâles venant déposer leurs excréments à un même dépotoir, ce qui exclut l’hypothèse du marquage olfactif du territoire par le mâle. Les dépotoirs ne sont peut-être que des points de défécation localisés, situés, et pour cause, le long des itinéraires les plus fréquentés, et dénués de toute signification territoriale (fig. 6).
- Dans la région du lac Édouard l’hippopotame semble se reproduire toute l’année. Le taux de natalité est difficile
- 322
- p.122 - vue 123/560
-
-
-
- Fig. 7. — Un refuge d’hylochère près du lac Kibuga.
- à évaluer. Les jeunes de moins d’un an ne constituent certainement pas plus de 10 pour 100 de la population. Parmi les causes de mortalité se trouvent les multiples épidémies de charbon qui sévissent chaque année, et les combats entre mâles à l’époque de la reproduction. Un nombre non négligeable de vieux et de très vieux animaux (12 à 15 ans et plus) ont été notés dans les populations de la région étudiée, contrairement à ce que l’on observe pour la plupart des Ongulés sauvages chassés par l’homme.
- Les Porcins ou Suidés
- Trois espèces de Suidés : phacochère, potamochère et hylochère sont fort répandues dans le Parc Albert, surtout la dernière.
- Le Phacochère (Phacochœrus œtbiopicus), absent des zones forestières, se rencontre uniquement dans les habitats « ouverts », d’où son nom de sanglier des savanes. Il est
- commun dans la plaine et se raréfie en montagne où il ne dépasse pas 1 400 m. Le phacochère se reconnaît à sa peau grise recouverte de soies clairsemées, à sa crinière fauve brunâtre ou noire sur la nuque et le dos, enfin à la présence de grosses verrues aux joues. Les canines sont très développées, surtout les supérieures, recourbées en demi-cercle vers le haut.
- Selon Verheyen la distribution du phacochère serait liée à celle de l’Oryctérope, le Suidé utilisant les terriers de cet animal pour s’y abriter la nuit ou en cas de danger, et pour y mettre bas. Le régime est très varié : Graminées, bulbes et tubercules qu’il déterre le jour en labourant le sol comme un sanglier ; mais aussi cadavres d’animaux souvent en putréfaction. Il existe une nette prédominance des femelles. A la naissance les petits pèsent de 480 à 850 g et sont très fragiles. Gris rosé aussitôt après leur venue au monde, ils se pigmentent lentement et deviennent gris ardoise au bout d’une semaine. A un mois ils pèsent 1,7 kg, et 3 kg à deux mois, âge du sevrage. Les mâles adultes, toujours plus gros que les femelles, pèsent 100 kg à 10 ans avec 80 cm de hauteur au garrot. Les jeunes de moins d’un an représentent 20 pour xoo de la population au Parc Albert, ce qui correspond à un taux de naissance assez élevé. La structure sociale est peu connue. Le phacochère se rencontre soit solitaire, soit en groupes d’individus d’âges généralement différents.
- Pour fouiller le sol et pour manger, le phacochère s’appuie sur la face antérieure des poignets qui présentent une épaisse callosité. Cette callosité apparaît déjà chez le fœtus, et a été citée comme un exemple de particularité qui ne pourrait s’expliquer que par l’hérédité des caractères acquis : la callosité se serait d’abord développée par le frottement sur le sol, puis serait passée peu à peu dans l’hérédité. Peu de biologistes retiennent aujourd’hui cette explication lamarckienne.
- Le Potamochère (Potamochœrus porcus) ou sanglier à pinceaux (en raison du bout de ses oreilles étiré), ou encore sanglier rouge des rivières, habite surtout les forêts ou les
- p.123 - vue 124/560
-
-
-
- Fig. t). — Buffles de forêt au bord d’une rivière dans le secteur nord du Parc Albert.
- savanes boisées. Il est exclusivement nocturne et peu souvent observé. Le régime est omnivore : végétaux divers et aussi jeunes oiseaux pris au nid, petits mammifères, nombreux serpents y compris pythons et vipères. L’espèce tend à devenir commensale de l’homme et cause parfois des dégâts importants dans les plantations.
- L’Hylochère (Hylochœrus meinert^agenï) est un sanglier géant mesurant jusqu’à 1,10 m au garrot et 2 m de long avec un poids dépassant zoo kg. C’est le Suidé le plus répandu dans le Parc Albert, essentiellement dans la grande forêt ombrophile primitive, mais aussi dans d’autres milieux très dissemblables (fig. 7 et 8).
- Buffle, Antilopes, Okapi
- De nombreux Ruminants occupent les différents habitats du Parc Albert. Ce sont surtout des Bovidés, qui comprennent le Buffle et mainte espèce d’antilopes.
- Le Buffle (Syncerus caffer) est représenté par deux races : une race orientale de savane et une race occidentale de forêt (fig. 9 et 13). Le régime alimentaire du buffle africain est encore très mal connu. Ces animaux vivent généralement en troupeaux, bien que les mâles adultes solitaires
- Fig. 10. — Gîte du Céphalophe à front roux près de Rukumi.
- ne soient pas rares. Les grands troupeaux, qui réunissent toujours les deux sexes, peuvent dépasser plusieurs centaines de têtes. Les individus qui protègent l’arrière-garde sont toujours des mâles. La reproduction se fait toute l’année. L’âge adulte est atteint en quatre ans et les gros mâles peuvent dépasser 600 kg.
- Dans les Bovidés de la même sous-famille des Bovinés, on note la présence du Situtunga (L,imnotragus spekii), curieuse antilope amphibie qui nage admirablement et se nourrit de végétaux aquatiques, et qui semble très mal à son aise sur les inégalités d’un sol sec, trébuchant, dit-on, et tombant souvent ; de l’Antilope harnachée (Tragelaphus scriptus), qu’on trouve à peu près partout ; enfin du Bongo (Boocercus eurycerus), surtout confiné dans les forêts de bambous, où d’ailleurs on n’a relevé que ses traces.
- Fig. il. — Mâle adulte de Céphalophe à dos jaune (Cephalophus sylvicultor).
- La raie dorsale jaune est bien visible dans la pénombre du sous-bois.
- Parmi les six antilopes Céphalophes connues dans la région, la plus abondante est le Céphalophe à front roux (Cephalophus nigrifrons) qui abonde surtout en altitude, en particulier l’étage des Hagenia dans la région des volcans du sud du Parc Albert. La densité de peuplement y atteindrait de 10 à 28 individus au kilomètre carré. Dans le nord l’espèce atteint 4 400 m d’altitude sur le massif du Ruwenzori. Très sédentaire, ce céphalophe se bâtit volontiers un gîte dans les hautes herbes (fig. 10). On connaît peu de choses sur sa vie sociale : dans les conditions naturelles les individus sont presque toujours rencontrés seuls ; rarement on voit un couple ou encore une femelle et son jeune.
- Le Waterbuck (Kobus defassa) est une assez grande antilope de savane boisée qui pénètre cependant dans les savanes herbeuses. Il se rapproche volontiers des plages du lac Édouard et des rivières qu’il traverse à la nage sans difficulté. Ses bandes parviennent à escalader des pentes raides, grâce à des pistes en zig-zag atteignant 50 pour 100. Les mâles, qui seuls portent des cornes en forme de lyre, se distinguent facilement des femelles (figure de la couverture). Ces dernières prédominent nettement. Le plus souvent les groupes sont constitués par un mâle adulte conduisant 2 à 25 femelles et une vingtaine de jeunes.
- A l’opposé du Waterbuck, le Cob de Buffon (Adenota kob) est une antilope d’habitat ouvert qui fréquente
- 124
- p.124 - vue 125/560
-
-
-
- presque exclusivement les steppes et les savanes à herbe courte (fig. 12). Il se nourrit seulement de Graminées. Le Topi (Dan/aliscus korrigum) semble présenter, comme le Cob de Buffon, une grande aversion pour l’eau. On ne l’a jamais vu boire ni s’approcher du lac Édouard (fig. 13).
- La famille des Tragulidés n’est représentée que par le Chevrotain aquatique (Hyemoschus aquaticus) qui paraît exister dans toute la zone forestière.
- Enfin, le Ruminant le plus intéressant est un Giraffidé, le célèbre et très rare Okapi (Okapia johnstoni) dont les traces ont été relevées dans la forêt, sur la rive gauche de la Moyenne-Semliki. Il se nourrit essentiellement de feuilles d’arbres, de préférence de jeunes pousses. Les Okapis sont solitaires et nomades. Les mâles se déplacent seuls, ne rejoignant les femelles que pour l’accouplement. On aurait observé le marquage de buissons avec de l’urine.
- Peu d’ennemis et de concurrence malgré la densité du peuplement
- MM. Bourlière et Yerschuren se sont efforcés de déterminer les densités de peuplement et les causes qui peuvent agir sur leurs variations. On comprend qu’il soit fort difficile de réaliser une étude quantitative des Mammifères qui peuplent un Parc national de cette étendue, surtout sous
- luer avec quelque précision les densités globales et de comparer les densités et les « spectres de peuplement » des différents milieux.
- Dans ses steppes et ses savanes, le Parc Albert abrite la plus forte « biomasse » d’Ongulés qu’on ait observée en Afrique (rappelons qu’on appelle biomasse le poids total d’une espèce ou d’un groupe d’espèces). Le tableau I donne une idée du nombre d’individus et de la biomasse par kilomètre carré pour les principales espèces sur trois des itinéraires étudiés. Il convient d’ajouter à ces chiffres les très nombreux hippopotames qui ne fréquentent les steppes et savanes que la nuit et n’ont pas été recensés de ce fait.
- Des variations saisonnières des densités de peuplement ont été observées, en rapport avec les périodes humides et sèches. Les habitats « ouverts » en sont beaucoup plus affectés que les espaces forestiers denses. Les auteurs se sont demandé où vont, pendant les époques de sécheresse, les Ongulés chassés par la faim des steppes et savanes basses. « Aucun indice de migrations de grande amplitude, écrivent-ils, n’a jamais été décelé au Parc Albert, et il est possible que les grands troupeaux se fragmentent alors en unités plus petites qui pénètrent, en périphérie de la plaine ouverte, dans les savanes boisées du voisinage pour y passer les semaines critiques. Les concentrations se reforment dans la steppe dès la sortie des premières pousses,
- les tropiques où des difficultés de toute sorte viennent s’ajouter à celles que l’on rencontre en Europe. L’utilité de telles recherches est pourtant évidente, ne serait-ce que pour avoir une idée de l’efficacité des méthodes de protection des espèces.
- Les auteurs ont utilisé la technique des itinéraires-échantillons, choisis de façon à être aussi représentatifs que possible des différents milieux à étudier. Ces itinéraires, sommairement balisés, sont parcourus en toutes saisons. De chaque côté de la zone balisée les grands Mammifères qui ne peuvent passer inaperçus (éléphants, hippopotames, buffles, topis et waterbucks) sont comptés sur 300 m de large ; les cobs, Suidés, lions et autres Carnivores sont recensés sur une bande de 150 m de large de chaque côté de la piste ; les petits Mammifères (lièvres) sont comptés sur une largeur de 3 m de chaque côté. Les résultats permettent d’éva»
- Fig. 12. — Cobs de Buffon dans la steppe herbacée.
- A droite, un mâle adulte ; à gauche, un mâle subadulte, dont les cornes n’ont pas leur plein développement.
- à moins qu’en pleine saison sèche un feu de brousse allumé par la foudre ne détermine localement une repousse prématurée des Graminées, ce qui s’accompagne inévitablement, comme nous l’avons constaté, d’une concentration temporaire d’herbivores. »
- La mise en réserve a permis à certaines espèces de se multiplier intensément. Ainsi, il y a environ 3 000 éléphants dans les plaines du sud du lac Édouard, soit vingt fois plus qu’en 1929. Les buffles ont aussi beaucoup augmenté, malgré l’épidémie de peste bovine qui sévit à la fin de 1944. En revanche les antilopes topis se sont raréfiées rapidement entre 1931 et 1940, pour augmenter de nou-
- 125
- p.125 - vue 126/560
-
-
-
- Fig. 13. — Topis (au premier plan) et buffles (à l’arrière-plan) dans une dépression herbeuse.
- veau à partir de 1943. Le nombre des Cobs de Buffon a suivi des variations parallèles. Les causes de ces variations sont incertaines.
- Les grands Carnivores ont connu aussi des variations sensibles. Les lions, qui étaient évalués à 250 en 1931 au sud du lac Édouard, ne seraient plus qu’une centaine dans la même région. Le Lycaon, le terrible loup africain, dont on a signalé de fréquentes incursions dans le Parc Albert entre 1947 et 1957, semble maintenant absent, et il en est résulté une augmentation du nombre des lièvres (Lepus crosham). Le Chien sauvage n’a pas non plus été noté dans les dernières années. Le Lion, le Léopard et l’Hyène tachetée sont les seuls carnassiers à pouvoir jouer un rôle actuellement dans l’écologie des grands Mammifères, à l’exception de l’Éléphant. M. Verschuren a vu aussi une jeune antilope harnachée saisie par un python. Divers rapaces s’attaquent enfin aux très jeunes antilopes. Au total la pression exercée par les divers prédateurs sur les Ongulés sauvages paraît assez légère.
- Deux maladies semblent jouer un rôle plus important sur certaines espèces : la peste bovine qui, à diverses reprises, a fait beaucoup de victimes chez les Buffles et accessoirement chez les antilopes harnachées, les phacochères et les hylo-chères ; le charbon symptomatique, qui atteint souvent les hippopotames.
- Les combats entre mâles sont aussi des causes de décès, notamment chez les éléphants, les hippopotames, les Cobs de Buffon. On cite des cas de combats entre espèces différentes, un hippopotame tué par des buffles, un jeune buffle tué par des éléphants.
- On pourrait croire que dans des peuplements aussi denses, la compétition alimentaire joue un rôle important. Il semble n’en être rien : même à la fin de la saison sèche, la condition physique des animaux apparaît excellente. La masse végétale est donc suffisante pour tous. Seuls les lièvres pourraient être considérés comme d’éventuels compétiteurs pour les Ongulés ; trois relevés ont donné respectivement 83, 83 et ni lièvres au kilomètre carré. La « biomasse » des petits Rongeurs est insignifiante. On peut supposer qu’ils sont tenus en respect par les Rapaces.
- Un danger : les gaz volcaniques
- MM. Bourlière et Verschuren se sont aussi préoccupés des causes de mort indépendantes des relations entre animaux. Les feux de brousse, les crues brutales, la foudre ont été relevés comme causes de décès, principalement de buffles et d’éléphants. On a noté aussi des éléphants tués par chute dans les rochers et même la noyade d’un éléphanteau.
- Mais les accidents mortels les plus notables sont dus au volcanisme. De nombreux volcans sont encore actifs dans le secteur sud du Parc Albert ; en 1957 et 1958 d’importantes coulées de lave furent émises. Les coulées ne sont pas assez rapides pour que les animaux n’aient pas le temps de se sauver, mais elles peuvent délimiter des îlots où les
- Tableau I. — Comparaison des densités de peuplement par kilomètre carré des diverses espèces d’herbivores du secteur central du Parc Albert, dans les habitats ouverts, au cours du cycle annuel 1958-1959.
- Espèces Poids moyen d’un individu en kg Steppe Itinéraire I Steppe et savane à fourrés Itinéraire II Savane herbeuse et boisée Itinéraire III
- Nombre moyen d’individus Biomasse en kg par km2 Nombre moyen d’individus Biomasse en kg par km2 Nombre moyen d’individus Biomasse en kg par km2
- Éléphant 3 500 0,22 77° 0,91 3 165 3,36 11 760
- Hippopotame 1 400 i,5 2 100 o,45 630 0 ,°7 98
- Buffle . 500 25 ,0 12 500 10 ,02 5 010 5 ,3i 2 655
- Topi 130 1 885 1 ,0 130 0,17 22
- Waterbuck 15° o,54 81 — 5,28 792
- Cob de Buffon 70 4° ,6 2 842 5,6 392 2,29 160
- Cob de roseaux 40 0,16 6 — —
- Antilope harnachée 5° — — 0,24 12 — —
- Phacochère 7° 4,3 301 o,43 30 D39 9i
- Hylo chère 140 0,11 H
- Nombre total par km2 . . 86,7 18 ,71 17,87
- Biomasse totale/km2 20 485 — 9 384 15 578
- 126
- p.126 - vue 127/560
-
-
-
- Fig. 14. — Une hyène tombée victime des gaz toxiques d’un « masuku », alors qu’elle venait s’attaquer au cadavre d’une autre, précédemment attirée par les restes d’un éléphant.
- antilopes risquent de se trouver prisonnières. L’incandescence de la lave et les bruits de l’éruption semblent impressionner très inégalement les diverses espèces. Les éléphants s’en écartent rapidement ; les hylochères sont beaucoup moins prudents ; les petits Rongeurs ne semblent aucunement s’en préoccuper.
- Ce sont les dégagements gazeux qui sont probablement la manifestation la plus dangereuse pour les animaux. Ils peuvent entraîner, en effet, la mort immédiate de toute la faune de la zone atteinte. En septembre 1959, M. Verschuren a pu observer d’extraordinaires points de dégagement où avaient lieu des émanations capables de sidérer en quelques instants les plus gros Mammifères (fig. 14). Ces masuku, comme les appellent les indigènes, sont de véritables nécropoles où s’accumulent les restes de très nombreux animaux : sur une surface de 250 m2 on a pu dénombrer 19 éléphants, 6 hippopotames, 1 buffle, 5 antilopes, 9 phacochères, 1 pangolin, 1 lion, 8 hyènes et 1 singe, sans compter les oiseaux.
- Le caractère foudroyant de la mort des animaux est extrêmement frappant : des oiseaux sont tués en vol alors qu’ils traversent les nuages de gaz toxiques et on a vu des éléphants s’effondrer brutalement sans pousser un cri.
- Des prélèvements faits en novembre 1959 et analysés par la section chimique du Centre de recherches minières de Bukavu ont montré des teneurs en anhydride carbonique allant de 36 à 44 pour 100. Une telle teneur en C02 entraîne une anesthésie très rapide, suivie d’une mort plus lente par privation d’oxygène. On sait que, pour l’abattage des porcs en certains pays, on obtient l’anesthésie en 40 secondes avec 70 pour 100 de COa (La Nature, février 1958, p. 71). Les animaux de plus petite taille sont encore plus rapidement anesthésiés.
- MM. F. Bourlière et J. Verschuren soulignent le caractère fragmentaire de leur étude, qu’ils qualifient de préliminaire. Il est à souhaiter que de telles investigations écologiques puissent se poursuivre et, en premier lieu, que le Parc Albert et les autres réserves puissent être intégralement conservées.
- Roger Dajoz,
- Agrégé de l’Université.
- 127
- p.127 - vue 128/560
-
-
-
- Un homme dans
- l’espace en avril ou mai
- ?
- Le départ de la nouvelle « station interplanétaire » soviétique vers Vénus, lancée le 12 février, à partir d’un satellite placé sur une orbite terrestre (exploit sur lequel il nous faudra revenir), a éclipsé, aux yeux du public, l’expérience réalisée quelques jours auparavant par les Américains en récupérant sain et sauf un chimpanzé après un court séjour dans la très haute atmosphère.
- Cependant les Américains ont ainsi franchi avec succès une étape préliminaire essentielle avant l’envoi d’un homme dans l’espace et le nombre des obstacles qu’il leur reste à surmonter avant de mettre à leur actif cette expérience hors série apparaît désormais comme des plus limités. Techniquement, l’essai était le même, à ceci près qu’un singe avait pris la place du passager.
- On sait en quoi consiste l’expérience : une capsule spatiale est projetée dans l’espace à l’aide d’une fusée Redstone ; après avoir parcouru un trajet de 460 km et atteint quelque 200 km d’altitude, elle retombe dans l’Océan Atlantique où elle est repêchée dans les délais les plus rapides. Le « vol » dure au total 16 minutes. L’essai aurait dû être effectué « à vide » en décembre mais une subite mise à feu de la fusée d’échappement qui surmonte la capsule l’avait empêché de se dérouler comme il avait été prévu.
- L’essai du Ier février avait donc toujours pour but de vérifier le bon comportement de la fusée porteuse et de la capsule, mais les responsables de la N. A. S. A. avaient voulu faire d’une pierre deux coups et un singe avait été logé à bord. La présence de ce singe avait surtout pour but de vérifier la résistance de l’animal aux conditions propres au voi spatial (accélération à l’envol, état d’impesanteur, décélération lors de la rentrée dans l’atmosphère) et le
- Fig. 1. — Le chimpanzé Ham dans son habitacle spatial, quelques instants avant son lancement au cap Canaveral.
- (Photo Associated PrfsO
- maintien dans de telles conditions de ses aptitudes... Aussi une part importante de l’expérience consistait-elle à s’assurer que l’animal continuerait, quelles que soient les conditions où il était plongé, à répéter les gestes qui lui avaient été enseignés. Notamment, il avait été entraîné à tirer un levier situé à sa gauche chaque fois qu’une lampe s’allumait sous ses yeux. Venait-il à ne pas se soumettre à cette règle ? Aussitôt, il recevait une faible décharge électrique.
- Cet essai a été pleinement couronné de succès : non seulement la capsule a bien résisté à réchauffement consécutif à la rentrée dans les couches denses de l’atmosphère (tout au plus a-t-on remarqué, lorsqu’elle a été ouverte, qu’elle contenait un peu d’eau de mer) mais encore le chimpanzé, qui répondait au nom de Ham et pesait environ 30 kg, a été retrouvé en bonnes conditions physiques. Un seul incident a marqué l’expérience et il est à imputer une fois de plus à la fusée d’échappement : pour une raison mal déterminée elle s’est mise à feu alors que la capsule se trouvait déjà à haute altitude, ce qui a entraîné un allongement du parcours de quelque 200 km. Les navires chargés de la récupérer ont été obligés de quitter précipitamment la zone où ils attendaient le retour de la capsule pour se rendre là où elle était effectivement tombée.
- Naturellement, tout au long de son vol, le singe avait été filmé et ses réactions ont pu être analysées. L’animal, semble-t-il, a fort bien supporté l’aventure mais, à en croire les récits qui ont été faits de son comportement, il a cessé vers la fin du parcours d’effectuer le mouvement qui lui était commandé... tout en s’arrangeant, dit-on, pour ne pas recevoir la décharge électrique chargée de le rappeler à l’ordre. Ce serait bien une preuve que ses aptitudes psychiques étaient intactes.
- Aucune date n’a été officiellement fixée pour le premier lancement d’une capsule habitée par un homme. On s’attend cependant qu’il sera procédé à cette expérience au printemps, certains disent en avril ou en mai. Il n’est pas impossible que d’ici là les techniciens américains cherchent à parfaire la mise au point de la fusée Redstone. Peut-être aussi, comme il avait été prévu il y a un certain temps, chercheront-ils à récupérer un singe qui aurait, lui, effectué un certain nombre de révolutions autour du globe et, pour cela, aurait été placé dans un satellite Discoverer. Cette expérience, destinée à préparer celle où une capsule spatiale sera satellitisée, devait en principe se dérouler cet automne mais, pour des raisons inconnues, elle a été différée jusqu’ici. On sait que les capsules placées actuellement à bord des satellites Discoverer sont loin d’avoir les dimensions de celle que le chimpanzé Ham a récemment occupée ; pour satellitiser une capsule de cette taille, des fusées Atlas doivent être substituées aux fusées Thor-Agena comme fusées porteuses.
- N. V.
- 128
- p.128 - vue 129/560
-
-
-
- Les lingots d’acier d’un laminoir examinés en continu aux rayons X
- Dans les aciéries, l’acier liquide est coulé dans des moules de fer où il se solidifie en blocs d’un poids de quelques tonnes. Après la solidification, mais avant le refroidissement ultérieur, les blocs, encore incandescents, sont sortis des moules et sont laminés en lingots d’environ io m de longueur et d’une section qui peut atteindre 200 mm X 200 mm, ou être plus grande encore.
- Au cours de la solidification, des bulles d’air (soufflures) se produisent dans l’acier qui, pour autant qu’elles ne soient pas supprimées par le laminage, provoquent des affaiblissements locaux dans le matériau fini. Il en est de même des inclusions du laitier qui parviennent dans l’acier. L’expérience a montré que ces soufflures et ces inclusions se produisent surtout dans la partie avant (la tête) du lingot ; aussi a-t-on pris l’habitude dans les aciéries de couper de cette partie un tronçon de quelques mètres qui va rejoindre les déchets. L’inspection de la section de coupe montre si l’on a coupé trop peu. L’observation de ces soufflures ou inclusions sur de l’acier chaud n’est cependant pas très rigoureuse. Le risque est donc grand de couper effectivement trop peu, de sorte que de la matière de mauvaise qualité subit les traitements ultérieurs ; ou bien, pour diminuer les risques, on coupe une trop grande longueur du lingot, ce qui entraîne une perte de matière saine.
- Il est évident qu’une radioscopie du bloc incandescent, effectuée pendant le laminage, assurerait une économie importante de matière et garantirait en même temps une plus grande sécurité. De plus, elle permettrait de contrôler si, outre la tête, d’autres parties du bloc comportent des défectuosités ; et enfin, par cette radioscopie, il serait possible (et c’est peut-être là le point le plus important) de déterminer d’une manière simple l’influence de certains facteurs de fabrication sur la formation des défauts (x).
- On ne peut, cependant, utiliser ici un appareil à rayons X de type classique. Les dimensions transversales des soufflures et inclusions n’atteignent que quelques millimètres seulement et il faut les déceler dans un bloc d’acier d’au moins 200 mm d’épaisseur pendant que ce bloc défile avec une vitesse de quelques dizaines de centimètres par seconde. Or, avec des rayons X d’énergie habituelle (300 keV), un lingot de 200 mm affaiblirait le rayonnement jusqu’à un milliardième de son intensité initiale, rendant impossible toute observation.
- 1. Une autre méthode d’essai non destructif consisterait à utiliser les ultrasons (voit La Nature, novembre 1959, p. 501-507). Toutefois, cette méthode est ici inutilisable car, à la température des lingots, l'amortissement du faisceau d’ultrasons dans la matière est beaucoup trop grand pour que la mesure soit possible.
- Devant cet état de fait, des ingénieurs de la Phœnix-Rheinrohr A. G. de Düsseldorf conçurent le projet de résoudre le problème en utilisant cette fois des rayons X d’une énergie ioo fois plus grande, émis lors du bombardement d’une cible par un faisceau d’électrons accélérés par un bêtatron. Ces rayons X, extrêmement durs, permettent de radioscoper d’assez grandes épaisseurs de matière sans subir une atténuation prohibitive. Après le passage à travers 200 mm d’acier, l’intensité tombe à environ i pour ioo de la valeur initiale, d’où un gain de quelque io7 par rapport aux rayons de 300 keV.
- Bien qu’elle soit encore faible, cette intensité devient observable grâce à l’emploi d’un intensificateur d’image (Philips) dont le fonctionnement est le suivant (fig. 1). Les rayons X, après traversée du lingot, tombent sur une couche de plomb et y libèrent des électrons dans des directions qui ne divergent que très peu de celle des rayons X. Ces électrons engendrent sur un écran radioscopique environ 4 000 photons de lumière fluorescente par électron. Derrière l’écran, on dispose une photocathode qui, sous l’action des photons issus de l’écran, émet des électrons qui sont accélérés et concentrés sur un second écran fluorescent. Pour chaque électron provenant de l’écran de plomb, on obtient finalement 400 000 photons de lumière sur l’écran d’observation. Au point de vue de la luminance, l’intensification est d’environ 1 200.
- L’image est observée au moyen d’un équipement de télévision industrielle, ce qui présente divers avantages. En premier lieu, c’est la solution la plus simple pour assurer la protection de l’observateur, qui ne doit en aucun cas se trouver directement derrière l’écran d’observation de l’intensification d’image, endroit où existe encore un reste dangereux du rayonnement X. Par ailleurs, le procédé permet de renforcer la luminance et d’augmenter les contrastes.
- Bêtatron^
- Faisceau de rayons X"~"~
- Récepteur de télévision
- Bloc d acier à radioscoper "
- Ecran de Plomb
- Cylindre _/_) d'entrainement T ~’
- Intensificateur d'images-
- Dispositif optique- --
- Caméra______
- de télévision
- Fig. I. — Coupe schématique de l’installation de radioscopie des lingots d’acier chauds pendant le laminage.
- 129
- p.129 - vue 130/560
-
-
-
- Fig. 2. — Installation-pilote de radioscopie dans un laminoir de la Phœnix-Rheinrohr.
- Des pancartes avertissent de ne pas séjourner près de l’appareil quand une lumière rouge est visible.
- On reste songeur en considérant les voies bizarres que suit, dans ce cas, la technique électronique : des électrons, accélérés dans le bêtatron, engendrent dans la cible des photons de rayons X ; après la traversée de l’objet, ces rayons X libèrent à nouveau des électrons dans l’écran de plomb ; ceux-ci produisent dans l’écran radioscopique des photons de lumière ; ces photons, à leur tour, libèrent des électrons dans la photocathode, électrons qui, après accélération, produisent finalement, dans l’écran d’observation, à nouveau des photons de lumière. Puis, il y a encore la course par relais des électrons par laquelle l’information,
- portée par les rayons X, est transmise dans le circuit de télévision jusqu’à ce que les photons de lumière du tube cathodique atteignent l’œil de l’observateur.
- Les résultats obtenus avec cette installation-pilote (fig. z) sont assez remarquables. Un traitement statistique des résultats obtenus par le contrôle, à la Phœnix-Rheinrohr, de quelques milliers de lingots chauds dont les défauts furent examinés par la suite sur les blocs refroidis sciés, a prouvé que l’on pouvait ainsi déceler 50 pour 100 de toutes les soufflures de 3 mm de profondeur et 90 pour 100 de toutes celles de 7 mm ou plus.
- R. R.
- La documentation de cet article nous a été aimablement communiquée par la Société Philips.
- p.130 - vue 131/560
-
-
-
- Deux aspects peu connus de la pollution atmosphérique
- Poussières ultra-fines
- et par Yves Mériel
- pollution fluorée
- LA pollution de l’atmosphère, comme celle des eaux, pose un problème aigu dans toutes les grandes agglomérations humaines et dans les zones où s’implantent certaines industries. Dans certaines régions de forte concentration industrielle, où le danger était le plus menaçant, des mesures énergiques ont déjà été prises et par exemple Pittsburg, la grande cité américaine de l’acier, en Pennsylvanie, qui passait pour la ville la plus polluée du monde (fig. i), a vu à cet égard sa situation s’améliorer considérablement. Partout dans le monde, cette question préoccupe les pouvoirs publics, les hygiénistes, les techniciens et parfois, comme on va le voir, les agriculteurs ou les forestiers.
- En France, un important Congrès national s’est tenu les 24, 25 et 26 novembre i960 sous les auspices de l’Association pour la prévention de la pollution atmosphérique. C’est la première fois qu’une manifestation d’une telle ampleur a lieu en France, en vue de stimuler l’action entreprise dans le domaine de la pollution.
- Délibérément, les travaux du Congrès avaient été limités aux problèmes de la pollution chimique, éliminant par conséquent la pollution bactérienne et la pollution radioactive. Le cadre était d’ailleurs assez vaste et les 43 communications entendues ont largement prouvé que l’étude de la pollution chimique est encore fort incomplète. Comme l’a dit une des personnalités présentes au Congrès, « la connaissance doit précéder et guider la prévention » ; une part inégale est donc faite aux moyens d’investigation et aux enquêtes d’une part, aux procédés de lutte d’autre part.
- Cela comporte évidemment un certain retard pour l’attaque massive de la pollution, bien que d’incontestables progrès aient déjà pu être enregistrés, surtout dans le secteur de la grande industrie (dépoussiérage et lavage des fumées, perfectionnement des modes de combustion). Par ailleurs, l’examen des différentes situations constatées, les études en profondeur des pollutions carbonée et soufrée ainsi que de l’inquiétante présence dans l’atmosphère d’hydrocarbures cancérigènes ont fait faire un grand pas à « la science de la pollution ».
- Deux intéressantes contributions à cette science sont ici présentées, non pas qu’elles soient d’une portée plus grande que les autres, mais parce qu’elles traitent de sujets indépendants et relativement peu connus : les poussières ultra-fines et les effets de la pollution fluorée.
- Les « infrapoussières »
- On serait volontiers tenté de juger de la pureté de l’atmosphère (comme d’ailleurs de l’eau) selon sa limpidité apparente. Autrement dit, le trouble ou la pollution seraient directement décelables si, dans ce milieu, on pouvait constater visuellement la présence de nombreuses particules solides ou liquides. Dans le cas contraire, il serait admis que l’air peut également être impur si des gaz venaient altérer sa composition normale. Entre ces deux aspects de la pollution, il n’existerait pas, semble-t-il, d’état intermédiaire. Notion fausse, car les poussières dites ultra-fines-sont des agents de pollution à la fois solides et invisibles.
- Empruntons à la communication du professeur A. Poli-card les précisions qui suivent.
- L’atmosphère contient, outre les poussières décelables à l’œil nu, deux catégories de particules, de finesses différentes : les poussières submicroniques, visibles au microscope ordinaire (entre 0,2 et 1 micron) et les poussières-inframicroscopiques (entre 0,0002 et 0,2 micron) qui n’apparaissent que sous le microscope électronique. Jusqu’à la limite de 0,1 micron, les poussières sont aptes à se sédi-menter en air calme ; à des finesses plus grandes, elles cessent d’obéir à la pesanteur et sont maintenues en suspension par le mouvement brownien. Elles peuvent donc, dans une atmosphère non ventilée, atteindre un nombre considérable. On en trouve dans tous les gaz et tous les liquides considérés comme chimiquement purs. L’eau distillée courante en contient 20 000 par centimètre cube. Des quantités très appréciables ont été démontrées dans l’atmosphère à des altitudes voisines de 13 000 m.
- Pour se faire une idée de l’extrême finesse de ces particules, on peut calculer que pour équilibrer le poids d’une petite sphère d’un demi-millimètre de diamètre il faudrait accumuler io9 particules de 0,5 micron (qui ne sont pas encore de la catégorie inframicroscopique). Ces poussières ultra-fines peuvent être décelables par un seul de nos sens : l’olfaction, ou bien encore lorsqu’elles ont pénétré et formé un dépôt dans les montres, les caméras ou les appareils de physique.
- Les suies, particules de carbone et de goudron, alliées à divers hydrocarbures, au soufre et à des matières minérales, appartiennent en général à la catégorie inframicroscopique. Elles ont toutefois la propriété de s’agglomérer
- p.131 - vue 132/560
-
-
-
- Fig. i. — Une vue de Pittsburg, qui passait pour la ville la plus polluée du monde avant le déclenchement d’une lutte énergique qui a considérablement amélioré la situation (Photo U. S. I. S.).
- très facilement en formant des agrégats. Elles ne sont que partiellement retenues par la muqueuse nasale et leur présence dans les poumons est prouvée par un réseau de lignes noires sur la plèvre pulmonaire, signe irrécusable que ces organes appartiennent à des habitants des villes. En raison de leur pouvoir de pénétration dans l’appareil respiratoire, les suies sont dangereuses si elles contiennent des benzo-pyrènes cancérigènes. Leur source principale réside dans les foyers qui brûlent des combustibles solides ou liquides.
- Mais ces mêmes foyers diffusent également des poussières ultra-fines siliceuses, alumineuses et calcaires qui rejoignent dans l’atmosphère des particules de composition voisine transportées par les vents ou provenant de l’usure des chaussées et des bâtiments. Des travaux ont été consacrés aux poussières des centrales thermiques britanniques: les grrvins sont généralement des sphérules creuses qui conservent leur individualité chimique. On a pu ainsi isoler des « infrapoussières » de silice (quartz ou mullite) qui
- comptent pour 35 à 51 pour 100 du total, l’alumine se chiffrant par 21 à 30 pour 100, l’oxyde de fer 5 à 27 pour 100, la chaux 2 à 9 pour 100.
- Le fer est donc représenté dans les poussières qui émanent des charbons cendreux où ce métal est généralement lié au soufre sous forme de pyrites. Mais les poussières ferrugineuses ont encore d’autres origines : elles sont apportées en assez grandes quantités par les vents qui balaient les zones désertiques de l’Afrique du Nord, où l’on rencontre des sols latéritisés. Elles résultent également de la corrosion de l’acier : les particules de rouille jouent un rôle important dans la catégorie inframicroscopique.
- Le cuivre, le fluor et le plomb (ce dernier étant dû aux carburants additionnés de plomb tétraéthyle) sont également présents parmi les poussières ultra-fines.
- Il est encore difficile d’apprécier de manière rigoureuse la nocivité des différentes sortes de poussières. A leur stade actuel, les études qui leur sont consacrées ont surtout pour but de les recueillir et de les doser. Une communication de M. René Challande au Congrès a précisé le moyen actuellement employé pour précipiter électriquement les poussières ultra-fines. Cette précipitation est rendue
- 132
- p.132 - vue 133/560
-
-
-
- possible par Y effet couronne, c’est-à-dire par les champs électriques ionisants qui se créent autour de conducteurs parcourus par des courants à haute tension.
- L’appareil utilisé comporte un tube dans l’axe duquel est tendu un fil fin à travers lequel passe le courant. L’air aspiré dans le tube dépose les poussières sur des grilles porte-objets. Les particules recueillies peuvent ensuite être examinées et dénombrées sous le microscope électronique. Les figures 2 et 3 montrent des échantillons de poussières recueillies par ce procédé.
- Fig. 2. — Spécimens de poussières submicroscopiques et inframicroscopiques recueillies par précipitation électrique.
- (Documents aimablement communiqués par M. René ChallandeJ.
- La pollution fluorée en Savoie
- La vallée de la Maurienne, entre Aiguebelle et Modane, localités distantes de 65 km, est en général d’un grand intérêt pour l’étude de la pollution. Ses quatorze usines, logées au fond d’un étroit couloir que dominent les crêtes alpines, offrent à la fois une gamme étendue de pollutions variées et, au flanc des montagnes, des forêts où les effets ont pu être méthodiquement constatés sur les arbres (fig. 4). C’est la pollution fluorée, due aux usines d’électrolyse de l’aluminium, que, dans une communication au Congrès, M. Bossavy, conservateur des Eaux et Forêts, a particulièrement mise en relief.
- La nocivité du fluor disséminé dans l’atmosphère est bien connue et l’attention s’est portée depuis longtemps sur les usines d’aluminium qui utilisent le procédé Héroult, car l’opération de l’électrolyse fait intervenir un fondant, la crjolithe, dont la formule est AlF6Na3. Il se trouve d’ailleurs que des perfectionnements techniques récents ont permis de réduire considérablement l’usage de ce produit. C’est ainsi que l’usine de Saint-Jean-de-Maurienne (fig. 4), tout en multipliant par 7 sa production depuis 1942, a réussi à diviser par 4 sa consommation de fluor.
- On aurait pu penser que les effets de la pollution seraient diminués d’autant. Il n’en a rien été. Et c’est même à partir de 1956 qu’ils ont pris brusquement un caractère inquiétant. Ce phénomène a coïncidé avec la mise en route d’un atelier où se fabrique la « pâte Soderberg », mélange de
- différents brais issus du pétrole et du charbon. On a tout lieu de supposer que ce produit, récemment introduit dans la fabrication de l’aluminium, diffuse dans l’atmosphère des goudrons qui renforcent la nocivité du fluor. Il s’agirait d’une action synergique qui d’ailleurs reste encore inexpliquée.
- Les dégâts causés aux arbres sont facilement reconnus, même par des personnes peu expérimentées. On a pu se rendre compte que les dommages étaient directement en relation avec le régime des vents. C’est ainsi qu’en aval de Saint-Jean les fumées de l’usine sont chassées, pendant des périodes courtes et irrégulières, par un vent chaud et humide, la « Lombarde » : ces bouffées de pollution provoquent sur les aiguilles des pins un phénomène caractéristique de nécrose.
- Des effets de bien plus grande importance ont été constatés en amont. Les vents dominants de la vallée, soufflant de l’ouest, ne balaient pas les fumées et, tout au contraire, contribuent, semble-t-il, à les rassembler en de minces nuages bleutés que l’on voit s’étager le long des pentes boisées. Il en résulte une attaque permanente des massifs de résineux : les aiguilles sont atteintes d’une nécrose marginale (border-effect ) qui débute par un pâlis se ment et se poursuit par un brunissement qui s’étend peu à peu vers la base de la feuille. L’arbre, perdant ses feuilles, souffre d’une sous-nutrition. On pense que cette déficience provoquée se complique d’une véritable intoxication interne.
- Voici à présent quels sont les dommages constatés sur le périmètre soumis aux émanations fluorées, c’est-à-dire environ 700 ha, peuplés presque exclusivement de résineux :
- Les pertes, c’est-à-dire les sujets que les forestiers ont répertoriés comme secs en 1958, s’élèvent à 16 565 arbres. Dans cette même année la fructification des arbres encore vivants a été très réduite et des sondages ont permis d’évaluer le déficit d’accroissement à 30 pour 100.
- On doit noter une grande différence de sensibilité d’une essence à l’autre. La plus vulnérable est le pin sylvestre, déjà détruit à 60 ou 80 pour 100 selon la distance de l’usine et qui s’achemine vers une disparition totale. Vient ensuite l’épicéa avec un pourcentage de pertes variant entre 25 et
- 64 pour 100. Le sapin (pertes de 3 à 5 pour xoo) s’est révélé plus résistant, de même que le mélèze (moins de 1 pour 100).
- Dans l’espoir de pouvoir rétablir le peuplement avec des essences qui seraient éventuellement moins susceptibles que les autochtones, un essai est en cours avec des pins
- 133
- p.133 - vue 134/560
-
-
-
- Fig. 4. — L’usine d’électrolyse de l’aluminium à Saint-Jean-de-Maurienne.
- A l’arrière-plan, les massifs boisés, atteints par la pollution fluorée.
- (Photo aimablement communiquée par la Société Péchiney,).
- laricios, des chênes rouges, des cèdres, des noyers. Malgré des pertes élevées dans cette nouvelle plantation, on ne peut encore préjuger le résultat car il faut toujours s’attendre à une certaine mortalité parmi les jeunes arbres.
- La protection de la forêt semble devoir être mieux assurée en subordonnant l’activité de l’usine aux phases de la végétation. C’est ainsi qu’en.^1959 on a évité une mise en route
- massive des fours au printemps. La situation paraît s’être sensiblement améliorée.
- Parallèlement l’usine s’est efforcée de diminuer l’émission des poussières. Ses dirigeants font ainsi preuve de compréhension à l’égard des dommages causés à l’environnement végétal : problème dont les incidences sociales ne sont pas à négliger car les ouvriers de Saint-Jean-de-Maurienne sont souvent agriculteurs pendant leurs heures de loisir. Il serait souhaitable, en jugulant la pollution, de pouvoir démontrer que la coexistence de l’industrie et de la vie régionale traditionnelle est chose possible.
- Y. M.
- Un détergent qui favorise l’épuration des eaux usées
- Des laboratoires britanniques ont mis au point une nouvelle sorte de détergent synthétique « doux », destiné à remplacer les produits habituels qui causent de très sérieuses difficultés dans les usines chargées d’épurer les eaux usées et polluées en vue de leur réutilisation. Le principal inconvénient des produits tensio-actifs habituels est d’inhiber l’activité des bactéries qui interviennent dans l’épuration naturelle des eaux et de résister eux-mêmes à la destruction par les bactéries. Le nouveau produit anglais faciliterait au contraire l’activité de ces bienfaisants
- microbes. Les expériences débutèrent en 1958 et furent suivies d’essais pratiques dans la région de Lu ton dont les habitants furent victimes d’une supercherie bienveillante. Pour ne pas troubler les habitudes d’achat de la population, le nouveau produit fut diffusé dans l’empaquetage et sous le nom de marque des poudres et paillettes déjà en usage. Personne, semble-t-il, ne s’est aperçu de la substitution. On songe à étendre cette expérience subversive dans le sud de l’Angleterre (d’après le Water Information Center, New York).
- 134
- p.134 - vue 135/560
-
-
-
- Les extraordinaires possibilités de résistance de certaines larves d’insectes déshydratées
- Les insectes, particulièrement à l’état larvaire, peuvent compter parmi les animaux les plus résistants aux variations du milieu. Cette faculté est développée au maximum chez les larves de Diptères (mouches et moustiques), On a ainsi constaté que des larves hivernantes de la Céci-domyie Xjlodiplosis résistent à des températures dépassant — 20° C, et des larves de Lucilia ont pu supporter, en laboratoire, des chocs thermiques de courte durée allant de -f- 8o° à — io° C. Cependant, ces performances ne sont rien à côté des résultats surprenants des expériences réalisées par H. E. Hinton, de l’Université de Bristol, dont on trouvait un résumé dans Nature (22 octobre i960). Les expériences ont porté sur les larves d’un moucheron Chironomide habitant le nord de la Nigeria et l’Uganda, le Polypedilum vanderplanki.
- Ces larves vivent dans les petites mares temporaires formées par la pluie dans le creux des rochers ; la profondeur de ces mares ne dépasse pas 12 à 20 cm et, pendant la saison des pluies, elles peuvent se remplir et se dessécher plusieurs fois. Quand elles se dessèchent, les larves s’enfouissent dans la boue du fond, se dessèchent avec elle et restent dans cet état jusqu’au retour des pluies ; alors, en une heure environ, elles reprennent vie et commencent à s’alimenter. Le degré de dessiccation dépend de la température et du degré hygrométrique de l’atmosphère. Pendant les journées les plus chaudes, la température de l’air est de plus de 400 C et celle du sol la dépasse de 20° à 300 ; la vase desséchée doit atteindre au moins 70° car elle est encore échauffée par la radiation qui émane des parois rocheuses de la cavité. Cependant, à la profondeur de 4 à 8 cm, à laquelle les larves sont enfouies, et avec la protection des débris végétaux, la température ne doit pas excéder 6o°. Or, les larves qui, actives dans l’eau, peuvent tolérer pendant une heure 430 C, sont bien plus résistantes une fois desséchées ; 93 pour 100 d’entre elles survivent 14 heures à 6i° et 11 heures à 68°.
- En laboratoire ces larves ont supporté dix déshydratations successives, entre lesquelles elles étaient replongées dans l’eau et nourries pendant 1 à 4 jours. Des larves desséchées, gardées à la température et dans l’humidité du laboratoire, ont survécu 39 mois ; remises à l’eau, elles ont repris
- leur activité et leur évolution, donnant des adultes normaux. Pendant toute la période de vie ralentie, le taux d’humidité moyen de leurs tissus était tombé à 8 pour 100, s’élevant sans doute à 20 pour 100 par temps humide. On a pu aussi constater qu’un bon nombre de larves déshydratées, gardées pendant trois ans dans les conditions normales du laboratoire, puis pendant sept ans soumises à l’action du chlorure de calcium, ont repris momentanément vie quand on les a remises dans l’eau ; leur cœur a battu pendant plusieurs heures et elles réagissaient aux excitations externes.
- La résistance des larves desséchées aux variations brusques de température est encore plus extraordinaire. Déshydratées au-dessous de 3 pour 100 par l’anhydride phospho-rique, elles peuvent supporter pendant une minute une température de 10 20 à 104°. Placées dans une étuve à 5 3°-5 50, qu’on élève ensuite à 700, puis à ioo° pendant 5 minutes, elles peuvent vivre 41 heures quand on les remet dans l’eau ; si on les a soumises pendant 3 heures à 1060, elles vivent encore pendant quelque temps et elles peuvent même survivre quelques minutes après une exposition de 5 minutes à 2000. Dans d’autres expériences, des larves desséchées à 8 pour 100 de leur contenu d’eau survivent quand elles sont brusquement plongées- dans l’air liquide (— 1900) ou dans l’hélium liquide (— 2700). Deux lots de cinq larves laissées dans l’air liquide pendant, respectivement, 2 et 77 heures se sont développées ensuite normalement dans l’eau ; quelques-unes d’entre elles sont arrivées jusqu’à la métamorphose. Trois larves plongées dans l’hélium liquide pendant 3 minutes et 6 larves pendant 5 minutes ont toutes repris leur activité une fois remises dans l’eau.
- Enfin, l’auteur a encore montré l’augmentation de la résistance des larves desséchées en présence de certains toxiques. C’est ainsi que des larves qui, à l’état normal, meurent en une minute dans l’alcool absolu, résistent parfaitement à ce traitement une fois déshydratées. De même, sur 33 larves plongées dans l’éthanol pendant 24 heures, 27 ont survécu.
- On peut donc dire que, dans les conditions de l’expérience, ces larves de Chironomides supportent des variations de température allant de •— 2700 à -f- 1020 C.
- , L. C.
- Température rare en Antarctide
- La revue Priroda, de Moscou, continue à signaler les conditions météorologiques relevées régulièrement aux stations antarctiques installées par l’U. R. S. S. (voir Læ Nature, décembre 1959, p. 547 ; mars i960, p. 94). Ainsi, la température, en juin i960, variait entre — 6° C et — 32,6° C à la station Mirny (au voisinage de la côte de la Vérité), et entre — 48,3° C et — 81,i° C à la station Vostok (78° 27' latitude sud), qui est la plus proche du pôle. Le 29 juin, se produisit, à Mirny, la tempête la plus forte qui ait jamais été enregistrée dans cette région. La vitesse
- du vent, à la surface, atteignit 52 m/s. Cette tempête fut la conséquence d’un cyclone qui déplaça, très loin vers le sud, des masses d’air en provenance des tropiques, ce qui entraîna une élévation très sensible et très rapide de la température en Antarctide. Ainsi, dans la nuit du 28 au 29 juin i960, le thermomètre, à la station Vostok, monta de plus de 300 C. La température de + i° C, sans précédent pour cette époque de l’année, fut relevée dans la même région, par une station mobile, au cours de la journée du 30 juin.
- 135
- p.135 - vue 136/560
-
-
-
- La Chine eut aussi ses glaciers quaternaires Mais la région était-elle alors surélevée de 2 000 m ?
- On sait qu’à plusieurs reprises au cours de l’ère quaternaire les glaciers ont recouvert le Nord de l’Europe et de l’Amérique. Ces glaciations ont été beaucoup moins étendues en Asie septentrionale, la plus grande partie de la Sibérie étant restée libre de glaces, à l’exception d’une calotte limitée, située dans le secteur oriental. Or, il y a une vingtaine d’années le professeur chinois Li-Sy-Guan a découvert des traces de glaciers quaternaires en Chine centrale, en particulier dans la partie méridionale de la vallée du Yang-Tsé, et dans la région de Pékin. Ces traces ayant été trouvées à des altitudes de 200 à 300 m, ce qui est anormal pour ces latitudes, M. Li-Sy-Guan, nous dit la revue soviétique Priroda, en a déduit que la région était beaucoup plus élevée à l’époque où elle était couverte de glaces et qu’elle s’est affaissée depuis lors d’au moins z 000 m. L’affaissement aurait même affecté une zone immense dans cette partie du globe. M. Li-Sy-Guan croit en voir une preuve dans le relief de l’Océan Pacifique au voisinage des côtes d’Asie, qu’il a récemment étudié.
- L’Océan y recèle dans ses profondeurs des chaînes de montagnes et de nombreuses vallées, jadis creusées par des fleuves débouchant du continent. La plus septentrionale de ces vallées longe la côte du Kamtchatka dans la mer d’Okhotsk et s’enfonce peu à peu pour aboutir à une fosse de 3 000 m. Plus au sud, la vallée Tatarsky prolonge celle de l’Amour et descend également jusqu’à 3 000 m. Des vallées sous-marines analogues existent près des côtes du Japon et des îles indonésiennes.
- Dans le fond de la mer du Japon on trouve des vallées abruptes entourées de montagnes très élevées dont les plus hauts sommets constituent actuellement des îles. Ici encore le relief résulterait manifestement d’une ancienne érosion terrestre, l’action de la mer n’ayant joué qu’un rôle secondaire, après l’affaissement.
- D’après toutes ces constatations, M. Li-Sy-Guan brosse un tableau de ce que fut, selon lui, l’aspect de cette région avant l’affaissement qu’il imagine. Les énormes plaines alluvionnaires du Yang-Tsé et du Houang-Ho sont des formations récentes. A l’époque glaciaire, de hauts massifs recouverts de glaces et de neige limitaient à l’ouest une vaste plaine argileuse que terminait à l’est une chaîne de montagnes plissées, très hautes également, qui occupaient l’emplacement actuel du Japon. Cette chaîne s’étendait très loin au nord et au sud. Au nord elle était continuée par les montagnes du Kamtchatka. L’Alaska et la presqu’île de
- Thoukotsk faisaient partie d’une seule bande de terres, qui était beaucoup plus qu’un isthme, puisque sa largeur atteignait jusqu’à 2 000 km. Vers le milieu du quaternaire, la partie septentrionale de cette bande de terre était un plateau assez élevé, tandis que sa partie méridionale formait une vaste plaine.
- En résumé, à cette époque, selon M. Li-Sy-Guan, l’aspect des côtes asiatiques du Pacifique ressemblait à celui de ses côtes américaines, une longue chaîne de montagnes élevées longeant partout l’océan. La chaîne asiatique était, tant par son immense longueur que par son relief, une réplique des Montagnes Rocheuses et des Andes.
- *
- * *
- Que penser de cette grandiose reconstitution ? La découverte de glaciers quaternaires en Chine est à tous égards intéressante, et même inattendue, vu la latitude relativement faible à laquelle ces vestiges ont été trouvés. Cependant, l’abondance et l’étendue des dépôts de lœss, formations éoliennes, c’est-à-dire dont les matériaux ont été accumulés par le vent et généralement en provenance de zones dénudées par les glaciations, tend à corroborer l’existence d’anciens glaciers chinois.
- On serait donc mal venu à contester ce fait. C’est l’interprétation qui, à première vue, semble plus aventurée. On admet volontiers que des affaissements ont pu se produire, comme celui de faible amplitude qui a donné naissance à la Mer Jaune. De là à fonder toute une théorie sur un effondrement de plus de 2 000 m intéressant une vaste région, il y a un grand pas que de nombreux géologues hésiteront à franchir, à moins qu’il ne faille remonter pour cela aux confins du Pliocène (fin de l’ère tertiaire).
- En tout cas, la présence des canyons sous-marins (décrits comme étant d’anciennes gorges continentales) ne saurait être retenue comme preuve d’un affaissement de 2 000 m. On sait que ces canyons se retrouvent en bordure de tous les continents et sous toutes les latitudes. Leur genèse est encore mal expliquée, mais on ne peut évidemment la relier à un phénomène général de subsidence.
- Il est vraisemblable que les glaciations quaternaires chinoises recevront une interprétation plus sûre lorsqu’on aura pu délimiter la zone intéressée et connaître l’âge exact où elles se sont situées.
- R. F.
- Scandium... à la livre
- L’ « Union Carbide Corporation » annonce qu’elle a réussi à isoler 450 g de scandium, métal d’une extrême rareté dont c’est la première fois qu’une quantité aussi importante est préparée dans le monde. Le scandium obtenu, dont la pureté est d’au moins 99 pour 100, ressemble extérieurement à de l’argent et se présente sous la forme de deux disques d’environ 8 cm de dia-
- mètre et 2 cm d’épaisseur. Il a été préparé à la demande de l’U. S. Air Force qui pense que ce métal pourrait présenter des propriétés intéressantes, seul ou à l’état d’alliages. Sa densité (2,5) est comparable à celle de l’aluminium (2,7), mais son point de fusion (1 6oo° C) est environ deux fois et demie celui de l’aluminium (659° C).
- 136
- p.136 - vue 137/560
-
-
-
- L’ACTUALITÉ INSTRUMENTALE
- Ensemble potentiostatique pour le tracé automatique des courbes intensité-potentiel
- La mise au point des méthodes électrochimiques d’analyse, les études de corrosion, nécessitent le tracé des courbes intensité-potentiel, ou courbes de polarisation. A cet effet, on réalise en général un montage à trois électrodes (fig. i) comprenant : l’électrode à étudier (électrode dite indicatrice), une électrode auxiliaire inattaquable, en platine par exemple, et une électrode de référence dont le potentiel reste fixe, par exemple une électrode au calomel. La source de courant sert à effectuer
- Source de courant
- Organe régulateur
- < > < )
- Electrode de réference —>-C 0 !> 0
- Electrode indicatrice -*-l L>.Electrode auxiliaire
- Fig. I. — Schéma d’un montage à trois électrodes pour le tracé des courbes intensité-potentiel.
- l’électrolyse.... entre l’électrode indicatrice et l’électrode auxiliaire, tandis que l’organe régulateur maintient la différence de potentiel entre l’électrode indicatrice et l’électrode de référence à la valeur choisie par l’expérimentateur. En faisant varier cette différence de potentiel et en mesurant le courant du circuit d’électrolyse, on trace ainsi la courbe intensité-potentiel de l’électrode indicatrice.
- Ce tracé peut évidemment s’effectuer point par point, en faisant varier progressivement la différence de potentiel imposée, par échelon de quelques mV ou dizaines de mV et en mesurant chaque fois l’intensité. Cette méthode, si elle est d’application commode dans de nombreux cas, a cependant l’inconvénient d’être lente ; par ailleurs, les résultats sont parfois affectés par les conditions opératoires, en particulier par la vitesse et par la régularité plus ou moins bonne de la variation du potentiel imposé.
- On peut éliminer ces difficultés en fixant à la tension de consigne un programme de variation en fonction du temps ; cette façon de procéder a, de plus, l’avantage de faire parfois apparaître des particularités qui échappent au tracé manuel. C’est dans ce but que la firme J. Tacussel a réalisé un ensemble pour le tracé entièrement automatique des courbes intensité-potentiel.
- Cet ensemble comprend quatre éléments principaux : d’abord un potentiostat type ASA4C, c’est-à-dire un générateur de courant continu dont la tension de sortie
- est régulée de manière à maintenir constante la tension appliquée entre les deux extrémités du circuit d’utilisation. Il permet, ici, de maintenir à une valeur constante la différence de potentiel entre l’électrode indicatrice et l’électrode de référence. Cette tension est réglable entre o et 32 V en 2 gammes, le courant de sortie maximal étant de 3 A pour la première gamme, de 1,5 A pour la deuxième. La stabilité est de l’ordre de A 5 mV pour une variation de la tension du secteur de d; 15 pour 100.
- Ce potentiostat est piloté automatiquement par un poten-
- Fig. 2. — Ensemble potentiostatique pour le tracé automatique des courbes intensité-potentiel.
- (Photo J. PelleRiNf).
- 137
- p.137 - vue 138/560
-
-
-
- MASSON ET Cie ÉDITEURS, PARIS
- Collection Évolution Des Sciences
- No 18
- La trame géologique de l’histoire humaine
- par
- H. TERMIER G. TERMIER
- Professeur à la Facullé des Sciences Maître de Recherches
- de Paris au C.N.R.S.
- Si l’on considère les changements subis par la géographie et par le climat depuis vingt mille ans et si l’on tient compte de la découverte successive des ressources minérales des diverses régions, on a la clef de la plupart des grandes étapes qui ont marqué l’histoire de l’Humanité. Ces changements et ces ressources constituent précisément le domaine propre de la géologie. On saisit ainsi tout l’intérêt de ce petit ouvrage, où les auteurs retracent rapidement l’histoire de l’Homme en rapport avec ces divers changements, depuis la période antéhistorique jusqu’à
- « l’âge atomique ».
- Un volume de 186 pages, avec 38 figures et 16 planches hors texte (14 x 22,5). Cartonné sous jaquette. 25 NF
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d’État Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- MATHÉMATIQUES MAGIE ET MYSTÈRE
- PAR
- M. GARDNER
- TRADUIT DE L'AMÉRICAIN PAR R. ROSSET
- x-179 p. 14x22, avec 86 fig. 1961. Broché sous couvert, ill... 8,80 NF
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6*. DAN 99-15.
- MICROSCOPE
- COOKE-Mc
- DE POCHE
- ARTHUR
- Toutes les possibilités d’un bon microscope normal
- Immersion — Fond noir — Éclairage incorporé
- Ag excl. : Éts F. C. DANNATT, S A.
- 198, rue Saint-Jacques, Paris 5e
- 138
- p.138 - vue 139/560
-
-
-
- tiomètre hélicoïdal entraîné par un moteur synchrone et délivrant une tension variant linéairement en fonction du temps qui est appliquée à l’amplificateur du potentiostat ; sa valeur fixe la différence de potentiel imposée entre l’électrode de référence et l’électrode indicatrice.
- La vitesse de rotation du moteur étant constante, on modifie la variation de la tension imposée en fonction du temps, en réglant au moyen d’un commutateur la tension appliquée entre les deux extrémités du bobinage du potentiomètre hélicoïdal. La vitesse d’exploration est ainsi variable entre ioo et 2 ooo mV/heure. On peut
- Fonctionnement en anode
- Fonctionnement en est h ods
- Fig. jj. — Courbe intensité-potentiel d’une électrode d’acier inoxydable en milieu sulfurique.
- Le pic d’activité au voisinage de o volt disparaîtt orsqu’on trace la courbe de retour (potentiels décroissants).
- encore, si on le désire, remplacer le moteur synchrone du modèle standard par des modèles de vitesses de rotation différentes.
- La différence de potentiel entre l’électrode indicatrice et l’électrode de référence est mesurée par un millivolt-mètre électronique (type S6) tandis que le courant d’électro-lyse est mesuré par un milliampèremètre à 9 gammes de o à 3 A.
- Enfin, on peut adjoindre à l’ensemble un suiveur de spot assurant automatiquement l’enregistrement du courant dans le circuit d’électrolyse. Ces divers éléments sont montés en baie, rendant ainsi plus commode l’utilisation de l’ensemble (fig. 2).
- A titre d’exemple, nous donnons (fig. 3) la courbe obtenue lors de l’étude d’une électrode d’acier inoxydable au contact d’une solution d’acide sulfurique dilué. Lorsqu’on décrit la courbe en sens inverse (potentiels décroissants), on constate que le pic d’activité au voisinage de o mV disparaît. Ce pic correspond à la formation d’une couche d’oxyde, responsable de la zone de passivité, entre fi- 100 et fi- 1 200 mV environ. Ce genre de courbe est très difficile à tracer autrement que par exploration automatique. En particulier, il est rare que l’on observe le pic d’activité en tracé manuel. Par ailleurs, les équilibres sont lents à s’établir et dépendent notamment de la vitesse de variation de la différence de potentiel imposée. On conçoit, dans ces conditions, qu’un tracé automatique, où toutes les conditions opératoires sont fixes et connues, présente de nombreux avantages.
- R. R.
- Microscope miniature
- Il est remarquable de constater que jusqu’à présent les microscopes avaient à peu de choses près échappé aux tentatives de miniaturisation et aux transformations d’aspect qu’elles impliquent : c’est désormais chose faite avec l’apparition du microscope Cooke-McArthur dont les dimensions — environ 10 x 7 X 5 cm —• et la conception monobloc en font un véritable instrument de poche.
- Ce microscope possède des performances optiques analogues à celles des appareils plus volumineux, mais le faisceau lumineux s’y trouve replié par des prismes deux fois à angle droit. Les objectifs, secs ou à immersion, sont interchangeables et montés sur un support à tiroir qui permet leur remplacement rapide. Le bloc-prismes fournit une image redressée mais inversée de droite à gauche, ou, pour un autre modèle, une image entièrement redressée afin de rendre plus commode les micromanipulations sur platine.
- Le condenseur, aisément remplaçable, est monté, préfocalisé, sur le bloc-microscope lui-même et peut être protégé pour le transport par le dispositif d’éclairage à miroir.
- Les faibles dimensions et la conception même de cet appareil, sa rigidité ainsi que le fait qu’il peut être utilisé tenu à même la main en font le microscope type tel qu’il est utilisable pour les travaux sur chantier, en visites médicales ou pour les expéditions.
- R. B.
- 139
- p.139 - vue 140/560
-
-
-
- Graphite non poreux
- On sait que les réacteurs atomiques contiennent en général un modérateur (ou ralentisseur), substance destinée à ralentir les neutrons rapides produits par les fissions, en vue d’un meilleur rendement de la réaction en chaîne. Concurremment avec l’eau lourde, le carbone sous forme de graphite est souvent utilisé en raison de son faible poids atomique qui lui confère un pouvoir ralentisseur élevé et aussi en raison du fait qu’il absorbe très peu les neutrons (faible section efficace de capture).
- Encore faut-il débarrasser le graphite des impuretés telles que le bore qui absorbent avidement les neutrons, et il doit être obtenu à un degré de pureté très élevé (pureté dite nucléaire). Toutefois, le graphite ainsi obtenu étant fortement poreux, sa densité est faible et il faut en utiliser des quantités importantes, de sorte que les réacteurs modérés au graphite sont assez encombrants. Par ailleurs, cette porosité introduit quelques complications dans le fonctionnement des réacteurs refroidis par de l’air. Les pores du graphite contiennent de l’air dont l’azote a une section de
- pour piles atomiques
- capture non négligeable et augmente d’environ 6 pour ioo la section efficace du graphite. Il en résulte, quand la pression atmosphérique croît, une diminution de la réactivité de la pile, tandis qu’une élévation de température chasse de l’air des pores du graphite, d’où une augmentation de la réactivité.
- Or, une firme anglaise, la Hawker Siddeley Nuclear Power Company, vient d’annoncer qu’elle avait mis au point des fours de carbonisation et de graphitisation d’un type spécial, permettant d’obtenir un graphite dont la porosité était très inférieure à celle du graphite ordinaire. Le nouveau matériau serait également plus solide et moins oxydable. Dans le domaine nucléaire, cette densité accrue devrait permettre de réaliser des réacteurs moins encombrants et, partant, moins coûteux. On envisage également de l’utiliser dans l’industrie pour les matrices à haute température, les joints de pompe, les creusets pour la fonte des métaux précieux, etc.
- R. R.
- Lampe fluorescente à ouverture
- Un nouveau type de lampe fluorescente vient d’être mis au point aux États-Unis afin de réaliser une source linéaire étroite possédant une luminance plus élevée que les lampes fluorescentes de type normal, et sans augmentation de la puissance fournie. Ces avantages sont obtenus par les réflexions mutuelles à l’intérieur de la lampe dont la couche de substance luminescente, au lieu de recouvrir complètement tout l’intérieur du tube, est interrompue sur une bande plus ou moins étroite (a = 3o à 6o°) tout le long du tube. La luminance de cette ouverture est augmentée d’un facteur 2 en déposant une couche réfléchissante entre la substance luminescente et le verre de l’enveloppe. L’arc au mercure étant en contact du verre dans la région de l’ouverture, il est nécessaire d’utiliser un verre spécial pour éviter une perte de lumière.
- Des luminaires spécialement étudiés permettent d’améliorer les conditions d’éclairage avec ces lampes, dont l’emploi est indiqué lorsqu’on désire un faisceau de largeur étroite et d’intensité lumineuse élevée afin d’obtenir une répartition de lumière contrôlée. H. M.
- Enveloppe en verre
- Couche
- réfléchissante
- Substance
- luminescente
- Fig. 1. — Coupe schématique de la lampe fluorescente à ouverture.
- Vestiges d’un village préhistorique à Samarcande
- Les premiers vestiges d’un établissement humain préhistorique ayant existé à l’emplacement même de la ville de Samarcande furent découverts, au centre même de la ville, en 1939. On y trouva notamment des débris d’outils en silex, des monnaies en cuivre, des articles en céramique et des traces de bûchers. Les excavations furent reprises en 1958 et 1959, ce qui permit d’établir que le début de cet établissement préhistorique date du paléolithique supérieur. Les divers vestiges ont été trouvés à des profondeurs comprises entre 1 m et 2,15 m. A cette dernière profondeur, on découvrit, par exemple, des
- outils ayant plus ou moins la forme de grosses haches et pesant parfois 600 g. L’examen attentif des débris et des autres traces a permis d’affirmer que les habitants du « village de Samarcande » s’adonnaient principalement à la chasse et vivaient dans des habitacles construits en argile et en jonc. Les outils en silex étaient fabriqués dans le village même. Certains objets en pierre plus massifs diffèrent nettement des objets analogues et datant de la même époque, découverts en Europe tant orientale qu’occidentale. Au contraire, ils s’apparentent à ceux qu’on a trouvés en Chine et en Sibérie. C, M.
- 140
- p.140 - vue 141/560
-
-
-
- Le Ciel en Avril 1961
- SOLEIL : du 1er avril au Ier mai (à o'1) sa déclinaison croît de -j- 4°227 à -j- 14°56/ e1 la durée du jour de I2l'49m à ;
- diamètre apparent le Ier = 32'3",6, le 30 — 31'47",8. -— LUNE : Phases : P. L. le Ier à 5648™, D. Q. le 8 à iohi6m, N. L. le 15 à 5h38m, P. Q. le 22 à 2ih5om, P. L. le 30 à 18h41m ; périgée le 11 à 8*1, diamètre apparent 32729" ; apogée le 23 à ioh, diamètre apparent 3i/48". Principales conjonctions : avec Neptune le 3 à ioh, à 2°59/ N. ; avec Saturne le 9 à 6h, à 3°5 N. ; avec Jupiter le 9 à 14*1, à 3°i' N. ; avec Mercure le 13 à 2ih, à o°i6' S. ; avec Vénus le 14 à iih, à io°4i/ S. ; avec Mars le 22 à 5h, à 5°26/ S. ; avec Uranus le 24 à 146, à l°56/ S. ; avec Neptune le 30 à 1711, à 2°54' N. Principales occultations : le 8, de 171 B. Sagittaire (mag. 6,1), émersion à 3h3m,7 ; le 18, d’Aldébaran (mag. 1,1), immersion à I2hi5m,i et émersion à i3h8m,4, à observer en plein jour, à la lunette. — PLANETES : Mercure, noyé dans le rayonnement solaire est invisible ; Vénus, encore étoile du soir les premiers jours du mois, puis disparaît aux environs du il, pour devenir étoile du matin dans la seconde moitié du mois ; Mars, dans les Gémeaux est visible jusqu’à 2 heures du matin, le 16 ; diamètre app. 6",6 ; Jupiter, dans le Sagittaire, belle étoile du matin, se lève le 19 à 2h3m, soit 2h 51m avant le Soleil ; Saturne, dans le Sagittaire, apparaît une quinzaine de minutes avant Jupiter ; Uranus, dans le Lion, s’observe encore la majeure partie de la nuit, le 16, position : 9h37m et + 14°58^, diamètre app. 3",8 ; Neptune, dans la Balance, est visible toute la nuit, en opposition
- avec le Soleil le 30, le 16, position : I4h34m et — I3°l 1', diamètre app. 2",4. — ÉTOILES VARIABLES : minima observables d’Algol (2m,2-3m,5) le 17 à ih,2, le 19 à 22h,o ; minima de [3 Lyre (3m,4-4m,3) le 11 à 166,7, le 24 à 15^,1 ; minima de 8 Balance (4m,8-5m,9) le 4 à 3h,7, le 11 à 3h,3, le 18 à 2^9, le 25 à 2h,4 ; maxima de RR Sagittaire (5m,6-14rtl,o) le 3, de R Gémeaux (6m,o-i4m,o) le 10, de R Aigle (5m,7-i2m,o) le 26. — TEMPS SIDÉRAL : au méridien de Paris à O*1 (T. IJ.) : le Ier : I2h45m48s, le 11 : 13h2511114S, le 21 : I4h4m39s, le Ier mai : I4h44m5s.
- Phénomènes intéressants : On surveillera encore l’activité solaire. — Du 17 au 21, lumière cendrée de la Lime, le soir. — Le 11, Vénus en conj. infér. avec le Soleil, à 7°8' N., en profiter pour essayer d’apercevoir en plein jour, dans une petite lunette, son fin croissant, comme un fil doré. — Les planètes Uranus et Neptune sont toujours commodément observables. — Le 18, on ne manquera pas d’observer l’occultation d’Aldébaran, durée minutes, à la lunette, en plein jour, l’immersion se faisant au bord obscur et l’émersion au bord lumineux, la Lune à son 4e jour présentant alors l’aspect d’un élégant croissant. — Étoiles filantes : du 19 au 22. Lyrides (radiant 104 Hercule), rapides à traînées persistantes,
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur. L. Tartois.
- L ES LIVRES NO
- Annuaire astronomique et météorologique Camille Flammarion, publié par l’Observatoire de Juvisy. 1 vol. 12,5 X 1 8,5, 398 p., 39 fig., nombreux tableaux. Flammarion, Paris, 1961. Prix : 16 NF.
- Outre les généralités habituelles, tenues à jour comme il convient, cet annuaire, dont voici la 97e année, fournit toutes les indications utiles aux observateurs. Quelques pages sont consacrées à la Radioastronomie et un dernier chapitre concerne la Physique du Globe et la Météorologie. On y trouvera aussi un tableau des satellites artificiels, témoin du soin que prennent les auteurs de présenter un tableau complet de tout ce qui touche aux sciences de la Terre et du Ciel.
- Satellites artificiels et engins extra-terrestres, par André Danjon, de l’Institut, directeur de l’Observatoire de Paris, avec la collaboration de Paul Muller, astronome à l’Observatoire . de Paris. 1 vol. 22 X 28, 64 p., 97 fig. Flammarion, Paris, i960. Prix : 8 NF.
- Ce beau volume, excellemment illustré, a été conçu pour former le Livre VIII de Y Astronomie populaire Camille Flammarion, dont une édition complètement remaniée avait paru en 1935, mais il constitue un tout qui peut se lire isolément. M. André Danjon, qui avait dirigé la refonte du célèbre ouvrage, a confié la rédaction de ce chapitre à M. Paul Muller, spécialiste français de l’observation des satellites. Décrivant les divers engins, les résultats déjà obtenus et exposant les perspectives d’avenir, les auteurs se sont moins attachés aux questions de propulsion, de balistique et de lancement qu’à leur apport scientifique au point de vue de l’astronomie et des sciences connexes.
- Le calcul mental à la portée de tous, par Robert Tocquet. 1 vol. 15 X 20,5. Les Productions de Paris, Paris, i960. Prix : 8,50 NF.
- L’auteur qui, dans un autre livre, a voulu nou s aider à « cultiver notre cerveau » par des moyens à la fois intellectuels et physiologiques, nous
- apporte ici les secrets des calculateurs prodiges que, selon lui, nous pouvons, sinon égaler, du moins imiter. Bien des recettes données ici sont certes bonnes, sans parler des simples « trucs », dont les résultats n’étonnent que les non-initiés. Mais on doute que chacun puisse arriver aux performances qui, pour une grande part, sont fondées sur une prodigieuse mémoire, parfois même maladive. Quand l’auteur parle de « médiumnité » et de phénomènes « paranormaux », notamment pour les animaux calculateurs, on se permet d’être sceptique. Mais il est vrai qu’on peut faire des dressages amusants.
- Cours de mécanique du vol, par A. Turcat, 2e édition. 1 vol. 16 X 25, 172 p., 115 fig. Dunod, Paris, i960. Prix : 20 NF.
- Deuxième édition d’un cours destiné aux élèves de l’École des pilotes et ingénieurs d’essai. A signaler comme nouveauté une prise en considération complète des caractéristiques du vol supersonique.
- Dictionnaire-Agenda-Annuaire atomique 1961, publié par la revue Industries Atomiques. 1 vol. 17 X 24, 328 p. Éditions René Kister, Genève ; éditions de la Grange-Batelière, Paris, 1961. Prix : 17 NF.
- Ce volume, véritable « annuaire de l’atome », comprend : un agenda étendu, un éditorial sur l’année nucléaire i960, une liste à jour des fournisseurs dans le domaine de l’atome, un dictionnaire nucléaire très complet de 100 pages rédigé par Jean Combe, physicien au C. E. R. N., des tables de constantes nucléaires, les caractéristiques des centrales atomiques existantes ou en projets, les adresses des centres atomiques nationaux et internationaux, etc. Une abondante publicité, judicieusement groupée et un service de renseignements aux lecteurs, ne sont pas les moindres attraits de cet agenda que voudront posséder tous ceux qui s’intéressent de près ou de loin à l’atome. Aussi, féliciterons-nous sans réserve son éditeur en souhaitant que cette initiative
- U V E A U X
- soit reprise pour les diverses branches de la science moderne. — R. R.
- Amplificateurs magnétiques, par H. F. Storm, avec la collaboration de E. F. W. Alexander-son et de nombreux auteurs. Trad. de l’américain par H. Aberdam. i vol, 16 X 25, xxvm-560 p., 368 fig. Dunod, Paris, i960. Prix, relié toile sous jaquette : 79 NF.
- Après trois chapitres consacrés à des généralités sur le magnétisme (théorie sommaire, matériaux et mesures), l’auteur aborde de façon assez progressive l’étude théorique et pratique des amplificateurs magnétiques en monophasé, partant de la simple inductance à saturation variable, pour aboutir à l’inductance à réaction intrinsèque bloquée, désignée ici sous le nom d’ « amplistat » Deux chapitres sont ensuite consacrés à la technologie des [noyaux et des redresseurs. L’ouvrage s’achève enfin par quelques chapitres consacrés aux applications (radiotéléphonie, nombreux circuits de régulation, applications dans les asservissements, etc.). Bibliographie. Index.
- Précis de Chimie organique générale, par C. Prévost, i vol. 11 X 16, vm-141 p., 11 fig. Monographies Dunod, Paris, i960. Prix, relié toile souple : 12 NF.
- L’auteur a rassemblé les notions essentielles de chimie générale indispensables à l’étude de la chimie organique descriptive, telle que la prévoit le nouveau certificat de chimie organique, alors qu’on a reporté aux certificats de chimie générale les généralités de cette discipline. L’auteur traite de l’analyse organique, insiste surtout sur la constitution des molécules et aborde également le domaine très moderne du mécanisme des réactions. «
- Gas Chromatography Abstracts 1958, compilés et édités par C. E. H. Knapman avec la collaboration de C. G. Scott, i vol. 16 X 25,5, vm-262 p. Butterworths Scientific Publications, Londres, i960. Prix, relié : 42 sh.
- Le développement de l’analyse des gaz par
- 141
- p.141 - vue 142/560
-
-
-
- chromatographie est tellement important que l’on a pensé faire œuvre utile en faisant paraître un recueil d’extraits ne concernant que cette branche de l’analyse. Le présent volume concerne l’année 1958 et comporte près de 500 analyses classées par ordre alphabétique des auteurs mais qu’une table détaillée par sujet permet de retrouver aisément.
- Technique métallographique, par A. Roos. 1 vol. 14 X 22, 132 p., 125 fig. Dunod, Paris, i960. Prix : 13,50 NF.
- Ce manuel qui réunit l’ensemble des connaissances et des données indispensables aux préparateurs et praticiens pour préparer les surfaces, doit permettre aux étudiants, ingénieurs et agents de laboratoire de se rendre compte du domaine d’application de la micro- et de la macrographie et de s’initier à leur emploi, puis de se perfectionner. Il donne l’essentiel des méthodes de polissage mécanique, ainsi que les formules pour le polissage électrolytique, l’attaque chimique et l’attaque anodique. De nombreux exemples permettent de suivre les étapes de la préparation des surfaces, de comparer les résultats des divers modes de préparation et d’éviter des erreurs. — H. G.
- Précis de Chimie biologique, par Jean-Émile Courtois et Roland Perlés. Tome II. Collection de Pré. is de Pharmacie publiée sous la direction du professeur M.-M. Janot. i vol.
- 16,5 X 21,7, 620 p., 52 fig. et 61 tableaux. Masson, Paris, i960. Prix, relié toile demi-souple : 46 NF.
- Deuxième tome d’un précis qui embrasse l’étude des lipides, des hormones stéroïdes et des protides, et s’achève par de longs développements sur l’exploration fonctionnelle des principaux organes et humeurs. Chaque constituant biochimique est envisagé sous le rapport de ses propriétés physiques et chimiques, de sa recherche analytique et de son dosage, de son métabolisme enfin. L’ouvrage fait place aux récentes acquisitions touchant à la biogenèse des phospholipides, des acides nucléiques, des porphyrines, des hémoglobines anormales. Précieuses informations sur les explorations fonctionnelles au moyen des éléments marqués. Vaste travail de synthèse qui se recommande par le soin avec lequel méthodes et techniques sont soumises à critique. — J. G.
- Les noms des fleurs, par Lucien Guyot, professeur à l’École d’agriculture de Grignon et
- Pierre Gibassier, licencié ès Lettres. 1 vol.
- 11.5 X 17,5, 128 p. Collection Que sais-je ? Presses Universitaires de France, Paris, i960. Prix : 2,50 NF.
- Le botaniste et le linguiste, qui s’étaient déjà associés pour nous expliquer l’origine des noms des plantes alimentaires et industrielles, puis des noms des arbres, traitent cette fois des noms des fleurs, indigènes et étrangères. Ouvrage très sérieux, qui serait peut-être plus commode à consulter sous forme de dictionnaire.
- Lumière et floraison, par Claude-Charles Mathon et Maurice Stroun. i vol. 11,5 X 17,5, 128 p., 20 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, i960. Prix : 2,50 NF.
- Les deux auteurs, botanistes mitchouriniens, donnent ici un exposé du photopériodisme : latitude et floraison ; lumière et développement ; mécanisme de l’induction florale. On sait l’importance de ces questions en agriculture.
- Naissance et déviation de la théorie cellulaire dans l’œuvre de Théodore Schwann, par
- Marcel Florkin, professeur à l’Université de Liège. Préface de Jean Rostand, de l’Académie française. 1 vol. 17,5 x 24,5, 236 p., nombr. illustrations. Actualités scientifiques et industrielles, Hermann, Paris, i960. Prix : 24 NF.
- L’éminent biochimiste qu’est M. Marcel Florkin apporte une très belle contribution à l’histoire de la Biologie, bien plus complète que son titre ne l’indique : c’est en réalité une étude approfondie de l’œuvre et de la vie du grand médecin et naturaliste allemand dont toute la carrière universitaire se déroula en Belgique, principalement à Liège. Figure plus qu’estimable, mais déconcertante par certains côtés. Dès ses premiers travaux, il cherche à fonder la physiologie sur la mesure et sa pensée est essentiellement mécaniste. Son grand mérite est d’avoir été un des premiers à concevoir la généralité de la constitution cellulaire des êtres vivants et de l’avoir soutenue par des observations très précises. Après l’âge de 30 ans cependant, sa carrière de chercheur n’offre plus rien de très remarquable et son biographe s’efforce d’expliquer cette étrange stérilisation.
- Les Reptiles vivants du Monde, par Karl P. Schmidt et Robert F. Inger. i vol.
- 22.5 X 28,5, 286 p., 266 photos dont 145 en couleurs. Hachette, Paris, i960. Prix, cartonné toile : 50 NF.
- Après Les Mammifères vivants du Monde, d’Ivan Sanderson, Hachette nous présente les Reptiles, décrits par deux savants américains, dans une traduction faite par M. Michel Chrestien sous la direction de M. Jean Guibé, professeur au Muséum de Paris. Deux livres destinés au grand public mais qui satisferont aussi les naturalistes ; ils complètent très heureusement les traités de zoolo-
- --- A NOS LECTEURS ------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- gie et de physiologie animale. En effet, les indi' cations anatomiques y sont réduites au minimum et on n’y trouve pas de chapitres spéciaux sur la physiologie et le comportement, mais les divers groupes de la classification, voire les genres et même les espèces lorsqu’un intérêt spécial s’y attache sont décrits de façon assez complète avec toutes leurs particularités les plus remarquables. Le tout est entremêlé de récits et de réflexions qui entretiennent l’intérêt sans constituer des digressions. Des index permettent de consulter facilement ces superbes livres, copieusement illustrés. L’excellence et la beauté de l’illustration sont pour beaucoup dans le succès actuel de maint livre d’histoire naturelle.
- L’homme et le monde vivant, par le docteur Karl von Frisch, professeur de Zoologie à l’Université de Munich. Trad. par Geneviève Koest, conservateur à la Bibliothèque de la Faculté de Médecine de Nancy. 1 vol. 14 x 19,5 452 p., 191 fig. Collection Sciences d’aujourd'hui. Albin Michel, Paris, i960. Prix : 15 NF.
- L’illustre savant qui, par des expériences d’une rigueur et d’une ingéniosité admirables nous a découvert le langage des abeilles, est aussi un vulgarisateur de talent. Ce livre est en quelque sorte un petit traité de biologie générale à l’intention du grand public et de la jeunesse. Dans la ire partie, il s’efforce de définir la vie et ses formes diverses. La 2e nous introduit dans l’intimité des organes et de leurs fonctions. La 3e montre comment l’être vivant règle ses relations avec le monde extérieur, selon des modalités variées. La 4e est une courte leçon sur la reproduction et les rites qui l’accompagnent. La 5e décrit quelques modes typiques de développement. Les 6e et 7e parties nous initient aux grands problèmes de l’hérédité et de l’évolution. Mais tout cela se présente plutôt sous forme d’aimables causeries dans un style familier, où le pittoresque a sa place, et on ne saurait imaginer d’initiation plus agréable.
- La vie sociale des animaux, par Marcel Sire. Préface de Pierre-P. Grasse, de l’Institut. 1 vol. 12 x 17,5, 192 p., nombr. fig. Collection Le Rayon de la Science. Éditions du Seuil, Paris, i960. Prix : 4,50 NF.
- L’auteur, qui nous avait donné il y a quelques années un excellent livre élémentaire sur l’intelligence des animaux, a réussi dans ce petit livre à exposer tout l’essentiel d’un vaste sujet, sur lequel on a déjà beaucoup écrit et sur lequel, à défaut d’en savoir davantage, on s’est complu aux interprétations les plus contestables. Mais depuis quelques années, les observations de caractère vraiment scientifique se sont multipliées. On a mieux observé et on a, aussi, expérimenté. En même temps la physiologie, et notamment la physiologie nerveuse, est venue apporter son concours et on peut parler d’une psycho-physiologie. L’auteur a adopté une classification raisonnable qui permet de distinguer clairement, d’une part comportement individuel et comportement social, d’autre part ce qui revient à de purs mécanismes physiologiques et ce qui est proprement psychologique. Il étudie successivement les groupements sociaux d’invertébrés, les sociétés supérieures d’insectes, les groupements et sociétés de Vertébrés, et livre quelques conclusions où s’esquisse une sociologie animale. Petit lexique et courte bibliographie.
- Grundriss der allgemeinen Mikrobiologie, par Wilhelm Schwartz et Adelheid Schwartz. Tome I. 1 vol. 10,5 X 15,5, 147 p., 25 fig. Walter de Gruyter, Berlin, i960.
- Réédition complétée d’un petit ouvrage très dense exposant avec précision les données classiques sur la morphologie, la systématique et le métabolisme des microorganismes (bactéries, champignons, algues, protozoaires). Physiologie du mouvement et écologie sont étudiées dans le second tome.
- Quelques problèmes biologiques de la radioactivité alimentaire, par le Dr Georges Cuvier inspecteur divisionnaire de la Santé honoraire.-1 brochure 13,5 X 18 31 p., 5 fig
- 142
- p.142 - vue 143/560
-
-
-
- Édition du Palais de la Découverte, Paris, i960. Prix : 2,57 NF.
- L’auteur expose des travaux assez peu connus sur la radioactivité des produits organiques, notamment du vin, et il rappelle le rôle de la radioactivité naturelle en biologie ; puis il examine le danger des pollutions radioactives des aliments et les principes d’une surveillance efficace.
- Lyon, ville industrielle. Essai d'une géographie urbaine des techniques et des entreprises, par Michel Laferrèrk. 1 vol. 16 X 24,5, xn-546 p.,
- 32 fîg., une pochette de documents. Presses L'niversitaires de France, Paris, i960. Prix : 30 NF.
- Cette remarquable thèse de doctorat constitue un essai de géographie urbaine des techniques et des entreprises. Après une présentation de Lyon et de son activité, l’auteur étudie la soierie lyonnaise, puis la métallurgie et, enfin, les industries chimiques. D’excellentes monographies sont consacrées aux firmes Berliet, Richard, Seguin. Le rôle des individus et des capitaux est bien mis en lumière. Voilà un livre complet et bien écrit qui développe les passages dus au même auteur dans le récent volume paru dans la collection Erance de demain (chez le même éditeur) : Ea région lyonnaise, dont nous avons rendu compte dans le numéro de novembre i960. — P. W.
- La Normandie, par René Musset, i vol.
- 11.5 X 16,5, 220 p., 15 fig. Collection Armand Colin, Paris, i960. Prix : 4,50 NF.
- L’évolution économique de la Normandie, si profonde depuis la Libération, demandait une mise au point sérieuse. Nul mieux que le doyen Musset ne pouvait donner cette synthèse : après un exposé d’ensemble, l’auteur décrit les « pays » variés qui composent la province et accorde une place importante aux ports et aux agglomérations urbaines (Rouen, Le Havre, Caen). Excellent petit instrument de travail.
- Images du Monde, par Paul Vialar. — Images de Grèce, par Marie Delcourt. Chaque vol.
- 13.5 X 19, resp. 182 p. et 230 p. Wesmael-Charlier, Namur et Paris, 1959. Prix, chaque vol. : 9,90 NF.
- Charmants volumes sans prétention, écrits au fil de la plume, mais d’un style alerte et vivant. Vialar insiste sur des impressions espagnoles, Scandinaves et surtout nord-américaines, recueillies au cours de voyages effectués pour l’Alliance française, Marie Delcourt nous promène en Grèce, celle des dieux et des penseurs antiques, des bardes et des poètes, des philosophes et des tragiques ; mais aussi la Grèce d’aujourd’hui, riante et misérable, aride et plantureuse, orthodoxe et païenne.
- Notes d’histoire du Gabon, par l’abbé A. R. Walker. 1 vol. 21 x 27, 158 p., 8 cartes et illustr. Mémoires de l’Institut d’Études Centrafricaines (n° 9), Brazzaville, i960.
- Précédé par une introduction et muni de notes dues à M. Soret, ce recueil est écrit par un enfant du Gabon, le meilleur connaisseur de son pays, français depuis plus d’un siècle. C’est dire la valeur du travail qui nous est présenté ici, centré sur quelques grandes figures gabonaises et sur l’histoire de quelques tribus. Passionnant comme un récit d’aventures, mais solidement documenté.
- Les matières plastiques, par Jacques Gossot. 2e édition. 1 vol. 12 X 18, 268 p., 77 fig. Dunod, Paris, i960. Prix : 12,50 NF.
- Ouvrage de vulgarisation dans lequel sont réunies les bases essentielles de l’industrie des matières plastiques qui est en constante évolution et dont les réalisations surprenantes interviennent cons-
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- tamment dans la vie courante. Après avoir présenté les propriétés essentielles des matières plastiques ainsi que les matières premières qui servent à leur préparation, l’auteur passe en revue les diverses matières plastiques utiles en tant que matières premières : poudres à mouler, stratifiés, résines liquides, films, feuilles, etc., ainsi que leur mise en œuvre par usinage, assemblage, collage, soudage, etc., leur impression, métallisation, etc., et leur contrôle.
- Ces inconnus ont fait le siècle, par Pierre Rousseau. 1 vol. 15 X 21, 332 p., 16 photos hors texte. Hachette, Paris, i960. Prix, cartonné : 13,50 NF.
- Pierre Rousseau a eu la bonne idée de tirer de l’oubli un bon nombre d’inventeurs à qui nous
- devons, autant qu’aux savants et ingénieurs illustres, des nouveautés qui à des titres divers se sont intégrées dans la vie économique ou dans la vie familière. A vrai dire, les gens un peu instruits connaissaient déjà le four Bessemer, l’acier Thomas ou Martin, les couches de Heaviside. Mais que savent-ils de la vie de ces hommes ? D’autres, tout aussi importants, nous étaient presque inconnus en effet. On sait comment Pierre Rousseau sait faire revivre ses personnages : presque un peu trop au goût de certains. Ses fidèles trouveront ici un de ses meilleurs livres, dont les chapitres s’intitulent : les hommes de l’acier ; ceux de l’électricité ; quatre de l’électronique ; le père des robots ; architectes de la mer ; ceux qui nous ont donné le moteur ; ce siècle de béton. Que d’anecdotes, et que de drames !
- NpkŸeAuté
- CH. LEMONNIER tOH
- DES CRAIES ARTISTIQUES AUX MILLE RESSOURCES
- Par Leurs Qualités exceptionnelles les CRAIES NEOCOLOR sont particulièrement appréciées de l’artiste, du maQuettiste, du décorateur. Exemptes de toute matière nocive, elles sont précieuses pour l'enseignement du dessin aux enfants.
- D'UNE LUMINOSITE INCOMPARABLE
- el/es s'a/ÿUriçuetitsuA. TOUT
- Très fortement pigmentées et résistantes au soleil, les CRAIES ARTISTIQUES NEOCOLOR permettent de travailler, même en grande surface, sur papier, carton, bois, textile, métal, verre, plastiçues, plâtre, etc.
- satisf&htà itnts Cezçetiies
- Les CRAIES ARTISTIQUES NEOCOLOR employées à sec permettent la technique du grattage. Diluées dans le FOTOL (diluant caran D'ACHE) ou la térébenthine, elles s'appliQuent au pinceau donnant les effets de lavis ou de peinture à l'huile.
- £ffe7 tU gtaffcÿe.
- En boîtes : 10, 15 et 50 couleur*
- DISTRIBUÉ par CORECTOR-ADHÉSINE
- 143
- p.143 - vue 144/560
-
-
-
- HISTOIRE
- DE
- L'AVENIR
- “ Ni science-fiction ni anticipation, ce livre pourquoi les progrès de la science peuvent ne pas continuer indéfiniment ! ”
- 9,90 NF
- PAR
- Pierre
- ROUSSEAU
- CES
- INCONNUS
- ONT FAIT LE SIÈCLE
- "Leurs Inventions sont entre toutes les mains”
- 13,50 NF
- H A C H E T T E
- VIENT DE PARAITRE
- MONOGRAPHIES DUNOD
- THEORIE DES ONDES
- DANS
- LES PLASMAS
- PAR
- J.-F. DENISSE
- Astronome titulaire de !'Observatoire de Paris.
- J.-L. DELCROIX
- Maître de Conférences à la Faculté des Sciences de Paris.
- xn-168 pages 11x16, avec 40 figures. Relié toile souple.................. 16 NF
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6". DAN 99-15.
- Hermann et C'% Paris - Nicola Zanichelli, Bologna - Atlas Publ. & Distr. Co., Ltd., London - Stechert-Hafner Inc., New York - H. Bouvier u. Co., Bonn a/Rh - Gerold & Co., Wien - Librairie Payot S. A., Lausanne - F. Stuyck, Madrid - F. Machado A: C", Porto -The Maruzen Co., Tokyo.
- " SCIENTIA "
- REVUE INTERNATIONALE DE SYNTHÈSE SCIENTIFIQUE
- UNE REVUE QUI TRAITE DE TOUTES LES SCIENCES (1961 - 55° année)
- Directeur : P. BONETTI
- Comité Scientifique : G. ABETTI - R. ALMAGlÀ - L. CALI-FANO - L. CANESTRELLI - G. COLONNETTI - F. GIORDANI -M. GORTANI - G. LEVI DELLA VIDA - G. MONTALENTI -A. NICEFORO - E. PERSICO - E. PADOA - F. SEVERI
- S. TONZIG
- « SCIENTIA » est la seule Revue de son genre qui : ait une diffusion mondiale - traite les problèmes les plus récents et les plus fondamentaux de chaque branche du savoir - puisse se flatter d’avoir parmi ses collaborateurs les savants les plus illustres du monde entier - publie les articles dans la langue originale de leurs Auteurs (français, italien, anglais, allemand, espagnol). - Chaque fascicule contient en Supplément la traduction française intégrale de tous les articles publiés dans le texte dans une langue autre que le français - C’est pourquoi
- « SCIENTIA » offre le plus grand intérêt à tous ceux qui, dans tous les Pays, recherchent le Savoir.
- Des renseignements, prospectus et un fascicule gratuit ancien vous seront expédiés contre envoi à
- " SCIENTIA " - ASSO (Como, Italie)
- de 1 NF (ou somme équivalente en autre monnaie) en timbres-poste de votre Pays, préférablement de la poste aérienne pour remboursement des frais d’expédition et d’affranchissement.
- Pour un fascicule de l’année en cours, veuillez envoyer 4,50 NF F qui seront déduits du prix de l’abonnement.
- ABONNEMENTS : U. S. dollars 14,00 (ou somme équivalente en francs français)
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : iBr trimestre 1961, n° 3737. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 4a4o. — 3-IQ6i.
- 144
- p.144 - vue 145/560
-
-
-
- Le microscope électronique à très haute tension
- permet
- rvation de
- En deux séances reèenfésf de l’Académie des Sciences, M. Gaston Dupouy, ancien directeur du Centre national de la Recherche scientifique, a fait connaître les premiers résultats obtenus au Laboratoire d’Optique électronique du C. N. R. S. qu’il dirige à Toulouse, à l’aide d’un nouveau microscope électronique fonctionnant sous des tensions exceptionnellement élevées, qui peuvent atteindre 1,5 million de volts. Pour la première fois, des bactéries vivantes ont pu être observées au microscope électronique, et des domaines nouveaux sont ainsi ouverts aux applications de cet instrument, principalement en biologie.
- Avant de voir comment l’observation de cellules vivantes était liée à l’emploi de très hautes tensions, c’est-à-dire d’électrons très rapides, de haute énergie, il n’est pas inutile de se remémorer les principes qui sont à la base de la microscopie électronique. Nous rappellerons donc d’abord pourquoi le grossissement, ou plus précisément le pouvoir séparateur du microscope électronique est en grand progrès par rapport au microscope à lentilles de verre, ou microscope optique. Et nous verrons alors que si ce pouvoir séparateur croît théoriquement avec l’énergie des électrons, il connaît toutefois des limites d’ordre technologique qui
- cellules vivantes
- font que les grossissements obtenus avec le nouvel appareil ne sont pas, jusqu’ici, très supérieurs à ceux qu’on obtient couramment avec les microscopes électroniques déjà classiques.
- On sait que l’œil humain ne peut déchiffrer que les messages transportés par des vibrations lumineuses dont la longueur d’onde est comprise dans une étroite bande, de 0,4 à 0,8 micron environ. Les instruments d’optique, interposés entre l’objet et l’œil de l’observateur, permettent d’agrandir l’image rétinienne et enrichissent le message de la lumière. On a pu croire autrefois que la construction de lentilles de verre de plus en plus parfaites permettrait d’accroître sans limite le pouvoir séparateur des instruments d’optique, c’est-à-dire de former des images distinctes de points de l’objet de plus en plus rapprochés. Il fallut pourtant rapidement déchanter. La perfection des appareils n’implique pas en effet, que l’on parvienne à rendre visibles des détails dont la dimension se réduirait indéfiniment. Il existe une barrière naturelle que l’on ne peut franchir : au-dessous de certaines dimensions, c’est la lumière elle-même qui devient incapable de traduire une structure dans des objets trop petits car la lumière a, elle aussi, sa structure et devient un messager trop grossier.
- Fig. 1. — Vue d’ensemble de la sphère et du Laboratoire d’Optique électronique de Toulouse (Photo Yan).
- p.145 - vue 146/560
-
-
-
- « Lorsqu’on éclaire un objet, écrit M. Jean Terrien 0, on dirige sur lui des ondes lumineuses. Deux points voisins, lorsqu’ils reçoivent des ondes, les renvoient comme s’ils les produisaient eux-mêmes, et sont vus comme deux points lumineux distincts, à la condition que leur distance soit grande devant la longueur d’onde. Mais s’ils sont trop rapprochés, à une distance plus petite que la longueur d’onde, c’est l’ensemble de ces deux points qui réémet de la lumière, et aucun instrument d’optique ne pourra faire voir autre chose qu’un seul point lumineux. De même, dans un bassin d’où émergent deux piquets, chacun sera vu entouré d’un système de rides lorsque la surface de l’eau est parcourue par des ondes, si ces piquets sont loin l’un de l’autre ; s’ils sont très près, il n’existera qu’un seul système de rides circulaires autour d’eux. Et si nous n’avions pour déceler leur présence que la possibilité d’observer les ondes sans voir les piquets eux-mêmes, nous ne saurions dire s’il y en a deux voisins ou un seul au centre des rides circulaires » (fig. 2).
- A B
- Fig. 2. — Les ondes autour des deux piquets forment un seul groupe en B (piquets très rapprochés) et deux groupes distincts en A (piquets éloignés).
- Ainsi, aucun objectif, aussi parfait qu’il soit du point de vue de l’optique géométrique, ne peut « résoudre » de détails inférieurs à environ la moitié de la longueur d’onde que présente la radiation dans le milieu qui entoure l’objet (la « résolution » d’un instrument d’optique est la distance minimale qui doit séparer deux points pour qu’ils soient distingués avec cet instrument).
- Pour la lumière visible, la longueur d’onde du jaune, couleur à laquelle l’œil est le plus sensible, est de l’ordre de 0,5 micron. La résolution limite du microscope optique est, par suite, voisine de 0,2 micron. La seule amélioration réalisée dans le domaine de l’optique classique a été l’emploi de la lumière ultraviolette et de l’optique de quartz, qui en abaissant la valeur de la longueur d’onde aux environs de 0,25 micron, fournit une résolution voisine de 0,12 micron.
- La longueur d’onde des électrons
- C’est là 'qu’intervient l’optique électronique. Les travaux de Louis de Broglie ont établi que toute particule en mouvement est accompagnée d’une onde douée d’une longueur d’onde qui dépend de l’énergie de la particule, c’est-à-dire d’une part de sa masse, d’autre part de sa
- 1. De la loupe au microscope électronique, par Jean Terrien. Collection Que sais-je ? Presses Universitaires de France.
- vitesse et par conséquent, dans le cas d’une particule électrisée comme l’électron, de la tension qui lui est appliquée (c’est pourquoi l’énergie des électrons s’exprime en tension ou différence de potentiel). La longueur d’onde associée aux électrons est d’autant plus courte (ou la fréquence plus grande) que l’énergie des particules est plus élevée : c’est ce que montre la figure 3 qui représente les variations de la longueur d’onde associée en fonction de la tension d’accélération (la longueur d’onde varie en raison inverse de la racine carrée de la tension, tout au moins aux basses énergies ; lorsque la tension devient très élevée, la vitesse des électrons n’est plus très petite en comparaison de celle de la lumière, ils sont dits « relativistes » et leur longueur d’onde associée diminue plus vite que ne le voudrait cette relation).
- Ainsi, des électrons accélérés par une chute de tension de 50 000 V, comme il est d’usage courant, ont une longueur d’onde associée voisine de 0,05 Â, 100 000 fois plus courte que celle de la lumière bleue. Sans être augmenté dans de telles proportions par rapport au microscope optique, pour des raisons que nous verrons plus loin, le pouvoir séparateur du microscope électronique sera donc substantiellement supérieur.
- Rappelons succinctement la structure d’un microscope électronique en la comparant à celle d’un microscope à lentilles de verre (fig. 4).
- Un microscope lumineux « à projection » comporte un condenseur qui concentre la lumière d’une forte lampe sur l’objet pour l’éclairer, un objectif qui donne une image très agrandie de l’objet et enfin une lentille de projection qui amplifie une deuxième fois cette première image et la projette sur une plaque photographique.
- 1kV 10 kV lOOkV 1MV
- Tension d'accélération
- Fig. j. — Variation de la longueur d’onde associée à des électrons en fonction de la tension d’accélération.
- Au-dessus de 100 kV les électrons deviennent notablement « relativistes » et la courbe s’infléchit.
- 146
- p.146 - vue 147/560
-
-
-
- Fig. 4. — Structures comparées d’un microscope de verre à projection et d’un microscope électronique.
- (Imité de P. Grivet, Optique Électronique, t. II. Bordas, Paris).
- Source
- lumineuse
- Condenseur
- -Objet
- Objectif
- Image
- intermédiaire
- -Lentille de projection
- Image I définitive
- Source d'électrons
- ____Wehnelt
- \___Anode
- d'accélération
- Objet \==+—Objectif
- Image
- intermédiaire
- Lentille de projection
- Image I définitive
- On retrouve un arrangement analogue dans un microscope électronique, où les lentilles de verre sont remplacées par des « lentilles électroniques », combinaisons de champs électriques ou magnétiques qui réfractent les électrons tout comme le verre réfracte la lumière. L/objet n’est donc plus éclairé par de la lumière, mais traversé par un faisceau d’électrons issus d’un « canon » analogue à celui d’un oscillographe cathodique. Ce faisceau d’électrons est dirigé sur l’objet à examiner à travers un condenseur magnétique ou électrostatique qui joue le même rôle que le condenseur optique du microscope ordinaire. Les électrons traversent ensuite l’objectif, puis la lentille de projection et forment finalement une image agrandie, soit sur un écran fluorescent pour l’observation directe, soit sur une plaque photographique.
- Pourquoi de très hautes tensions ?
- Quels sont les avantages d’un microscope électronique à très haute tension ? Son principal intérêt réside dans le fait que, plus l’énergie des électrons est élevée, plus ils sont en mesure de traverser des objets épais sans que la diffusion vienne empêcher la formation d’images correctes. D’où, comme on va le voir, la possibilité d’examiner du matériel vivant, alors que les appareils courants, travaillant sous des tensions de 50000 à 100 000 Y, ne permettent d’observer que de la matière morte.
- En premier lieu, quelle que soit la tension d’accélération des électrons, ceux-ci doivent cheminer dans un vide aussi poussé que possible, afin de n’être ni freinés, ni diffusés par des chocs avec les molécules gazeuses. Or, quand on introduit de la matière vivante (bactéries, cellules, etc.) dans le corps vide de l’instrument, cette matière se dessèche ; les parois des cellules éclatent sous l’effet du vide. On ne peut observer que des objets morts.
- D’autre part, des bactéries dont l’épaisseur est sensible-
- ment égale à 1 micron sont pratiquement opaques pour des électrons de faible énergie comme ceux qui sont utilisés dans les microscopes usuels. Les examens histologiques ne peuvent se faire dans des conditions convenables qu’en réalisant, avec des microtomes spéciaux, des coupes dont l’épaisseur ne dépasse pas quelques centaines d’angstrôms (quelques centièmes de micron).
- Au contraire, avec l’appareil de Toulouse, il est possible de disposer des bactéries non plus dans le vide, sur un film support, mais dans une sorte de boîte étanche, fermée par deux fenêtres de collodion-carbone transparentes aux électrons de haute énergie et suffisamment résistantes pour supporter la pression interne quand on introduit l’ensemble dans le vide. Entre les deux fenêtres, distantes de quelques dizaines de microns, il est alors possible de maintenir une pression et un degré hygrométrique voisins des conditions normales et permettant aux cellules de vivre.
- Quels pourraient être les autres avantages des très hautes tensions ? En premier lieu, puisque la longueur d’onde associée aux électrons diminue quand l’énergie augmente, on pourrait escompter une nouvelle amélioration du pouvoir séparateur. Mais nous avons dit qu’il ne saurait être proportionnel à l’augmentation de l’énergie. La principale cause en est que les lentilles électroniques n’ont pas atteint la perfection des lentilles de verre et leurs défauts obligent à utiliser des faisceaux d’électrons de très faible ouverture. Cette faible ouverture fait apparaître des effets de diffraction qui augmentent lorsque l’ouverture diminue. Avec les microscopes électroniques usuels qui utilisent des tensions de l’ordre de 50 000 ou 100 000 V, on parvient seulement à atteindre une finesse d’image à peine deux cents fois supérieure à celle des meilleures images lumineuses, alors que, nous l’avons vu, la longueur d’onde associée aux électrons est alors 100 000 à 200 000 fois plus courte que celle de la lumière visible.
- Le microscope de Toulouse, quels que soient les soins apportés à sa construction, n’échappe pas à cette limitation. Bien qu’aucun résultat n’ait encore été publié à ce sujet, il est peu probable que le nouvel appareil permette une finesse d’image très supérieure à celle des appareils commerciaux usuels, plus aisés à manier et à stabiliser.
- Disons enfin, sans entrer dans le détail des phénomènes, que l’utilisation de tensions très élevées devrait permettre de réduire l’aberration chromatique due aux pertes de vitesse des électrons et à leur diffusion dans l’objet, mais c’est, là encore, une amélioration mineure par rapport aux microscopes électroniques usuels.
- Le microscope de Toulouse
- Le nouveau microscope de Toulouse a été construit sous la direction de M. Gaston Dupouy, membre de l’Institut, avec la collaboration du professeur F. Perrier, et de MM. Durrieu et Fabre, ingénieurs au Laboratoire d’Optique électronique. L’appareil comporte un canon à électrons utilisant une cathode à émission thermique d’un type mis au point par E. Bas, au Polytechnicum de Zürich. Le générateur haute tension de 1 500 000 V est du type classique Greinacher : les électrons issus de la cathode franchissent successivement dix étages d’accélération. A chacun de ces étages ils passent dans l’axe de deux électrodes entre lesquelles est appliquée une différence de potentiel
- 147
- p.147 - vue 148/560
-
-
-
- maximale de 150000 V. Sa hauteur est voisine de 10 m (fig. 5 et figure de la couverture). Le canon à électrons et le générateur haute tension ont été construits par la firme Haefely, de Bâle.
- Le microscope proprement dit (fig. 6) a été usiné en totalité à Toulouse, les plus grosses pièces par l’Atelier de fabrication d’armement, toutes les autres parties mécaniques par l’Atelier du Laboratoire d’Optique électronique du C. N. R. S. Ce microscope électronique est du modèle à lentilles magnétiques : il en comporte quatre : un condenseur, un objectif, une lentille intermédiaire destinée à accroître encore le grossissement et une lentille de projection. Il est représenté en coupe sur la figure 7. Cet ensemble de lentilles repose sur la chambre d’observation à la base de laquelle sont disposées les plaques photographiques. Enfin, tout le microscope repose sur une épaisse plaque d’acier supportée par quatre vérins fixés dans un socle de béton.
- Fig. 7. — Coupe du microscope électronique de Toulouse.
- Sous sa forme actuelle, il comporte quatre lentilles électroniques magnétiques : i° un double condenseur C, composé de deux lentilles Cx et C2 ; z° l’objectif O ; 30 une lentille intermédiaire I ; 40 la lentille de projection ou projecteur P. Cet ensemble de lentilles repose sur une chambre d’observation R. La chambre photographique A est la partie inférieure de l’instrument. Enfin, tout le microscope est disposé sur une plaque épaisse d’acier B, supportée par quatre vérins V fixés dans un socle de béton. Les images électroniques se forment suit un écran E, rendu fluorescent par l’impact des électrons. On peut les observer à travers trois hublots (dont un seul est visible sur la figure) formés, chacun, par un disque de verre au plomb D. Le microscope est relié au canon à électrons, situé à l’étage supérieur par un joint extensible en cuivre rouge T. Avant d’atteindre le condenseur, le faisceau d’électrons tombe sur un diaphragme Dx qui sert de pupille d’entrée. On distingue encore les blocs polaires des différentes lentiües S, le diaphragme du condenseur D2, l’écran fluorescent F où se forme l’image donnée par l’objectif que l’on observe à l’aide d’une caméra de télévision pour les réglages et les bobines déflectrices N qui permettent d’agir sur l’orientation du faisceau électronique. Le circuit magnétique de l’objectif se compose de deux pièces Ox et 02 qui s’emboîtent dans le cylindre d’acier Os, lequel les maintient en place. La bobine magnétisante de l’objectif est disposée autour de 02. On retrouve une disposition analogue sur les autres lentillles.
- (.D’après G. Dupour, F. Perrier et R. Fabre, C. R. Académie des Sciences t. 252, n° 5).
- Fig. J (à gaucne). — La base du générateur haute tension du nouveau microscope électronique de Toulouse.
- {Photo Yan, Toulouse).
- Fig. 6 (ci-contre à droite). — Le microscope électronique à haute tension
- de Toulouse.
- (Photo Yan).
- M
- 148
- O Ld
- p.148 - vue 149/560
-
-
-
- p.149 - vue 150/560
-
-
-
- L’observation directe s’effectue sur un écran fluorescent à travers trois hublots dont un seul est visible sur la figure 6.
- La hauteur du microscope est voisine de 2,5 m. Chaque lentille pèse plusieurs centaines de kilogrammes au lieu de quelques dizaines pour un appareil ordinaire et le poids du microscope est de l’ordre de 4 t. Le vide qui règne dans le corps de l’instrument atteint 2 X io-5 mm Hg dans les conditions normales d’utilisation.
- Pour loger cet ensemble imposant, il fallait un bâtiment qui répondît à un certain nombre de conditions : existence d’une zone de sécurité suffisante extérieure aux parties haute tension, température et degré hygrométrique constants, étanchéité à l’eau et à l’air, faiblesse des vibrations. L’architecte C. Montagné, premier Grand Prix de Rome, l’a réalisé sous la forme d’une sphère de 26 m de diamètre, ce qui a conduit à une économie sensible de matériaux par rapport à la construction courante de forme parallélépipédique. Cette sphère (fig. 1) est doublée intérieurement par un placage de feuilles d’aluminium martelé, qui maintient un isolant thermique (laine de verre). Une centrale de climatisation permet de limiter à ±2,5° C les écarts de température.
- Fig. ÿ. — Spores de Bacille anthracomorphe.
- Tension de travail : 750 000 V ; grossissement : 22 000.
- Chaque fois que le faisceau d’électrons vient frapper un diaphragme matériel, il y a émission de rayons X au point d’impact. Les tensions utilisées étant très élevées, les rayons X
- Fig. 8. — Staphylocoques montrant des structures internes.
- Tension de travail : 750 000 V ; grossissement : 11 000.
- Fig. 10, 11, 12. — A gauche et au milieu : Corynebacterium diphteriœ (mitis) sous 650 000 V ; à droite : Bacille subtil sous 750 000 V.
- Grossissement : 11 000.
- 150
- p.150 - vue 151/560
-
-
-
- émis sont très durs et pénétrants. Aussi le problème de la protection des opérateurs revêt-il une acuité particulière. Il faut, en premier lieu, les protéger contre les rayons X qui peuvent être émis de haut en bas de la pièce où se trouve placé le générateur haute tension. Les salles de travail placées au rez-de-chaussée sont donc construites avec des murs en ciment baryté de 30 cm d’épaisseur. La densité du ciment est de 3,6.
- Dans les régions les plus dangereuses on place des écrans de plomb réalisés au moyen de briques superposées de 10 cm d’épaisseur. On peut en voir sur la figure 5 à la partie supérieure du microscope et autour de la chambre d’observation. Le poids de plomb utilisé est de l’ordre de 2 t.
- C’est également pour protéger les opérateurs que les réglages de mise au point sont effectués en observant l’image formée sur l’écran fluorescent par l’intermédiaire d’une caméra de télévision.
- Pour faciliter l’accès à toutes les parties du microscope^ une plate-forme mobile entoure l’instrument ; elle permet aux opérateurs d’effectuer aisément les divers réglages.
- Les premiers résultats. — Les premiers résultats obtenus avec le microscope à haute tension ont concerné des microbes vivants. On doit dire que les conditions de travail étaient encore imparfaites : la tension fournie par le générateur n’a pas encore atteint le haut degré de stabilité indispensable ; d’autre part, des vibrations parfois gênantes, provenant de moteurs situés dans le voisinage, sont transmises à la colonne du microscope. Aussi des améliorations substantielles devront-elles être encore apportées à l’ensemble de l’installation. Quoi qu’il en soit, les résultats obtenus sont déjà d’un grand intérêt.
- La figure 8 représente des Staphylocoques. Ces bactéries sont particulièrement opaques en général mais on peut discerner sur cette photographie des détails de structure interne : ceux-ci devraient devenir encore plus visibles sous des tensions d’un million de volts. La figure 9 montre des formes sporulées de Bacille anthracomorphe, ayant l’aspect d’une sorte de coquille avec son amande à l’intérieur. Les figures 10 et 11 sont des photographies de Corynebacterium mitis et la figure 12 de Bacz/lus subtilis.
- L’expérience a montré que les bactéries, après irradiation, restaient vivantes et demeuraient capables de se reproduire. Certes, des études plus poussées devront être faites pour
- Liaison nylon-métal
- Une société américaine a mis au point une technique pour assurer la liaison entre des éléments en nylon et en métal, par exemple l’assemblage d’engrenages en nylon sur des arbres métalliques ou la fixation de vis ou de tiges dans des assemblages nylon-métal. Cette technique comporte deux étapes : une pâte époxyde est d’abord appliquée sur la surface métallique ; la surface de l’élément en nylon est ensuite ramollie par application d’un solvant pour favoriser la liaison avec la pâte époxyde durant son durcissement. L’opération s’effectue à la température ambiante et un assemblage robuste, résistant aux chocs, est assuré entre le nylon et le métal en quelques heures.
- Fig. 13. — Cristal d’oxyde de magnésium montrant des franges d’égale épaisseur.
- {Photos Laboratoire d’Optique électronique du C. K. R. S., Toulouse).
- savoir si l’action prolongée des électrons et celle des rayons X très pénétrants qu’ils produisent par impact sur les parois du microscope provoquent des modifications morphologiques ou génétiques des bactéries mais, d’ores et déjà, cette méthode permettra de mener à bien des recherches d’un grand intérêt en biologie et en médecine.
- Des résultats plus récents sont relatifs à l’observation de cristaux de minéraux. La figure 13 montre les franges d’égale épaisseur données par un cristal d’oxyde de magnésium.
- Les photographies actuelles correspondent à des grossissements de l’ordre de 25 000. Dans quelques mois, il sera possible d’observer toutes les étapes de la vie d’une bactérie avec des grossissements de 50000.
- MM. Dupouy, Perrier et Durrieu se préparent maintenant à orienter leurs recherches vers l’observation de cellules vivantes isolées.
- R. R.
- Pour les plongeurs en difficulté
- Une maison britannique vient de lancer un dispositif qui permet de repérer les plongeurs sous-marins en difficulté. Il s’agit d’un cylindre chromé de 12 cm de long contenant une capsule de gaz carbonique, un ballon de latex et 27 m de corde. Le cylindre se fixe au bras ou à la jambe du plongeur et la capsule de gaz carbonique explose quand on tourne la base du tube, gonflant le ballon qui monte à la surface et reste attaché au plongeur. Il permet donc de savoir que le plongeur est en difficulté, de repérer sa position et de le ramener à la surface. On peut aussi utiliser ce dispositif pour baliser provisoirement des épaves ou des obstacles sous-marins.
- 151
- p.151 - vue 152/560
-
-
-
- Registres et passages de la voix humaine
- Des phénomènes connus depuis des siècles par les chanteurs ri ont reçu que récemment leur explication
- par Raoul Husson
- Nos lecteurs ont pu déjà prendre connaissance du développement qu’a pris la Physiologie phonatoire à la suite des travaux de M. Raoul Husson. Dans le présent article, l’auteur montre comment ces notions éclairent complètement des phénomènes depuis longtemps connus des chanteurs, mais qui avaient donné lieu aux interprétations les plus fantaisistes. « Registres » et « passages », « voix de poitrine » et « voix de tête », tous ces termes traduisent des modes de fonctionnement nerveux et prennent une signification physiologique précise. On présume facilement l’importance de ces acquisitions pour l’art et l’enseignement du chant, ainsi que pour la médecine de la voix et même pour la physiologie générale.
- Il ne faudrait pas croire que les phénomènes vocaux désignés sous les noms de « registres » et de « passages » ne soient point parvenus, dans le passé, à la connaissance des hommes, puisque déjà le bon La Fontaine, dans sa fable Le Savetier et le Financier, nous décrit l’humble artisan qui, l’âme en paix et le cœur en fête, tout en martelant la semelle, lançait ses roulades et « faisoit ses passages ».
- Par ailleurs, les expressions « voix de poitrine » et « voix de tête » (ou de « fausset») sont fréquemment usitées. Beaucoup de gens savent que l’homme chante normalement avec sa voix de poitrine, mais qu’il peut donner, dans l’aigu, quelques notes de voix dite de fausset, tandis que la femme, dont la voix de tête ést la plus naturelle, peut fournir dans le grave des notes de voix de poitrine, dont l’emploi devient plus courant après la ménopause. En utilisant ces termes, on ne se souciait pas d’en préciser le sens physiologique, qui était ignoré ; on savait seulement qu’il y avait deux façons différentes d’émettre la voix, auxquelles correspondaient des sensations particulières. Nous verrons plus loin que ces deux modes d’émission correspondent à deux modalités de transmission des influx nerveux dans le nerf du larynx (nerf récurrent).
- Le registre étant l’ensemble des fréquences que la voix peut fournir sans changer le mode de transmission des influx, nous appelons premier registre celui de la voix de poitrine, et deuxième registre celui de la voix de tête (ou de fausset chez l’homme). Nous verrons ensuite que les passages correspondent à un tout autre phénomène, qui permet d’émettre des sons plus aigus sans changer de registre, et qui comporte un renforcement de la tension des cordes vocales ; ce phénomène ne concerne que quatre voyelles : A, È (comme dans père), O (comme dans port), EU (comme dans peur), qui sont dites voyelles ouvertes, parce qu’elles se prononcent avec une plus grande ouverture de la bouche ; toutes les autres voyelles sont dites fermées. L’expérience montre et la théorie des voyelles explique que les voyelles ouvertes ne peuvent pas être émises sur des fréquences aussi aiguës que les voyelles fermées.
- Ces phénomènes n’apparaissent jamais en voix parlée. L’homme parle en premier registre sur une bande de fréquences assez large, entre ioo et 270 cycles par seconde, mais qui n’atteint pas la zone difficile du « passage ». Et la femme parle en général en second registre sur une bande située à l’octave aiguë de celle de l’homme, toujours, assez loin des difficultés du « passage » dans son registre, Il en résulte que des milliers d’êtres humains peuvent durant toute leur vie, parler avec une voix parfaitement saine et audible, sans pour cela supposer l’existence des registres de la voix, et encore moins des passages. L’emploi plus facile du premier ou du second registre est sous l’influence des hormones sexuelles.
- L’existence des registres et des passages ne fut donc d’abord connue que des chanteurs.
- Mais, dès 1860, nombre de laryngologistes dépourvus d’éducation vocale observent la glotte à l’aide du miroir de Garcia, et, sur une base aussi fragile que la vue des cordes vocales, se mettent à décrire les phénomènes présentés par la voix chantée. Dès lors, les registres pullulent. Browne et Bencke (1867) en décrivent quatre, qualifiés par eux de poitrine épais, poitrine mince, tête épais, tête mince. On y ajoute un registre de flageolet dans l’aigu, un autre de contrebasse
- 152
- p.152 - vue 153/560
-
-
-
- dans le grave. Certains parlent d’un registre palatal sans le définir. D’autres séparent le registre de fausset de l’homme de celui de tête de la femme.
- A la logomachie qui s’installe, relative aux registres, s’en ajoute vite une autre, relative aux passages. Le ténor qui monte une gamme sur la voyelle A, par exemple, rencontre ce phénomène vers Fa 3, Fa dièse 3 ou Sol 3, et il sait fort bien qu’après avoir exécuté son « passage », il reste toujours en premier registre (qu’il ne quittera qu’une quarte ou une quinte plus haut). D’ailleurs, pour bien marquer qu’à l’occasion de ce phénomène, la voix ne passe pas d’un registre à un autre, les chanteurs de tous les pays l’ont toujours désigné par un terme spécial : la couverture du son.
- Peu de chanteurs s’y trompaient. Mais les « phoniatres » de tous les pays, dans leurs écrits, n’eurent cure de cette prudente distinction (sauf Castex et Perretière en France).
- Pour mettre le comble à la confusion, certains « spécialistes », entre les deux guerres, décrétèrent qu’une voix bien émise ne doit présenter aucun passage, et que l’existence de tout passage (et par conséquent de registres différents) ne fait que traduire un défaut de l’organe vocal (soit vice de constitution, soit défectuosité de la technique d’emploi). Cette affirmation connut une vogue colossale, et bien des professeurs de chant s’en firent les défenseurs zélés.
- Tel était l’état de la question en 1950 : un désert parsemé de ruines. A cette époque, la genèse cérébrale du mouvement des cordes vocales apportait enfin l’idée essentielle, capable d’expliquer et de justifier la notion de registre et de changement de registre. Les cordes vocales ne vibrent pas comme un instrument à vent ; leur mouvement est une suite de contractions rythmées commandées directement par les influx du nerf récurrent, et se produisant au rythme même de ces influx (La Nature, janvier 1957, p. 1-7). L’explication des couvertures du son, phénomènes tout à fait différents, n’apparut que deux ans plus tard.
- Le premier registre de la voix humaine ou « voix de poitrine »
- Sur des fréquences vocales inférieures à deux ou trois cents cycles par seconde, toutes les fibres du nerf récurrent (nerf moteur des cordes vocales) conduisent, pendant l’émission des voyelles, des influx qui progressent « en phase » et qui par conséquent tombent simultanément sur les cordes vocales. C’est cette particularité neurologique qui caractérise le premier registre de la voix humaine, pour l’homme, la femme et l’enfant. Sa véritable appellation est donc : registre à conduction récurrentielle monophasée, ou, plus brièvement, registre monophasé (fig. 1). Une tradition séculaire et respectable le fait appeler aussi registre de poitrine, en raison des sensibilités internes ressenties au niveau du thorax dans l’émission des sons (du moins en général, et en tout cas chez les voix incultes). Nous verrons plus loin que les registres supérieurs sont polyphasés.
- Tout sujet pourra donc émettre des sons de plus en plus aigus tant que son nerf récurrent pourra conduire des influx moteurs « en phase » à des rythmes de rapidité croissante. Mais cette rapidité a une limite. Après le passage d’un influx, la fibre nerveuse n’est plus immédiatement excitable. Il existe une période, dite période réfractaire, pendant laquelle la fibre ne peut que rester au repos (laps de temps figuré en traits pleins dans la figure 1).
- La durée de la période réfractaire du nerf récurrent est liée à Y excitabilité de la fibre nerveuse, qui se mesure par sa chronaxie (temps mis par l’influx nerveux pour parcourir environ un centimètre dans la fibre et qu’on exprime en millisecondes). L’expérience montre que la période réfractaire P est égale à environ 20 fois la chronaxie C, qui n’est pas la même pour tous les individus.
- La fréquence la plus grande à laquelle des influx peuvent se suivre dans les fibres du nerf récurrent (et par conséquent la fréquence la plus grande de vibration des cordes vocales, commandée directement par ces influx) est évidemment inversement proportionnelle à la période réfractaire. Comme la fréquence N est exprimée en cycles par seconde et P en millisecondes, la fréquence maximale est au plus égale à 1 000/P, et comme P = 20 C, on a :
- (I) N (max.) =
- 20 C
- Cette formule est remarquablement vérifiée par l’expérience, qui permet de mesurer facilement C et d’observer tout de suite N (La Nature, février 1957, p. 41-46). La chronaxie du nerf, pour une voix moyenne, étant à peu près de 0,1, la limite supérieure du premier registre se place aux environs de 1 000/2 = 500 cycles par seconde.
- Facilité relative de l’émission de la voix sur les différentes notes. — L’observation la plus banale montre que la facilité d’émission de la voix en premier registre n’est pas du tout la même sur toutes les notes du registre. L’émission est manifestement plus difficile dans le haut du registre, et la difficulté s’accuse à partir d'une certaine note que tous les chanteurs connaissent bien : c’est leur fameuse « note de passage » sur les sons ouverts (voir ci-dessus). Elle devient également moins facile dans le bas du registre. Sur une bande de fréquences intermédiaire, elle connaît sa facilité relative maximale. Une explication des registres doit rendre compte de ces faits.
- Fig. 1. — Conduction du nerf récurrent en premier registre (monophasé).
- A : rythme de la stimulation, ou hauteur de la voix ; ici 250 c/s, ou Si 2. B : fibres du nerf récurrent (limitées à 12) ; chaque clocher triangulaire représente un départ d’influx ; le trait plein qui suit figure la période réfractaire de la fibre nerveuse, prise ici égale à sa valeur moyenne qui est 2 millisecondes ; le trait en pointillé figure la période pendant laquelle le nerf est de nouveau excitable. C : niveau d’excitation global du récurrent.
- 153
- p.153 - vue 154/560
-
-
-
- Dès 1952, nous avons montré qu’une explication complète s’obtient en considérant le graphique donné dès 1930 par Erlanger et Gasser (fig. 2), qui indique la façon dont varie l’excitabilité d’un tissu après le passage d’un influx.
- Niveau d'excitabilité
- Temps en chronaxies
- Fig. 2. — Niveau d’excitabilité d’une fibre nerveuse après le passage d’un influx.
- Explications dans le texte.
- (D’après Erlanger et Gasser, 1930).
- Supposons qu’un influx passe en un point à l’instant ffiro et voyons comment l’excitabilité varie en ce point après le passage de l’influx. Mesurons les temps, pour simplifier, avec une unité de temps égale à la chronaxie (rappelons que la chronaxie du nerf, pour une voix moyenne, est d’environ 0,1 milliseconde).
- Pendant les 20 chronaxies qui suivent le passage de l’influx, soit de O à B, la fibre reste pratiquement inexcitable. Cette durée a reçu le nom de période réfractaire pratique ; nous l’avons rencontrée plus haut. Elle est donc (en moyenne) de 2 millisecondes.
- Pendant les 12 (ou 14) chronaxies qui suivent, soit de B à C, la fibre a repris progressivement son excitabilité. D’abord faible, cette excitabilité est redevenue normale au point C, soit donc 32 (ou 34) chronaxies après le passage de l’influx. La période BC pendant laquelle la fibre a progressivement repris la possibilité d’être stimulée a reçu le nom de période réfractaire relative, et elle dure grosso modo de 12 à 14 chronaxies.
- Dans les instants qui suivent, l’expérience montre que de nombreux tissus présentent une excitabilité légèrement supérieure à la normale, et on l’appelle alors période supernormale. Lorsqu’elle existe, et c’est le cas du nerf récurrent elle dure environ de 85 à 90 chronaxies. A la suite de cette période d’hyperexcitabilité légère, qui va de C à D, l’excitabilité revient à sa valeur normale (nous passerons sous silence le décours qui suit, extrêmement voisin de la valeur normale). Le point D, de retour définitif à l’excitabilité normale, est donc distant du passage initial de l’influx de 117 à 124 chronaxies, soit de 120 chronaxies en moyenne.
- Si donc deux influx récurrentiels se succèdent avec un intervalle de temps compris entre OC et OD, la propagation du second sera facilitée, puisqu’il tombera toujours
- sur la période supernormale déclenchée par le premier. La facilitation sera maximale lorsque le second influx tombera sur le dôme de la courbe, vers le point le plus haut E. Comme la durée OE est de 50 chronaxies environ, cela définit la fréquence de facilité maximale comme étant égale à :
- (II) N (fac. max.) = 1 °^°.
- 5 o C
- Si le second influx suit le premier au bout d’un temps compris entre OB et OC, la propagation du second sera rendue plus difficile, puisqu’il tombera toujours sur la période réfractaire relative déclenchée par le premier. Les difficultés commenceront lorsque le second influx tombera immédiatement à gauche du point C, et la fréquence définie par la durée OC sera celle qui marquera l’apparition des difficultés d’émission. Cette fréquence est :
- (III) N (appar. des diff.) = I^°.
- 32 C
- L’expérience montre que la fréquence ainsi calculée est précisément celle du fameux « passage des chanteurs », sur laquelle l’émission des voyelles ouvertes devient quasi impossible, sinon dangereuse.
- Enfin, l’expérience montre également que la note la plus grave du premier registre est donnée par la relation :
- (IV) N(min.)=^,
- 120
- ce qui indique que cette note est réalisée lorsque chaque influx récurrentiel coïncide avec la fin de la période supernormale déclenchée par le précédent.
- Conclusion : la loi de variation de /’excitabilité du nerf récurrent en fonction du temps définit toutes les manifestations vocales en premier registre.
- Si l’on applique les formules à un baryton central (C = 0,100), à un ténor grave (C = 0,080) et à une basse chantante (C = 0,130), on trouve les valeurs numériques suivantes pour le premier registre :
- Basse Baryton Ténor
- chantante central grave
- Note la plus grave 67 c/s 84 110
- Note de facilité maximale . 154 » 200 250
- Note de « passage » des voy. ouv 250 » 310 360
- Note la plus aiguë 387 » 490 620
- Les notes extrêmes sont relatives aux voix développées au maximum. Les écarts avec la réalité observée sur les meilleurs chanteurs de l’Opéra de Paris ne dépassent pas un demi-ton.
- L’excitabilité récurrentielle, ou chronaxie du nerf récurrent, définit donc à elle seule la tessiture d’un chanteur et il suffit de la mesurer pour obtenir le classement rigoureux de sa voix en étendue tonale (La Nature, février 1957, p. 41-46). Le docteur C. Chenay montra, en 1953, que cette mesure peut être faite facilement au point moteur du muscle sterno-cléido-mastoïdien (fig. 3) et en 1957 les docteurs Garde et de Quiros l’effectuèrent directement sur les cordes vocales.
- 154
- p.154 - vue 155/560
-
-
-
- 4° A la tomographie frontale, on voit : a) lors du « passage », les cordes vocales ne modifier aucunement leur épaisseur ; b) lors du changement de registre, les cordes vocales amincissent leur zone de contact (du moins chez l’homme dont le second registre n’est pas cultivé) (fig. 6).
- 1
- I
- Fig. 4. — Aspects laryngostroboscopiques d’un larynx de ténor émettant un Sol 3 ; glotte vue en phase d’amplitude maximale.
- En a : sur la voyelle E ouvert (qui devrait être couvert sur cette hauteur tonale). En b : sur la même voyelle, mais couverte (ce qui la rapproche de eu). En C : sur la même voyelle, mais en second registre (voix de fausset grave) .Explications
- dans le texte.
- Fig. 5. — Mesure de chronaxie sur le muscle sterno-cléido-mastoïdien. L’électrode est placée par tâtonnements sur le point moteur du muscle. Opérateur : le docteur Christian Chenay ; sujet : Mme Hélène Bouvier, de
- l’Opéra.
- {Photo Labophot).
- Le « passage des chanteurs » ou couverture des sons ouverts
- Nous avons déjà indiqué que le « passage des chanteurs », encore appelé couverture des sons ouverts, se manifeste en premier registre sur la fréquence 1 000/32 C (soit Ré 3 pour les basses graves, Mi bémol 3 pour les basses chantantes, Mi 3 pour les barytons, Fa 3 pour les ténors graves, Fa dièse 3 pour les ténors aigus), alors que la limite supérieure du registre est 1 000/20 C (soit à un intervalle de sixte mineure plus haut). Ils ne peuvent donc aucunement être confondus. Nous allons voir comment le « passage » réalise une augmentation de l’excitabilité des cordes vocales.
- Si l’on compare la couverture d’un son ouvert au changement de registre qui lui fait suite, chez un même sujet, on constate d’ailleurs des différences considérables :
- i° Le changement de registre se fait à la même fréquence sur toutes les voyelles, alors que les difficultés du « passage » ne se présentent que sur les voyelles ouvertes.
- 20 A l’examen laryngostroboscopique, on voit : a) lors du « passage », la très forte contraction laryngée diminuer légèrement, tandis que l’épiglotte se redresse et que les cordes vocales reçoivent un supplément de tension ; b) lors du changement de registre, tout le larynx se détend et se décontracte (fig. 4).
- 30 A l’examen radiographique transversal, on voit : à) lors du « passage », le larynx descendre légèrement tandis que le cartilage thyroïde bascule vers le bas et l’avant ; b) lors du changement de registre, le larynx remonter (du moins chez l’homme) tandis que le cartilage thyroïde se redresse vers le haut et redevient horizontal (fig. 5).
- Fig. J. — Vues radiographiques transversales du pavillon pharyngo-buccal d’un ténor émettant la voyelle A sur Sol 3.
- En a : voyelle ouverte. En b : voyelle couverte (passage effectué). En c : voyelle émise en second registre (voix de fausset). Explications dans le
- texte.
- (.D’après des clichés du Dr A. Djian).
- Fig. 6. — Vues tomographiques en coupe frontale des cordes vocales d’un ténor émettant la voyelle A sur Sol 3.
- En a : voyelle ouverte. En b : voyelle couverte (passage effectué).
- En C : en second registre (voix de fausset).
- {jyaprès des clichés du D1' A. Djian).
- 155
- p.155 - vue 156/560
-
-
-
- 5° Enfin, en ce qui concerne la modification de timbre de la voyelle émise, on note : a) un assombrissement du timbre lors du « passage » ; b) au contraire, un blanchissement du timbre lors du changement de registre (différence notable que l’analyse des fréquences avec l’appareil de M. Pimonow met immédiatement en évidence) (fig. 7).
- Fig. 7. — Spectres donnés par la voyelle A émise sur Mi 3 par un baryton, photographiés sur l’écran rémanant d’un analyseur de fréquences du type Pimo-now.
- En a : voyelle ouverte. En b : voyelle couverte. En c : voyelle émise en second registre (voix de fausset). Sur chaque cliché, à partir de la gauche : le premier clocher représente le fondamental ; le second clocher représente le formant pharyngien ; le troisième clocher représente le formant buccal ; les deux clochers suivants, entre 2 500 et 3 000 c/s, représentent les harmoniques immédiatement supérieurs à la fréquence de coupure du pavillon pharyngo-buccal (voir La Nature, sep-embre 1958, p. 337-344).
- On voit donc que, lorsque le sujet effectue son « passage », c’est-à-dire « couvre le son », les cordes vocales sont fortement étirées vers l’avant en conséquence de la contraction des muscles crico-thyroïdiens. Cet étirement élève leur excitabilité (Lapicque, 1926 ; Dumont, 1933), et par conséquent leur permet de répondre plus facilement aux influx récurrentiels au moment précis où ceux-ci commencent à tomber sur la fin de la période réfractaire relative résultant de chaque influx précédent. La couverture des sons ouverts, en premier registre, est donc une manœuvre musculaire qui élève et régularise l’excitabilité des cordes vocales, et facilite l’émission des sons plus aigus. Elle est un mécanisme physiologique au premier chef, et se classe parmi les mécanismes protecteurs du fonctionnement neuro-musculaire phonatoire du larynx.
- Pourquoi la couverture des sons, ou « passage des chanteurs », n’apparaît-elle que sur les voyelles ouvertes ?
- Lorsqu’on monte une gamme en premier registre sur une voyelle fermée (i, é, eu, u, o, ou), une très légère couverture de son apparaît un peu après le point E (fig. 2), vers la fréquence 1 000/48 C, lorsque l’excitabilité des cordes vocales commence à décroître (tout en restant encore supernormale). Elle passe en général inaperçue ; mais les vieux maîtres du passé l’avaient fort bien observée, et l’appelaient le « petit passage des voyelles fermées ». Elle a lieu une quinte exacte avant la position tonale du « grand passage des voyelles ouvertes ».
- En fait, lorsqu’un sujet monte une gamme sur une voyelle ouverte telle que È, A, O et EU, deux cas sont à considérer : i° Ou bien le sujet effectue une couverture du son dès la fréquence du « petit passage », et la voyelle prend un caractère fermé (é, o, eu). 20 Ou bien le sujet n’exécute pas le « petit passage », et la voyelle prend un caractère nettement ouvert qui s’accuse de plus en plus ; mais il ne peut reculer l’exécution de la couverture du son que jusqu’à la fréquence du « grand passage », sinon le fonctionnement de l’effecteur laryngien deviendrait dangereux ou même impossible (pour les raisons analysées plus haut).
- Fig. 8. — Représentation tonale de l’analyse physiologique des principales manifestations vocales, liées à la fréquence, offertes par une voix de baryton central (de chtonaxie récurrentielle égale à 0,100 milliseconde), pour sa tessiture en premier registre.
- VO : notes susceptibles d’être ouvertes sans danger. VC : notes qu’il est nécessaire de couvrir (c’est le « registre sombré dur » de G. Dupkez). PP : emplacement optimal du « petit passage » des voyelles fermées (à peine perceptible). CSO : emplacement optimal de la « couverture des sons ouverts », ou « passage des chanteurs ». VM : notes sur lesquelles le sujet peut émettre la voix dite « mixte ». VP : notes sur lesquelles les sons « ouverts » prennent un maximum de résonance buccale (voix dite alors « palatale »).
- 156
- p.156 - vue 157/560
-
-
-
- La quinte comprise entre le petit et le grand passages, sur laquelle les voyelles peuvent recevoir un caractère ouvert bien accusé, a parfois reçu à tort le nom de registre palatal. Cette terminologie est inadmissible, car cette bande de fréquences n’est qu’une fraction du premier registre, et absolument rien ne peut justifier d’en faire un registre autonome.
- La voix dite « mixte » de l’homme n’est pas davantage un registre spécial. Cette expression traduit le fait que le chanteur effectue la couverture du son à une fréquence un peu plus grave qu’il n’est nécessaire, tout en émettant à faible intensité.
- La figure 8 récapitule, pour le premier registre de baryton central, les principales manifestations vocales que nous venons d’analyser.
- Le deuxième registre de la voix humaine ou « voix de tête »
- 666 c/s
- _____A.
- Fig. c). — Conduction récurrentielle en second registre (biphasé).
- A : rythme de la stimulation, ou hauteur de la voix ; ici 666 c/s, ou Mi 4. B : fibres du nerf récurrent (limitées à 12) ; chaque clocher représente un départ d’influx ; le trait plein qui suit figure la période réfractaire de la fibre nerveuse. C : niveau d’excitation globale du récurrent. Comparer avec la figure 1.
- Lorsqu’un sujet, homme ou femme, veut émettre des sons vocaux plus haut que la limite supérieure de son premier registre, il se heurte au fait que, dans chaque fibre de son nerf récurrent, la fréquence maximale est atteinte. Si donc les influx récurrentiels continuent à progresser « en phase », la fréquence atteinte ne peut plus être dépassée.
- Pour émettre des sons plus aigus, il faut alors que les fibres du nerf se divisent en deux groupes ; dans chaque groupe considéré isolément, la progression se fera encore « en phase », mais, d’un groupe à l’autre, les salves progresseront avec un déphasage d’une demi-période. On réalise ainsi une propagation récurrentielle biphasée (fig. 9), dans laquelle chaque fibre transmet des influx à une fréquence qui est la moitié de la fréquence globale du nerf récurrent, c’est-à-dire la moitié de la fréquence de la voix émise. Le chanteur peut alors émettre jusqu’à une fréquence double de la limite supérieure de son premier registre.
- Lorsque le nerf récurrent réalise une telle conduction biphasée, on dit que le sujet émet des sons en registre biphasé, ce qui est à proprement parler la définition neurologique du second registre. Traditionnellement, ce registre est dit de fausset chez l’homme, tandis qu’il est dit de tête chez la femme et l’enfant, appellations rigoureusement synonymes.
- Une expérience des plus élégantes a été réalisée en 1955 au Laboratoire de Physiologie de la Sorbonne, par Cora-bœuf, Gargouïl et Saumont. Ces auteurs ont stimulé à des fréquences croissantes, de 100 à 1 000 c/s, un morceau de nerf récurrent de chien, avec enregistrement de la réponse électrique globale du nerf sur un oscillographe cathodique. Ils ont constaté qu’à partir d’une certaine fréquence (de l’ordre de 700 c/s dans les conditions de l’expérience), le nerf se met à répondre fortuitement selon deux modalités possibles (fig. 10) : i° ou bien il répond une fois sur deux stimulations seulement (figure de gauche), ce qui prouve que la stimulation qui suit tombe sur des fibres en état de période réfractaire ; z° ou bien il répond à chaque stimulation (figure de droite), mais avec une amplitude grosso modo dédoublée, ce qui prouve qu’il s’est divisé en deux groupes de fibres à peu près égaux stimulés à tour de rôle. Dans ce second cas, le nerf a réalisé spontanément une conduction biphasée.
- Si nous considérons un sujet dont l’excitabilité récurrentielle est représentée par la chronaxie C de son récurrent (mesurée comme nous l’avons vu plus haut au point moteur du muscle sterno-cléido-mastoïdien), nous pouvons tout de suite écrire les formules qui donnent les fréquences les plus remarquables de la voix émise dans ce second registre. On comprend qu’il suffit de multiplier par 2
- Fig. 10.—Enregistrements obtenus in vitro, sur un nerf récurrent de chien, stimulé à des fréquences de 700 à 1 000 cycles par seconde.
- A gauche, réponse monophasée, faite une fois sur deux stimulations. A droite, réponse biphasée, faite à chaque stimulation.
- (D’après Corabœuf, Gar.-gouil et Saumont, 1955).
- 157
- p.157 - vue 158/560
-
-
-
- les chiffres donnés par les formules précédentes. En particulier la note la plus aiguë susceptible d’être émise en second registre sera :
- x, f \ 2X1 0.00
- (V) N (max.) =------------—.
- 20 L/
- On voit que les manifestations vocales du second registre reproduisent celles du premier registre, rigoureusement décalées d’une octave vers l’aigu. C’est un fait connu depuis deux siècles des bons chanteurs et des bons pédagogues ; la théorie du biphasage récurrentiel en rend compte de façon immédiate. Bien entendu, ce décalage exact d’une octave ne s’observe que si l’on compare le premier et le second registre che% un même individu, ou chez deux sujets ayant exactement la même excitabilité récurrentielle.
- Il apparaît immédiatement que la note la plus grave du second registre est située au-dessous de la note la plus aiguë du premier : les notes intermédiaires peuvent donc être émises par le sujet, à volonté, soit en premier, soit en second registre. Mais il s’en faut de beaucoup qu’elles soient alors émises avec la même facilité dans les deux registres (ceci en plus des différences connues dans l’intensité et dans le timbre de la voix). Sans nous appesantir sur ce point, énonçons seulement le résultat suivant : au-dessus de la fréquence i 000/40 C environ, la voix est plus facile à émettre en second registre, tandis qu’elle est plus facile à émettre en premier registre au-dessous de cette fréquence (fréquence voisine de Ut 3 pour les barytons, de Mi bémol 3 pour les ténors, de La 2 pour les basses).
- La voix dite « mixte » de la femme. — Le second registre, ne différant du premier que par la conduction biphasée des influx nerveux, donne lieu aux mêmes phénomènes : couverture des sons ouverts et « voix mixte ».
- Mais la femme, dont l’étendue vocale totale embrasse à la fois la partie supérieure du premier registre et la totalité du second, présente la particularité d’avoir à sa disposition deux voix « mixtes », l’une en premier registre, rarement utilisée, l’autre en second registre, d’emploi courant.
- Elle réalise la voix « mixte » de premier registre de la façon suivante : partant d’une note très grave émise en premier registre sur une voyelle ouverte, elle arrive ainsi sur le Ré 3, et, gardant son premier registre, continue à monter en voix couverte. Elle émet alors des sons doux et sombres, qui constituent sa voix dite « mixte » de premier registre.
- Atteignant alors la limite supérieure de son premier registre (vers La 3, Si 3 ou Ut 3 selon les excitabilités récurrentielles), elle passe en voix de tête (registre biphasé), qu’elle peut ouvrir jusqu’au « passage » du second registre (voisin de Ré 4 ou de Mi 4). Elle couvre alors le son, et se trouve ainsi, lorsque l’intensité est faible, dans sa voix « mixte » de second registre.
- La voix dite « mixte » de premier registre est rarement utilisée par la femme. On ne l’observe que chez certains contraltos qui montent leur premier registre assez haut, mais en le sombrant énormément. La voix couverte ainsi émise est quelquefois dite, par dérision, « registre de verre de lampe ». Cette émission, qui n’est nullement recommandable, est toutefois beaucoup moins fatigante pour le larynx que l’émission du premier registre en voix ouverte sur les mêmes hauteurs tonales. Nous l’avons entendue utilisée par certains sopranos éduqués en Italie. L’émission des mêmes sons en second registre est, pour la femme, infiniment préférable à différents points de vue, que nous ne pouvons développer ici.
- La figure 11 donne le tableau d’une étendue vocale totale de mezzo-soprano grave (correspondant à baryton central dans l’échelle des excitabilités récurrentielles), avec les variétés d’émission qu’elle peut présenter dans chacun des registres qui la composent.
- VM en VP
- CS en VT
- SP en VT
- Fig. II. — Représentation tonale de l’analyse physiologique des principales manifestations vocales, liées à la fréquence, offertes par une voix de mezzo-soprano grave (de chronaxie récurrentielle égale à 0,100 milliseconde), à la fois pour sa tessiture en premier registre (clef de Fa) et pour sa tessiture en second registre (clef de sol).
- VPO : voix de poitrine susceptible d’être ouverte (usage à déconseiller). VPC : voix de poitrine nécessairement couverte, donnant les sonorités dites « en verre de lampe » (usage à déconseiller). VM en VP : étendue de la voix dite « mixte » en voix de poitrine (dont l’usage peut être toléré sur les notes très graves seulement). VO en VT : notes de voix de tête susceptibles d’être « ouvertes ». VTC : voix de tête nécessairement couverte. PP en VT : emplacemènt du « petit passage » des voyelles fermées en voix de tête (à peine perceptible). CS en VT : emplacement de la « couverture des sons ouverts », ou « passage des chanteurs », en second registre. VM en VT : voix dite « mixte » de second registre. SP en VT : notes sur lesquelles, en second registre, le caractère « ouvert » des voyelles ouvertes est particulièrement accusé (voix dite alors « palatale »).
- 158
- p.158 - vue 159/560
-
-
-
- 11I11111 II II I 11
- A
- 1980 c/s Si 5
- >B
- C
- Fig. 12. — Conduction du nerf récurrent en troisième registre (triphasé).
- Comparer avec les figures i et 9, dont les légendes permettent'de comprendre la présente figure.
- Fig. i). — Conduction du nerf récurrent en quatrième registre (quadriphasé). Comparer avec les figures i, 9 et 12.
- Le troisième registre de la voix et l’exceptionnel quatrième registre
- Si un sujet, homme ou femme, veut émettre des sons vocaux plus aigus que la limite supérieure de son second registre, il se heurte à la même impossibilité que pour dépasser la limite supérieure de son premier registre. Comme chaque fibre conduit des influx avec la fréquence maximale, une conduction récurrentielle biphasée plus rapide n’est plus possible. Pour aller plus haut, les fibres récurrentielles doivent se diviser en trois groupes. Dans chaque groupe, les influx progresseront encore « en phase », mais les salves d’influx se décaleront d’un tiers de période d’un groupe à l’autre (fig. 12). Le récurrent adoptera alors une conduction triphasée, qui sera la définition neurologique du registre triphasé, ou troisième registre de la voix humaine.
- Dans ce troisième registre, la note la plus aiguë que le sujet pourra atteindre aura pour fréquence :
- xt / \ 3X1 OOO
- (VI) N (max.) = ....— ^----
- Elle sera donc à la quinte aiguë de la limite supérieure du second registre du même sujet.
- Au surplus, toutes les caractéristiques tonales de ce registre s’obtiendront en multipliant par trois celles de même nature du premier registre du même sujet, ou encore, ce qui revient au même, en multipliant par 3/2 celles de même nom du second registre du même sujet.
- Ce troisième registre de la voix humaine n’apparaît point chez tous les sujets ; il exige un conditionnement anatomo-physiologique que nous ne pouvons étudier ici. Il n’est pas courant, mais cependant point rarissime. Beaucoup d’enfants, garçons ou filles, le présentent sur quelques notes très aiguës, mais le perdent rapidement faute d’usage (ou par mésusage) en grandissant. Il est utilisé couramment par certaines chanteuses, telles que José Daria, Danielle Vrillet, Erna Sack, Yma Sumac, etc. Les premières nommées sont des sopranos ; la dernière paraît être un mezzo-contralto.
- Dans ce registre, les cordes vocales produisent toujours des ouvertures rythmées rapides de la glotte, à la fréquence du son émis. Mais l’amplitude des ouvertures ne dépasse point un quart de millimètre ; elle est à peine visible. On a pu cependant l’observer au laryngostroboscope et l’utilisation du glottographe électrique du professeur Philippe Fabre a supprimé toute difficulté (La Nature, mai 1959, p. 205-2x3).
- Dernière remarque : tous les sons émis entre la limite supérieure du second registre et la limite supérieure du troisième sont nécessairement couverts, car la fréquence de couverture des sons en troisième registre est de 3 000/32 C, légèrement inférieure à la limite supérieure du second (2 000/20 C).
- Pour aller encore plus haut que la limite supérieure du troisième registre, le sujet devra éventuellement réaliser un découpage des fibres de son nerf récurrent en quatre groupes travaillant à tour de rôle. Si cela se réalise, le récurrent adoptera une conduction tétraphasée (fig. 13), qui constitue la définition neurologique du quatrième registre de la voix humaine.
- Il atteindra ainsi la fréquence maximale :
- (VII) N (max.) = -——^,
- qui est à Y octave aiguë de la limite supérieure de son second registre, ou encore à la quarte aiguë de la limite supérieure de son troisième.
- Mme Mado Robin a été longtemps la seule cantatrice connue qui présentât un quatrième registre, atteignant ainsi le Ré 6 (2 322 c/s). Récemment (1958), on a signalé que Mme Jennifer Johnson possède une excitabilité légèrement supérieure, et qu’elle atteint le Fa 6 (2 762 c/s). On a noté pour ces deux sujets les limites supérieures suivantes :
- Limite supérieure Mado Robin Jennifer Johnson
- Du second registre ... Ut d. 5 Fa 5
- Du troisième registre . La 5 Ut 6
- Du quatrième registre. Ré 6 Fa 6
- 159
- p.159 - vue 160/560
-
-
-
- Les fréquences correspondantes sont bien, pour chaque sujet, proportionnelles aux nombres 2, 3 et 4, ce qui constitue une confirmation éclatante du polyphasage récurrentiel qui est à la base de la genèse neurologique des registres de la voix humaine et de leurs changements.
- Le polyphasage du nerf auditif
- Signalons en terminant que le curieux mécanisme de polyphasage, ci-dessus décrit pour le nerf récurrentiel dans la phonation, a été initialement découvert dans le nerf auditif, dès 1935, par Stevens et Davis. Il se produit au sein de ce nerf pour la conduction d’influx rythmés auditifs de fréquences croissantes, jusque vers 2 400 à 3 600 c/s. Les fréquences successives sur lesquelles les déphasages se pro-
- duisent sont également multiples de la plus grave d’entre elles, et se calculent à l’aide des mêmes formules (I, V, VI et VII) que ci-dessus. Quatre paliers successifs ont également été découverts par ces auteurs, tout comme pour le nerf récurrent.
- Si une conduction pentaphasée reste théoriquement possible, elle est hautement improbable, en raison de la difficulté à assurer les départs réguliers d’influx dans des groupes de fibres dont l’excitabilité serait si peu différente que ce soit d’un groupe à l’autre. Cette difficulté serait évidemment la même pour tous les nerfs, et vaut pour le nerf auditif aussi bien que pour le nerf récurrent.
- Raoul Husson,
- Docteur ès Sciences, Lauréat de l’Institut et de l’Académie de Médecine.
- Oftho et parahydrogène dans l’industrie de l’hydrogène liquide
- L’emploi de l’hydrogène liquide comme combustible pour les fusées vient d’entraîner la construction d’usines capables de fournir des quantités importantes de ce produit. Aux États-Unis, une première installation d’une capacité de 6,5 tonnes/jour a démarré à Toorance (Californie) en juin dernier, tandis qu’une autre usine, d’une capacité de 26 tonnes/jour, est en cours de montage à Fontana (Californie).
- Le produit de départ est un gaz contenant de 28 à 45 pour 100 d’hydrogène, provenant d’une usine voisine de l’Union Carbide. Il est purifié par une série de condensations fractionnées et de lavages de manière à obtenir un gaz à 99,9998 pour 100 d’hydrogène, contenant par conséquent moins de 2 parties par million d’impuretés. Ce gaz est ensuite liquéfié par réfrigération à contre-courant, compression et détente, puis stocké dans un réservoir sphérique de 13 tonnes parfaitement calorifugé au point que la perte par évaporation est inférieure à 0,2 pour 100.
- A ce stade final de la fabrication intervient le fait que l’hydrogène ordinaire est un mélange de deux variétés : Y orthohydrogène et le parahydrogène. On sait en effet que le noyau de l’atome d’hydrogène est constitué par un proton. Ce proton unique tourne sur lui-même et possède, tout comme l’électron, un moment angulaire de rotation ou spin. De ce fait, dans la molécule Ha formée par l’union de deux atomes d’hydrogène, deux configurations sont possibles selon que les spins des deux protons sont parallèles ou antiparallèles. Dans le premier cas, on a par définition l’orthohydrogène (on peut dire de façon imagée que les deux protons tournent dans le même sens) ; dans le second, le parahydrogène (les deux protons tournent en sens inverse).
- Ces deux types de molécules ont des propriétés physiques voisines mais non identiques, par exemple :
- Ortho Para
- Température de fusion . . — 2 5 9,08° C — 2 5 9,18° C Température d’ébullition . —252,61° C —252,74° C
- Mais, et c’est ce qui est important ici, leurs domaines de stabilité sont différents. A la température ordinaire, l’hydrogène à l’état d’équilibre contient trois fois plus d’orthohydrogène que de parahydrogène. Au contraire, au zéro absolu, la variété stable est le parahydrogène. Lorsqu’on liquéfie de l’hydrogène, l’orthohydrogène se transforme en parahydrogène mais cette transformation est lente en l’absence de catalyseur, de sorte que si l’on ne prend pas la précaution d’accélérer cette conversion, on obtient de l’hydrogène liquide contenant encore près de 75 pour 100 d’orthohydrogène. Celui-ci se transforme alors plus ou moins rapidement en parahydrogène en dégageant de la chaleur (l’énergie de la molécule de parahydrogène étant plus faible que celle d’orthohydrogène) ce qui entraîne l’évaporation d’une certaine quantité d’hydrogène liquide.
- Afin d’éviter cette évaporation, on fait passer l’hydrogène sur de l’hydroxyde de fer qui catalyse la transformation de l’orthohydrogène en parahydrogène de sorte que l’on obtient finalement de l’hydrogène liquide contenant moins de 5 pour 100 de la forme ortho.
- On voit ainsi comment l’allotropie de l’hydrogène qui pouvait paraître à première vue une notion très théorique, intervient directement et d’une façon essentiellement pratique au cours d’une fabrication industrielle.
- H. G.
- 160
- p.160 - vue 161/560
-
-
-
- Des poissons ne se reproduisent en captivité qu’après traitement aux extraits hypophysaires
- L’élevage des poissons pourrait être très important, particulièrement dans les régions de surpopulation et de sous-alimentation. La difficulté a toujours été qu’en général ils ne se reproduisent pas en captivité, sauf un petit nombre d’espèces, comme la carpe et le poisson rouge, qui en sont les exemples les plus anciens. La plupart des poissons comestibles que l’on élève dans des viviers sont obtenus à partir d’alevins sauvages. Chaque année l’éleveur doit capturer de nouveaux animaux et il se trouve démuni si les conditions pour le frai sont peu favorables dans la nature.
- Les premières expériences qui pouvaient suggérer une solution ont été réalisées par le physiologiste argentin Houssay en 1930. Cet auteur a injecté à un poisson vivipare des extraits hypophysaires provenant d’une autre espèce de poisson, et il a obtenu des naissances prématurées.
- On sait quelle est la conception actuelle du rôle de l’hypophyse ou « glande pituitaire » dans les phénomènes de reproduction chez les Vertébrés. Elle intervient directement sur le développement des cellules germinales et sur le tissu endocrinien des glandes génitales ; cette action est vraisemblablement indirecte en ce qui concerne le développement des caractères sexuels secondaires, c’est-à-dire étrangers aux glandes sexuelles, mais la suppression de l’hypophyse entraîne la réduction de tout l’appareil reproducteur. Il existe une concordance remarquable entre les activités génitales saisonnières et les modifications cycliques de l’hypophyse qui sécrète en abondance une (ou plusieurs ?) hormone gonadotrope stimulatrice des gonades à l’époque de la reproduction. On peut, chez le vairon, provoquer le développement ovarien et l’ovulation hors saison par l’injection d’extraits hypophysaires de grenouille. Les extraits provenant de Mammifères sont beaucoup moins actifs que ceux des poissons, ou même totalement inactifs. Il y a donc une certaine spécificité \yologique des hormones hypophysaires. Ceci est d’une importance fondamentale pour le pisciculteur qui devra préparer lui-même des extraits d’hypophyse de poisson pour les administrer à des sujets reproducteurs.
- Si le cycle saisonnier génital est en grande partie gouverné par un cycle saisonnier de l’hypophyse, celui-ci subit à son tour l’influence d’une part des corrélations réciproques entre l’hypophyse et les glandes sexuelles, d’autre part et surtout celle des stimulus externes, température et éclairement en particulier. L’élévation de température peut activer la fonction génitale. L’éclairement permanent active très nettement la maturation des glandes sexuelles chez l’épinoche. Cette action de l’éclairement est d’ailleurs très générale chez les Vertébrés ; M. Jacques Benoît a montré son rôle chez le canard.
- Ces considérations théoriques ont permis la mise au point de procédés pratiques en pisciculture. Au Brésil,
- les pisciculteurs ont vite constaté que le poisson donneur doit être au bon stade du cycle de reproduction, ni immature ni venant de frayer. Sinon l’injection d’hypophyse est inefficace à cause de la trop faible teneur en hormone de la glande. On conserve dans l’alcool ou dans l’acétone les glandes prélevées.
- En Union Soviétique on utilise sur une grande échelle le traitement hypophysaire pour l’élevage des esturgeons. En effet la construction de barrages de plus en plus nombreux empêche ces poissons d’arriver jusqu’aux lieux de frai. Des hormones de Mammifères employées tout d’abord ne donnèrent aucun résultat. Depuis 1937 on utilise les hypophyses de l’esturgeon Acipenser stellatus ; ces glandes sont récoltées sur une grande échelle dans les pêcheries. Une équipe de quatre hommes peut mettre en conserve environ 500 glandes par jour. Après déshydratation elles sont conservées à sec dans des récipients hermétiquement clos. Chaque poisson destiné à la reproduction reçoit l’extrait de 2 à 4 glandes puis on le maintient en vivier jusqu’à l’époque du frai. Aujourd’hui tous les œufs d’esturgeons destinés à l’élevage proviennent de reproducteurs ainsi traités.
- Les poissons qui peuplent une rivière ne sont pas tous assez mûrs pour être capables de répondre à un traitement hormonal. On a pu mettre en évidence plusieurs races biologiques dans une seule espèce. Ces races sont en relation avec les conditions qui régnent dans les rivières où elles vivent. Certaines montent immédiatement jusqu’aux lieux de frai ; d’autres demandent plusieurs semaines avant d’atteindre la maturité ; certaines attendent six mois et passent l’hiver en eau douce avant de se reproduire.
- Des essais ont été faits également aux États-Unis. On produit ainsi les hybrides de carpes et de poissons rouges utilisés comme appât pour la pêche. Ces hybrides sont stériles et ils ne peuvent par conséquent envahir les rivières et les lacs ni éliminer les espèces indigènes comme l’ont fait en maint endroit certaines espèces de carpes imprudemment introduites. On utilise aussi la méthode hypophysaire pour maintenir le saumon du Pacifique que des barrages empêchent actuellement d’atteindre ses frayères naturelles.
- Mais cette méthode a aussi subi des échecs, par exemple pour les carpes élevées dans les rizières en Chine. Il est douteux que le problème du frai des poissons en captivité puisse être résolu dans tous les cas par voie hormonale. Si chez les espèces évoluées l’hypophyse semble exercer une action prédominante, chez les espèces moins évoluées elle a un rôle plus effacé et chaque glande endocrine a une autonomie plus large, réagissant directement aux déséquilibres métaboliques et aux changements des conditions de milieu. Un vaste champ d’études reste ainsi ouvert aux physiologistes pour coordonner les multiples aspects d’une question difficile. R. D.
- 161
- p.161 - vue 162/560
-
-
-
- 1
- Dans l’intimité des loups
- Fig. I. — L’homme (H. Crisler) et le loup (Trigger) en communion vocale.
- Les plus nombreuses et les plus importantes observations sur les animaux sauvages ont été faites dans les parcs zoologiques. Elles ont reçu des compléments intéressants, grâce aux zoologistes et aux chasseurs qui ont pu saisir quelques épisodes de la vie de ces animaux en liberté. Mais fort rares sont les témoignages recueillis à la faveur d’une coexistence en pleine intimité — disons même : en pleine compréhension -— entre l’homme et les bêtes. C’est ce qui fait toute la valeur du livre de Lois Crisler, A.rctic Wild, consacré aux caribous de l’Alaska, mais bien davantage encore à leurs prédateurs, les loups 0.
- Le dessein de H. Crisler, le mari de l’auteur, était à l’origine de rapporter un film documentaire sur la vie sauvage dans le Nord de l’Alaska, en donnant le premier rôle au grand troupeau de caribous qu’il comptait joindre à l’occasion de ses migrations. A cette fin, les deux époux s’entendirent avec un pilote de l’Arctique, A. Anderson, qui, à plusieurs reprises, les déposa en pleine solitude, pour des camps temporaires, et qui périodiquement venait les ravitailler.
- La solitude ne fut pesante que dans les premiers jours, alors que les Crisler ressentaient douloureusement le vide qui s’est creusé, par sa faute, entre l’homme et les animaux.
- i. Arctic Wild, par Lois Crisler, i vol. 274 p. 14 x 22, 60 pi. hors texte, Éditions Secker and Warburg, London, 1959. Prix (relié) : 25 shillings.
- Mais ceux-ci, assez vite, commencèrent à « intégrer » les deux pacifiques chasseurs d’images, au point de leur laisser voir et filmer diverses scènes caractéristiques qui constituaient pour eux un précieux butin. C’est ainsi que de nombreuses pages mettent en scène plusieurs habitants de cette contrée vierge : blaireaux, canards, renards, ptarmi-gans, laniers, sans compter l’ours grizzly, redouté de tous et les caribous eux-mêmes, parfois aux prises avec les loups. De tels témoignages ne sont pas d’une originalité absolue et c’est seulement du jour où les Crisler ont été en possession de deux louveteaux qu’a débuté l’expérience capitale que nous allons à présent résumer.
- Passons rapidement sur la première phase où l’auteur fut journellement occupée à l’élevage et à l’apprivoisement de ses pensionnaires. C’étaient les survivants d’une portée, capturée par les Esquimaux (cette capture est un fait assez banal, car le gouvernement verse une prime de 50 dollars pour chaque prédateur tué ou mis « hors d’état de nuire »). Comme avec la plupart des jeunes animaux, il ne fut pas très difficile de leur faire accepter de la nourriture, de gagner leur confiance et de les faire vivre paisiblement, tout d’abord dans un enclos grillagé, puis de les habituer à suivre leurs maîtres en promenade.
- C’est alors que l’auteur et son mari eurent la révélation de différents comportements lupins : une animation joyeuse, traduite par des mouvements du corps et par des regards et que l’auteur assimile à un « sourire » ; l’hommage fait
- 162
- p.162 - vue 163/560
-
-
-
- à la maîtresse de la première proie (une souris) ; les jeux de balles ; les caches de nourriture. En même temps s’affirmaient des différences de caractère : la petite femelle Lady était indépendante et gaie ; son frère Trigger, plus inquiet, avait une sorte de subordination émotive vis-à-vis de sa sœur et recherchait perpétuellement son contact. Tous deux étaient fiers et ne s’abaissaient jamais à mendier la nourriture. En cas d’alerte, ils considéraient comme nulle la protection de leurs maîtres. Au total, d’agréables compagnons, expressifs, gais et affectueux.
- Nous n’entrerons pas dans le détail des nombreux épisodes où les louveteaux, après une fugue, retrouvaient leurs maîtres avec force embrassades à grands coups de langues. Une cellule sociale s’était constituée, où régnait une parfaite harmonie.
- En grandissant, les louveteaux commençaient à alterner les jeux et la chasse. Survint alors un événement qui troubla quelque peu leurs maîtres : alors que Lady et Trigger s’étaient éloignés du camp, des hurlements retentirent. C’étaient les hurlements sauvages du loup et Lois Crisler fut convaincue qu’ils sortaient de la gorge de loups « étrangers à la famille ». Non : c’étaient les deux louveteaux qui, pour la première fois, lançaient l’appel du loup adulte. Allaient-ils brusquement devenir hostiles ?
- Il n’en fut rien et bientôt les Crisler purent constater à quel point leur première interprétation était erronée. Un matin que le cinéaste avait émis un bâillement sonore, ses loups lui répondirent par une modulation analogue. La femme se mit de la partie. Et ainsi s’organisa un chœur qui ne faisait rien d’autre que marquer la communion profonde qui existait au sein du groupe (fig. i). Les Crisler, par la suite, renouvelèrent fréquemment cette chorale et purent en outre distinguer plusieurs sortes de hurlements, correspondant à des dispositions affectives différentes ou à des signaux bien déterminés.
- Fig. 2. — Les loups guettent un troupeau de caribous mais s’abstiennent d’attaquer.
- L’expérience dès lors allait se corser : Lady et Trigger, par leurs hurlements, étaient entrés en communication avec les loups de la toundra (fig. 3) : bien vite, il apparut avec évidence que cette communication n’était pas seulement vocale, mais physique. Et pourtant les deux animaux apprivoisés ne faisaient pas mine d’abandonner leurs compagnons humains. L’ « intérêt » (si l’on peut dire) ne jouait aucun rôle dans ce lien si solide. La preuve en fut fournie par Trigger lorsqu’il tua son premier caribou : non seulement ce ne fut pas le signal d’un divorce définitif, mais il
- Fig. ). — Les deux loups apprivoisés, Lady et Trigger, lancent un appel à l’intention des loups sauvages.
- p.163 - vue 164/560
-
-
-
- Fig. 4. — Différence de comportement entre les loups et un chien commensal de la maison.
- Ce dernier mange paisiblement devant les jeunes loups qui jettent des regards prudents autour d’eux.
- laissa le cinéaste s’approcher de sa proie et joua avec lui comme à l’accoutumée.
- Les deux loups désormais se nourrissaient par leurs propres moyens (fig. 2) et revenaient cependant partager le foyer familial. Ils y avaient d’autant plus de mérite que les Crisler y avaient introduit une intruse, à savoir une chienne esquimau, avec laquelle s’établit un régime de tolérance réciproque.
- Mais l’expérience allait atteindre son point culminant. A nouveau, les Crisler accueillaient une portée de louveteaux, portée complète cette fois, de cinq petites bêtes qui furent installées dans un enclos grillagé, comme il avait été fait pour leurs anciens. La prise de contact entre les deux générations (nous ne pouvons malheureusement en transcrire le récit) fut émouvante. Très vite, le cinéaste et sa femme durent se rendre compte que le couple adulte entendait prendre en charge les petits. Les représentants de l’espèce humaine voyaient leur cabane transformée en un « antre
- de loups » où ils étaient censés désormais jouer un rôle de figurants et d’approvisionneurs occasionnels.
- Trigger et Lady chassaient avec persévérance, apportant à chaque fois de la nourriture pour leurs enfants adoptifs. Le mode de transfert était le suivant : les loups se gorgeaient de viande pour ensuite la régurgiter (parfaitement fraîche en apparence) devant les petits. Crisler fit l’hypothèse qu’ils étaient capables d’inhiber la sécrétion de leurs sucs digestifs. Toute une série de comportements se fit jour : les adultes plaçaient des bouts de viande dans des caches et encourageaient les petits à les découvrir. Trigger et Lady rivalisaient dans leurs tâches éducatives, les menant à la promenade, leur apportant de petits os (à titre de jouets), les appelant d’une voix spéciale, F « appel des petits » (rappelons que cette nuance vocale est couramment observée chez les chattes).
- Revenant sur le chapitre de la nourriture, Lois Crisler a noté que très souvent la régurgitation se faisait de bouche à bouche, comme chez les oiseaux. Par ailleurs, les petits préféraient nettement la viande distribuée par leurs aînés à celle qui leur était présentée par les hommes.
- Puis les incidents se multiplièrent. La chienne vint une fois malmener les petits loups, ce qui déclencha parmi eux une effrayante bagarre. Mais l’ultime épisode fut l’apparition d’une superbe louve à la fourrure argentée qui, prudemment, s’intégra à la communauté, gardant cependant ses distances vis-à-vis des hommes. Elle chassait avec les deux adultes et paraissait les guider vers des proies attrayantes. Sa préférence pour Trigger s’affirma assez rapidement. Lady, souvent délaissée, fut entraînée dans un combat avec sa rivale et succomba.
- Fig. /. — Les loups familiers accompagnent le cinéaste dans une de ses expéditions.
- 164
- p.164 - vue 165/560
-
-
-
- Fig. 6. — Le « baiser » de la louve et du louveteau.
- Le jeune introduit son museau dans la gueule de sa mère.
- (Photos aimablement communiquées par Mme Lois Crisler).
- Les Crisler assistèrent ensuite à l’idylle entre Trigger et sa nouvelle compagne, notant que leurs comportements étaient très différents de ceux d’un couple canin. L’épilogue fut la venue de trois autres loups de la toundra qui, après avoir gambadé et joué quelque temps devant la cabane, s’en allèrent, emmenant avec eux Trigger et son amie.
- *
- * *
- Il est bien entendu que ce résumé très raccourci ne rend pas suffisamment compte du véritable journal de bord, tenu presque quotidiennement par Lois Crisler pendant son séjour de deux ans dans la toundra alaskienne. Il nous faut, avant de conclure, nous faire l’écho d’une théorie à laquelle elle a apporté des arguments assez frappants : les loups, essentiellement prédateurs de caribous, n’en déciment pas le troupeau. Ils sont insuffisamment armés pour détruire les individus valides et leur chasse n’atteint que des malades
- ou des « inaptes ». L’auteur du livre estime que les proies qu’elle a vu tuées appartenaient à cette catégorie. Ses loups familiers auraient donc contribué à la sélection des caribous.
- Dans un autre secteur de l’Alaska, les Services américains de la Vie sauvage affirment qu’un troupeau d’environ 4 ooo têtes aurait décuplé en une dizaine d’années, à partir du moment où il fut « contrôlé » par les loups. Statistique que nous reproduisons bien entendu sous toutes réserves.
- De retour dans leur résidence des Montagnes Rocheuses, Lois Crisler et son mari ont continué à élever des loups, la souche étant fournie par la portée de cinq louveteaux, ramenée d’Alaska. Ils ont pu continuer à étudier le comportement de ces animaux, plongés cette fois dans la vie civilisée, mais sans communication désormais avec les loups sauvages.
- G. C.
- 165
- p.165 - vue 166/560
-
-
-
- Le Mas dirigé sur Vénus
- premier engin lancé par Nicolas Vichney
- d’un satellite terrestre
- Le 12 février dernier, les Soviétiques ont lancé en direction de Vénus une « station interplanétaire automatique » (Mejplanetaia Avtomatitcheskaya Stan^ia, ou Mas) qui a marqué, de l’aveu de tous, une nouvelle étape dans l’exploration de l’espace. Cependant cette opération d’un caractère inédit et qui a frappé une fois de plus l’opinion dans tous les pays n’a pas été un succès complet, car le contact radio avec l’engin a été perdu quelques jours après son lancement, et définitivement semble-t-il.
- Le Mas vénusien ne tirait pas son originalité de son équipement, quoique des incertitudes demeurent à cet égard. A en croire la presse soviétique, il ne contenait rien qui dût surprendre. C’est un cylindre de 2,03 m de long et de 1,05 m de diamètre (antennes non comprises), à bord duquel sont logés tous les appareils que l’on pouvait s’attendre à y trouver, après les précédentes expériences des Soviétiques et des Américains : un système de thermorégulation destiné à maintenir la température à l’intérieur de l’engin dans les limites prévues (on estime qu’au périhélie de sa trajectoire autour du Soleil, il sera exposé à un rayonnement deux fois plus intense que lors de son départ de la Terre), des appareils destinés à enregistrer les conditions régnant à bord, des dispositifs d’orientation et de téléguidage, des appareils de mesure scientifiques, notamment un magnétomètre situé hors du corps de l’engin, et naturellement des appareils pour la liaison radioélectrique.
- Tout au plus sa silhouette frappera ceux qui voient encore les engins interplanétaires sous une forme qui tient à la fois de l’avion et de la fusée... Loin d’être « racé » et taillé pour la course, le Mas se présente comme un engin dissymétrique qui ne doit rien à l’aérodynamique. Somme toute, avec ses larges volets couverts de cellules destinées à capter l’énergie solaire pour alimenter les émetteurs, et son antenne en forme de baleines de parapluie, il serait plutôt disgracieux...
- Télévision à bord ? — Divers spécialistes se sont étonnés, au vu du poids de l’engin (643,2 kg), du peu d’instruments qui étaient logés à bord. Déjà une « station interplanétaire automatique » (mais alors, elle ne méritait pas son nom) avait contourné la Lune et l’équipement dont elle était munie était sensiblement plus important. Fallait-il croire dès lors que les Soviétiques avaient fait preuve, une fois de plus, de discrétion et qu’ils n’avaient pas donné une liste complète du matériel qui figurait dans l’engin ? C’est seulement lorsque les photos de la face opposée de la Lune prises par le premier Mas le 7 octobre 1959 furent
- rendues publiques que l’on révéla la présence à bord d’un dispositif de prises de vues et de la télévision. On pouvait donc supposer que le second Mas était lui aussi muni de caméras de télévision et qu’il allait prendre des vues de Vénus.
- Cependant, il faut se demander si les Soviétiques ont pu juger intéressant de munir leur station de caméras de télévision et si, d’autre part, ils étaient à même d’assurer la transmission jusqu’à la Terre des images éventuellement recueillies.
- Sur le premier point, les avis sont très partagés. Entrevoir la face que la Lune nous dérobe était évidemment du plus grand intérêt ; il est incontestable que les photographies prises par le premier Mas ont satisfait notre curiosité et apporté d’utiles sujets de méditation aux hommes de science. Mais, en ce qui concerne Vénus, la situation est toute différente.
- Les conditions qui régnent sur Vénus sont, on le sait, très mal connues, en raison surtout de l’épaisse couche de nuages qui la couvre entièrement et elles ont fait l’objet d’appréciations très divergentes (voir à ce sujet Ta Mature, janvier i960, p. 16-17). La durée de sa rotation sur elle-même fait encore l’objet de discussions. Certains estiment que la période de rotation est égale à la période de révolution autour du Soleil (225 jours terrestres), de sorte que la planète présenterait toujours la même face à l’astre du jour. D’autres, se fondant sur des observations plus récentes, soutiennent que la rotation serait beaucoup plus rapide : certains parlent de sept jours dans le cas où la planète tournerait d’ouest en est (sens direct), de trois jours et demi dans le cas contraire (sens rétrograde).
- Même incertitude en ce qui concerne la température, qui a donné lieu à des évaluations extrêmement différentes. Des mesures récentes, américaines et soviétiques, donnent à penser que la température est bien plus élevée qu’on ne l’évaluait précédemment : elle pourrait dépasser cent degrés à proximité du sol. De grandes incertitudes subsistent. Quant à l’atmosphère, dont l’épaisse couche nuageuse interdit toute observation du sol, on a avancé qu’elle se décomposerait en deux parties. Elle contiendrait du gaz carbonique et de l’eau ; tout récemment un astronome soviétique a fait état de travaux qui prouveraient la présence d’azote.
- Dans ces conditions, est-il intéressant de saisir une image de la planète prise d’un engin qui ne s’en approcherait qu’à quelque cent mille kilomètres alors que depuis des années de puissants télescopes s’efforcent vainement de percer la couche nuageuse qui l’entoure ? Pour que l’opé-
- 166
- p.166 - vue 167/560
-
-
-
- ration présente un intérêt, il faudrait que les caméras fussent munies d’un dispositif de grossissement assez important et que de plus la transmission des images n’en altérât pas trop la qualité.
- C’est poser le problème des liaisons radio-électriques à très longue distance. On sait que, pour qu’une semblable liaison puisse être établie, une relation doit être satisfaisante entre la puissance de l’émetteur placé dans l’engin et les dimensions des antennes réceptrices installées au sol. Or les Soviétiques, s’ils ont placé un émetteur à bord de la station et s’ils ont révélé avoir construit « quelque part » des installations réceptrices, n’ont fourni aucune précision sur la puissance du premier et l’importance des secondes. Impossible, alors, de savoir dans quelle mesure les spécialistes russes s’estimaient à même d’assurer, au moment
- où le Mas se trouverait au plus près de la planète, la transmission à la Terre des informations recueillies, quelle qu’en soit la nature. Les signaux auraient alors à parcourir quelques dizaines de millions de kilomètres. Aussi, devant les difficultés de l’entreprise, a-t-on supposé que l’engin pourrait être muni d’une « mémoire » qui lui permettrait d’enregistrer le résultat des observations et de les transmettre au sol lorsque le Mas se serait rapproché de la Terre,
- Fig. I. — La seconde « station interplanétaire automatique » soviétique, envoyée à la rencontre de Vénus.
- L’engin est vu ici sur son support de montage. L’antenne radio à tiges se trouve en position demi-ouverte.
- {Photo aimablement communiquée par le Bureau soviétique d’information).
- p.167 - vue 168/560
-
-
-
- par exemple après avoir effectué une révolution autour du Soleil. Il y avait un précédent à une telle façon d’opérer : le premier Mas était à même, soit de transmettre presque immédiatement les images recueillies, soit de les garder en « mémoire » jusqu’à ce qu’il s’approchât à nouveau de la Terre. La seule différence entre les façons d’opérer des deux engins aurait alors tenu au fait que le premier n’était qu’un satellite de la Terre qui décrivait une orbite elliptique très allongée, tandis que le second est un astéroïde, c’est-à-dire un satellite du Soleil.
- L'intérêt d’un lancement en trois temps. — L’originalité du second Mas tient d’ailleurs essentiellement à la manière dont il a été lancé. En effet, à en croire les informations diffusées par l’agence Tass et la radio de Moscou, le lancement de l’engin s’est effectué, non pas à partir du sol, mais d’un satellite artificiel. L’opération s’est donc déroulée en trois temps :
- i° Lancement d’un satellite lourd suivant une orbite faisant vraisemblablement avec l’équateur un angle de 65 degrés environ et gravitant à une distance du sol qui n’a pas été précisée, mais qui, très certainement, est comparable aux distances auxquelles gravitent d’ordinaire les spoutniks et les vaisseaux-satellites soviétiques. Aucune indication non plus sur l’importance de la masse satellitisée, mais on a tout lieu de penser qu’elle devait être très proche de celle du vaisseau-satellite lourd lancé une semaine auparavant et qui pesait quelque 6,5 tonnes. Ce poids est assez sensiblement supérieur à celui (4,5 tonnes) des vaisseaux-satellites dont les Russes ont déjà lancé quatre exemplaires et qui transportaient une cabine récupérable. Néanmoins, c’est très vraisemblablement un même type de fusée porteuse qui est utilisé dans les deux cas, celui- qui a pour la première fois été essayé dans l’Océan Pacifique au mois de janvier de l’année dernière. Il s’en faut d’ailleurs que cette fusée ait déjà atteint les limites de ses possibilités. De nouveaux perfectionnements dans les étages supérieurs permettraient, d’après certains spécialistes, de satellitiser des charges utiles de quelque 10 tonnes.
- 20 Mise à feu d’une fusée logée à bord du satellite et transportant elle-même la station automatique à laquelle elle communique une vitesse égale ou supérieure à la vitesse parabolique. La mise à feu et la séparation de la fusée du reste du satellite se sont-elles déroulées simultanément ou bien la fusée a-t-elle été « éjectée » du satellite bien avant d’être mise en route et alors a-t-elle gravité indépendamment un certain temps autour du Globe ? Les textes publiés en U. R. S. S. ne permettent pas de se faire une opinion à ce sujet, mais certains spécialistes américains sont d’avis que la fusée, après avoir été satellitisée avec une « carapace », s’en serait d’abord en quelque sorte débarrassée ; c’est seulement plus tard qu’elle aurait été mise à feu. Peut-être cette opinion s’appuie-t-elle sur des observations, mais rien n’a été dit à ce sujet.
- 30 Enfin, la fusée ayant communiqué à la station la vitesse et la direction voulues, l’engin a été éjecté et a commencé sa course vers Vénus, suivi vraisemblablement de la fusée vide de carburant. La station était-elle alors livrée à elle-même ? On penserait plutôt que, munie de dispositifs qui en autorisaient l’orientation et la stabilisation (sans orientation de l’engin, toute liaison radio-électrique à très longue distance est impossible), le Mas était également à même d’infléchir quelque peu sa trajectoire. Si cela n’avait pas été le cas, on comprendrait moins bien que les Sovié-
- tiques, après avoir annoncé que la station passerait à quelque 180 000 km de Vénus, aient pu, quelques jours plus tard, ramener ce chiffre à une centaine de milliers de kilomètres.
- Les spécialistes soviétiques ont disposé, pour « pointer » leur engin sur Vénus, de toute une gamme de possibilités dont les effets ont dû logiquement s’ajouter les uns aux autres :
- i° Choix des caractéristiques de l’orbite suivie autour de la Terre par le satellite, grâce au guidage de sa fusée porteuse.
- 20 Éventuellement, correction des caractéristiques de cette orbite sur ordre lancé par la Terre et exécuté par le satellite. Les Américains ont récemment fait savoir que leur satellite Discoverer XXI avait été à même d’infléchir son orbite. Étaient-ils bien les premiers à disposer d’une telle possibilité ? L’importance de la charge utile satellitisée par les Soviétiques leur permet de toute évidence de loger à bord de nombreux dispositifs et il serait assez étonnant qu’ils n’aient pas cherché à mettre au point un système leur permettant d’agir sur les paramètres des orbites.
- 30 Choix du moment où la fusée satellitisée doit être mise à feu. On s’est demandé quel pouvait être l’intérêt d’utiliser un satellite intermédiaire pour lancer un engin en direction d’une autre planète ; c’est justement, semble-t-il, dans cette possibilité de choisir « à tête reposée » le moment de la mise à feu de la fusée porteuse de la station proprement dite que réside le principal avantage de cette solution. Disposer d’une « plate-forme » intermédiaire permet en quelque sorte d’ « arrêter » les opérations de lancement, d’y introduire un temps mort qui peut être mis à profit pour choisir, au vu de la manière dont la première étape s’est déroulée, la façon de mener au mieux la seconde. Certes l’appareillage électronique permet de « suivre » les engins de la façon la plus précise et les calculatrices fournissent presque instantanément tous les éléments d’appréciation dont les dirigeants de l’opération peuvent avoir besoin. Mais c’est une chose que de pouvoir à l’aide d’un « programme » corriger dans la mesure du possible la course d’un engin et c’en est une autre que d’être à même de le pointer à nouveau en connaissant parfaitement la vitesse qui l’anime. C’est alors sa vitesse de gravitation autour de la Terre et elle peut être déterminée avec une grande précision. Quant au pointage (on ne peut naturellement songer à lancer la fusée dans une direction autre que celle suivie par le satellite), il s’effectue par le choix de l’endroit où la fusée doit être mise à feu, au vu des paramètres de l’orbite. Naturellement, les Soviétiques n’ont pu songer à utiliser toute l’orbite et ils ont vraisemblablement donné l’ordre de mise à feu alors que le satellite survolait le territoire de l’U. R. S. S. L’engin était bien entendu lancé dans un plan sinon parallèle à celui de l’équateur, du moins faisant un petit angle avec l’équateur. Compte tenu de tout cela ainsi que du site supposé du lancement et de la vitesse qu’avait la station à une distance donnée de la Terre (chiffre publié par l’agence Tass), on a pu déterminer que le satellite porteur de la fusée, ou la fusée satellitisée, avait effectué deux ou trois révolutions autour du Globe avant que l’ordre demise à feu ne fût lancé.
- 40 Enfin, inflexion de la trajectoire suivie par la station après qu’elle s’est séparée de la fusée.-
- Il faut noter que la trajectoire choisie pour le Mas diffère d’une « ellipse de transfert », expression déjà classique pour désigner une ellipse à la fois tangente à l’orbite de la Terre et à celle de l’astre que l’on se propose d’atteindre
- 168
- p.168 - vue 169/560
-
-
-
- au plus près (on la désigne aussi sous le nom d’ellipse économique, car c’est celle qui demande la plus petite dépense d’énergie). Tout en étant différente, l’ellipse décrite par le Mas a un grand axe égal à celui de cette ellipse économique et la période de révolution de l’engin autour du Soleil sera équivalente : 290 jours environ. Une telle indication ne tient pas compte des perturbations qu’apportera à la trajectoire le passage auprès de Vénus, mais l’engin ne s’en approchera pas tellement que sa course en doive •être notablement modifiée.
- Les renseignements diffusés par les Soviétiques ne permettent pas de déterminer quelles seront, lors du passage au plus près de Vénus, les positions respectives de la planète •et du Mas par rapport au Soleil. Mais on sait que l’engin passera près de Vénus dans la première quinzaine de mai. Il aura donc rejoint les parages de la planète en 100 jours environ, plus tôt que s’il avait suivi une ellipse de transfert, auquel cas il aurait mis 150 jours environ. La durée du voyage vers Vénus aura été aussi plus courte que celle qui avait été primitivement annoncée et on peut montrer que cela correspond à une vitesse quelque peu inférieure à celle qui avait été prévue, la planète et l’engin parcourant dans le même sens deux trajectoires qui se coupent approximativement.
- Pourquoi le Mas ne répond-il plus ? — Faut-il établir un rapprochement entre cette modification au tableau de marche initial et la moins grande distance qui séparera le Mas de la planète au moment de la « rencontre » ? Là encore, les éléments d’appréciation font défaut. Certains soupçonnent même une corrélation entre ces changements et le fait que le Mas s’est tu et a persisté dans son silence. Quelques jours après son lancement, il a été impossible d’établir un contact radio avec l’engin. Celui-ci a-t-il été victime d’une collision avec une météorite ? Ses émetteurs sont-ils tombés en panne ? Est-il devenu incapable d’enregistrer les ordres lancés par les stations soviétiques,
- « Rivières sèches
- Dans la presqu’île de Kamtchatka, les rivières et les ruisseaux dévalant les pentes des volcans sont très nombreux. Cependant, après être descendus à une altitude de 500 à 600 m, ils disparaissent progressivement, presque tous, et deviennent souterrains. Mais ils reparaissent de nouveau à x ou 2 km du fleuve Kamtchatka, c’est-à-dire de 30 à 50 km plus bas, et débouchent finalement dans ce fleuve. Ils reparaissent généralement sous forme de sources jaillissant de la lave ou de petits ruisseaux, qui, en se réunissant, forment souvent de vraies rivières atteignant parfois jusqu’à 10 m de largeur et 2 m de profondeur. L’eau en est pure, limpide et froide (environ 4,5° C).
- Chose curieuse, même là où la rivière suit un cours entièrement souterrain, on discerne nettement les contours du lit à la surface. Ce sont ces lits que les habitants de la région appellent « rivières
- qui devaient entraîner la diffusion des renseignements déjà recueillis ? Toutes ces hypothèses ont été faites, mais il en est une autre qui a retenu l’attention des spécialistes : les mécanismes d’orientation du Mas ont pu avoir une défaillance et les signaux ne seraient plus lancés alors dans la direction convenable pour pouvoir être captés sur la Terre. Certains imaginent donc que les procédés employés par les Soviétiques pour infléchir la trajectoire ont pu aboutir à déséquilibrer l’engin de telle manière que les mécanismes d’orientation ne soient plus à même de jouer leur rôle.
- Comme bien l’on pense, les Soviétiques ont dû tenter l’impossible pour rétablir le contact, mais leurs efforts n’ont pas abouti et on juge en général peu probable que la liaison radio puisse être maintenant rétablie. Sur le plan scientifique, cette belle expérience est donc un échec et même le record de distance des liaisons radio, établi par les Américains avec Pionnier V, n’a pas été battu.
- Il n’en reste pas moins qu’un nouveau procédé de lancement d’un engin interplanétaire a été inauguré avec succès et il serait bien étonnant que les ingénieurs russes ne cherchent pas à exploiter de nouveau rapidement les dispositifs qu’ils ont mis au point à cet effet. On peut supposer que les Soviétiques avaient déjà tenté d’y recourir : une semaine avant le lancement du Mas vénusien, un satellite lourd avait été « mis en orbite », sans qu’on sût à quoi tendait cette expérience, tant elle était entourée de mystère. S’agissait-il d’une première tentative de lancement d’un engin interplanétaire à partir d’un satellite, tentative qui aurait échoué parce que la fusée satellitisée n’aurait pu être mise à feu dans les conditions requises ? On comprendrait très bien pourquoi les Soviétiques auraient voulu rééditer aussitôt leur essai : bientôt les conditions astronomiques d’un voyage vers Vénus allaient cesser d’être favorables. L’échec partiel de l’expérience n’en est que plus regrettable.
- Nicolas Vichney.
- » du Kamtchatka
- sèches ». Les vallées en sont constituées par du sable, de la cendre et des scories volcaniques. L’auteur d’un article paru dans la revue soviétique Priroda a pu observer une « rivière sèche » sur tout son parcours. Il signale que l’eau y fait son apparition chaque année, pour une brève période, surtout pendant la saison des pluies en été ou en automne. Ce courant d’eau n’est toutefois pas continu. Il n’apparaît que dans certaines parties du lit, puis disparaît, resurgit des dizaines ou même des centaines de mètres plus bas, et s’arrête finalement devant un « entonnoir », dans lequel il pénètre. Ces entonnoirs ont un diamètre de 10 à 50 m et une profondeur de 5 à 25 m. Parfois, ils se remplissent d’eau, même en dehors de la saison des pluies. La présence constante de cette eau souterraine est d’ailleurs confirmée par la forte humidité du sol avoisinant.
- 169
- p.169 - vue 170/560
-
-
-
- Après plus d’un siècle de léthargie
- La thermoélectricité
- reprend vie grâce par Robert Rosset
- aux semi-conducteurs
- L’immense étendue de son territoire fait que nombreuses sont les régions de TU. R. S. S. non encore électrifiées. Pourtant, depuis quelques années déjà, les habitants de l’isba la plus isolée bénéficient des avantages de l’électricité grâce à un générateur d’un type nouveau transformant directement en énergie électrique la chaleur dégagée par une lampe à pétrole ou un poêle à bois.
- Toujours en U. R. S. S. et, depuis peu, aux États-Unis, on trouve dans le commerce des réfrigérateurs qui n’ont ni compresseur, ni fluide réfrigérant et fonctionnent dans un silence absolu. Ils utilisent l’énérgie électrique pour « pomper » littéralement la chaleur de l’intérieur vers l’extérieur du meuble frigorifique.
- Ces quelques exemples, choisis parmi tant d’autres, témoignent des progrès réalisés depuis peu dans notre connaissance de l’effet thermoélectrique. Quelle est l’essence de ce phénomène ? C’est ce que nous nous proposons d’examiner avec quelque détail dans cet article, à la lumière des théories modernes, réservant à plus tard l’exposé des réalisations les plus marquantes auxquelles il a donné naissance.
- La thermoélectricité n’est pas une science nouvelle. Elle est, en fait, aussi ancienne que l’électromagnétisme dont l’histoire commença en 1820 ; cette année-là, Hans Christian Œrsted observa qu’une aiguille aimantée déviait de sa position d’équilibre lorsqu’elle était placée au voisinage d’un conducteur parcouru par un courant. Une année plus tard, Thomas Johann Seebeck constata qu’une aiguille aimantée, située au voisinage d’un circuit fermé constitué de deux conducteurs différents (couple de conducteurs ou thermocouple), déviait, elle aussi, lorsque les soudures des deux métaux étaient maintenues à des températures différentes (fig. 1). Malheureusement, Seebeck ne reconnut pas la véritable nature du phénomène qu’il venait de découvrir.
- La comparaison des deux expériences précédentes suggère naturellement qu’un courant prend naissance dans le circuit imaginé par Seebeck et c’est de cette manière que les contemporains de Seebeck interprétèrent sa découverte. Seebeck, cependant, proposa une interprétation différente : il appela effet thermomagnétique le phénomène qu’il venait de découvrir en affirmant que le magnétisme pouvait
- être causé par une différence de température. Il en était d’ailleurs si profondément persuadé qu’il échafauda une théorie qui prétendait expliquer le magnétisme terrestre par la différence de température qui existe entre l’équateur et les pôles.
- L’erreur de Seebeck eut plusieurs conséquences. D’une part, en essayant de convaincre ses contemporains du bien-fondé de sa théorie, selon laquelle il s’agissait d’un effet magnétique et non pas électrique, il fut amené à
- Sens du courant
- Soudure
- froide
- Soudure
- chaude
- Fig. 1. — Effet Seebeck.
- Le courant développé dans le circuit fait dévier une aiguille aimantée de sa position d’équilibre. Les soudures n’interviennent pas dans le phénomène et tout se passe comme si les deux matériaux hachurés étaient directement soudés entre eux.
- 170
- p.170 - vue 171/560
-
-
-
- mam
- Fig. 2. — Une lampe à pétrole qui fournit en outre de l’énergie électrique.
- Tout en remplissant sa fonction traditionnelle, cette lampe à pétrole permet également d’alimenter en énergie électrique un récepteur de radio grâce à des piles thermoélectriques. Ces piles sont disposées à l’intérieur de la couronne d’aluminium montée autour de la cheminée de la lampe. Le refroidissement des « soudures froides » est assuré par des ailettes radiales d’aluminium qui évacuent rapidement la chaleur. Dix-huit piles montées en série fournissent la basse tension (i à 1,4 volts) tandis que 276 autres piles permettent d’obtenir une haute tension de 80 à 100 volts. Conçu par le professeur Joffe, de Léningrad, ce nouveau générateur d’électricité est distribué dans le monde occidental par la firme anglaise International Technical Developments Limited. Son prix est de 15 £ (225 NF environ). Il rend déjà de grands services dans les régions reculées, à l’écart des réseaux de distribution d’énergie électrique.
- {Photo International Technical Developments Ltd.).
- étudier un grand nombre de couples de matériaux fournissant l’effet thermoélectrique et il découvrit des combinaisons telles que sulfure de plomb contre antimoniure de zinc qui se révèlent, à l’heure actuelle, d’excellents convertisseurs d’énergie électrique.
- Par ailleurs, si Seebeck avait mesuré le rendement de conversion de ses piles thermoélectriques, il aurait pu, dès 1821, produire de l’électricité à partir de chaleur avec un rendement de l’ordre de 3 pour 100 qui dépassait celui des machines à vapeur de l’époque. Comme le disait récemment le professeur Joffe, de Léningrad, on peut se demander ce qui serait advenu si tous les efforts s’étaient portés sur
- la conversion thermoélectrique au lieu de se porter sur les machines à vapeur. On peut penser aussi qu’il ne serait pas advenu grand-chose, car la théorie des corps semi-conducteurs ne se développa qu’à partir de 1920, soit un siècle plus tard et, sans cette théorie, il eût été bien difficile d’améliorer les convertisseurs thermoélectriques d’énergie. Toujours est-il que pendant plus de cent ans les machines thermoélectriques furent négligées. L’effort de plusieurs générations de physiciens se porta essentiellement sur les machines thermiques et l’électromagnétisme, l’effet Seebeck restant au rang de curiosité, reléguée aux dernières pages des traités de physique. A peine utilisa-t-on les effets thermoélectriques en métrologie pour la mesure des températures. Dans cette application, on se préoccupe essentiellement de la stabilité et de la reproductibilité des couples ; leur rendement importe peu. Les chercheurs s’efforcèrent donc de trouver des couples métalliques à pouvoir thermoélectrique parfois faible, mais bien constant dans le temps et en fonction de la température. Ainsi, tandis que le rendement des machines thermiques mécaniques croissait de 1 pour 100 en 1820 à 35 pour 100 de nos jours, le rendement des piles thermoélectriques, lui, décroissait de 1 pour 100 à quelques dix-millièmes.
- Pourtant, 25 ans après Seebeck, en 1834, l’horloger français Jean-Charles Athanase Peltier découvrait le phénomène qui porte son nom et qui n’est autre que l’effet inverse de l’effet thermoélectrique. Il constata que le passage d’un courant électrique à travers la soudure qui reliait deux conducteurs différents s’accompagnait d’un effet thermique. Selon le sens du courant la soudure absorbait ou fournissait de la chaleur (fîg. 3). Si, par exemple, on plaçait une goutte d’eau à la jonction des deux conducteurs, elle était rapidement transformée en glace lorsque le courant circulait dans un certain sens et la glace obtenue fondait si l’on inversait le sens du courant. On conçoit sans peine que cet effet Peltier puisse servir à pomper de
- Chaleur
- Froid
- Chaleur
- Pis- 3- — Effet Peltier.
- Selon le sens du courant la soudure i absorbe ou dégage de la chaleur. A l’autre soudure 2 on observe l’effet thermique inverse du premier. Le courant qui circule dans le circuit absorbe de la chaleur à la source chaude (production de glace) et la restitue à la source froide (dégagement de chaleur).
- 171
- p.171 - vue 172/560
-
-
-
- la chaleur d’une source froide vers une source chaude, soit à des fins de réfrigération, soit à des fins de chauffage, ouvrant ainsi une voie nouvelle à la production du froid et de la chaleur,
- Peltier, cependant, ne reconnut pas, lui non plus, la véritable nature du phénomène qu’il venait de découvrir ; il pensa seulement que la loi d’Ohm n’était pas suivie dans le cas des courants faibles ; cette nature ne fut pratiquement identifiée que par Thomson et Rayleigh, Dans l’intervalle, on avait quelque peu oublié les travaux de Seebeck sur les composés complexes de sulfure de plomb et d’anti-moniure de zinc et, en 1880, Rayleigh, étudiant les possibilités de la réfrigération par effet Peltier, arrivait à ce sujet à des conclusions extrêmement pessimistes, ayant choisi tous ses exemples parmi les métaux. La mauvaise fée était arrivée à ses fins et la découverte de Peltier s’endormit pendant cent ans comme la princesse de la Belle au Bois dormant...
- Il faudra attendre 1930 pour que les chercheurs russes, sous la direction de l’académicien Abram Joffe, à l’Institut des semi-conducteurs de Léningrad, se remettent à étudier le problème de la conversion thermoélectrique d’énergie, à la fois du point de vue de la production d’énergie et de celui de la réfrigération. Mais les publications des résultats obtenus vont quelque peu tarder et, en 1953, au moment où paraît le fameux livre de Joffe, Thermoéléments, semi-conducteurs et réfrigération thermoélectrique, véritable livre de chevet de tous ceux qui travaillent dans ce domaine, des travaux sont en cours dans les pays occidentaux, en particulier aux États-Unis, en Angleterre et en France, et notre connaissance des phénomènes thermoélectriques va maintenant progresser à pas de géant.
- Que s’est-il donc passé en 1930 ? Cette date coïncide avec celle de la découverte des propriétés semi-conductrices de certains matériaux comme les oxydes métalliques ou le germanium, et Joffe a eu raison de dire que c’est le semi-conducteur qui, tel le prince charmant du conte de Perrault, a tiré la thermoélectricité de son long sommeil. Comment ? C’est ce que nous allons maintenant examiner.
- Pouvoir thermoélectrique, résistivité et conductivité
- Il ne saurait être question d’exposer ici, en détail, la théorie de la conversion thermoélectrique de l’énergie, ne serait-ce que parce qu’elle fait appel aux théories quantiques, mais il est possible, croyons-nous, d’expliquer simplement l’origine des différents facteurs qui interviennent.
- Considérons une pile thermoélectrique (fig. 4) : sous sa forme la plus simple elle est constituée par deux matériaux conducteurs, ou semi-conducteurs différents, reliés entre eux par une soudure qui assure leur connexion au point de vue électrique. Si l’on maintient, par un moyen quelconque, une différence de température entre la soudure et l’extrémité opposée des matériaux, il apparaît en circuit ouvert une différence de potentiel proportionnelle à la différence de température, le coefficient de proportionnalité a entre ces deux quantités étant désigné sous le nom de pouvoir thermoélectrique. Si, maintenant, nous faisons débiter le système, nous obtenons dans le circuit extérieur le passage d’un courant. Cette pile se comporte donc
- bien comme une machine thermique transformant directement de l’énergie thermique en énergie électrique.
- Lorsque la pile débite, une certaine quantité de chaleur est retirée à la source chaude, tandis que de la chaleur est dégagée à la source froide, et c’est la différence entre ces deux quantités de chaleur qui est transformée en énergie électrique. C’est là une conséquence de l’effet Peltier, qui est lui-même une conséquence du principe de Carnot et dont on voit qu’il ne peut être dissocié de l’effet Seebeck proprement dit.
- Si cet effet Peltier était la seule cause d’absorption de chaleur à la source chaude et si, par ailleurs, la pile n’avait pas de résistance électrique interne, son rendement serait précisément le rendement de Carnot AT/Tc, AT représentant la différence de température entre la source chaude et la source froide et Tc la température de la source chaude.
- En pratique, il en va autrement. La plus grande partie de la chaleur absorbée à la source chaude passe directement à la source froide par conduction thermique, à travers les matériaux qui constituent la pile, donc sans produire d’énergie électrique ; de plus, une partie de l’énergie électrique que pourrait produire la pile est dissipée dans la résistance interne de celle-ci par effet Joule.
- On conçoit donc, qualitativement, que pour obtenir un rendement élevé, il faut choisir des matériaux ayant :
- i° Un pouvoir thermoêlectrique élevé, ce qui a pour effet de favoriser le « pompage » de la chaleur de la source chaude vers la source froide par effet Peltier, seul producteur d’énergie électrique. Par ailleurs, plus le pouvoir thermoélectrique est élevé, plus grande est la différence de potentiel aux bornes de la pile ; donc, pour une puissance déterminée, plus l’intensité qui traverse la pile est faible et plus faibles sont les pertes par effet Joule. On trouve ici un problème analogue à ceux qui sont posés par le transport
- Fig. 4. — Schéma d’une pile thermoêlectrique.
- De la chaleur est absorbée à la source chaude tandis qu’il s’en dégage à la source froide ; c’est la différence entre ces deux quantités de chaleur qui est transformée en énergie électrique.
- Source froide
- Source chaude
- 172
- p.172 - vue 173/560
-
-
-
- Fig. j. — Batterie de piles thermoélectriques. Les ressorts permettent de rendre négligeable l’influence des chocs et des vibrations.
- ( Document Westinghouse).
- de l’énergie électrique. On sait qu’on utilise du courant sous haute tension et de faible intensité, précisément pour diminuer les pertes d’énergie par effet Joule.
- 2° Une faible résistivité électrique p afin de réduire les pertes d’énergie par effet Joule. Ceci est vrai, d’ailleurs, pour n’importe quel générateur d’électricité : on veut utiliser l’énergie électrique à l’extérieur du générateur dont il faut donc réduire la résistance intérieure pour que les pertes par effet Joule soient aussi faibles que possible.
- 3° Une faible conductivité thermique K afin de réduire le transfert direct de chaleur de la source chaude vers la source froide par conduction, transfert qui est évidemment défavorable ainsi que nous l’avons vu précédemment 0.
- De ces trois facteurs, c’est le pouvoir thermoélectrique qui est le plus important puisque le rendement en dépend de deux manières. Remarquons à ce sujet que, dans la formule donnée en note, il intervient au carré.
- Nous avons traité, jusqu’à présent, du problème de la production d’énergie électrique à partir d’énergie thermique, mais nous savons qu’une pile thermoélectrique peut également être utilisée comme pompe à chaleur, c’est-à-dire comme machine capable de transférer de la chaleur d’une source froide à une source chaude. Il suffit, pour cela, de l’alimenter par un courant de sens inverse du précédent. Dans ce cas, on convient de parler, non plus de rendement, mais de coefficient de performance de la pompe à chaleur, c’est-à-dire du rapport de la quantité de chaleur transférée à l’énergie électrique fournie au thermocouple. Par un raisonnement analogue au précédent, on montre que le coefficient de performance est d’autant meilleur que les matériaux utilisés ont à un plus haut degré les mêmes qualités que celles que nous avons déjà mentionnées.
- Un cas particulier des plus importants d’une pompe à chaleur est le réfrigérateur, dans lequel on concentre son attention non sur la chaleur apportée à la source chaude, mais bien sur la chaleur retirée à la source froide. Là aussi, un réfrigérateur à effet Peltier devra, pour bien fonctionner, utiliser des matériaux de pouvoir thermoélectrique élevé,
- i. L’influence de ces trois facteurs est résumée dans la formule fondamentale de la thermoélectricité, qui donne le rendement d’une pile thermoélec-
- 1 Ar «2TV . c . . , . . . ' ,
- trique : p = - m avec m — —qui lait apparaître le produit de deux
- quantités, l’une, m, dite facteur de mérite, l’aptre étant égale au rendement de Carnot.
- de faible résistivité électrique et de faible conductivité thermique. En effet, alors qu’avec une pile thermoélectrique idéale, on pourrait abaisser la température de la source froide jusqu’au zéro absolu, en pratique la température ne baissera que jusqu’à une limite pour laquelle toute la chaleur empruntée à la source froide sera compensée, soit par la chaleur produite par effet Joule, soit par la chaleur amenée par conduction thermique à partir de la source chaude.
- Thermocouples à semi-conducteurs
- Voyons donc maintenant quels sont les matériaux susceptibles d’être utilisés pour fabriquer des piles thermoélectriques de rendement élevé. '
- Fig. 6. — Générateur thermoélectrique actionnant une meule.
- Ce générateur peut développer une puissance de ioo watts. Le combustible utilisé est du propane, et le refroidissement se fait par circulation d’air.
- {Document Westinghouse).
- 173
- p.173 - vue 174/560
-
-
-
- ©• ©• ©*
- ©• ©•
- ©* ©• ©•
- ©• ©• ©•
- ©* S* ©•
- :©: ©'• ©:
- © © ©
- © © ©
- © © ©
- © © ©
- Fig. 7. — Déplacement des électrons sous l’effet d’une différence de température.
- A gauche : dans un matériau à température uniforme, les électrons et les ions positifs sont distribués uniformément. — A droite : les électrons se concentrent à l’extrémité froide sous l’influence de la différence de température. Si l’on ferme le circuit au point de vue électrique, un courant circule et fait dévier un galvanomètre par exemple.
- Pouvoir thermoélectrique. — La théorie des solides nous apprend que le pouvoir thermoélectrique d’un conducteur dépend, parmi d’autres facteurs, de la densité des électrons dans le solide : le pouvoir thermoélectrique est d’autant plus fort que la densité des électrons est plus faible. Essayons de voir pourquoi il en est ainsi. Nous savons que ce que nous appelons courant électrique dans un conducteur est constitué par un flux d’électrons. Dans un solide en effet, les atomes, ou tout au moins leurs noyaux, sont fixes dans l’espace : ils ne peuvent participer au transport de l’électricité. Seuls, les électrons, particules légères et chargées négativement, libres de se déplacer dans le cristal, peuvent être les agents d’un transport de charges électriques. Il faut donc, dans un conducteur, que les atomes abandonnent certains de leurs électrons pour former un réseau d’ions positifs baigné par une sorte de gaz d’électrons négatifs. Dans un métal, la contribution de chaque atome à ce gaz électronique libre est d’au moins un électron. Dans un semi-conducteur au contraire, le nombre des électrons libres est des centaines ou des milliers de fois moins élevé que dans un métal, ce qui explique la faible conductivité électrique de ces substances.
- Lorsqu’une des extrémités d’un semi-conducteur (ou d’un conducteur) est plus chaude que l’autre, les ions positifs (noyaux des atomes) du réseau cristallin restent fixes, tandis que des électrons libres quittent l’extrémité chaude (la chaleur augmentant la pression du gaz d’électrons) et tendent à gagner l’extrémité froide (fig. 7). Comme ils sont chargés négativement, l’extrémité froide devient rapidement négative par rapport à l’autre et il s’établit une différence de potentiel en circuit ouvert entre les deux extrémités du barreau. Mais il est bien connu que des charges électriques de même .signe se repoussent alors que des charges de signe contraire s’attirent. L’extrémité froide, dès qu’elle commence à être chargée négativement, va donc repousser les électrons, créant ainsi un courant électronique de sens inverse du précédent. Au bout d’un
- temps très court, il s’établit un état d’équilibre entre les électrons qui viennent de l’extrémité chaude et ceux qui se déplacent dans l’autre sens sous l’effet de la charge négative de l’extrémité froide, charge qui alors n’augmente plus bien que l’on continue à chauffer l’autre extrémité. Dans ces conditions, on peut démontrer par la théorie mathématique que moins il y aura d’électrons libres disponibles pour contrebalancer le flux d’électrons venant de l’extrémité chaude et plus la différence de potentiel obtenue sera élevée. Le nombre des électrons libres dans un semi-conducteur étant beaucoup plus faible que dans un conducteur, une différence de température déterminée entraînera l’apparition d’une différence de potentiel plus élevée dans un semi-conducteur que dans un conducteur.
- Les semi-conducteurs ont sur les métaux un avantage supplémentaire. Dans le semi-conducteur que nous avons choisi pour expliquer l’effet thermoélectrique, la différence de température entre ses extrémités provoque un flux d’électrons de l’extrémité chaude vers l’extrémité froide, comme dans un métal, et l’extrémité froide devient négative.
- O O êr • 00 0 0 —*-00 • 0 0 0
- O -H»- OO 0 0 0 O CD
- • 0 0 0 0 Ol c;
- O 0 - • 00 ~ > OO p
- O 0 é 0 é Ol
- O 0 O > 00 0 0
- O 0 • 0 0 0
- Fig. 8. — Semi-conducteur de type n.
- Il est constitué d’un élément comme le germanium (sphères blanches), dont les électrons sont fortement liés aux noyaux, auquel on a ajouté une impureté (sphères noires) dont les électrons sont faiblement liés et peuvent se déplacer dans le cristal. Sous l’effet d’une différence de température, les électrons se déplacent vers l’extrémité froide. Les « trous » positifs (petits cercles en pointillés) laissés par le départ des électrons sont stationnaires.
- OO
- S
- •c:
- — o
- O • O O O O
- 00 — o o Vl o o TO o
- • OOO O O!
- tü O
- Cj
- 00
- +
- . O O
- O 0^01
- 00
- o o o • o o
- Sens du déplacement des trous
- Fig. 9. — Semi-conducteur de type p.
- 11 contient une impureté (sphères noires) dont le nombre d’électrons est insuffisant pour satisfaire ses liaisons avec les atomes voisins du cristal. Par suite, les électrons des atomes voisins se déplacent pour satisfaire ces déficiences, laissant des « trous » positifs vers lesquels se dirigent à leur tour d’autres électrons. Il en résulte un déplacement des « trous » en sens inverse de celui des électrons. Sous l’influence d’une différence de température, les « trous » se déplacent vers l’extrémité froide qui devient chargée positivement.
- {Imité de Scientific American).
- 174
- p.174 - vue 175/560
-
-
-
- On dit qu’il s’agit d’un semi-conducteur de type n (fig. B). Mais, il existe d’autres matériaux semi-conducteurs, dits de type p, pour lesquels la différence de potentiel observée est due non à un flux d’électrons négatifs, mais à un flux de « trous » chargés positivement (fig. 9). Par suite, l’extrémité froide de ces semi-conducteurs devient chargée positivement. Bien entendu, dans ces deux types, le courant électrique, au sens habituel du terme (dont le sens, arbitraire, est le sens inverse du déplacement des électrons), circule à l’intérieur des semi-conducteurs de l’extrémité négative vers l’extrémité positive comme dans une batterie d’accumulateurs.
- Nous savons maintenant construire une pile thermoélectrique. Il suffit de prendre deux semi-conducteurs de types différents, un de type n et un de type p, et de les souder à leurs extrémités chaudes. Entre leurs extrémités froides, nous disposons un conducteur quelconque qui représente le circuit extérieur de la pile : ce peut être une lampe, un moteur électrique, etc. Le courant qui est produit dans le semi-conducteur de type n circule de l’extrémité froide vers l’extrémité chaude, tandis que dans le semi-conducteur de type p il circule de l’extrémité chaude vers l’extrémité froide (fig. 10). Par suite un courant circule dans l’ensemble du circuit et l’on voit que les forces électromotrices développées dans les deux bras de la pile, étant en série, s’ajoutent (alors qu’avec deux métaux les forces électromotrices seraient en opposition et se retrancheraient puisque les deux extrémités chaudes seraient positives et les deux extrémités froides négatives).
- aussi faible que possible. Or, ces deux propriétés sont contradictoires puisque le pouvoir thermoélectrique est d’autant plus grand que la densité électronique est plus faible alors que la résistivité électrique est d’autant plus faible que la densité électronique est plus grande (fig. xi). Par exemple, les métaux (io22 électrons/cm3 environ) ont une résistivité électrique très faible mais leur pouvoir thermoélectrique n’est que de 5 pV/°C environ. On conçoit donc que les meilleures performances soient obtenues en recherchant un compromis entre un fort pouvoir thermoélectrique et une résistivité raisonnablement faible. La courbe, très schématique, de la figure 11 montre que la densité électronique optimale est de io19 électrons/cm3, valeur qui correspond à des semi-conducteurs « bons conducteurs » dont le pouvoir thermoélectrique est d’environ 175 [j.V/0C.
- Optimum
- Conductivité
- électrique
- Pouvoir
- therm'oélectrique'
- Nombre d'électrons libres par cm3
- Fig. 10. — Pile thermoélectrique classique, constituée de deux semi-conducteurs de types différents.
- Circuit extérieur
- +
- t
- Influence de la résistivité électrique. — Si un fort pouvoir thermoélectrique était la seule qualité requise, il est bien évident que l’on devrait porter son attention sur les isolants. Leur densité électronique étant très faible, de l’ordre de io10 électrons libres par centimètre cube, leur pouvoir thermoélectrique est très élevé, 10 000 pV/°C environ. Mais, nous avons vu qu’un fort pouvoir thermo-électrique doit s’accompagner d’une résistivité électrique
- Fig. 11. — Influence de la densité des électrons libres sur le pouvoir thermoélectrique et la conductivité électrique.
- (D’après un document Westinghouse).
- Heureusement, ce compromis est réalisable, car le pouvoir thermoélectrique aussi bien que la résistivité d’un semi-conducteur dépendent tous les deux de la teneur du corps en certaines impuretés, teneur que l’on peut doser à volonté.
- Influence de la conductivité thermique. — Il s’en faut cependant de beaucoup qu’on puisse utiliser n’importe quel semi-conducteur comme matériau thermoélectrique : c’est qu’en effet, la plupart des semi-conducteurs ont une conductivité thermique relativement élevée alors que nous avons vu qu’une conductivité thermique aussi faible que possible est indispensable à l’obtention d’un bon rendement.
- Cette conductivité thermique est liée à la propagation de vibrations acoustiques de la région chaude vers la région froide du cristal, propagation qui est gênée d’une part par les interactions de ces vibrations entre elles, d’autre part par l’interaction de ces vibrations avec les imperfections du cristal. On peut dire que plus les vibrations acoustiques du réseau rencontreront une structure atomique désordonnée et plus leur propagation sera difficile, donc plus la conductivité thermique sera faible. L’une des imperfections les plus importantes est 1 ’effet isotopique dû à ce que presque tous les éléments sont des mélanges de plusieurs isotopes de masses légèrement différentes, d’où il résulte des fluctuations à l’échelle atomique de la densité du cristal autour de sa valeur moyenne.
- 175
- p.175 - vue 176/560
-
-
-
- Un des résultats d’études récentes a été de montrer que cet effet isotopique était souvent la principale cause d’une conductivité thermique faible, alors qu’on l’avait crue jusqu’à présent négligeable. On a donc intérêt à choisir des semi-conducteurs dont les éléments composants ont un grand nombre d’isotopes stables, et c’est pourquoi les composés du tellure se sont dès l’abord révélés particulièrement favorables. Presque partout dans le monde, c’est le tellurure de bismuth Bi2Te3 qui a fait l’objet des premières recherches parce que fournissant, à l’époque, les meilleurs résultats. Ce n’est pas cependant, de loin, le seul matériau qui ait été l’objet d’études dès le début des recherches sur les matériaux thermoélectriques. Citons celles sur le sulfure de plomb PbS, le séléniure de plomb PbSe, le tellurure de plomb PbTe, dont on peut rappeler que Seebeck avait déjà indiqué l’importance, les antimoniures de zinc et de cadmium, dont l’un au moins avait déjà été découvert par Seebeck, etc.
- Toutefois, les résultats obtenus avec ces matériaux, si encourageants qu’ils fussent, n’auraient pas permis d’espérer un grand développement dans ce domaine. C’est vers 1952, semble-t-il, que Joffe, suivi en cela par des chercheurs français, montra qu’on pouvait en quelque sorte augmenter cet effet isotopique en remplaçant dans un composé un élément par un mélange de deux éléments chimiques analogues. Par exemple, on peut augmenter très notablement la résistivité thermique du tellurure de bismuth, tout en lui conservant de bonnes propriétés électriques, par l’introduction de séléniure de bismuth en quantité relativement importante, de l’ordre de 25 pour 100.
- Que conclure de tout cela ? Eh bien, les résultats obtenus expérimentalement par l’emploi des semi-conducteurs en solution solide sont d’ores et déjà très prometteurs. Des rendements de 10 pour 100 sont courants avec des sources de chaleur d’environ 3000 C, ce qui convient pour la récupération de la chaleur perdue, dans bien des conditions, ou pour la conversion de l’énergie solaire en énergie électrique, à partir de dispositifs sans concentration. Cependant, pour de nombreuses utilisations, on désirerait pouvoir utiliser des sources de chaleur à température plus élevée. Il ne faut pas oublier en effet que le rendement de Carnot intervient dans la formule qui donne le rendement et que celui-ci est d’autant plus grand que la température de la source chaude est plus élevée. Or, le tellurure de bismuth perd son pouvoir thermoélectrique au-dessus de 150° C et il en est de même pour la plupart des solutions solides de semi-conducteurs. C’est pourquoi certains chercheurs, en particulier aux Etats-Unis, se sont adressés à des semi-
- conducteurs à base d’oxydes ou de sulfures métalliques, capables de résister à des températures extrêmement élevées. La Westinghouse, par exemple, annonçait récemment avoir obtenu de bons résultats avec l’oxyde de nickel jusqu’à des températures de 1 ooo° C. Comme cet oxyde est un isolant, même à cette température, il a fallu le « doper » par du lithium qui le rend relativement bon conducteur. Des résultats encourageants ont été également obtenus avec le sulfure de samarium qui résiste à 1 ioo° C (fig. 12).
- Quoi qu’il en soit, si le problème de la production d’énergie électrique n’est pas encore entièrement résolu, les matériaux du type Bi2Te3 sont déjà très prometteurs pour la production du froid. C’est qü’en effet, dans cette application, le problème de la température de la source chaude ne se pose guère puisqu’il s’agit de la température ambiante et si l’on compare le coefficient de performance des réfrigérateurs à effet Peltier à celui des réfrigérateurs électromécaniques classiques, on constate qu’il est à peine un peu plus faible ; les applications en cè domaine devraient donc être très importantes dans les années à venir.
- Le mécanisme de l’effet thermoélectrique repose maintenant sur des bases solides. L’influence des différents facteurs, si elle n’a pas toujours donné lieu à des théories quantitatives complètes, n’en est pas moins clairement comprise, ouvrant la voie à de multiples applications que nous rassemblerons dans une prochaine livraison.
- Mentionnons aussi des études entreprises récemment sur la conversion thermoionique de l’énergie calorifique. Le dispositif utilisé dans ce cas peut être assimilé à une pile thermoélectrique classique dans laquelle l’un des conducteurs solides est remplacé par un gaz ionisé à haute température. On parle alors de thermocouple à plasma ; nous aurons l’occasion d’y revenir plus en détail ultérieurement.
- Quant à la leçon que nous pouvons tirer de tout cela, c’est que des recherches entreprises à l’origine dans des intentions généralement purement scientifiques se révèlent, une fois de plus, d’une importance technique qu’on ne saurait sous-estimer.
- Robert Rosset.
- La documentation de cet atticle est due à la Société Westinghouse, à un article du professeur Joffe (Sckntific American) et à plusieurs articles et conférences de M. Aigrain, professeur à la Sorbonne.
- Nouveaux matériaux
- Fig. 12. — Effet de la température sur le pouvoir thermo-électrique.
- Alors que le tellurure de bismuth perd son pouvoir thermoélectrique au-dessus de 150° C, les nouveaux matériaux actuellement étudiés (sulfure de samarium, etc.) conservent ce pouvoir à haute température.
- (D’après un document Westinghouse).
- tu
- s
- .o-
- 0
- tu
- \
- \
- I
- I
- Tellurure de bismuth
- VA
- 500 "1000 °c
- 0
- 150
- p.176 - vue 177/560
-
-
-
- Nouveau procédé anti-fouling
- A deux reprises, La Nature (avril et septembre 1959) a évoqué le problème du fouling. Ce mot s’applique, rappelons-le, à la fixation des organismes végétaux et animaux sur les carènes de navires, phénomène dont les conséquences économiques ont été souvent mises en relief : la résistance à l’avancement se trouve considérablement accrue et cela se traduit, si les mêmes vitesses sont maintenues, par des dépenses supplémentaires en combustible qui se chiffrent annuellement, pour l’ensemble de la flotte mondiale, par des milliards d’anciens francs.
- Les nombreuses études consacrées à ce sujet ont démontré que le fouling débute par le dépôt sur les carènes de spores et de larves appartenant à environ 2 000 espèces végétales et animales : à côté des algues, on trouve des balanes, des moules, des serpules, des ascidies, des spongiaires, etc., qui prospèrent surtout en milieu marin, le fouling étant pratiquement négligeable en eaux douces ou saumâtres. On a également noté que le phénomène atteint son maximum d’intensité dans les mers chaudes. En principe, le fouling ne se produit que lorsque le navire est immobile et que l’eau n’est animée d’aucun courant. Cela pourtant n’est pas entièrement exact : certains organismes peuvent se déposer dans un courant d’un nœud. Il existe même des vers annélides qui adhèrent à la coque sous des vitesses d’un nœud et demi.
- Les systèmes de protection en usage jusqu’ici consistaient en l’application de peintures spéciales, chargées de substances toxiques (à base de mercure, cuivre et arsenic) qui devraient être libérées à raison de 10 pg par centimètre carré et par jour, taux optimal.
- Ces systèmes sont critiqués dans un article de M. T. P. W. Matthews qui fait ressortir que le taux de libération des substances toxiques diminue nécessairement, à mesure que la peinture s’use. Pour le maintenir à 10 pg/ cm2/jour jusqu’à l’extrême limite de deux ans, il faudrait débuter par un taux trente fois supérieur. Ceci augmente déjà considérablement la dépense. Le rendement est encore diminué par le fait que la peinture s’use tout aussi bien pendant la marche du navire que pendant les escales, et cela sans la moindre utilité. Ajoutons que le but même de cette peinture impose de la rendre molle et instable.
- C’est en tenant compte de ces diverses considérations que la société britannique Charlton, Weddle and Co. dont M. Matthews est le directeur technique, a mis au point un nouveau système de protection, baptisé Anfo. Renonçant à toute peinture anti-fouling, les navires qui utilisent le procédé Anfo dispersent une solution toxique sur la surface de la coque. L’opération n’est déclenchée que quand la vitesse s’abaisse au-dessous d’un nœud. Le toxique (CW 60 B) est lié dans la proportion de 1 pour 20 à une huile de paraffine, facilement diluée dans l’eau de
- Fig. 1. — Un bel exemple de « fouling ».
- Tous les organes extérieurs d’un navire peuvent être recouverts d’une épaisse couche d’algues et d’animaux marins. Le préjudice peut être considérable dans le cas du gouvernail, comme le montre ce document, ou dans celui des appareils de sondage par le son.
- (Photo aimablement communiquée par l’Ambassade de Grande-Bretagne).
- mer. L’installation comporte un compresseur, une cuve d’approvisionnement fonctionnant par gravité, une pompe d’injection avec buse d’atomisation et un réseau de tubes d’émission qui dispersent le toxique sur tout le pourtour de la carène. Cette disposition est conçue de manière à obtenir un mélange strictement dosé de la solution toxique fournie par la buse d’atomisation et de l’air fourni par le compresseur. C’est donc sous forme de vapeur que le toxique passe à travers les tubes : une fois libérée, cette vapeur se disperse en une infinité de bulles qui remontent vers la surface, tout en déposant l’agent toxique sur l’ensemble de la carène.
- Une bonne efficacité est assurée par l’éjection de 0,5 à 1,1 litre de solution toxique par heure. Le système n’étant mis en marche que lorsque le navire est en station ou se déplace à vitesse très réduite, il représente, selon M. Matthews, une économie importante par rapport aux peintures anti-fouling habituelles.
- Y. M.
- 177
- p.177 - vue 178/560
-
-
-
- Fig. i. — « Snow-cat » équipé d’un détecteur de crevasses.
- {Photo U. S. I. S).
- Les
- « Snow-cat s »,
- maisons roulantes de VAntarctique
- L’Antarctique, ce vaste continent, de loin le plus élevé du monde avec une altitude moyenne de i 600 m, est actuellement sillonné par d’étranges véhicules baptisés Snoiv-cats par les membres de l’expédition américaine qui les utilise. Les plus grands modèles pèsent près de 10 tonnes et constituent de véritables maisons roulantes avec cuisine, couchettes, etc. Toutefois, leur particularité réside surtout dans le fait qu’ils comportent à l’avant des détecteurs de crevasses (fig. 1). Tandis que les « soucoupes » fixées à l’extrémité des quatre longues tiges porteuses glissent sur le sol, des courants électriques sont envoyés de l’une à l’autre, à travers la neige. En présence d’une crevasse recouverte par un mince pont de neige, la résistance offerte au passage du courant diminue, son intensité augmente et le conducteur du véhicule est averti du danger. Il ne reste plus alors qu’à contourner la crevasse, ou encore à faire sauter à l’aide d’explosifs le pont de neige qui la recouvre et à la combler.
- 178
- p.178 - vue 179/560
-
-
-
- Une nouvelle horloge archéologique :
- l’altération
- des verreries anciennes
- En regardant les verreries anciennes, exposées dans les musées, on ne peut s’empêcher de remarquer qu’en assez grand nombre elles présentent des irisations très caractéristiques et qui ne se retrouvent pas dans les verreries modernes. La conclusion que l’on peut dès l’abord en tirer est que le verre subit à la longue certaines altérations. Ceci d’ailleurs paraît en contradiction avec le fait bien connu de l’inaltérabilité du verre, incomparablement supérieur à la plupart des autres matériaux en ce qui concerne la résistance à la - corrosion.
- Il a été cependant constaté que les verres, ceux surtout dont la teneur en soude ou en potasse est élevée, sont l’objet d’une lente altération, même s’ils se trouvent dans un milieu où les agressions chimiques sont peu intenses. Cette observation est à l’origine d’une étude entreprise au Centre du Verre à Corning (États-Unis), dont il était rendu compte dans la revue britannique Nature (7 janvier 1961) par R. H. Brill et H. P. Hood.
- Ces auteurs se sont tout d’abord référés à des travaux plus anciens où la partie superficielle de certains verres altérés avait été examinée au microscope. Cet examen avait déjà révélé que, vue en coupe, cette zone extérieure présentait une structure lamellaire. Des mesures des couches successives permettaient de constater que l’épaisseur de chacune d’elles pouvait varier entre un minimum de 0,3 g et un maximum de 15 g. Ceci expliquait les irisations, dues évidemment à des interférences lumineuses.
- Mais à quoi pouvait-on attribuer cette structure lamellaire ? Brill et Hood ont formé l’hypothèse que l’altération du verre est discontinue et qu’elle obéit à des variations cycliques, telles que l’alternance des saisons sèches et humides. Pareille hypothèse était fort attrayante car elle offrait, au cas où elle serait vérifiée, la possibilité de dater les verres anciens avec la précision que l’on obtient en comptant les anneaux des arbres.
- L’étude fut donc amorcée par une sorte de test, analogue à celui qui a donné naissance à la technique du carbone 14 dans les datations de vestiges organiques. Une série d’échantillons fut choisie dont l’ancienneté pouvait être déterminée selon des données archéologiques. Ces échantillons, qui avaient été ou bien enterrés ou bien immergés à des époques assez étroitement délimitées, étaient par ailleurs à l’abri des intempéries depuis des dates exactement connues. Il suffisait dès lors de procéder au comptage des lamelles d’altération et de comparer le résultat avec la durée probable de la période d’inhumation ou d’immersion.
- Le comptage fut exécuté par plusieurs personnes : les valeurs minimales et maximales furent retenues, on en fit la moyenne arithmétique. La concordance s’est révélée
- dans l’ensemble très satisfaisante. Voici quelques exemples :
- — Un goulot de bouteille enterrée de fabrication anglaise (époque 1660-1675) : la date reconstituée par moyenne arithmétique est 1664.
- — Un autre fragment de bouteille a été retrouvé au cours d’un dragage à proximité d’une ville côtière qui fut partiellement détruite par un tremblement de terre en 1692. La date reconstituée est 1691.
- — Un morceau de verre a été recueilli au cours d’une fouille à Sardis en Turquie. Les archéologues situent la construction du monument où se trouvait cet objet à la fin du troisième siècle après J.-C. et sa destruction au début du septième siècle. La date reconstituée est 378.
- La méthode paraît donc utilisable. Ses inventeurs toutefois en signalent eux-mêmes les limites. Les verreries, en effet, pour servir à la datation, doivent répondre à un .certain nombre de conditions : la surface altérée ne doit pas avoir été usée mécaniquement (ce qui se produit par exemple dans les mers agitées ou les courants fluviaux) ; 1’emplacement sous terre ou dans l’eau doit être exposé aux cycles saisonniers ; la composition du verre ne doit pas s’opposer à l’altération superficielle et à la formation d’une structure lamellaire. Il convient enfin de spécifier que la méthode ne permet pas d’indiquer l’âge de fabrication, mais la date où l’objet a été soumis aux intempéries. En conséquence, son plus grand mérite serait, pour les archéologues, de permettre une datation assez rigoureuse de certains sites explorés et dont l’époque resterait par ailleurs incertaine.
- A côté de leurs applications archéologiques, les études de Corning ont également un intérêt sous l’aspect physicochimique. Jusqu’ici le mécanisme de l’attaque du verre n’a pu être défini que d’une manière assez vague comme s’exerçant par hydrolyse. On peut cependant attribuer ce mode d’altération à une sorte de lessivage sélectif qui intéresserait les éléments les plus solubles, à savoir les oxydes des métaux alcalins. Ce processus laisserait subsister un résidu hydraté à forte teneur en silice. Il serait irréversible et se présenterait chaque fois que le verre se trouve exposé à une certaine dose d’humidité.
- L’altération, en outre, s’accompagnerait d’une porosité qui permettrait à l’action hydrolytique de se prolonger en profondeur. Le phénomène est probablement sous la dépendance de facteurs assez complexes, tels que la composition du verre, la température, les conditions chimiques du milieu (pH et autres) et la permanence de ces conditions pendant un temps minimal. Des études sont en cours afin d’élucider expérimentalement les données de ce problème. Y. M.
- 179
- p.179 - vue 180/560
-
-
-
- Le Ciel en Mai 1961
- SOLEIL : du Ier mai au Ier juin (à oh) sa déclinaison croît de + I4°56' à + 2i°59/ et la durée du jour de I4h32m à 15tL48m ; diamètre apparent le Ier (à oh) = 31,47/,,8, le 31 — 3i/35",7. -— LUNE : Phases : D. Q. le 7 à x5h58m, N. L. le 14 à i6h55m, P. Q. le 22 à l6hl9m, P. L. le 30 à 4h38m ; périgée le 6 à I2h, diamètre app. 32/20" ; apogée le 21 à 5h, diamètre app. 29'33". Principales conjonctions : avec Saturne le 6 à I2h, à 2°5i' N. ; avec Jupiter le 7 à oh, à 2°4o' N. ; avec Vénus le II à i6h, à 4°I4/ S. ; avec Mercure le 15 à 22h, à j°o' S. ; avec Mars le 20 à i8h, à 3°44/ S. ; avec Uranus le 21 à 22h, à i038' S. Principale occultation : le 2, de 24 Scorpion (mag;. 5,0), émersion à 23^18m, 5. — PLANÈTES : Mercure, devient bien observable le soir dans la seconde moitié du mois', le 25 se couche à 2lh40m, soit 2h4m après le Soleil ; Vénus, belle étoile du matin dans l’aube, le 25 se lève à 2h25m, soit ih35m avant le Soleil, mag. —-4,2 ; Mars, dans le Cancer brille toute la première moitié de la nuit, le 13 : mag. 1,4 ; Jupiter, dans le Sagittaire se lève vers minuit, le 15, diamètre pol. app. 38",8 et mag. — 2,0 ; Saturne, dans le Sagittaire se lève 20 minutes avant Jupiter, le 15, diamètre pol. app. 15",6 et mag. 0,7; Uranus, dans le Lion peut se rechercher encore une bonne partie de la nuit, le 15, position : 9h38m et + I4°56/, diamètre app- 3",7 ; Neptune, dans la Balance est visible toute la nuit, le 15, position^ : I4h3lm et — I2°56', diamètre app. 2",4 et mag. 7)7• — ÉTOILES VARIABLES : minima de (3 Lyre (3m,4-4m,3) le 7 à I3h,4, le 20 à iih8; minima de S Balance (4m,8~5m,9) le 2 à 2ho, le 9 à ih,6, le 16 à ih,2, le 23 à 0^,7, le 30 à oh,3 ; maxima de p Aigle (3m,7-4rI1,4) le 7 à oh,o, le 14 à 4h,3, le 21 à 8h,5, le 28 à I2h,8 ; maximum de U Orion {Sm,3~ 12m,6) le 31. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.) : le Ier : I4h44m5s, le 11 : 1 5h23m30s, le 21 : i6h2m56s, le 31 : lôh42m2is.
- Phénomènes intéressants : Surveiller l’apparition de taches et de facules à la surface du Soleil. — Du 16 au 20, lumière cendrée de la Lune, le soir. — On recherchera la planète Mercure à l’œil nu, dont la visibilité le soir est remarquable dans la seconde moitié du mois. — Les quatre grosses planètes sont bien observables pendant le mois. — Étoiles filantes du Ier au i3 : Aquarides (radiant y Verseau), maximum le 4, météores rapides à traînées.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIETE ASTRONOMIQUE DE FRANCE
- fondée en 1887 par C. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc.
- Demandez les programmes an Siège Social de la
- Société Astronomique de France, 28, rue Serpente, Paris-6’
- Permanence, tous les jours non fériés de 14 à 17 h
- Coiisalions : Région Parisienne, 25 NT ; France, 20 NF ; Étranger, 30 MF ; Étudiants, 3 MF ; Droits d’inscription pour tous, 2 MF.
- Spécimen gratuit de la revue sur demande.
- Demandez «Splendeur de l’Astronomie», les plus belles photographies astronomiques : 1(5 pages 13,5x20,5, tirage néogravure bleu nuit. 0,65 NF franco. — Compte Ch. post. Paris 1733.
- LES L I V
- Le Soleil et la Terre, par Alexandre Dauvili.ier, professeur au Collège de France. 1 brochure 13,5 X 18, 42 p., 6 fig. Édition du Palais de la Découverte, Paris, i960. Prix : 2,88 NF.
- L’auteur expose la théorie oscillatoire de l’activité solaire et les relations entre les phénomènes solaires et terrestres.
- Principes des calculatrices numériques automatiques, par P. Naslin. i vol. 11 X 16, 256 p., 163 fig., 1 h. t. 2e édition. Monographies Dunod, Paris, i960. Prix, relié toile souple : 13 NF.
- Cette deuxième édition, corrigée et remaniée, comporte un certain nombre d’additions, principalement dans la 2e partie traitant de la technologie des calculatrices numériques automatiques. Des indications ont ainsi été données sur les mémoires à couches magnétiques minces, les circuits ferro-résonants, les paramétrons, les mémoires à condensateurs et les circuits à éléments supra-conducteurs (cryotrons).
- La Mécanique du Vol. Performances des an ions et des engins, par L. George et J. F. Vernet. 1 vol. 16 X 25, xxxn-465 p., 344 fig. et
- 17 pl. Librairie polytechnique Ch. Béranger, Paris, i960. Prix, relié : 98 NF.
- Ce livre, qui reproduit un cours professé à l’École nationale supérieure de l’Aéronautique, fait le point sur un sujet qui avait beaucoup évolué au cours de ces dernières années. Comme tel, il s’adresse uniquement à des ingénieurs, mais il est si complet qu’aucun bureau d’étude ne saurait ignorer son existence. Les mathématiques et les
- R E S NO
- aspects physiques du vol sont intimement mêlés en sorte qu’ils se complètent les uns les autres. La ire partie examine les différentes forces qui s’exercent sur l’avion ; la 2e expose les équations du vol et le principe des calculs de performances. Enfin, les 3 e et 4e parties sont consacrées aux performances prises chacune séparément. Un certain nombre d’exercices de calcul non résolus termine l’ouvrage qui comprend également de nombreux planches et abaques.
- ---- A NOS LECTEURS ----------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- U V E A U X
- Théorie des groupes en Physique classique et quantique, par Th. Kahan, avec la collaboration de P. Ca vailles, T. D. Newton, G. Lochak, R. Gouarne, G. Rideau et R. Nataf. Tome I : Structures mathématiques et fondements quantiques. 1 vol. 16 X 25, 688 p. Dunod, Paris, i960. Prix, broché en 2 fascicules : 32 NF (fasc. I), 38 NF (fasc. II) ; relié toile sous jaquette : 75 NF.
- Depuis quelques années, la théorie des groupes s’est révélée un outil puissant à la disposition du physicien pour l’aider à percer les lois de la nature. Parmi les nombreux ouvrages publiés sur cette question, celui de Th. Kahan et de ses collaborateurs se distingue par le souci de rigueur mathématique et l’ampleur des applications. Ces applications seront surtout exposées dans le tome II en préparation, et les auteurs n’hésitent pas à écrire : « Nous autons ainsi couvert la totalité ou du moins la quasi-totalité des applications multiples et détaillées que la mathématique des groupes a reçues en physique et en chimie théoriques modernes, tant classique que quantique. » On comprendra aisément qu’un tel livre est difficilement accessible au débutant et qu’il présuppose chez le lecteur une culture mathématique et physique relativement importante ; en contrepartie ce sera certainement un excellent ouvrage de travail pour les utilisateurs de la théorie des groupes.
- Précis de Physique générale, par R. Kronig. Tome III : Optique. Traduit du hollandais et adapté aux programmes français. 1 vol. 16 X 25, x-266 p., 213 fig. Dunod, Paris, i960. Prix : 22 NF.
- Après un premier tome consacré à la mécanique
- 180
- p.180 - vue 181/560
-
-
-
- physique et à la thermodynamique, ce tome III, traduit par Y. Bernard, traite de l’optique. Il convient de rappeler que l’ensemble du Traité est destiné aux étudiants de propédeutique qui entreprennent des études scientifiques en vue de devenir mathématiciens, physiciens, chimistes ou médecins, ainsi qu’aux nombreux scientifiques non physiciens qui désirent avoir une vue d’ensemble de la physique moderne. Signalons que chaque chapitre est suivi d’une série d’exercices (non traités) et que des notices bibliographiques relatives aux divers savants cités complètent l’ouvrage.
- Electrons and phonons, par J. M. Ziman. i vol. 16 X 24, xiv-554 p., 166 fig. Clarendon Press : Oxford University Press, Londres, i960. Prix, relié : 84 sh.
- La propagation d’une onde dans un milieu périodique comme un cristal est très fortement influencée par cette périodicité. Quelle que soit la nature physique de ces ondes (acoustique, rayons X, onde de probabilité des électrons), elles vont avoir un certain nombre de caractères communs. Cet ouvrage est consacré à l’étude des ondes acoustiques (appelées phonons), des électrons dans les solides, et des propriétés physiques dont ces ondes sont responsables : chaleur spécifique, dilatation, conduction thermique, conduction électrique (conducteurs et semi-conducteurs). Bibliographie complète. Excellent outil de travail pour les chercheurs.
- Reports on Progress in Physics. Vol. XXIII (i960). 1 vol. 18 X 25,5, iv-629 p., fig. The Physical Society, Londres, i960. Prix, relié : 63 sh.
- Publication annuelle de la Physical Society, ce volume contient dix articles qui font le point sur des questions tant théoriques qu’expérimentales. Extrait de la table des matières : Propriétés optiques des couches minces, théorie des groupes en physique du solide, nébuleuses planétaires, mesure de précision en spectrographie des rayons y, etc.
- Initiation à la Mécanique quantique, par Michel-Yves Bernard, i vol. 14 X 22, 336 p., 114 fig. Elachette, Paris, i960. Prix, cartonné : 13 NF.
- Ce cours professé à Saclay pour des élèves de provenances variées n’utilise que des notions de mathématiques et de physique élémentaires et quelques éléments de mathématiques générales. Partant d’un rappel de notions connues sur les ondes, il introduit successivement la description de l’atome, l’onde associée à un corpuscule, et la notion de « puits de potentiel », clairement expliquées à l’aide d’exemples simples. L’étude du mouvement d’un électron au sein d’un atome suit, avec la classification des atomes utilisée en chimie. La notion de « spin » est introduite de façon remarquablement simple. Puis l’introduction de la notion de barrière de potentiel permet l’étude de la diffusion des neutrons par un proton, toujours à l’aide d’exemples simples. Exercices gradués. Petite bibliographie et index alphabétique.
- The nature of the Chemical bond, par Linus Pauling. 3e édition. 1 vol. 16 X 24, xx-644 p., fig. Cornell University Press, Ithaca (N. Y.), i960. Prix, relié : 8,85 dollars.
- Ouvrage de base pour tout ce qui concerne la liaison chimique dont l’étude fait toujours l’objet de nombreux travaux, mais ne conduit encore qu’à des résultats approchés. L’auteur a, bien entendu, tenu compte des récentes recherches relatives aux divers types de liaison ionique, covalente, métallique, ainsi que des résultats fournis par les innombrables études concernant les structures moléculaires des molécules et des cristaux.
- La spectroscopie hertzienne appliquée à la chimie, par R. Freymann et M. Soutif. i vol. 14 x 22, 275 p., 151 fig. Dunod, Paris, i960. Prix : 23 NF.
- La technique des ondes hertziennes courtes commence à être utilisée de façon presque systématique pour l’étude de la structure des molécules. Ce petit ouvrage présente au lecteur de langue française les principes théoriques et un grand nombre de résultats obtenus à partir de ces méthodes. La ire partie, due à M. Freymann, insiste surtout sur les renseignements que peuvent fournir les mesures de constantes diélectriques. M. Soutif, qui anime depuis de nombreuses années le groupe de recherches de résonance magnétique de la Faculté de Grenoble, fait un remarquable exposé très accessible sur les différents aspects de la résonance magnétique : électronique, nucléaire, quadrupolaire. Les calculs fondamentaux sont seulement esquissés et l’accent est mis sur la physique des phénomènes. Nombreux exemples. Abondante bibliographie.
- Continuous analysis of Chemical process Systems, par Sidney SiGGiA. 1 vol. 15,5 X 24, xiv-381 p., 113 fig. John Wiley and Sons, New York, 1959. Prix, relié : 8,50 dollars.
- Le développement de la mécanisation dans l’industrie chimique se manifeste notamment par la mise en service de très nombreuses méthodes automatiques d’analyse continue qui permettent de suivre constamment les procédés chimiques. L’auteur a réuni dans cet ouvrage excellemment présenté les principaux types d’appareils utilisés à cet effet. Il s’agit surtout d’analyses de gaz basées sur les procédés physiques ou physico-chimiques : indice de réfraction, densité, absorption dans l’infrarouge ou l’ultraviolet, conductibilité thermique, mais aussi d’analyses de solutions.
- Instability constants of complex compounds, par K. B. Yatsimirskii et V. P. Vasil’ev. Traduit du russe par D. A. Paterson. i vol. 14 X 22, viii-zi8 p. Pergamon Press Ltd., Oxford, Londres, New York et Paris, i960. Prix, relié : 42 sh.
- Après avoir défini les constantes d’instabilité des complexes en solution, les auteurs décrivent les méthodes qui permettent leur détermination. Dans la 2e parüe, on trouve les constantes relatives à 1 381 composés complexes, avec toutes
- les références concernant les travaux correspondants.
- L’évolution de la chimie des molécules géantes, par Georges Champetier, de l’Institut, professeur à la Sorbonne. 1 brochure 13,5 X 18, 28 p. Édition du Palais de la Découverte, Paris, i960. Prix : 1,35 NF.
- En montrant comment le chimiste sait maintenant orienter les réactions de polymérisation pour obtenir des structures bien définies, l’auteur s’est borné aux développements qui touchent aux applications immédiates des macromolécules.
- Surface phenomena in Chemistry and Biology, édité par J. F. Danielli, K. G. A. Pankhurst et A. C. Riddiford. i vol. 15 X 24, 330 p., fig., pl. h. t. Pergamon Press, Oxford, Londres, New York et Paris, 1958. Prix, relié : 63 sh.
- Vingt-trois études touchant aux phénomènes de surface. On notera l’examen de la liaison hydrogène dans les films superficiels, l’étude de longues chaînes à groupe terminal ionisé, des observations sur la réaction de tannage, des recherches sur l a structure superficielle des cristaux liquides, des remarques sur l’application de la détergence dans les industries nucléaires. La réflexion des gouttes d’eau, la rétention des bulles d’air sur les surfaces solides, l’hétérogénéité des surfaces métalliques, l’équilibre de Gibbs-Donan, l’absorption des graisses dans l’intestin grêle forment encore la
- -- VIENT DE PARAITRE ---------
- AMUSEMENTS
- MATHÉMATIQUES
- PAR
- A. BAKST
- TRADUIT DE L’ANGLAIS PAR H. BORZER
- vm-204 pages 14x22, avec 130 figures. Nouveau tirage.
- Broché ............. 9,50 NF
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6*. DAN 99-15.
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Püris-4e. — ODE 54-83
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d’Etat. Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- 181
- p.181 - vue 182/560
-
-
-
- matière de belles études traitées de manière approfondie.
- vient de paraître tome IV
- ENCYCLOPÉDIE FRANÇAISE
- (fondateur : Anatole de Monzie)
- ia vie
- 2 volumes
- sous la direction de Pierre-Paul GRASSÉ, de l'Institut.
- 70 spécialistes assurent à cet ouvrage sa haute valeur scientifique et traitent de tous les grands problèmes de la Biologie ; mais le texte, agrémenté de nombreuses illustrations, reste remarquablement clair et accessible au grand public cultivé qui s’intéresse de plus en plus aux passionnantes “sciences de la Vie'1.
- 2 volumes sous reliure mobile spéciale (25x30 cm) et jaquette en couleurs : 840 pages dont 32 hors-texte en héliogravure, nombreuses gravures dans le texte, index complet répété dans chaque volume. Très larges facilités de paiement.
- quelques titres dans la même Collection ;
- Tome II. LA PHYSIQUE - Tome III. LE CIEL ET LA TERRE - Tome IX. L’UNIVERS ÉCONOMIQUE ET SOCIAL - Tome XI. LA VIE INTERNATIONALE (divisions et unité du monde actuel) - Tome XIX. PHILOSOPHIE,
- *
- *
- *
- 5
- i
- *
- *1
- *
- i
- S
- ï
- t
- *
- *
- RELIGION - Tome XX. LE MONDE EN DEVENIR.
- dépositaire général, 17, rue du Montparnasse. Paris B
- t
- *
- t
- *
- t
- *
- t
- 0
- 0
- 0
- t
- Cemented carbides, par Paul Schwarzkopf et Richard Kieffer. i vol. 16 X 24,5, vm-349 p., 150 fig. MacMillan Company, New York, i960. Prix, relié : 15 dollars.
- Après un intéressant historique du développement de l’utilisation des carbures frittés, les auteurs exposent en détail la fabrication de ces carbures sous leur forme définitive. Ils étudient ensuite le phénomène de frittage sous ses diverses formes, puis après avoir indiqué les méthodes de contrôle, ils insistent sur les diverses propriétés des matériaux fabriqués au départ de carbures, et décrivent enfin l’emploi de ces matériaux pour la coupe des métaux.
- Gas purification, par Arthur L. Kohl et Fred C. Riesenfeld. i vol. 15,5 X 23,5, x-556 p., fig. McGraw-Hill Book Company, Londres, New York et Paris, i960. Prix, relié : 116 sh. 6 d.
- Le problème de la purification des gaz et de leur déshydratation est très important car il intéresse de très nombreuses industries, et si des méthodes très variées peuvent être utilisées, les bases de ces techniques sont transposables d’une industrie à l’autre. Ce sont surtout ces bases que cet ouvrage (qui fait partie de l’excellente collection de Génie chimique) se propose de décrire. Parmi les cas plus spécialement examinés figurent l’élimination de l’hydrogène sulfuré, de l’anhydride sulfureux et de l’eau, mais d’autres exemples sont également donnés. L’ouvrage, très bien illustré, comporte une abondante documentation.
- Aspects of the origin of life, édité par Marcel Florkin. i vol. 15,5 X 25,5, vin-199 p.„
- 47 fig., 6 pl. h. t. Pergamon Press Ltd., Oxford, Londres, New York et Paris, i960. Prix, relié : 30 sh.
- Textes de vingt communications présentées au Symposium de Moscou sur l’Origine de la Vie, sélectionnées pour donner à un public assez large un aperçu de l’orientation actuelle des recherches. La participation des auteurs soviétiques est importante. Différents chercheurs s’efforcent de préciser l’état initial de la Terre, la nature des atmosphères planétaires et l’ensemble des conditions géologiques et physiques qui ont pu permettre l’apparition des plus simples substances organiques ; d’autres parviennent à reproduire expérimentalement des synthèses d’amino-acides et à réaliser des liaisons peptidiques en créant des conditions physiques particulières ; la signification de la présence dans les molécules biologiques d’un seul type d’isomères optiques est discutée ; simultanément on recherche déjà la nature des forces qui permettent la duplication des macromolécules douées des propriétés d’autoreproduction.
- Plant Physiology, traité publié sous la direction de F. C. Steward. 2 vol. 15 X 23. Volume l A : Cellular organization and respiration, xxviii-331 p., prix, relié : 13 dollars ; Volume IB: Photosynthesis and Chemosynthesis, xviii-348 p.; prix, relié : 12 dollars. Academie Press, New York et Londres, i960.
- Plant Pathology, traité publié sous la direction de J. G. Horsfall et A. E. Dimond. Volume III .-The Diseased Population,Epidémies and Control, 1 vol. 15 X 23, xiv-675 p. Academie Press, New York et Londres, i960. Prix, relié : 22 dollars.
- Nous avons déjà rendu compte (La Nature, mai i960 et octobre i960) des précédents volumes parus de ces deux traités. La présente livraison voit l’achèvement du traité de Pathologie végétale en trois volumes. Cet ouvrage unique en son genre a réussi à embrasser la totalité de son sujet grâce à une remarquable élévation d’esprit qui, rappe-lons-le, a conduit les auteurs à ne traiter d’aucune maladie en particulier, mais à envisager successivement l’étude, à la fois très générale et très poussée de la plante malade, du pathogène et maintenant des problèmes de population. Cet ouvrage avant tout destiné au chercheur présente donc un grand attrait pour le naturaliste philosophe. Seize spécialistes de divers pays ont contribué
- p.182 - vue 183/560
-
-
-
- au troisième et dernier volume. Quant au traité de Physiologie végétale, il n’est encore qu’à ses débuts. Le volume II déjà paru concernait les plantes dans leurs rapports avec l’eau et les solutions. A l’exemple de ce dernier, les deux présents volumes constituent chacun un tout qui garde sa valeur même si on l’isole du reste du traité. C’est au niveau de l’enseignement approfondi que les volumes parus rendront le plus de services. L’intérêt très général des problèmes physiologiques liés aux niveaux d’organisation cellulaire et infra-cellulaire, et de l’étude de la respiration, font que les mises au point du volume I A méritent d’attirer l’attention des non-botanistes. Il en va de même pour le volume l B, consacré au phénomène d’importance majeure pour la biosphère qu’est la photosphère. — L. T.
- Encyclopédie technologique de l’Industrie du Caoutchouc, publiée sous la direction de G. Génin et B. Morisson. Tome II : Propriétés physiques et chimiques des caoutchoucs naturels et artificiels. Constituants et exécution des mélanges. Principales matières annexes, i vol. 16 X 25, vi-784 p., 116 fig. Dunod, Paris, i960. Prix, relié toile, sous jaquette : 94 NF.
- Voici le tome II de cette Encyclopédie en cinq volumes qui couvre l’ensemble de tous les aspects de l’industrie du caoutchouc : production de la gomme naturelle et des différents élastomères synthétiques, propriétés de ces produits et des différentes matières annexes utilisées pour la préparation des mélanges, contrôle des matières premières et des produits finis ou en cours de fabrication, matériel destiné à la mise en œuvre des mélanges et applications du caoutchouc, et dans laquelle les auteurs, tout en insistant sur le côté technique, ont également exposé succinctement toutes les questions scientifiques qui s’y rapportent. Ce tome est consacré à l’étude des propriétés physiques et chimiques des caoutchoucs naturels et artificiels, des constituants des mélanges et de leur exécution, et enfin à celle des diverses matières annexes de l’industrie du catouchouc : coton, rayonne, lin, vernis, solvants, etc. — H. G.
- Histoire de la rayonne et des textiles synthétiques, par L.-G. Fauquet. i vol. 16 X 24 268 p. Armand Colin, Paris, i960. Prix : 16 NF_
- Publié dans la collection Études et Mémoires du Centre d’Études économiques de l’École pratique des Hautes Études, cet ouvrage apporte une documentation de premier ordre sur l’industrie des textiles, artificiels et synthétiques. Il s’adresse cependant davantage à l’historien et à l’économiste qu’au technicien. Les inventeurs, les précurseurs, sont tout d’abord présentés, ensuite on assiste à l’évolution de l’industrie dans son ensemble, puis par pays. Quatre périodes ont été distinguées : celle des pionniers, celle de 1’ « euphorie », celle de la crise et de la consolidation, celle enfin de l’expansion.
- Henry Cavendish. His life and scientific work, par A. J. Berry, i vol. 15 X 23,5, 208 p., 7 fig., 4 pl. h. t. Hutchinson and Co. Ltd., Londres, i960. Prix, relié : 35 sh.
- Cavendish, que les dictionnaires présentent comme un physicien et un chimiste ayant procédé à l’analyse de l’air, à la détermination de la densité moyenne du globe, à la découverte de la composition de l’eau et à l’étude des propriétés de l’hydrogène, est en fait assez peu connu. Ce fut pourtant un grand savant du xvme siècle qui s’est occupé de chimie, de physique, de mécanique et de météorologie. Millionnaire par suite d’un héritage, il menait une vie de reclus d’où il ne s’évadait que pour présenter des communications à la Royal Society. C’était donc un original dont on lira avec intérêt la vie, d’autant plus que l’auteur a su agrémenter son récit de diverses anecdotes.
- Pierre-Louis Moreau de Maupertuis, par P.-L. Maillet, professeur à la Faculté des Sciences de Rennes. 1 brochure 13,5 x ?.8, 32 p. Édition du Palais de la Découverte, Paris, i960. Prix : 1,70 NF.
- A l’occasion du bicentenaire de sa mort (4759), il valait la peine de mieux connaître Maupertuis, longtemps méconnu et que les historiens des
- sciences ont depuis quelques années mis à sa vraie place, celle d’un précurseur en plusieurs domaines, aussi bien en mécanique qu’en biologie, puisqu’il fut le premier à énoncer dans toute sa généralité l’hypothèse de l’évolution, en se fondant sur des exemples fort bien observés.
- Colloques de Rheinfelden, par Raymond Aron, George Kennan, Robert Oppenheimer... i vol., 328 p. Calmann-Lévy, Paris, i960. Prix : 12,90 NF.
- Des philosophes, des sociologues, des économistes et des savants fameux se sont récemment réunis pour animer le Congrès pour la liberté de la culture, à Bâle-Rheinfelden. L’évolution de la société industrielle en fut le thème principal ; l’ouvrage rend compte des inquiétudes de quelques-uns des meilleurs esprits de notre temps ; on les voit en quête des indices qui permettent de supputer l’avenir des rapports de l’homme et de la machine ;
- c’est qu’un type nouveau de société se propose comme modèle à l’humanité entière, sous le masque des variations idéologiques : l’industrialisme ; quel peut être dès lors le sens du schisme qui oppose les deux grandes sociétés industrielles du monde, l’américaine et la soviétique ? Quelles seront les voies de l’industrialisation dans les contrées encore peu marquées par la frénésie de technologie ? Quelles probabilités l’évolution présente donne-t-elle pour l’éthique et la politique des temps à venir ? Toutes ces questions sont débattues avec un scrupule d’humaniste qui est l’honneur de l’Occident. On notera entre mille sujets intéressants l’analyse de l’évolution économique de l’U. R. S. S. maintes fois reprise, particulièrement la reconnaissance de la légitimité de la notion de marché, en rupture avec les premiers impératifs doctrinaux des Soviétiques. On lira aussi avec émotion les trop brèves pages données par M. Oppenheimer sur le péril atomique et l’analyse
- au sert//ce du dessm fechw/que
- PORTE-MINE de PRÉCISION
- ECRIFIX
- POUSSOIR FAIT:
- TAILLE-MINE ==
- 1929
- Brevets
- 1959
- ECRIFIXdeLUXE avec cannelures
- technograph
- «
- CARAN D'ACHE crée un porte-mine breveté de précision à l’usage du dessin technique et de l’écriture.
- Les ECRIFIX CARAN D'ACHE sont toujours les meilleurs et les plus appréciés des porte-mine à longue mine.
- 7 POINTS de SUPÉRIORITÉ font de l'ECRIFIX de LUXE l’instrument de dessin le plus réputé.
- CRAYONS et MINES
- TECHNOGRAPH
- au GRAPHITE “ nneromsé Son grain quasi colloïdal donne à la mine des qualités inégalées et tout spécialement une densité du trait permettant des reproductions hêlio aussi nettes qu’à l’Encre de CHINE.
- En COULEURS, Crayons PRISMATEC et Mines PRISMA offrent les mêmes avantages.
- LJ
- Trait de mine TECHNOGRAPH (Grossi 30 fois
- La PINCE FIX
- n’a jamais été égalée Elle serre la mine comme un étau
- DISTRIBUÉ par CORECTOR-ADHÉSINE
- EH J.EMQNNIER 10 6
- 183
- p.183 - vue 184/560
-
-
-
- *
- *
- vient de paraître
- MORPHOLOGIE
- ET
- PHYSIOLOGIE AN I MALES
- par Georges Bresse, professeur agrégé, inspecteur général des Musées d'Histoire naturelle.
- Cette nouvelle édition entièrement refondue et très augmentée, a pour objet l’étude de la structure et du fonctionnement du corps humain, pris comme type d’organisme animal supérieur.
- Très abondamment illustré en noir et en couleurs, cet ouvrage à la fois clair et complet s'adresse, en premier lieu, aux étudiants dont les programmes comportent des Sciences naturelles.
- Mais il doit également figurer dans la bibliothèque de tout homme cultivé, car les problèmes touchant à la Médecine, à la Biologie, et, d’une manière générale aux “Sciences de la Vie” sont au premier plan de l'actualité.
- 1 volume relié (16 x 25 cm) sous jaquette en couleurs, 864 pages : 638 illustrations en noir, 32 planches en couleurs, index,
- 17 rue du Montparnasse Paris 6
- %
- «
- *
- *
- *
- *
- N
- %
- *
- N
- N
- N
- *
- *
- 1
- I
- 0
- 0
- qu’ii fait sur la séparation du langage scientifique avec le discours commun. — J. G.
- Le livre des côtes de France, par Jean Merrien.
- Tome II : Océan Atlantique, i vol. 13,5 X 19,5,
- 400 p., illustr. Robert Laffont, Paris, i960.
- Prix, cart. : 15,90 NF.
- Ce tome II de l’attachante série consacrée par Jean Merrien aux rivages français nous conduit de la pointe de Bretagne à la Bidassoa. Écrite avec humour, mais avec une passion contenue, l’œuvre est un répertoire complet des rivages atlantiques, des plages, des caps, des îles... Livre indispensable au plaisancier, et au vacancier terrien également. Tous deux y trouveront une manne de renseignements utiles (nous avons vérifié sur place, de Pornic à la baie de l’Aiguillon, le texte de Merrien, et ne pouvons que l’approuver du début à la fin). Souhaitons que son cri d’alarme soit entendu sur la protection des sites littoraux ! — P. W/.
- Images économiques du Monde i960, par
- J. Beaujeu-Garnier et A. Gamblin. i vol.
- 13,5 X 21, 200 p. S. E. D. E. S., Paris, i960.
- Prix : 12,50 NF.
- Cette utile publication en est à sa 5 e année, et son utilité s’accroît chaque fois. La présentation a été améliorée ; la typographie très lisible et la disposition en tableaux permettent une consultation aisée. Tous les chiffres récents figurent dans la documentation. Instrument de travail à recommander chaleureusement.
- La Calabre, sous la direction de Jean Meyriat.
- 1 vol. 15,5 x 24, xxiv-331 p., 30 tableaux,
- 20 fig. et cartes, 1 carte h. t. en dépliant. Armand
- Colin, Paris, i960. Prix : 18 NF.
- Ouvrage collectif réunissant, sous la direction-de Jean Meyriat, les noms de spécialistes connus (parmi lesquels la géographe A.-M. Seronde), ce recueil traite des conditions économiques et sociales d’une région sous-développée caractéristique de l’Europe méditerranéenne. Enquête de synthèse, associant conditions géographiques, historique de l’économie, contexte sociologique (vie religieuse, sociale, carte électorale), réforme agraire récente. Un index pratique complète le volume, illustré de cartes succinctes, mais suffisantes. Excellent instrument de travail pour l’étude du Mezzogiorno.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- ECOLE NORMALE D’INSTITUTRICES DE SAINT-BRIEUC recherche le livre suivant : La Panne de France, par Perrier, tome IB : Les Vers.
- J. F. 28 ans, chimiste-secrétaire, recherche travail intéressant dans industries chimiques ou métallurgiques. Régions alpine ou parisienne. Ecrire Revue, N° 263.
- VENDS plus offrant, cse dble emploi, matériel photo Foca PF3 av. 3 obj. : 50 mm F/2,8 — 28 mm F/4,5 — I35 mm F/4,5. Viseur Universel. Jeu filtres. Parasoleil. Bagues et ch. claire. Microphoto. Etat neuf. Off. à Revue, N° 264.
- VENDS coll. La Nature sept. 1945 à févr. 1949, Science et Vie 1945 à 1958 + 27 numéros hors série, Mécanique populaire n08 1 à 51 inclus (févr. 46 à août 50). Ecr. Revue, N° 265.
- Le gérant : F. Dunod. — dunod, éditeur, paris. —- dépôt légal : 2e trimestre 1961, N° 3737. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 425a. - 4-I06l.
- 184
- p.184 - vue 185/560
-
-
-
- L’animal sans germes nouvel instrument
- de la recherche biologique
- Le Centre de~1?0§a:ion des animaux de laboratoire est un organisme du Centre national de la Recherche scientifique chargé initialement de maintenir les lignées consanguines de rats, de souris, de cobayes qui sont indispensables à de très nombreuses recherches bio-logiques. En fait, depuis sa création, à Gif-sur-Yvette (Seine-et-Oise), l’action de ce Centre s’est rapidement élargie, et cela s’explique facilement. Qu’est-ce en effet qu’un « animal de laboratoire » ? C’est un réactif biologique : de même que le chimiste utilise des produits aussi parfaitement définis que possible, de même le biologiste utilise l’animal comme réactif expérimental.
- Cependant, si le réactif animal et le réactif chimique participent fondamentalement d’une même nature, le premier apparaît infiniment plus complexe que le second. De multiples variables affectent le réactif animal : et tout d’abord la variable génétique, c’est-à-dire la constitution héréditaire. Ceci est évident lorsque l’on considère les différences qui existent entre les diverses lignées consanguines de souris ; chez certaines lignées par exemple, la presque totalité des individus présentent à un âge déterminé une leucémie de caractère bien défini, alors que d’autres lignées sont connues pour ne jamais présenter de sujets cancéreux.
- La variable génétique a sans doute été la première à attirer l’attention des chercheurs, mais ce n’est certainement pas la seule ; les circonstances dans lesquelles vivent les animaux de laboratoire affectent leur comportement lors d’un test biologique : la température, le degré hygrométrique, des facteurs sociaux, la composition de l’aliment, etc., peuvent entrer en ligne de compte. Depuis quelque temps en outre, l’influence que peut avoir la flore microbienne de l’animal est prise en considération. Pour cette raison, le Centre de sélection des animaux de laboratoire possède depuis quelques mois une section à’animaux sans germes, c’est-à-dire de sujets dont l’organisme, tant au niveau du tube digestif qu’au niveau des voies respiratoires ou des organes internes, est vierge de tout microbe connu.
- L’animal sans germes ! Voici une chose étonnante et qui mérite d’être contée.
- * *
- par E, Sacquet
- En 1885, à l’Académie des Sciences, Pasteur commente les travaux de E. Duclaux qui avait essayé de cultiver des pois dans un milieu stérile. Ce commentaire, qui ouvre la
- Fig. 1. — Un isolateur de Reyniers pour l’élevage des animaux sans germes.
- Le grand cylindre-autoclave est stérilisé par la vapeur à 1200 C avant l’introduction des animaux sans germes. A la partie supérieure on voit le tuyau d’arrivée de l’air aboutissant à un filtre où l’air est débarrassé de tout germe ; plus à gauche, la « trappe » par laquelle sort l’air usé et qui empêche tout refoulement d’air quand se produit une dépression à l’intérieur de l’isolateur (notamment quand on retire les mains de l’appareil). Sur la droite de l’isolateur, les gants noirs en. caoutchouc que l’on revêt en les retournant et qui pénètrent alors à l’intérieur pour les manipulations ; des gants semblables sont fixés de l’autre côté pour permettre le travail simultané de deux opérateurs (voir fig. 6). Un hublot est situé au-dessus de chaque paire de gants (fig. 8). Au premier plan, un petit cylindre est fixé à l’extrémité de l’isolateur ; il permet d’introduire et de sortir animaux et objets sans risquer de contaminer l’intérieur ; c’est un petit autoclave qui est lui-même stérilisé sur place avant et après chaque manœuvre d’échange. Les isolateurs sont montés sur roulettes et deux d’entre eux peuvent être mis en communication par l’intermédiaire d’un petit autoclave.
- (Photo A. D. P.).
- 185
- p.185 - vue 186/560
-
-
-
- voie à l’étude de la vie en l’absence de microbes, apparaît aujourd’hui encore d’une étonnante richesse. Le fondateur de la microbiologie dit son grand intérêt pour ce sujet de recherches, suggère un procédé d’expérience, l’utilisation de l’œuf de poule, et pose d’emblée la question de savoir si la vie dans ces conditions est possible. « Sans rien vouloir affirmer, je ne cache pas que j’entreprendrais cette étude si j’en avais le temps, avec la pensée préconçue que la vie dans ces conditions deviendrait impossible... Que le résultat soit positif et confirme la vue préconçue que je mets en avant, ou qu’il soit négatif et même en sens inverse, c’est-à-dire que la vie soit plus facile et plus active, il y aurait un grand intérêt à tenter l’expérience. »
- Dès lors le débat est ouvert. Pour certains, comme Nencki, il demeure verbal, mais d’autres chercheurs, tels que Nuttall et Thierfelder (1896), Schottelius (1899), Cohendy (1912), déploient des trésors de patience et d’ingéniosité pour essayer de faire la preuve expérimentale de leurs idées. En 1914, Kuster réussissait à faire vivre deux chevreaux pendant 35 jours à l’abri de tout microbe ! La plupart de ces expériences se heurtent à de très graves difficultés : difficulté d’isoler le sujet d’expérience hors d’atteinte de la contamination microbienne, insuffisance des notions acquises à cette époque en matière de nutrition. Le développement des connaissances sur ce sujet rend progressivement les choses plus faciles. En Suède Glimstedt puis Gustafsson, aux États-Unis, à l’Université de Notre-Dame, Reyniers et ses collaborateurs, au Japon Kyoichi puis Miyakawa apportent une contribution définitive et mettent au point les techniques qui permettent aujourd’hui d’élever en l’absence de microbes, la poule, la pintade, la dinde, la caille, le cobaye, le rat, la souris, le hamster, le singe, le chien, etc.
- Comment on obtient et comment on élève des animaux sans germes
- Il n’existe pas à la surface de la Terre et dans les conditions naturelles de la vie d’animaux sans germes. Pendant de longues années on a pu penser, à la suite des travaux de Levin (1899), que dans les régions polaires certains oiseaux étaient dépourvus de tout microbe. Une expédition américaine a montré en 1958 que le contenu intes-
- tinal de ces oiseaux présentait une flore microbienne très pauvre mais réelle et que c’était sans doute en raison de la richesse en produits antibiotiques du plancton d’une part, de la très faible pollution microbienne de l’atmosphère sous ces latitudes d’autre part, que ces oiseaux possédaient une flore microbienne aussi pauvre.
- Cependant, dans la très grande majorité des cas, l’embryon demeure à l’abri de la contamination microbienne pendant la vie in ovo ou in utero. C’est donc en introduisant l’œuf embryonné, après désinfection soignée de la coquille par un antiseptique, dans une enceinte stérile où aura lieu l’éclosion, qu’il est possible d’obtenir des oiseaux « amicrobiens ». De même c’est en prélevant, quelques instants avant le moment de la mise bas naturelle, aseptiquement par césarienne, le jeune mammifère dans l’utérus de la mère qu’il est possible d’obtenir des souris, cobayes, hamsters, etc., amicrobiens (fig. 2).
- Il faut évidemment disposer d’une enceinte stérile, d’un isolateur où l’on puisse maintenir le jeune animal hors de l’atteinte des microbes. La construction de ces isolateurs a posé et pose encore des problèmes. Non seulement il faut que cet appareil soit rigoureusement étanche, mais il faut posséder une technique de désinfection sans défaut, qui permette de le débarrasser de tout microbe vivant avant d’y introduire l’animal, puis d’y faire pénétrer aliments, boisson, litière, air, sans que jamais un seul microbe vivant y soit admis. Il existe divers types d’appareils réalisant toutes ces conditions, dus à l’ingéniosité de J. A. Reyniers, de P. C. Trexler ou de B. Gustafsson. L’appareil de Reyniers, qui est employé à Gif-sur-Yvette (fig. 1), est une « boîte à gants » en acier inoxydable ; il est stérilisé par la vapeur sous pression, à 1200 C, avant d’être mis en service. Par la suite, les aliments et la litière sont introduits dans l’appareil au moyen d’un petit autoclave où ils sont eux-mêmes stérilisés par le même procédé. L’air est stérilisé au moyen d’un filtre constitué par plusieurs couches d’une laine de verre spéciale. L’appareil de Gustafsson est basé sur le même principe, mais il est stérilisé à l’intérieur d’un autoclave, ce qui permet de le construire en tôle beaucoup plus mince ; en outre l’air est stérilisé par chauffage à 300° C. P. C. Trexler utilise des appareils en matière plastique et emploie comme agent de stérilisation l’acide peracétique.
- Les oiseaux et certains mammifères comme le cobaye
- Fig. 2. — Coupe schématique du dispositif chirurgical pour prélèvements des animaux nouveau-nés sans germes.
- Cet isolateur est divisé en deux parties A et B. La femelle prête à mettre bas a été introduite par la porte P ; elle a été fixée sur la table de chirurgie TC, puis élevée jusqu’à ce que son abdomen soit entièrement en contact avec la feuille de cellophane cp. L’opération césarienne étant faite à travers cette feuille, les nouveau-nés retirés de l’utérus se trouveront dans la zone aseptique A ; ils seront passés dans l’isolateur d’élevage E uni à l’appareil chirurgical par le petit autoclave D.
- 186
- p.186 - vue 187/560
-
-
-
- sont capables de s’alimenter dès la naissance par leurs propres moyens. Mais il n’en est pas de même de la souris ou du rat, ni de la plupart des mammifères. Il est indispensable de nourrir ces animaux à l’allaitement artificiel pendant deux ou trois semaines ; cela n’est pas chose facile. Il est en effet impossible de stériliser le lait de ratte ou de souris. Ce lait très riche en protides coagule lors du chauffage, et il n’existe pas de procédé simple qui permette d’obtenir ce lait en quantité suffisante. Il a donc fallu mettre au point des formules de lait artificiel en partant du lait de vache, ou d’hydrolysat enzymatique de caséine, et de crème, d’en corriger l’insuffisance en certains acides aminés et d’ajouter les vitamines et les sels minéraux indispensables. Enfin le souriceau ou le raton nourri à l’allaitement artificiel est incapable de digérer un lait contenant plus de 5 pour 100 de protides, c’est-à-dire beaucoup moins que lors de l’allaitement naturel. Aussi est-il nécessaire de donner une quantité maximale de ce lait artificiel... tout en prenant garde de ne pas en faire ingérer trop, car la moindre régurgitation est fatale !
- Toutes ces difficultés étant vaincues, l’expérimenta-
- teur ne peut parler d’animaux sans germes que dans la mesure où il est capable de prouver qu’il n’y a chez ces animaux, à tout le moins, aucun des microbes que nous connaissons aujourd’hui. Et nous en découvrons chaque année de nouveaux. C’est là un problème aussi vaste que la microbiologie et il n’est jamais simple de prouver une absence. Ces sujets font donc l’objet d’une multitude de tests à l’effet de mettre en évidence des virus, bactéries, champignons, parasites divers, qui pourraient soit franchir la barrière qui sépare l’animal présumé sans germes du monde extérieur, soit préexister in ovo ou in utero. En particulier, la recherche des virus latents, c’est-à-dire de virus capables de persister dans l’organisme de l’hôte sans déter-
- Fig. 3. — Contrôle de la stérilisation du petit autoclave d’un isolateur.
- Quand le petit autocalve de l’isolateur (au 2e plan) est en cours de stérilisation (par la vapeur à i zo° C), il est en communication par un tuyau avec les instruments qui contrôlent la pression et la température de la vapeur, sur le petit chariot (à gauche). Ainsi objets et aliments peuvent passer dans l’isolateur sans risque d’y introduire des microbes.
- (Photo A. D. P.).
- p.187 - vue 188/560
-
-
-
- Fig. 4. — A l’intérieur d’un isolateur Reyniers.
- Par un hublot, on voit plusieurs petites cages dans lesquelles sont placées des souris sans germes. Sur les couvercles de ces cages les cylindres de verre sont des « biberons » où les animaux prennent leur boisson ; les petits cylindres plus sombres contiennent des comprimés d’aliments solides.
- {Photo A. D. P.).
- miner aucun symptôme de maladie pendant fort longtemps, parfois plusieurs générations et peut-être même indéfiniment, est un des problèmes les plus ardus de la microbiologie.
- Les caractères particuliers de ranimai sans germes
- Le premier problème qui s’est posé aux expérimentateurs de la vie sans microbes a été de savoir si la vie était possible dans ces conditions. L’existence d’animaux germ free est une éloquente réponse à cette question. Cependant cette question peut être posée de nos jours de manière différente : l’animal sans germes est-il normal, c’est-à-dire physiologiquement équilibré et jouissant de tous les attributs de son espèce, en particulier de la faculté de se reproduire pendant un nombre indéfini de générations ?
- Il n’est pas simple de répondre clairement à cette interrogation. Il nous faut en fait mesurer les modifications apportées à l’organisme par l’absence de microbes et surtout par l’absence d’interactions entre cet organisme et le microbe. Une analyse complète de l’animal sans germes est pour cela nécessaire ; elle doit inclure les caractères morphologiques, biochimiques, sérologiques, immunologiques de l’animal sans germes, par opposition aux mêmes caractères de 1’ « animal classique ». Cette dernière appellation peut paraître surprenante. Elle traduit le fait que, jusqu’à maintenant, ce qu’on appelle un animal est un ensemble complexe formé par l’animal proprement dit et la flore microbienne qui lui est associée.
- Or dans cette analyse, il y a de nombreuses causes d’erreurs. L’animal sans germes diffère de l’animal classique non seulement par l’absence de germes, mais aussi par les conditions très particulières du milieu dans lequel il se trouve. Les aliments qu’il reçoit sont stérilisés par la chaleur et subissent, au cours de cette stérilisation, des altérations diverses imparfaitement connues, notamment des protéines et des vitamines ; pour y remédier, cette alimentation est complétée : on ajoute davantage de protéines, davantage de vitamines. Mais un tel aliment n’est pas l’équivalent de l’aliment non stérilisé. C’est ainsi qu’il semble établi qu’une partie de la thiamine (vitamine Bx), au cours du séjour en autoclave, se transforme eh oxy-thiamine qui interfère sur le métabolisme de la vitamine normale.
- D’autre part, l’animal sans germes vit dans des conditions très particulières : il est moins exposé à la lumière du jour, mais davantage à la lumière artificielle ; il prend moins d’exercice parce que, pour des raisons d’économie, le nombre d’animaux par cage est porté au maximum ; il mène, en général, une vie plus calme que l’animal classique. On comprend donc que toute comparaison, pour avoir quelque valeur, doit être faite entre des animaux vivant dans les mêmes conditions, c’est-à-dire qu’il est nécessaire de placer des animaux classiques dans des isolateurs, en sorte que le milieu, dans l’un et l’autre cas, ne diffère que par la présence ou l’absence de microbes. Et encore cela ne résout-il pas tous les problèmes : lorsqu’un « animal classique » est placé dans de telles conditions, sa flore microbienne, au bout de quelque temps, se modifie et tend à se simplifier, car dans les conditions de vie naturelles, il y a un apport continu de microbes venant de l’extérieur qui ici se trouve tari.
- Il serait fastidieux de donner une analyse, même réduite à ses lignes essentielles, des principaux caractères de l’animal sans germes. Nous n’envisagerons que ses aspects les plus simples.
- D’une manière générale, les différences morphologiques les plus importantes siègent au niveau du tractus gastrointestinal. Chez les animaux sans germes de toutes les espèces, les organes lymphatiques qui se trouvent situés le long de ce tractus, ainsi que le long des premières voies respiratoires, sont extrêmement réduits. La paroi intestinale est plus mince, moins vascularisée, moins riche en eau, en tissu lymphoïde et surtout en tissu conjonctif. La capacité d’absorption de la muqueuse intestinale est plus grande. Dans le même temps, cette muqueuse laisse passer 30 pour 100 de glucose de plus que normalement... Par contre les organes éloignés du tube digestif ne sont que peu ou pas modifiés.
- D’une manière générale, la poule sans germes apparaît comme demeurant un animal tout à fait « normal » ; cet oiseau amicrobien est capable de se reproduire. Si cette espèce n’a pas été élevée pendant plusieurs générations, c’est uniquement parce que le volume de la poule adulte en fait un sujet peu rentable dans ces conditions expérimentales ; mais la caille, en raison de sa petite taille, de son cycle rapide de multiplication, de son excellente fécondité, apparaît comme un excellent sujet d’étude de la vie aseptique.
- On ne peut en dire autant de tous les mammifères. Le rat et la souris présentent un cæcum distendu : le poids du sac cæcal est environ trois fois supérieur à celui de l’homologue classique ; quant au contenu de cet organe,
- 188
- p.188 - vue 189/560
-
-
-
- il est cinq à six fois plus lourd et ne contient plus que 16 pour ioo de matières sèches au lieu de 24 pour 100. De nombreuses expériences ont été faites afin de trouver l’explication de ce fait. Aucune de ces expériences ne permet d’affirmer que cette distension cæcale soit due à autre chose qu’à l’absence de microbes. Cependant, le rat et la souris sans germes demeurent capables de se reproduire et sont maintenus sans germes depuis un nombre considérable de générations.
- Par contre, il n’a jamais été possible de faire se reproduire, dans les mêmes conditions, le cobaye et le lapin. Les mâles présentent un sperme normal, mais chez les femelles il existe des troubles de l’ovulation. En outre, le cæcum du cobaye, et plus encore celui du lapin, est énorme, le poids de cet organe atteignant chez celui-ci le tiers du poids total de l’animal. Le lapin sans germes souffre manifestement de troubles de la nutrition et c’est grand dommage, étant donné l’importance de cet animal en immunologie.
- Dans quelle mesure et comment sera-t-il possible de résoudre les problèmes posés par l’élevage aseptique de ces espèces ? Nul ne peut à l’heure actuelle répondre à ces questions. Ainsi, d’une certaine manière, les inquiétudes et les doutes émis par Pasteur concernant la possibilité d’élever des animaux en l’absence de microbes ne sont pas entièrement dissipés.
- En plus de ces différences morphologiques considérables au niveau du tractus gastro-intestinal, ce qui tout naturellement a le plus intéressé les expérimentateurs, ce sont les modifications subies par les systèmes de défense de l’organisme contre les microbes. L’animal sans germes garde entièrement l’aptitude à former des anticorps, et son sérum contient un taux normal de complément, de properdine et aussi d’hétérohémagglutinines (x). L’inoculation de bactéries tuées est suivie de la formation d’anticorps en quantité égale et dans les mêmes délais que chez l’animal classique. Mais le sujet sans germes ne possède d’agglutinines antibactériennes qu’à l’égard des bactéries, tuées mais antigéniques, qu’il ingère avec son régime alimentaire, et encore ces agglutinines n’apparaissent que tardivement. Aussi l’animal aseptique ne possède-t-il qu’une très faible quantité d’agglutinines antibactériennes.
- Il est difficile d’estimer la quantité d’antigènes que reçoit l’animal sans germes. Des efforts sont faits dans le but de développer des régimes alimentaires non antigéniques et d’obtenir des sujets immunologiquement vierges. Dans l’état actuel des choses, l’analyse par électrophorèse des sérums de la plupart des animaux sans germes montre une diminution très considérable de la plupart des globulines, surtout des gamma-globulines, avec une augmentation compensatrice des albumines. Il faut noter cependant que
- 1. Rappelons que les anticorps sont des substances qui interviennent dans la lutte de l’organisme contre les microbes et les corps étrangers. Ils sont élaborés par l’animal sous l’influence de substances étrangères (principalement des protéines) qui sont alors appelées des antigènes, chaque anticorps agissant sur l’antigène qui a provoqué sa formation. Des bactéries tuées peuvent garder leur pouvoir antigénique et induire la formation d’anticorps qui agissent contre les mêmes bactéries vivantes. Une des manifestations de ces anticorps consiste souvent en une agglutination des corps étrangers (microbes, hématies, etc.) par l’effet d’anticorps appelés agglutinines. Une hétérohémagglutinine est une agglutinine qui agit sur les hématies (globules rouges) provenant d’un animal d’une autre espèce. Le complément (ou alexine) et la properdine sont des constituants du sérum sanguin qui interviennent dans les processus de destruction des hématies étrangères ou de certains microbes.
- Fig. J et 6. — Manipulation à l’intérieur d’un isolateur.
- Par-dessus les gants noirs fixes qu’il a retournés et qui recouvrent ses avant-bras, l’opérateur a mis d’autres gants, mobiles, de matière plus « douce » qu’il a trouvés à l’intérieur, et avec lesquels il manipule animaux et objets. Il a enlevé le couvercle de l’une des cages.
- (.Photos A. D. P.).
- 189
- p.189 - vue 190/560
-
-
-
- les gamma-globulines ne disparaissent pas entièrement,, sauf chez le cobave (2).
- Au niveau du sang circulant, le fait dominant est une: modification des proportions des différentes catégories de cellules sanguines (formule sanguine) : on note une diminution du nombre des lymphocytes et des monocytes qui sont deux à trois fois moins nombreux, alors que le nombre et la répartition des polynucléaires ne sont pas modifiés. Cependant ces faits sont surtout notés chez le poulet et beaucoup moins chez le rat.
- Glimstedt a signalé l’absence de certaines formations tissulaires, appelées nodules secondaires, dans la rate et les ganglions lymphatiques du cobaye sans germes à l’âge de 30 à 60 jours, alors que chez le cobaye classique du même âge les nodules secondaires sont généralement présents dans les ganglions lymphatiques et souvent absents, dans la rate...
- Tels sont les faits les plus saillants. Il est évident que malgré les très importants travaux qui lui sont consacrés,, l’étude de l’animal sans germes est encore très incomplète : anomalie au niveau du cæcum, absence de reproduction chez le cobaye et le lapin, état nutritionnel déficient chez ce dernier, différences observées entre les diverses espèces animales au sujet des modifications subies dans les protéines des sérums, dans la formule sanguine, etc., attendent d’être expliqués.
- L’animal sans germes en tant que réactif expérimental
- Isoler un fait, dans le but de l’étudier, est un acte fondamental de toute recherche scientifique. Le microbiologiste qui désire étudier une espèce bactérienne isole celle-ci,, à l’état de culture pure. L’animal sans germes peut être défini comme un animal « en culture pure », par opposition à l’animal classique, qui est un complexe animal-microbes. On conçoit dès lors que l’animal sans germes ne peut plus être seulement un objet de curiosité, mais qu’il devient le sujet d’expérience indispensable à de nombreuses recherches biologiques fondamentales.
- En contaminant un animal sans germes par une seule espèce microbienne (mono-contamination), il est possible d’étudier le pouvoir pathogène de ce microbe sans que le tableau soit brouillé par l’existence d’une flore microbienne indésirable. Il est donc possible de connaître le pouvoir pathogène réel d’un microbe, alors que chez l’animal classique on ne peut savoir si ce pouvoir pathogène n’est pas le résultat d’une association avec d’autres agents préexistants, ou au contraire si l’absence de pouvoir pathogène n’est pas le résultat d’un mécanisme d’interférence entre cet agent et cette flore, ou d’un état quelconque d’immunité acquise.
- Déjà en 1912 Cohendy avait remarqué que le cobaye sans germes est sensible à une infection de vibrions du choléra, alors que le cobaye classique est résistant. D’autres exemples sont venus s’ajouter depuis. L’ingestion du
- z. Uélectrophorèse est une technique de séparation fine, fondée sur le déplacement des molécules chargées dans un champ électrique, où elles se déplacent à des vitesses différentes selon leur taille. Globulines et albumines sont des protéines globulaires (molécule en forme de globule) ; les globulines contiennent, parmi leurs acides aminés constitutifs, du glycocolle ou acide amino-acétique, alors que les albumines n’en contiennent pas ou en contiennent très peu. Les gammaglobulines, ou immunglobulines, ne se rencontrent que dans le sérum des mammifères et elles ont des propriétés d’anticorps ; le sérum des animaux très jeunes n’en contient pas ou n’en contient que très peu ; elles apparaissent au cours de la croissance.
- p.190 - vue 191/560
-
-
-
- microbe Shigella flexnerii détermine chez le cobave sans germes une infection rapidement mortelle. Au contraire, le cobaye mono-contaminé par une souche àdEscherichia coli (colibacille) non pathogène est résistant à une ingestion ultérieure de Shigella flexnerii. Après ingestion, le bacille du typhus (Salmonella typhi) se multiplie d’une façon remarquable dans le tube digestif de la souris ainsi « mono-contaminée », mais cette multiplication n’est suivie d’aucun trouble. L’inoculation dans le cæcum du cobaye sans germes de l’amibe Entomœba histolytica n’est suivie d’aucun trouble et les amibes disparaissent rapidement. Par contre, si le cobaye est au préalable mono-contaminé par un Escherichia coli, il y a formation d’ulcères et une maladie évolutive se développe. Certains régimes alimentaires qui déterminent des caries dentaires chez le rat classique ne déterminent aucun trouble de cette nature chez l’animal sans germes ; si celui-ci est mono-contaminé par certaines bactéries, les caries apparaissent. L’inoculation sous-cutanée de souches virulentes de Trichomonas vaginalis à des cobaves classiques n’est suivie d’aucune lésion ; au contraire, chez le cobaye sans germes, l’inoculation de ces souches crée un abcès. Certains parasites de la souris, tels que Nematosperoides chtbius, ont été capables d’un cycle évolutif complet chez le cobaye germ free, chose tout à fait exceptionnelle, et irréalisable chez le cobaye classique. Il y a quelques observations, malheureusement incomplètes, selon lesquelles des virus se sont développés chez le sujet sans germes et non chez le sujet homologue classique.
- Reyniers a fait l’étude d’une tumeur maligne, un fibrosarcome provoqué par l’injection d’une substance cancérigène, le méthylcholantrène, chez le poulet sans germes. Ce fibrosarcome est transmissible au poulet sans germes par inoculation de broyât de la tumeur ou de filtrat obtenu sur filtres grossiers (plusieurs microns). Le filtrat obtenu sur filtre fin (inférieur au micron) produit, par inoculation, une maladie cachectisante aboutissant à la mort sans formation de tumeur et transmissible en série. La même tumeur peut être obtenue par injection de méthylcholantrène chez le poulet classique, mais il est impossible de passer cette tumeur d’un sujet classique à un autre par broyât ou par filtrat grossier, et les filtrats fins ne leur confèrent pas la maladie cachectisante observée chez les sujets sans germes.
- Tous ces exemples montrent que le comportement d’agents très divers (bactéries, parasites, virus, tissus cancéreux) n’est pas le même chez le sujet classique et chez le sujet sans germes. Ce dernier présente donc un intérêt considérable pour l’étude du pouvoir pathogène de ces agents.
- L’étude des infections latentes à virus, qui ne s’accompagnent, au moins temporairement, d’aucun symptôme apparent, est un problème important de la microbiologie moderne. Or il est évident que pour être à même d’étudier ces infections, il est indispensable d’isoler le sujet infecté de toute contamination ultérieure par ce virus ; faute de quoi il peut être difficile d’affirmer la persistance de ce virus dans l’organisme. L’animal sans germes, étant donné son isolement très strict du monde extérieur, l’absence de flore microbienne intestinale et donc d’effets inhibiteurs de la part de cette flore, peut être utile à ces études ; en particulier l’étude de ces particules de 20 millimicrons et moins que l’on rencontre dans les tissus en voie de prolifération, notamment dans les tissus cancéreux, et dont la
- nature n’est pas entièrement élucidée, en bénéficiera, ainsi que le suggèrent les travaux récents de Reyniers.
- Existe-t-il donc des virus latents chez l’animal dit « sans germes » ? La question est d’importance car elle revient à savoir si l’animal sans germes existe vraiment ou si ce que nous appelons aujourd’hui animal sans germes n’est qu’une étape, importante, mais non définitive, vers un idéal encore éloigné. Il est pratiquement impossible de répondre d’une manière assurée à cette question. Il semble bien que des anticorps envers certains virus, virus de Kilham du rat, virus du polyome de la souris, soient présents. Mais la preuve directe, celle qui consiste à isoler le virus en culture de tissus, est très difficile à faire : la seule méthode qui soit à l’abri de toute critique consiste à faire des cultures de tissus à partir de ceux de l’animal sans germes, et ceci à l’intérieur de l’isolateur, ce qui pose de graves problèmes techniques. En dernière analyse, c’est le problème même de 1 'origine endogène des virus qui se trouve posé : certains virus n’ont-ils pas pour origine l’animal lui-même ?
- Il est un autre domaine fort important dans lequel l’animal sans germes est appelé à jouer un rôle considérable : c’est celui de la nutrition et en particulier de la physiologie de la nutrition. Il est difficile d’étudier le métabolisme de certaines vitamines du groupe B, ou de la vitamine K, dont certaines bactéries de l’intestin font la synthèse. De très nombreux sujets ont déjà été étudiés ou sont à l’étude : synthèse des composés méthylés labiles, métabolisme des acides biliaires, de la vitamine K, relation entre le métabolisme de la vitamine C et de la vitamine Bx, action compensatrice de la pénicilline-procaïne sur une carence partielle en vitamine Bl5 mode d’action des antibiotiques dans l’amélioration du rendement alimentaire, etc.
- Le radiobiologiste trouve en l’animal sans germes un sujet d’expérience chez lequel l’effet des radiations peut être étudié sans que les complications infectieuses qui sont de règle chez le sujet classique viennent compliquer sa tâche, sinon la rendre impossible.
- *
- * *
- Voilà donc quelques exemples destinés à illustrer l’intérêt que présente pour la biologie moderne l’animal sans germes. Déjà, grâce à lui, certains problèmes ont été résolus. Mais il est heureux que, grâce à lui aussi, de très nombreux problèmes se posent auxquels peut-être les biologistes n’auraient jamais songé. Que sont donc ces corps de Kur-loff que depuis toujours nous observons dans les lymphocytes et les monocytes des cobayes, mais qui sont absents chez le cobaye sans germes ? Qui donc s’intéressait à la physiologie du cæcum avant que ne paraisse l’animal sans germes ? Et n’étions-nous pas tellement habitués à l’existence de la flore microbienne du tube digestif que nous négligions d’en envisager toutes les conséquences ? Qu’y a-t-il de changé dans le tissu sous-cutané du cobaye sans germes pour que Trichomonas vaginalis soit capable d’y proliférer et d’y créer une lésion ? En vertu de quels mécanismes le fibrosarcome qui se développe chez le poulet sans germes possède-t-il des propriétés différentes de celui que l’on observe chez le poulet classique ? Ce sont les premiers pas dans un monde inexploré.
- E. Sacquet,
- Docteur vétérinaire,
- Service de Pathologie du Centre de Sélection des animaux de laboratoire.
- 191
- p.191 - vue 192/560
-
-
-
- Le Baccalauréat « électronique »
- veut garantir par Gabriel Barrière
- une plus grande équité
- Le mot « baccalauréat » est d’origine médiévale. Dès la fin du xvie siècle, c’était le premier grade conféré aux étudiants par les Universités. Sous sa forme moderne, le baccalauréat (ès lettres et ès sciences) a été institué sous Napoléon par le décret du 17 mars 1808 créant l’Université Impériale : il était à la fois la sanction des études faites dans les classes terminales des lycées et la condition d’admission dans les facultés (Lettres, Sciences, Droit, Médecine), caractères fondamentaux qu’il a conservés jusqu’à nos jours.
- Durant plus de 150 ans, le baccalauréat a subi de nombreuses transformations. A l’origine, l’examen était oral ; par la suite, il a été doté d’épreuves écrites (1830, 1840, 1864), puis scindé en deux parties (1874). En 1890, le baccalauréat ès sciences, qui n’était que le complément du baccalauréat ès lettres, en est devenu indépendant. La réforme de 1902 a réalisé l’égalité entre les sections de l’enseignement secondaire et a donné la même valeur à toutes les séries et options du baccalauréat qui a reçu le titre officiel de baccalauréat de l’enseignement secondaire. Les programmes des études ont été modifiés en 1925, 1941, 1945, d’où des changements dans les options offertes aux candidats. En 1945 ont été créées des séries techniques.'
- Pendant de longues années, jusqu’en 1959, les examens du baccalauréat comportaient deux sessions annuelles (juin et septembre) avec épreuves écrites et orales, seuls les candidats déclarés « admissibles » à l’écrit étant habilités à se présenter à l’oral. En i960, les deux sessions ont eu lieu en février et en juin, ne comportant que des épreuves écrites comptant pour 1 ’admission. Les résultats ayant été décevants, le Ministère de l’Éducation Nationale dut créer une session spéciale en septembre i960, dite « de contrôle », ne comportant que des épreuves orales. Enfin, pour juin 1961, il n’est prévu, pour les deux parties du baccalauréat et pour toutes les séries, qu’une seule session avec épreuves écrites (une épreuve orale de ire langue vivante dans les séries B, M, M' et tech. B de la ire partie), les candidats proches de l’admission (moyenne supérieure à 7 sur 20) étant déférés à un « oral de contrôle ». Toutes les épreuves (écrites, orales, facultatives) doivent trouver place entre le lundi 12 juin et le vendredi 30 juin 1961 inclus, y compris le temps nécessaire pour la correction des copies, soit 19 jours au total, dont trois dimanches.
- Dans notre organisation universitaire actuelle, le baccalauréat occupe une place éminente car il est la condition de
- l’accès à l’enseignement supérieur et, par les diplômes de cet enseignement, aux situations socialement élevées et à la direction des grandes activités nationales. Jusqu’à présent, les tentatives faites pour ouvrir les facultés aux non-bacheliers ont été illusoires. Les candidats (garçons et filles) au baccalauréat sont de plus en plus nombreux : pour la France entière, en 1950 : 72 420 (Académie de Paris : 19 500) ; en i960 : 205 320 (Académie de Paris : 51 260). Quant aux séries et aux options, elles se sont multipliées d’une manière excessive : huit séries pour la 1re partie (A, A’, B, C, M, M’, tech. A, tech. B), cinq séries pour la 2e partie (philosophie, sciences expérimentales, mathématiques, mathématiques et technique, technique et économique). Les options portent sur deux langues mortes (latin, grec), huit langues vivantes pour épreuves obligatoires, trente-deux langues pour épreuves facultatives, quatre dialectes locaux ; musique, dessin, éducation ménagère. Rien qu’en tenant compte des séries, il y a 8 x 5 = 40 manières de passer le baccalauréat. Si l’on fait intervenir les options, on trouve 28 440 manières de passer la première partie et 12 856 de passer la seconde !
- Le baccalauréat est donc devenu un examen extrêmement compliqué, exigeant une très importante organisation matérielle pour les 16 académies de la France métropolitaine, les académies d’Alger et de Dakar, et les quelque 60 centres d’examen dans les départements d’Outre-Mer, les pays de la Communauté et les pays étrangers. Bien entendu, c’est dans l’Académie de Paris que les difficultés atteignent leur maximum. Son territoire s’étend sur neuf départements : Seine, Seine-et-Oise, Seine-et-Marne, Oise, Marne, Eure-et-Loir, Loiret, Loir-et-Cher, Cher ; il renferme environ 20 pour 100 de la population française et environ le quart des candidats au baccalauréat. Pour examiner ces candidats, il faut faire appel à plus de 2 800 professeurs groupés en quelque 470 jurys de ire et de 2e parties et aménager 60 centres d’examen.
- Électronique et anonymat
- Du fait du nombre des candidats, les procédés manuels familiers aux administrations universitaires sont aujourd’hui dépassés. En 1953, l’inspecteur général honoraire Lucien Chattelun, alors directeur du Service central du Baccalauréat de l’Académie de Paris, s’est orienté vers les méthodes électrocomptables qui utilisent des machines
- 192
- p.192 - vue 193/560
-
-
-
- électroniques de plus en plus perfectionnées. La raison fondamentale de son choix a été, non seulement la grande facilité de maniement et de classement des dossiers résumés et condensés dans des cartes perforées, mais surtout et avant tout l’obtention d’une impartialité aussi rigoureuse que possible. Dans le climat moral de notre pays, l’autorité académique et les jurys universitaires ne peuvent être soupçonnés de favoritisme ; tous les candidats aux examens et concours organisés par l’État ont un droit absolu à Yimpartialité (traitement égal pour tous) et à Yéquité (épreuves écrites et questions orales judicieusement choisies dans les matières du programme, ni trop faciles, ni trop difficiles). L’article 3 du décret du 7 août 1927 est formel : « Les correcteurs des compositions ne doivent pas connaître les noms des candidats dont ils corrigent les copies. » L’antique procédé qui consiste à rabattre un coin noir gommé de la copie sur les nom et prénoms inscrits par le candidat est illusoire ; ces nom et prénoms peuvent apparaître si l’on place derrière la copie une forte source lumineuse. Le procédé correct consiste à détacher de la copie un volet portant les nom et prénoms avec le numéro de table d’après lequel le candidat est répertorié et à porter sur la copie remise au correcteur un numéro d’anonymat.
- Antérieurement, pour obtenir ce numéro d’anonymat, on faisait subir au numéro de table un décalage de ffi 100, de ± 10, de ± i, procédé enfantin. Même en multipliant les décalages et en les compliquant, le secret ne tardait pas à être percé ; bien des correcteurs étaient l’objet de sollicitations fort indiscrètes et inadmissibles. L’anonymat impénétrable, efficace et rapide, a été réalisé par la Cie I. B. M. France au moyen de ses machines électroniques qui établissent une correspondance arbitraire, fondée sur le hasard, entre les numéros de table et les numéros d’anonymat. A cet effet, la Cie I. B. M. France a pris un ensemble de 50 000 cartes perforées numérotées de 00 001 à 50 000 et les a détriées systématiquement au moyen de ses trieuses électroniques, en retirant par exemple des cartes dont le chiffre des unités est 5, puis le chiffre des dizaines est 3, puis le chiffre des centaines est 4, etc. et en les reclassant à d’autres places, puis en opérant des brassages très variés, comme on fait en petit quand on mélange 32 ou 52 cartes à jouer. Le succès a été complet et l’anonymat ainsi obtenu s’est montré impénétrable. La méthode de l’anonymat électronique a été appliquée à partir de juillet 1953.
- Électronique et report des notes
- La réalisation de l’anonymat électronique a conduit rapidement le Service du Baccalauréat à doter chaque candidat d’une carte perforée portant, avec ses nom et prénoms, son numéro de table, son numéro d’anonymat et les indications concernant la partie, la série et les options choisies, par exemple : ire partie, série M (moderne) ; première langue vivante : anglais ; deuxième langue : allemand. A partir de cet ensemble de cartes, il est très facile d’établir des bordereaux de répartition des candidats dans les divers centres d’examen suivant les parties, les séries, les options et l’ordre alphabétique des noms, sans distinction d’origines (Paris, banlieue, départements) et d’organiser ainsi les jurys. Les tabulatrices électroniques alpha-numériques ont épargné un travail matériel considérable.
- Il était naturel de compléter ces bordereaux, qui servent aux jurys pour les délibérations d’admissibilité (jusqu’en 1959
- inclus) et à’admission (à partir de i960), en procédant sur eux au report électronique des notes données par les correcteurs aux compositions écrites.
- Voici comment on opère pour le report manuel. Les notes sont inscrites sur les copies par les correcteurs qui se constituent en jurys, suivant les indications qu’ils ont reçues, le jour de la délibération. Ils apportent les copies qu’ils ont corrigées ; ils ont eu soin de reporter les notes sur un état récapitulatif en face des numéros d’anonymat classés par ordre croissant. A l’appel de chaque numéro de table suivi du numéro d’anonymat correspondant, les examinateurs-correcteurs annoncent les notes qu’ils ont attribuées. Deux examinateurs inscrivent ces notes sur deux bordereaux préparés à l’avance, portant les numéros de table, les numéros d’anonymat, les noms et prénoms des candidats et des lignes ou colonnes en nombre égal à celui des compositions écrites. Les inscriptions sont faites en double pour permettre le contrôle ; les notes sont totalisées et les totaux vérifiés.
- Le report manuel des notes est long, fastidieux, accompagné de nombreuses erreurs malgré l’attention des examinateurs et la tenue en double des deux bordereaux. Il faut compter deux heures et demie pour le report et le colla-tionnement, les additions et leurs vérifications. Les jurys de première partie doivent juger 120 candidats, ceux de seconde partie 165 ; réunis à 8 h, ce n’est guère qu’à partir de 10 h 30 qu’ils peuvent délibérer sur les cas litigieux et décider de l’admission (antérieurement : de l’admissibilité) des candidats n’ayant pas obtenu pour l’ensemble de leurs compositions la moyenne prescrite, mais s’en rapprochant dans les limites fixées par les règlements. La délibération est parfois très laborieuse, les candidats admis d'office (total des notes égal ou supérieur à la moyenne) étant relativement peu nombreux, 10 à 20 pour 100 des inscrits ; les autres candidats sont admis en considération de leur livret scolaire, ou renvoyés, à partir de juin 1961, à 1’ « examen oral de contrôle », ou éliminés. Dans l’ancien système, les délibérations d’admissibilité se terminaient rarement avant 12 h. Il est à craindre que les futures délibérations à'admission se prolongent tout l’après-midi, car les décisions prises porteront sur six ou sept compositions écrites au lieu de trois ou quatre (avant i960) ; la session de septembre étant supprimée, elles auront en outre un caractère définitif (sous réserve de 1’ « examen de contrôle » de fin juin 1961 dont
- 11 est vain de préjuger).
- Depuis longtemps, les examinateurs s’étaient plaints auprès des directeurs des Services du Baccalauréat de leurs académies du temps gaspillé par le report manuel des notes. En juin-juillet 1954, le directeur Lucien Chatellun a fait procéder à une expérience étendue de report électronique des notes portant sur 100 jurys de première partie avec
- 12 000 candidats, expérience qui a donné d’excellents résultats. Les correcteurs étaient munis de cartes perforées à graphite,r, une par copie à corriger, portant en perforations la série, l’épreuve, le numéro du jury et le numéro d’anonymat. Les notes étaient graphitées au moyen de trois traits de crayon au graphite tracés dans trois colonnes : dizaines, unités, dixièmes, avec les chiffres o, 1, 2, 3,4, pour marquer les dizaines, les chiffres o à 9 pour marquer les unités, les chiffres o et 5 pour marquer les dixièmes. Les correcteurs pouvaient donc noter une copie de 0,0 à 40,0 par demi-points (voir la figure 1) et inscrivaient en chiffres arabes la note dans un cercle.
- Les cartes ainsi graphitées étaient ensuite reprises par des
- 193
- p.193 - vue 194/560
-
-
-
- r £ preuve ( n? jury ">
- J V
- r N? ANONTMA T 'l
- V_____________
- \T\ INSCRIRE DANS LE CERCLE Cl-CONTRE LA NOTE DÉFINITIVE DEJA ECRITE DANS LE CERCLE, SUR LA COPIE
- A0 T^V\ [F] GRAPHITER ENSUITE CETTE J NOTE Cl-CONTRE SELON L ES
- . J INSTRUCTIONS DONNEES
- RECOMMANDATIONS POUR LC GRAPHITAGE
- — m'utiliser O'uh chaton NOIR tr GRAS (a l txclut/on oincxc cr os sttlo a b/llc )
- — EN CAS 0 LPRIUR , CONMCH TACS SOKNCUSCMCNT, '
- -CRAYONNER 1 thaï T FA H COLON,MC , MODE R EM { N T, SUA S OPA A CE DURE
- Omet CENTBAl DU BACCALAUREAT _ U DO
- Fig- i- — Carte perforée à graphiter pour la notation au baccalauréat (expérience de juin-juillet 1959).
- Les indications de série, épreuve, numéro du jury, numéro d’anonymat du candidat, qui sont écrites dans les rectangles correspondants, figurent également sous forme de perforations (ici non visibles) qui permettent le tri par les machines spéciales. Le correcteur inscrit la note dans le cercle (au centre) et au moyen d’un crayon noir et gras il l’indique également en portant un trait dans un des petits rectangles de chacune des trois colonnes (à droite) ; la machine électronique pratiquera sur cette même carte des perforations correspondant à la note ainsi indiquée. Explications complémentaires dans le texte.
- machines électroniques à balais-palpeurs. Les traits de graphite tracés par ies correcteurs court-circuitaient les deux conducteurs des balais-palpeurs reliés aux deux bornes d’un générateur de courant et commandaient des perforations reproduisant les chiffres quand les cartes perforées étaient reprises par des tabulatrices alpha-numériques. Les notes obtenues par les candidats relevant d’un même jury étaient reportées et totalisées sans intervention humaine sur les bordereaux cités plus haut, chefs-d’œuvre de clarté et de parfaite présentation. Des astérisques signalaient les candidats ayant obtenu un total inférieur à la moyenne ou ayant encouru une note éliminatoire, pour étude ultérieure de leurs cas par le jury. Les candidats admissibles étaient signalés par la notation Adm. Le gain de temps par séance de délibération était de 2 h 30 environ pour 4 examinateurs. Les erreurs de transcription, dues uniquement à des fautes commises par les correcteurs dans le graphitage et décelées par un collationnement préalable, sont tombées à moins de 2 pour 1 000 contre 5 à 8 pour 100 dans le report manuel.
- Cette expérience a amené l’inspecteur d’Académie René Échard, successeur de M. Lucien Chattelun à la Direction du Service du Baccalauréat de l’Académie de Paris à partir d’octobre 1956, à généraliser le report électronique des notes pour tous les jurys des deux parties dans toutes les séries à partir de juillet 1957. Mais, pour donner satisfaction aux réclamations de divers examinateurs qui trouvaient le « graphitage » trop compliqué, les notes étaient inscrites en chiffres usuels dans le cercle de chaque carte et des mécanographes effectuaient les perforations
- correspondant à ces chiffres. Cette opération supplémentaire qu’évitaient les cartes graphitées a imposé un délai de trois à quatre jours entre la fin de la correction des copies et les séances de délibération, nuisant gravement au baccalauréat « électronique ». Tout le monde sait qu’à présent les releveurs des compteurs de gaz et d’électricité opèrent par graphitage avec un pourcentage d’erreurs négligeable ; les factures combinées d’Électricité et de Gaz de France sont établies directement par des machines électroniques à partir desdites cartes graphitées, sans vérification ni intervention humaine.
- Électronique et comparaison des échelles de notation
- La tâche essentielle des examinateurs est la correction des compositions écrites puisque, à partir de i960, les épreuves orales sont supprimées comme alourdissant trop le baccalauréat ; les « oraux de contrôle » doivent avoir un caractère exceptionnel. Les corrections se traduisent par des notes chiffrées s’échelonnant en général entre o et 20, parfois multipliées par un coefficient entier compris entre 1 et 7. Rappelons que dans l’échelle o à 20 : zéro veut dire : nul ; deux : très mauvais ; quatre : mauvais ; six : faible ; huit : médiocre ; dix : passable ; douze : asse^ bien ; quatorze : bien ; seize : très bien ; dix-huit : excellent ; vingt : parfait.
- C’est une grave erreur de croire que les notes chiffrées sont une mesure précise du savoir ou de la valeur des candidats ; ce sont de simples appréciations comme « passable », « assez bien », etc., qu’elles remplacent, très variables d’une épreuve à une autre suivant les examinateurs et les candidats. Ce qui justifie ces notes chiffrées, c’est la possibilité de les soumettre à une vérification statistique.
- Rappelons que toute mesure que l’on effectue sur un grand nombre d’individus d’une population homogène (et c’est même là la définition de l’homogénéité d’une population) obéit à une distribution dite normale, qui se traduit par une courbe dite en cloche, ou courbe de Laplace-Gauss. Supposons que l’on mesure la taille d’un certain nombre
- p.194 - vue 195/560
-
-
-
- d’hommes adultes d’une telle population. Portons en abscisses la mesure de la taille (arrondie en centimètres) et en ordonnées la fréquence de chaque mesure (c’est-à-dire le nombre d’individus qui présentent cette même taille). On obtient une distribution analogue à celle de la figure 2. Si on trace une ligne qui dessine le contour des fréquences, on obtient une courbe très voisine de la courbe en cloche ; plus la population sur laquelle on fera les mesures sera grande, plus la distribution se rapprochera de la distribution dite normale, et plus la courbe s’ajustera à la courbe en cloche idéale définie par les statisticiens.
- Appliquons cette méthode à l’examen des fréquences des notes conférées par des examinateurs à des populations, supposées homogènes, de candidats. Si un seul examinateur corrige un certain nombre de copies de même nature (compositions faites pour un même examen sur le même sujet, le même jour, dans les mêmes conditions, par des candidats préparés dans des conditions équivalentes), on
- inflexion (c’est-à-dire où sa pente cesse d’augmenter pour commencer à diminuer, ou inversement) (fig. 2). L’écart-type est fourni par un calcul qu’il est sans intérêt de reproduire ici. Notons seulement qu’il mesure en l’occurrence le degré de dispersion des notes. S’il est trop élevé, on peut soupçonner que les notes ont été à la fois trop basses pour les candidats médiocres, trop élevées pour les meilleurs ; inversement, un écart-type trop faible peut révéler une trop grande uniformité dans la façon de noter.
- Il nous reste à voir comment ces comparaisons peuvent être mises à profit.
- L’étude scientifique des examens a été faite par MM. Pié-ron, Laugier et leurs collaborateurs (Études docimologiques sur le perfectionnement des examens et des concours, Le Travail humain, série A, n° 3, 1934). Ils ont créé à cette occasion le mot docimologie pour désigner la science des examens et le mot docimastique pour qualifier celui qui examine correctement. Il faut reconnaître que les exami-
- Taille (cm)
- écart
- type
- Fig. 2. — Fréquences des différentes valeurs de la taille dans un groupe de 190 hommes adultes d’une population homogène.
- En a, « histogramme » de la taille : chaque trait représente un individu ; en abscisses, les valeurs successives de la taille, arrondies en centimètres ; en ordonnées, la fréquence des individus pour chaque valeur de la taille. En b, la courbe de fréquence ajustée à l’histogramme. L’écart-type représente la différence d’ordonnée entre la taille la plus fréquente et celle qui, de part et d’autre, correspond au point d’inflexion de la courbe en cloche (D’après E. Schreider,
- La biométrie, collection Que sais-je ?)
- doit retrouver une courbe analogue à la courbe en cloche en portant en abscisses la note attribuée sous forme d’un nombre entier de points entre o et 20, et en ordonnées, pour chaque note, le nombre de copies qui ont reçu cette note. La courbe expérimentale ainsi obtenue peut différer plus ou moins de la courbe en cloche idéale. Les figures 4 et 5 montrent des exemples où elle en diffère de façon notable. On peut utilement comparer entre elles les courbes obtenues pour différents examinateurs ayant corrigé des copies de même nature dans une même session. La comparaison se fera surtout en considérant la moyenne arithmétique des notes et Y écart-type de leur distribution défini dans les cours de statistique (voir la figure 2).
- Si la courbe en cloche est symétrique, comme dans la « distribution normale », la moyenne arithmétique des notes se confond (au moins à peu de chose près) avec la note le plus souvent donnée, qui correspond au sommet de la courbe ; elle peut également en être très proche dans des distributions qui s’éloignent assez de la normale (fig. 4) ou en être au contraire différente (fig. 5). La valeur de la moyenne arithmétique des notes conférées par un examinateur dans une épreuve, comparée à la moyenne générale des notes conférées par tous les jurys dans la même épreuve (jurys « en parallèle »), donne immédiatement une idée de la « sévérité » ou de l’« indulgence » de cet examinateur.
- Quant à Y écart-type, rappelons qu’il représente la mesure de l’écart qui existe entre l’abscisse du point le plus haut de la courbe et l’abscisse du point où la courbe subit une
- nateurs « docimastiques » ne sont pas en majorité : l’état physique et mental d’un examinateur réagit fortement sur les notes qu’il attribue, même quand il fait tout son possible pour être équitable et constant dans sa façon de noter.
- L’expérience montre que les « courbes en cloche » relatives aux divers examinateurs se ressemblent beaucoup dans leur allure générale et même qu’elles se rapprochent quelquefois de la courbe idéale quand les lots de candidats sont homogènes et quand les énoncés ou sujets des épreuves sont judicieusement choisis. Mais des différences remarquables apparaissent souvent dans les moyennes et dans la dispersion des notes (écart-type). L’abscisse du maximum (note
- même moyenne même dispersion
- dispersions différentes moyennes différentes
- JF7ig. J. — Comparaison de courbes de fréquence.
- Toutes ces courbes correspondent à un même nombre de mesures. A gauche, la courbe de forme plus aplatie (dispersion plus grande des valeurs) a un écart type plus grand (le point d’inflexion se place plus bas).
- (D’après A. Vessereau, La statistique, collection Que sais-je ?).
- 195
- p.195 - vue 196/560
-
-
-
- I
- 10 11 12 13 14 15 16 17 18 19 20
- Notes de 0 à 20
- Fig. 4. — Exemple de dispersion des notes conférées par un examinateur à 124 copies (Baccalauréat Mathématiques, composition de physique, juin i960, 16e jury).
- Chaque note représente une copie. En abscisses, les notes de o à 20 ; en ordonnées, la fréquence de chaque note. Certaines notes, très mauvaises ou très bonnes, ont été trop souvent conférées pour trouver place dans la courbe en cloche normale. Cependant, la moyenne arithmétique de toutes les notes se confond pratiquement ici avec la note la plus souvent donnée.
- le plus fréquemment octroyée par l’examinateur, qui ne se confond pas toujours avec la moyenne arithmétique, comme sur la figure 5) présente d’une courbe à l’autre des écarts qui peuvent être notables : 2, 3 et jusqu’à 4 points (voir la figure 6). On voit à l’évidence que les échelles de notation utilisées par les différents correcteurs de la même spécialité ne sont pas identiques. Sur un maximum de 20 points, tels notent entre o et 18 (grand écart-type), d’autres entre 4 et 16, d’autres entre 8 et 12 (écart-type très réduit). Certains ne mettent jamais de notes supérieures à 10, d’autres attribuent au moins 12 ; certains affectionnent la note 13, que d’autres ont en horreur ! Beaucoup se contentent de noter sur 20 à un point ou à un demi-point près ; quelques-uns se déclarent très rigoureux et notent au quart de point ou même au dixième de point, précision absolument illusoire. Par une longue pratique et souvent sans s’en rendre compte, bien des examinateurs se sont fait leur échelle de notation personnelle, cependant variable avec le temps et les circonstances, en accord ou en désaccord plus ou moins accentué avec les échelles personnelles de leurs collègues.
- Pour faciliter et rendre homogène la correction de chaque épreuve et pour réduire les écarts de notation tant entre les divers jurys « en parallèle » de chaque académie que dans l’ensemble du pays, il faut recourir à un ensemble de moyens
- cohérent. Depuis juin 1954, le ministre de l’Éducation Nationale a ordonné l’institution d’un groupe de sujets et d’énoncés uniques pour l’ensemble de la France métropolitaine. Mais cela ne suffit pas : il faut établir pour chaque composition soit un barème national de correction (pour les compositions scientifiques avec questions de cours et problèmes), soit des instructions-types (pour les compositions littéraires), barèmes et instructions élaborés et mis au point par une commission nationale et notifiés ensuite aux examinateurs.
- En outre, dans chaque académie, trois procédés successifs peuvent et doivent être employés. En premier lieu, informer les examinateurs. Certains, tout en corrigeant avec la plus grande conscience, ne soupçonnent même pas les écarts entre les notes qu’ils donnent et celles qui sont attribuées par leurs collègues de la même spécialité opérant dans des jurys « en parallèle ». Les services du baccalauréat, en tête celui de l’Académie de Paris, s’attacheront de leur mieux à le leur révéler.
- En second lieu, conseiller aux examinateurs de construire pour leur lot de copies la « courbe en cloche » et de revoir les notes qui refusent de s’inscrire dans la courbe symétrique classique. Cette méthode est d’usage courant pour toutes les épreuves du concours d’admission et pour le classement
- Fig. J. — Exemple de dispersion des notes conférées par un examinateur à 155 copies (Baccalauréat Mathématiques, composition de physique, juin 1958).
- Mêmes conventions que pour la figure 4, mais les notes ont été données de o à 10 par demi-points, et affectées du coefficient 3. En trait plein, la courbe expérimentale : tous les points qui figurent à l’intérieur de cette courbe correspondent aux notes effectivement données. On voit que la note la plus souvent donnée (15) est différente de la moyenne arithmétique (13,57). En trait interrompu, la courbe en cloche normale entre les mêmes notes extrêmes, o et 27. Les points qui y figurent correspondent à ce qu’auraient été les fréquences de chaque note dans cette distribution normale.
- 196
- p.196 - vue 197/560
-
-
-
- des élèves à l’École Polytechnique. Elle a trouvé une large audience auprès de plusieurs professeurs de philosophie.
- En troisième lieu, soumettre à des comparaisons systématiques les courbes en cloche établies par les examinateurs de la même spécialité appartenant à des jurys « en parallèle ». La comparaison, ainsi que le contrôle rapide des copies corrigées, pourrait être confiée pour chaque épreuve à un ou deux professeurs proposés par leurs collègues ou désignés par le recteur de leur académie. Le rôle qui leur sera confié est fort délicat et exige beaucoup de tact. A Lyon depuis plusieurs années, un professeur de philosophie de la Faculté des Lettres assure Xharmonisation des notes attribuées aux dissertations philosophiques à l’entière satisfaction de ses collègues professeurs de lycée et examinateurs de philosophie au baccalauréat.
- Dans l’Académie de Paris, depuis juillet 1957, l’inspecteur d’Académie René Échard, directeur du Service du Bacca-
- lot de candidats soit supérieur ou inférieur à la moyenne. En second lieu, dans les ensembles relativement restreints tels que celui des copies soumises à un seul examinateur, la loi des grands nombres ne joue pas aussi inexorablement et on peut s’attendre à trouver des écarts notables par rapport à la courbe en cloche idéale, même si l’examinateur a parfaitement bien noté. L’examinateur, après avoir soigneusement revu les notes qu’il a données, peut donc conclure qu’il n’y a pas lieu de les modifier, même si elles ne paraissent pas s’harmoniser avec l’ensemble des notations qu’on lui révèle. Il n’en reste pas moins que la comparaison des moyennes et des courbes fera apparaître, très souvent, la nécessité de cette révision.
- Les cartes perforées se prêtent aux études statistiques les plus variées ; elles permettent de mesurer la sévérité ou l’indulgence de tous les examinateurs, d’apprécier la régularité de leurs notations, de les contrôler d’année en année et de les comparer à leurs collègues ; elles permettent aussi
- écart
- 9 10 11 12 13 14 15 16 17 18 19 20
- Fig. 6. — Comparaison entre les courbes en cloche relatives à trois examinateurs de la même spécialité dans trois jurys « en parallèle ».
- L’examinateur A a noté entre x et 19, avec une moyenne de 10. La « sévérité » de l’examinateur B-et 1’ « indulgence » de l’examinateur C ressortent clairement de la position de leurs courbes respectives.
- lauréat, fait calculer par les machines électroniques, au moyen des cartes perforées envoyées par les correcteurs avant les délibérations et pour le report électrique des notes, les moyennes des notes données à chaque épreuve dans les divers jurys « en parallèle » et les moyennes générales ; il fait également calculer les écarts-types. De sorte qu’en délibérant, les examinateurs des divers jurys savent s’ils sont plus « sévères » ou plus « indulgents » que leurs voisins et de quelle manière ils s’écartent des moyennes générales. Ces renseignements ont été précieux lors de la délibération d’admission du 2 juillet i960.
- Entendons bien qu’il ne s’agit pas dans tout cela d’obligations impératives. Il ne s’agit pas de faire rentrer, de gré ou de force, les notes d’un groupe de candidats quelconque dans le carcan de la courbe en cloche autour d’une valeur moyenne rigoureusement imposée.
- En premier lieu la « distribution normale » que représente la courbe en cloche idéale n’est réalisée que dans une « population homogène », c’est-à-dire en l’occurrence pour un ensemble de candidats provenant d’un même milieu et ayant des antécédents semblables (pour fixer les idées, une épidémie de grippe ayant retardé une partie des candidats dans leurs études pourrait faire apparaître un deuxième sommet de la courbe dans les notes basses). On peut donc admettre que, pour des raisons connues ou inconnues, tel
- des comparaisons entre les sessions successives du baccalauréat, les académies, les jurys, les notations suivant les spécialités (lettres et sciences).
- Convaincre les littéraires...
- On peut conclure que le baccalauréat « électronique », fruit d’une mise au point de sept années et de travaux considérables, est une importante amélioration du plus célèbre des examens français. Mais ce serait mal connaître l’Université et, plus particulièrement, les professeurs de lycée que d’escompter une opinion unanime de ses membres sur quelque question que ce soit. Le baccalauréat « électronique » a donc des partisans et des détracteurs ; il convient de passer brièvement en revue leurs arguments.
- Certains s’indignent de 1’ « anonymat » et y voient une offense à leur dignité ! Que leur servirait de lire sur une copie les nom et prénoms d’un candidat qui leur est parfaitement inconnu, en général ? Mais ils s’irritent quand, au cours de la correction des copies, un importun leur téléphone pour solliciter leur bienveillance en faveur d’un candidat toujours « des plus méritants » en précisant le numéro d'anonymat. Ils exhalent leur fureur... après avoir raccroché leur téléphone ! D’autres se plaignent du « tra-
- 197
- p.197 - vue 198/560
-
-
-
- vail supplémentaire » requis pour écrire les notes définitives de chaque candidat sur leur lot de cartes perforées en vue du report électronique. Mais avant 1954, ils se lamentaient en délibération du temps perdu dans le report manuel ou se trompaient dans leurs additions !
- Beaucoup se plaignent du temps nécessaire pour réaliser l’anonymat après la fin des épreuves écrites et pour établir les bordereaux d’admission après l’envoi des cartes perforées et avant les délibérations. Ils y voient une dangereuse menace pour les onze semaines de grandes vacances (du Ier juillet au 15 septembre). Ils oublient qu’un gain de trois jours aurait été réabsé s’ils avaient consenti à « graphiter » les cartes, comme le font les releveurs de compteurs de gaz et d’électricité.
- Quoi qu’il en soit, d’importants progrès sont concevables dans le baccalauréat « électronique », notamment une réduction très sensible dans la durée des opérations d’anonymat, progrès étudiés et prévus pour la session de juin 1962. D’ici là, les professeurs scientifiques finiront bien par convaincre leurs collègues littéraires de l’excellence des méthodes statistiques, des éminents mérites de la « courbe
- en cloche » et des avantages essentiels que présente pour le prestige et l’influence du corps des professeurs de lycée un baccalauréat, sinon irréprochable, du moins très amélioré dans les diverses académies et dans la France entière par l’harmonisation des notes et la suppression des divergences dans les manières de juger de jurys « en parallèle », divergences tellement flagrantes qu’elles ont fait l’objet de plaintes véhémentes des candidats et de leurs familles, reprises par les journaux dans des articles dépourvus de bienveillance envers le corps professoral. Les professeurs de sciences seront grandement aidés par leurs collègues philosophes qui n’ont pas oublié les plaintes portées en 1950 et 1951 contre les écarts de notation des dissertations philosophiques et qui, plus que les autres professeurs littéraires, connaissent le rôle capital de l’opinion publique, au moment où il s’agit de « revaloriser la fonction enseignante ».
- Gabriel Barrière,
- Ancien élève de l’École normale supérieure, Professeur agrégé honoraire de Sciences physiques au Lycée Condorcet.
- A bord des Texas Towers, sentinelles avancées des États-Unis
- Une des trois îles radar, plantées en avant-postes au large de la côte atlantique des États-Unis, a tragiquement sombré dans les flots le 16 janvier dernier. Le but de ces Texas Towers, ainsi nommées par les Américains pour leur ressemblance avec les plate-formes pétrolières du golfe du Mexique, ont un rôle bien défini dans l’organisation défensive du pays : détecter 5 à 7 minutes plus tôt que les stations radar de la côte les avions qui pourraient venir de l’Est. Bien qu’apparemment minime, ce gain de temps permet de déclencher avec une efficacité bien plus grande le dispositif d’interception.
- Toute l’activité de ces îles artificielles est donc centrée sur le fonctionnement de l’équipement radar. Les antennes se trouvent sur le plancher supérieur, assimilable au pont d’un navire, mais la plupart des services et des logements sont placés à l’abri, dans les deux étages intérieurs de la plate-forme. Notre photo représente une des opérations qui se répètent journellement : un membre de l’équipage de l’île (à gauche sur le cliché) reçoit par téléphone les informations recueilfies dans une autre salle sur l’écran radar ; il les communique à son camarade qui les reporte sur une paroi de verre où le parcours de l’avion pris en surveillance pourra être « lu » en un seul coup d’œil.
- La plate-forme, triangle équilatéral de 70 m de côté reposant sur trois piliers, comporte de nombreux services annexes, parmi lesquels celui de l’énergie que fournissent sept groupes diesel et celui de l’eau douce obtenue par distillation. La réserve de combustible est logée dans la partie supérieure des piliers. Le « pont » est dégagé sur la plus grande partie de sa surface afin de permettre l’atterrissage de l’hélicoptère par lequel se fait le ravitaillement
- et la relève de l’équipage. Des grues et un bateau de sauvetage complètent l’équipement.
- Les deux îles qui subsistent ont été fondées sur le plateau continental : la première sous 16 m, la seconde sous 26 m d’eau. Elles se trouvent respectivement à 240 km à l’est de Boston et à 130 km à l’est de Nantucket. L’île engloutie (à 160 km environ au sud-est de New-York) surmontait une eau profonde de 60 m. C’est pourquoi ses constructeurs avaient pris la précaution d’entretoiser les piliers creux dont chacun mesurait 100 m de long et 4 m de diamètre. L’assemblage avait été réalisé à terre et c’est donc un gigantesque trépied qui fut remorqué jusqu’à l’emplacement de l’île.
- Sa mise à la verticale fut obtenue en chargeant d’eau des compartiments maintenus jusqu’alors étanches à la base des piliers. Pour leur enfoncement, sur une hauteur de 7 m, on fit appel à des pompes qui sucèrent à travers les piliers le support de vase et de sable. La plate-forme fut mise en place, au moyen des vérins hydrauliques, à 22 m au-dessus de la surface de l’Océan.
- Selon les calculs, l’île aurait dû résister à des vents de 200 km à l’heure et à des vagues de 20 m de creux, vitesse et hauteur qui n’ont jamais été observées sur aucun océan. Or, au cours de la tempête qui a emporté la Texas Tower, la vitesse du vent ne semble pas avoir dépassé 56 km à l’heure. Déjà l’édifice avait été durement secoué dans les semaines précédentes et c’est pourquoi l’effectif de l’équipage avait été réduit de 70 à 28 hommes.
- Fig. I (ci-contre). — Report sur tableau de verre des observations radar.
- Explications dans le texte.
- 198
- p.198 - vue 199/560
-
-
-
- p.199 - vue 200/560
-
-
-
- Comment les Anciens
- gouvernaient
- leurs navires
- par Jacques Guillerme
- L’évolution du gouvernail des navires à travers les siècles est encore assez mal connue. En particulier, on ne peut fixer avec certitude le lieu et l’époque où apparut le modèle moderne de gouvernail, dit d’étam-bot, et nous évoquerons à ce sujet un document curieux et troublant. Nous nous proposons de résumer ici à la lumière de récentes études, les connaissances que l’on possède sur la façon de gouverner dans les marines anciennes.
- Rappelons d’abord que l’étambot est une forte pièce de bois (ou aujourd’hui de métal) qui prolonge à l’arrière du navire l’extrémité de la quille et s’élève plus ou moins verticalement. Les gouvernails aujourd’hui en usage chez les marins européens consistent en un plan mince, le safran, fixé à un axe ou mèche, articulé sur l’étambot et qu’on fait tourner grâce à une barre ou timon (fig. 7).
- Les premiers gouvernails furent de simples rames que l’on manœuvrait sur un côté ou sur les deux côtés du
- navire près de la poupe. De nombreux documents figurés, des peintures de vases (fig. 1 et 2) attestent clairement que ce dispositif suffisait à la gouverne d’embarcations légères. Mais il ne fait plus de doute que des dispositifs plus complexes étaient utilisés pour diriger de gros vaisseaux. La découverte récente, en Tunisie, de représentations antiques de navires de charge et l’exploration directe d’épaves importantes, quoiqu’elles laissent subsister de grandes obscurités de détail, confirment ce sentiment. La manœuvre des navires, au temps de l’hégémonie romaine en Méditerranée, se faisait à l’aide de deux gouvernails
- Fig. 1. — Peinture de vase par Exekias (vers 530 avant Jésus-Christ) :
- navigation de Dyonisos (Musée de Munich).
- On voit à l’arrière de l’embarcation (à droite) les deux rames-gouvernails situées de part et d’autre. Il semble qu’un moyen de fixation de la rame soit indiqué sommairement.
- p.200 - vue 201/560
-
-
-
- Fig. 2. — Peinture de vase par Nikosthènes (525 à 520 avant Jésus-Christ) (Musée du Louvre).
- Les deux embarcations portent à l’arrière de longues rames-gouvernails dont le moyen de fixation n’est pas indiqué.
- latéraux à pivot (fïg. 6 et 8 à 10), qu’on peut considérer comme les précurseurs du gouvernail d’étambot.
- Il y eut, en France, avant la dernière guerre, des contestations assez vives sur la nature et la qualité du gouvernail antique. Lefebvre des Noëttes n’y voyait qu’un organe débile et tenait que l’invention du gouvernail d’étambot à charnière fut une mutation qui révolutionna l’art nautique. Des marins, les commandants Carlini et Guilleux la Roërie, s’employèrent à réhabiliter le système antique des gouvernails latéraux, cependant que des archéologues, H. de Saussure et E. de Saint-Denis entre autres, démontrèrent que les performances des navires antiques étaient, dans les meilleurs cas, tout à fait comparables à celles des navires du xvme siècle ; sans doute, les voiliers modernes étaient autrement manœuvrables, mais le perfectionnement du gouvernail compta pour bien peu dans ce progrès. Aujourd’hui, les arguments de Lefebvre des Noëttes restent sans écho, et nul ne vient contester l’efficacité du gouvernail antique dont le type persista en Méditerranée durant
- tout le moyen âge ; Joinville évoque les « nefs de Marseille à deux gouvernails, qui sont atachiez à deux timons si merveilleusement, que, sitost comme l’on aurait tourné un roncin, l’on peut tourner la nef à destre et à senestre ». Mais, à la même époque, le gouvernail d’étambot devait être en usage dans les mers océanes ; un parchemin de 1242 porte un sceau où figure une nef munie d’un safran à la poupe. Si les peuples nordiques paraissent avoir devancé les Latins en cet usage, il semble pourtant que les marins d’Asie furent les premiers à gouverner à l’étambot.
- Quoi qu’il en soit, on admet communément que les marins de la Méditerranée ignorèrent jusque vers le xve siècle le gouvernail d’étambot. Citons tout de suite le seul document qui permette un doute à ce sujet. Le premier grand recueil d’inscriptions des catacombes, publié par Boldetti en 1720 (Osserva^ioni sopra i Cemeteri de’ SS. Martini ed antichi christiani di Ro/na, Délia stamperia Vaticana, Roma, 1720) reproduit, dans sa page 372, un document qu’il faut bien dire énigmatique. Il s’agit de l’image d’une barque dessinée sous une inscription de la catacombe de Saint-Cvriaque ; on y voit figuré sans équivoque le contour d’un gouvernail d’étambot avec sa barre (fig. 3). L’inscription semble concerner une famille de chrétiens d’extraction orientale, romains de date récente, venus dans la
- 201
- p.201 - vue 202/560
-
-
-
- x I M O
- Fig. 3’ — Fac-similé de gravures de l’ouvrage de Boldetti sur les catacombes (1720).
- A l’arrière du petit navire dont la voile est roulée on voit sans doute possible la représentation d’un gouvernail d’étambot qui pose une énigme aux archéologues, car l’inscription ainsi figurée serait du 111e siècle après Jésus-Christ. D’autres figures du même ouvrage évoquent les rames-gouvernails classiques des anciens comme celle, assez maladroite et naïve, que nous reproduisons
- au-dessous.
- Ville vers la fin du me siècle. Malheureusement, l’inscrip-tion originale n’a pu^encore être repérée in situ. Si l’authenticité en était confirmée, si le graveur du xvme siècle a bien reproduit fidèlement une figure relevée dans la cata-combe, il faudrait faire remonter de plus de dix siècles l’apparition du gouvernail d’étambot en Méditerranée.
- Cependant, même s’il en était ainsi, il faut admettre:
- 202
- p.202 - vue 203/560
-
-
-
- que les marins méditerranéens, dans leur ensemble, ont conservé très longtemps, jusqu’à la fin du moyen âge, les procédés de gouverne hérités des temps antiques.
- Les connaissances générales sur la marine des anciens se sont accrues à la faveur de découvertes archéologiques récentes, parmi lesquelles on retiendra les mosaïques mises au jour à Sousse et aux environs, dans un site qui est peut-être celui de l’antique Themetra. Le merveilleux paysage marin qu’on y voit, peuplé de nombreux navires, est comparable au catalogue figuré de navires antiques découvert à la fin du siècle dernier, également en Tunisie, à Althiburos. Cette mosaïque représente « une mer où évoluent en tous sens et dans un désordre pittoresque une trentaine d’embarcations toutes différentes » dont le nom est figuré en caractères latins ou grecs àu 11e siècle. Les mosaïques de Themetra complètent celles d’Althiburos, car elles représentent au lieu de simples embarcations divers types de voiliers de « gros tonnage ». Mais ces documents ne comportent que peu de détails utilisables pour une connaissance plus précise des moyens de gouverner.
- L’archéologie sous-marine a nourri l’espoir de préciser les structures des navires anciens ; parmi les épaves repérées et visitées ces dernières années par des plongeurs autonomes, quelques-unes ont été systématiquement fouillées ou continuent de l’être : les chantiers d’Albenga, en mer ligure, et surtout de Spargi, au nord de la Sardaigne, sont de ceux où la fouille est pratiquée avec une méthode et un soin exemplaires : des navires mêmes, des membrures de bois ont été ramenées au jour, outre diverses pièces métalliques de gréement, mais rien qui se rapporte avec évidence au système de gouverne. On n’a pas encore découvert l’épave rêvée, qu’un concours de circonstances préservatrices aura sauvée de la désagrégation ; il faut supposer un antique naufrage, plutôt au large, en eau assez profonde pour que la coque soit éloignée des agitations de la surface ; il faut supposer encore un dépôt assez prompt de limons stériles qui aura protégé l’épave, sans toutefois l’enliser complètement ; il faudrait encore qu’en sombrant, le navire ne se fût pas trop disloqué ; bref, un ensemble de conditions qui rendent bien improbable une telle découverte.
- Nous devons donc, en attendant, nous contenter des documents plus anciennement connus, dont l’étude, récemment reprise, permet des constatations utiles.
- Ces documents sont de plusieurs sortes : des textes et des inscriptions d’abord : en général trop brefs ou allusifs seulement, parfois tronqués ou souvent obscurs, ils ne sont que bien rarement explicites sur quelque détail de la forme ou de la manœuvre du gouvernail.
- Les figures peintes ne font pas défaut : peintures sur vases,
- ou en mosaïque surtout, comme à Sousse, mais aussi les curieuses vues de ports imaginaires ou de batailles navales détachées des murs de Pompéi et d’Herculanum ; elles ont le mérite de montrer des navires autrement que de flanc, contre l’habitude des peintres de vases et des mosaïstes, commune encore aux sculpteurs en bas-relief. Parfois des détails significatifs, des timons par exemple, qui attestent l’existence du gouvernail à pivot, apparaissent sur quelques-uns de ces documents. Mais la plupart de ces images sont inutilisables en raison de leur maladresse évidente ou par l’excès de leur stylisation.
- Les anciens nous ont aussi légué des modèles de navires en relief, mais c’est malheureusement une catégorie des plus restreintes. En dehors des merveilleuses barques funéraires d’Égypte, ces figurations sculptées sont extrêmement rares : outre des lampes en forme de carène, d’un médiocre intérêt pour l’archéologie navale, on connaît quelques céramiques (un modèle assez suggestif en terre cuite, provenant d’Ama-thos, est au British Muséum) et trois marbres : deux bases de colonne conservées à Rome (Musée Torlonia et Musée des Thermes) et un monument votif paléochrétien qu’on peut voir au Metropolitan Muséum de New York (fig. 8 à io).
- Compte tenu de ces documents et malgré quelques incertitudes, nous pouvons nous faire une idée de la façon dont les anciens manœuvraient les rames-gouvernails sur les embarcations légères et les gouvernails latéraux à pivot sur les navires plus importants.
- Les figurations des vases peints telles que celles des figures i et 2 montrent la disposition des rames de part et d’autre du bord à l’arrière des voiliers, mais elles n’indiquent pas clairement leur mode de fixation. Ici on peut recourir à quelques textes, et parfois très anciens. Citons-en trois : « En poupe l’on descend le double gouvernail fixé par sa courroie » (Euripide, Hélène). « Ils attachèrent le gouvernail suspendu à la poupe et le fixèrent avec des courroies » (Orphée, Argonautiques). « Ils délièrent les ancres pour les laisser aller dans la mer, et ils relâchèrent en même temps les attaches des gouvernails » (Actes des Apôtres'). D’autre part, on peut voir sur la Colonne Trajane une figuration de filins fixés à une rame-gouvernail, traversant la pale en son milieu par une échancrure pratiquée de part et d’autre de l’axe de la rame. De tels filins ou courroies pouvaient avoir plusieurs rôles : remonter les rames au moment d’aborder, ou par gros temps, ou bien encore retenir les rames de s’écarter du bordage et assurer la transmission des efforts de gouverne à la coque. La figure 5 montre un schéma d’un dispositif de ce genre ; la figure 4 en représente un stade antérieur plus rudimentaire.
- Fig- 4 (à gauche) — Schéma de rame-gou-vemaii latérale fixée au plat-bord par une simple boucle de cordage ou de cuir passée sur une cheville.
- Fig. J (à droite). — Schéma de rame-gouvernail fixée au plat-bord et au bordage.
- La longue boucle de gauche dans laquelle coulisse un anneau fixé à la rame permet de remonter celle-ci en cas d’échouage sans l’enlever complètement.
- Cheville.
- 203
- p.203 - vue 204/560
-
-
-
- Fig. 6. — Schéma de rame-gouvernail latérale pivotant dans un puits.
- La rame-gouvernail simplement fixée par des courroies ou des filins ne convenait bien qu’à de frêles embarcations. La rame-gouvernail à pivot, toujours latérale mais plus solidement assujettie, en a procédé évidemment, à une époque incertaine, pour la gouverne de plus gros navires. Pour faire tourner ce gouvernail plus lourd, il faut une barre ou timon (fig. 7) et, comme nous Pavons déjà dit, la figuration d’un timon sur certains documents atteste à elle seule l’existence du gouvernail à pivot. Mais nous allons voir qu’on a maintenant de ce gouvernail lui-même une idée plus précise.
- cabine de poupe, avec une table cylindrique presque entièrement figurée.
- Cette minutie, que l’on retrouve dans la région du gouvernail, donne à penser que le modèle comporte une certaine exactitude. On voit que Y aile, pièce de bois qui renforce le bordage et dont l’extrémité arrière porte le dispositif de gouverne, est assujettie vers l’avant à un bau de forte section dont on voit déborder l’extrémité sur les figures (rappelons que les baux sont des poutres transversales, qui soutiennent le pont du navire) ; à l’arrière, l’aile s’appuie sur deux autres baux de moins forte section. Une pièce P (fig. 10), perpendiculaire à la ligne des sabords, paraît renforcer le dispositif (le puits) qui engaine le pivot du gouvernail. Une structure analogue se retrouve dans le relief de Narbonne (fig. 11). On y voit la marque d’une recherche de solidité qui répond à l’importance des efforts auxquels est soumise l’attache du gouvernail. Dans la sculpture de New York on voit en outre nettement que le puits où s’engage le pivot de la rame est prolongé par un manchon M qui renforce encore la solidité.
- Si les simples rames-gouvernails des embarcations légères pouvaient être relevées, il y a tout lieu de penser que
- Fig. 7. — Schémas de deux variantes du gouvernail d’étambot.
- Mèche
- Etant bot
- Safran
- Notons d’abord que plusieurs figurations en mosaïque, celles de Sousse notamment, montrent des dispositifs de barre assez compliqués, destinés, semble-t-il, à faciliter la manœuvre simultanée des deux rames. L’hypothèse d’un couplage des gouvernails a été plusieurs fois avancée par les auteurs modernes. Espérandieu la donne implicitement dans son commentaire du relief de Narbonne (fig. n). Beaucoup plus récemment, M. N. Lamboglia imaginait que la roue de plomb trouvée dans une épave à Albenga avait pu jouer quelque rôle dans un couplage supposé des gouvernes.
- Ce ne sont cependant là que des conjectures. Seul le dispositif latéral à simple pivot est sûrement attesté. M. J. Le Gall en a montré l’existence dans le marbre déjà cité du Musée des Thermes de Rome. Le marbre du Metropolitan Muséum de New York confirme cette observation (fig. 8 à 10). C’est un monument votif paléochrétien provenant de Tarse de Cilicie qui entra en 1877 dans les collections du grand musée américain. Il n’est pas inédit, assurément; à plusieurs reprises, on le voit mentionné, mais toujours à propos de l’Histoire de Jonas qu’il illustre fort curieusement. Or, cette sculpture offre plusieurs particularités intéressantes pour l’archéologie navale. De prime abord, on note la minutie du travail du sculpteur qui s’est plu à évoquer des détails insolites, comme l’intérieur d’une
- les marins antiques ont cherché à douer de la même commodité le gouvernail à pivot, et pour les mêmes raisons, notamment en cas d’échouage, si souvent pratiqué jadis. Le relèvement du gouvernail ne pouvait alors se faire qu’en le faisant glisser vers le haut jusqu’à ce que sa pale vînt buter sur l’ouverture inférieure du puits. L’examen du marbre de New York laisse penser, précisément, que la rame y est figurée dans cette position. Cependant, il semble que la manœuvre comportait l’utilisation d’un dispositif assez complexe, dont l’interprétation est bien trop conjecturale pour être rapportée ici. Quoi qu’il en soit, le gouvernail à pivot y est nettement représenté, plus nettement qu’en aucun autre document hérité des Anciens.
- Ce précieux monument, daté de la fin du 111e siècle ou du début du ive, donc d’une époque où l’art nautique des anciens était certainement fixé, nous fournit une image suggestive du gouvernail antique au terme de son évolution. Cet engin, dont la conception est de toute évidence assez élaborée, n’est pas l’organe débile critiqué par Lefebvre des Noëttes. De gros chargeurs de grains reliaient régulièrement l’Afrique à Rome ; on connaît par Lucien les dimensions d’un des vaisseaux qui acheminaient le blé de Yannone entre Alexandrie et Rome au 11e siècle ; ce navire, Ylsis, mesurait 120 coudées, c’est-à-dire plus de 50 m de longueur. Il devait avoir un dépla-
- 204
- p.204 - vue 205/560
-
-
-
- Ansercule
- Fig. 10. — Schéma explicatif du dispositif figuré dans le marbre de New York.
- Mèche ou pivot
- Aile ou parodas
- Sabords de nage
- <4,
- Rame-gouvernail
- p.205 - vue 206/560
-
-
-
- Fig. il. — Bas-relief du Musée de Narbonne, figurant un navire de charge antique.
- On y voit un dispositif qui paraît destiné à renforcer la fixation de la rame-gouvernail.
- cernent de plus de i ooo tonnes. Quelques autres navires d’une rare grandeur naviguèrent dans des circonstances d’exception ; ainsi, lorsqu’il y avait à acheminer des monolithes énormes : l’an 40 de notre ère, l’obélisque du Vatican et son piédestal furent rapportés d’Égypte à bord d’un vaisseau capable de prendre près de quinze cents tonnes de cargaison !
- De tels géants n’étaient guère adaptés à la navigation méditerranéenne ; la nature même limite le tonnage, et tout y porte au cabotage ; la rareté des ports naturels, comme la complication des itinéraires dépendant des caprices saisonniers ou journaliers des vents. Le soir, les pilotes préféraient le halage ou le mouillage à une navi-
- gation aventureuse près 'ces côles"obscures ; il fallait donc de faibles tirants d’eau, de médiocres tonnages ; aussi, la plupart des navires de charge ne portaient guère plus de cent tonnes. Ces conditions-là ont prévalu durant des siècles en Méditerranée, tranchant avec celles de la navigation océanique favorisée par des vents beaucoup plus réguliers et la sécurité que donnent les grands espaces libres. La particularité de la navigation méditerranéenne a entretenu le particularisme de ses marins qui ont conservé jusqu’au xve siècle le système antique de gouverne, cependant que bien d’autres traditions devaient persister plus longtemps encore.
- Jacques Guillerme.
- La période du C 14 est de 5 760 ans
- En utilisant des techniques nouvelles, le laboratoire de radioactivité du National Bureau of Standards américain est parvenu à une évaluation précise de la période du carbone 14 (laps de temps au bout duquel la moitié des atomes de cet élément se sont désintégrés). La valeur proposée est de 5 760 ans, plus longue de presque deux siècles que celle précédemment acceptée (5 568 ans). Cette ancienne détermination avait été choisie de manière quelque peu arbitraire et s’éloignait de la valeur approximative proposée en 1953 : 5 900 ±250 ans.
- Toutes les évaluations de l’âge de documents archéologiques ou préhistoriques fondées sur leur teneur en carbone 14 devront donc être révisées en tenant compte de ces nouvelles données. Ainsi les fameux rouleaux de parchemin de la Mer Morte, datés jusqu’ici de l’an 40 après Jésus-Christ, remonteraient en réalité à 20 avant notre ère.
- Une raffinerie de pétrole mobile
- Pour venir en aide aux producteurs de pétrole dont les puits sont situés loin d’un pipe-line ou d’une ligne de chemin de fer, une firme américaine vient de construire une raffinerie mobile dont les dimensions sont si réduites qu’il suffit d’un camion de 12 m de longueur pour la transporter. Le raffinage peut commencer dès que l’installation a été amenée aux abords du puits. La raffinerie peut traiter 200 barils par jour, soit un peu plus de 30 000 1 de pétrole brut ; elle est actionnée par des moteurs électriques et ne nécessite pas d’eau grâce à des dispositifs de refroidissement par air. L’installation, qui ne pèse que 15 t, a été mise au point à la demande d’une compagnie américaine appelée à extraire et raffiner du pétrole dans des régions accidentées et d’un accès difficile où la production de pétrole était trop peu importante pour justifier la mise en œuvre d’un pipeline.
- 206
- p.206 - vue 207/560
-
-
-
- Pour construire à l’abri
- des intempéries
- Une intéressante expérience dont le but était de montrer les avantages d’un abri pneumatique en nylon pour protéger des intempéries les chantiers de construction vient d’être menée à bien en Angleterre.
- L’expérience portait sur la construction d’une maison à Hampton, Middlesex, près de Londres. L’abri était constitué par du nylon imperméabilisé, mince et résistant, gonflé en forme d’« igloo » par de l’air sous faible pression fourni par un compresseur. Le faible courant d’air permit de sécher le chantier tout entier bien qu’une couche de boue de plus de xo cm d’épaisseur recouvrît les alentours. Il en fut de même des matériaux et de l’outillage qui ne souffrirent ni de l’humidité ni de la rouille. Malgré des conditions atmosphériques particulièrement mauvaises, les ouvriers purent travailler à leur aise avec un excellent rendement.
- Après un mois de travail, l’entreprise londonienne enregistrait, grâce à l’abri, deux jours d’avance sur le programme prévu, alors que d’autres firmes, travaillant dans les conditions habituelles, avaient perdu de sept à dix jours
- de travail, en raison du mauvais temps, au cours de la même période. Le gain réalisé fut de l’ordre de 120 livres sterling (1 800 NF). La consommation d’électricité nécessaire pour faire fonctionner le compresseur pendant un mois ne dépasse pas 6 livres (90 NF). Lorsqu’il n’est plus utilisé, l’abri, une fois plié, occupe peu de place et peut être transporté aisément d’un chantier à un autre. Dans des conditions favorables il est mis en place par une équipe de six hommes en trois heures environ.
- La British Nylon Spinners, qui rapporte cette information, estime possible de construire un abri en nylon assez grand pour qu’on puisse y édifier tout un immeuble. Dans l’expérience décrite plus haut, en effet, l’abri, de modestes dimensions, avait dû être enlevé dès que les travaux atteignirent le premier étage.
- Fig. I. — Abri de nylon pour chantier de construction.
- (Photo aimablement communiquée par P Ambassade de Grande-Bretagne).
- p.207 - vue 208/560
-
-
-
- Un papillon migrateur
- marqué par
- une bombe atomique
- par "Lucien Chopard
- En décelant sur un papillon une pollution radioactive provenant, selon toute vraisemblance, d’une bombe atomique française qui a explosé à Reggane, un entomologiste britannique, le Dr Kettlewell, a apporté récemment une contribution intéressante à la connaissance des migrations de certaines espèces qui se font régulièrement d’Afrique du Nord en Angleterre.
- On peut s’étonner que les papillons soient capables d’effectuer des déplacements considérables. Leur vie est :assez courte ; leur vol nous paraît capricieux, en général zigzagant et assez lent, et il n’évoque pas du tout, à première vue, l’allure d’un bon voilier capable de faire de grandes traversées ou des voyages au long cours.
- Pourtant les migrations lointaines des papillons forment un chapitre déjà assez bien connu de l’histoire naturelle. On en connaît plusieurs espèces, du Nouveau Monde comme de l’Ancien, qui font couramment des déplacements de plusieurs centaines, voire de plusieurs milliers de kilomètres. En général ces migrations diffèrent beaucoup de celles des oiseaux qui sont strictement saisonnières et réglées par le cycle de reproduction et de nutrition. L’hirondelle, par exemple, se reproduit dans nos régions en été, sans doute parce que la longueur du jour et une température modérée lui sont alors favorables et elle passe l’hiver sous les tropiques où elle trouve une alimentation qui lui fait défaut dans les régions plus nordiques. Bien peu de papillons présentent une migration régulière de ce genre, comprenant l’aller et le retour. On cite surtout un papillon américain du genre Danaus, le Danaus plexippus, qui habite les régions du Nord en été et dont le professeur Klots décrit ainsi les migrations : « Les adultes de la dernière génération estivale de ce Danaus quittent le Canada et le Nord des États-Unis après la fin de l’été pour se diriger vers le Sud, du golfe du Mexique jusqu’à la Basse-Californie. C’est là qu’ils passent l’hiver, par petits groupes et dans un état de semi-hibernation. Au printemps suivant, les survivants remontent vers le Nord, mais il est très douteux qu’aucun d’eux .atteigne jamais à nouveau les limites septentrionales de l’habitat de l’espèce. Généralement les femelles pondent et meurent après avoir fait une partie seulement du voyage et ce sont leurs descendants qui continuent leur vol vers le Nord ».
- On voit donc qu’un individu de l’espèce Danaus plexippus ne fait pas lui-même, comme une hirondelle, une migration complète aller et retour. C’est l’espèce qui fait la
- Fig. i. — Le papillon Nomophila noctuella.
- Trois fois la grandeur naturelle environ.
- migration plutôt que les individus. Ce doit être le cas de beaucoup de papillons migrateurs.
- D’Afrique du Nord en Angleterre
- Cependant, quelques papillons, comme la Yanesse du Chardon (Vanessa carduï) ont une vie assez longue et un vol assez puissant pour accomplir d’une traite de très grands voyages. La Vanesse du Chardon, qui peuple l’Afrique du Nord, traverse la Méditerranée au printemps et vole jusqu’en Angleterre. Elle s’y reproduit pendant l’été mais il ne semble pas que les individus nés en Angleterre prennent jamais le chemin du retour. Dans ces régions nordiques, l’espèce ne peut résister au froid et elle s’éteint tous les hivers. Le repeuplement se fait donc chaque été par des individus venus du Sud. Si donc une bonne partie des individus nés sur les bords de la Méditerranée n’y demeuraient pas en été, l’espèce s’éteindrait. Plusieurs autres papillons sont dans le même cas, par exemple une Noctuelle, le Plusia gamma, que l’on retrouve en été jusqu’en Islande, mais qui est incapable de s’y maintenir.
- Ces papillons se mélangent, semble-t-il, dans leur long voyage. Et ils entraînent avec eux, sur tout ou partie de leur parcours, des espèces plus frêles qui peut-être ne feraient pas le voyage toutes seules. C’est le cas d’un petit papillon cosmopolite de 2,5 cm, le Nomophila noctuella (fig. 1), ainsi appelé parce qu’il ressemble à une Noctuelle, bien qu’il fasse partie de la famille des Pyralides. C’est ce petit papillon qui a fait l’objet de l’observation dont il nous reste à parler d’après le compte rendu qu’en a donné, dans la revue britannique Nature (25 février 1961), l’entomologiste H. B. D. Kettlewell, du Laboratoire de génétique de l’Université d’Oxford, dont nous avons naguère exposé les recherches sur le mélanisme industriel des Lépidoptères (La Nature, février 1958).
- M. Kettlewell avait déjà employé la radioactivité pour suivre l’évolution des chenilles de papillons. Voulant suivre le sort d’une chenille individuelle, il ne pouvait en effet employer les procédés de marquage qui conviennent à beaucoup d’autres animaux, car la chenille, en grandissant, effectue des mues et, à chaque mue, elle abandonne sa vieille peau pour une neuve. L’expérimentateur a donc « marqué » ses chenilles en les nourrissant de plantes auxquelles il avait fait absorber un isotope radioactif. Ce radioisotope devait répondre aux conditions suivantes :
- 208
- p.208 - vue 209/560
-
-
-
- i° il devait avoir une période assez longue pour être encore présent dans les insectes après leur métamorphose, assez courte toutefois pour éviter la production d’une population radioactive dans la nature ; z° l’ingestion et l’incorporation devaient en être faciles dans les plantes nourricières et, ensuite, dans les tissus des insectes ; 3° l’élimination devait en être lente.
- Le soufre 3 5 répondait à ces conditions, avec une période de 87,1 jours (temps au bout duquel la moitié des atomes se sont désintégrés). Son inconvénient est qu’il émet des rayons [3 (électrons) de faible énergie, qui ne traversent pas les compteurs de Geiger ordinaires ; on y remédie en employant un compteur muni d’une mince fenêtre de mica. Les plantes utilisées sont presque complètement débarrassées de leurs feuilles puis laissées pendant quelques jours dans l’eau pour provoquer le développement de racines. Elles sont mises ensuite en culture dans un milieu artificiel adéquat auquel est mélangé du sulfate de potassium contenant du soufre 35 à raison de 100 microcuries par litre (1 microcurie = 3,7 x io4 désintégrations par seconde). Le soufre se concentre dans les tissus jeunes de la plante. Les chenilles nourries de ces tissus montrent au compteur Geiger un nombre de coups assez faible mais leurs excréments sont hautement radioactifs. Si on les remet alors sur un feuillage non radioactif, on constate néanmoins pendant plusieurs heures une augmentation du nombre des coups, ce qui indique que le soufre continue à émigrer du tube digestif vers les organes périphériques.
- Quand, au bout de quelques semaines, les chenilles ainsi nourries s’étaient transformées en papillons, l’expérimentateur constatait que ces papillons étaient eux-mêmes radioactifs. Leur radioactivité apparente était même plus forte que celle des chenilles. En effet, comme nous l’avons dit, le soufre 35 émet des électrons d’une faible énergie. Dans les chenilles le soufre doit rester en grande partie dans les organes internes et les électrons émis par ce soufre interne sont absorbés dans l’épaisseur des tissus et de la peau. Au cours de la métamorphose, une grande partie des tissus internes se sont détruits et leur substance a émigré vers les parties externes qui se sont grandement développées ; le soufre 35 s’est notamment accumulé dans les ailes, et c’est pourquoi la radioactivité du papillon est très notable.
- Trahi par sa couleur
- Partant de ces données, M. Kettlewell eut l’idée de rechercher si, parmi les papillons migrateurs qui arrivent en Angleterre au printemps, venant de l’Afrique du Nord, certains ne présenteraient pas des traces de radioactivité permettant de supposer que leurs chenilles avaient vécu dans les régions proches du point où explosa au Sahara la bombe atomique de février i960. Des exemplaires de sept espèces de papillons connus comme migrateurs réguliers furent spécialement recherchés et plusieurs centaines obtenus par capture dans des pièges ou grâce à des annonces passées dans les journaux entomologiques. Il recueillit ainsi de nombreux individus des espèces que nous avons déjà citées, surtout de la Noctuelle Plusia gamma et du petit Pyralide Nomophila noctuella (fig. 1).
- Les Nomophila migrateurs sont plus ou moins abondants selon les années mais, comme ils se reproduisent en Grande-Bretagne, l’espèce y est toujours assez commune en été,
- parfois même nuisible dans les prairies où ses chenilles, vivent sur le trèfle et les plantes basses. Le papillon est nocturne mais il prend très facilement son vol en plein jour ; malgré sa petite taille ce vol est assez puissant pour permettre de grands déplacements.
- La coloration du Nomophila noctuella est très variable, allant du gris foncé au brun jaunâtre clair, avec des bandes et taches plus ou moins marquées. C’est précisément la couleur chamois très clair de l’un des papillons capturés dans un piège à lampe à vapeur de mercure qui attira l’attention du Dr Kettlewell ; les individus de Nomophila qui éclosent en Grande-Bretagne vers la fin de l’été sont en effet toujours de couleur bien plus foncée. En outre, tous les papillons capturés ayant été soumis à l’exploration au compteur Geiger, on reconnut que, seul, ce Nomophila de couleur claire montrait 15 à 20 pour 100 de coups en plus de la normale. L’insecte fut alors soumis pendant trois mois à l’autoradiographie (c’est-à-dire appliqué directement sur une plaque sensible aux radiations).
- Une sphérule radioactive de 9
- L’augmentation du nombre des coups au compteur permettait de supposer qu’on était en présence d’un papillon dont la chenille pouvait s’être nourrie sur une végétation contaminée. Cet insecte aurait dû montrer alors des autoradiographies comparables à celles obtenues avec les chenilles élevées dans les conditions d’expériences réalisées avec le soufre 3 5 (radioactivité répartie sur toute la surface de l’insecte). Or, les films ne montraient qu’une simple tache de très petite taille, mais très nette. Le fait parut assez intéressant pour que le papillon et les films fussent confiés, pour un examen plus approfondi, aux spécialistes de la Division de la Santé au Centre de Recherches atomiques de Harwell. Ceux-ci confirmèrent l’existence, sur le thorax de l’insecte, d’une très petite source de radioactivité [3 et y, consistant en une sphère parfaite de 9 microns de diamètre, de couleur brun sombre, probablement composée de silice fondue colorée par des traces de métal. Le papillon ne provenait donc pas d’une chenille contaminée, mais il avait lui-même été directement atteint par une sphérule vraisemblablement produite dans une explosion atomique.
- Naturellement, la seule présence de cette sphérule n’apporte pas une preuve formelle de l’origine de l’insecte. Les retombées radioactives ne sont pas chose exceptionnelle dans la région méditerranéenne et toutes ne proviennent pas des bombes françaises. Cependant, les experts ont estimé qu’une particule relativement volumineuse comme celle déposée sur le papillon ne pouvait être retombée qu’à une faible distance du lieu où l’explosion avait été provoquée. Il faut aussi prendre en considération que le Sud algérien est une des régions où le Nomophila se reproduit régulièrement et que les individus provenant de cette région sont généralement de couleur pâle comme celui qui a donné lieu à ces recherches. Il y a donc, sinon une certitude, au moins une très grande probabilité pour qu’on se trouve en présence d’une véritable expérience de marquage accidentel qui permet d’assurer qu’un petit papillon comme Nomophila noctuella est capable, pendant sa courte vie, de faire un voyage de près de 3 000 km.
- L. C.
- 209
- p.209 - vue 210/560
-
-
-
- Le béryllium métal nucléaire
- dont on s’acharne à corriger
- les défauts en raison par Claude Benoit
- de ses exceptionnelles qualités
- En 1960, près de mille demandes d’autorisation pour la prospection de béryl ont été faites dans la seule région de Juab Country Courthouse (Utah) aux États-Unis. Dans cette même région, il y a environ quinze ans, la prospection de l’uranium avait attiré des milliers de géologues amateurs, séduits par les attraits de la découverte d’un métal fabuleux.
- Le béryl, dont on extrait le béryllium (ou glucinium), ne risque pas cependant de provoquer une « ruée » analogue à celle de l’uranium. L’équipement nécessaire à sa prospection est coûteux et ne peut être manié que par des géologues expérimentés, non par des prospecteurs en quête de fortune rapide. Par ailleurs, certains problèmes doivent être résolus avant qu’on puisse songer à en développer une production importante.
- Entrant déjà dans des alliages spéciaux à divers usages, principalement avec le cuivre, le béryllium a récemment attiré l’attention des métallurgistes chargés de sélectionner des matériaux de structure pour engins spatiaux, en raison notamment de sa légèreté (densité : 1,82 environ) et de son point de fusion élevé (aux environs de 1 280° C). Il a surtout intéressé les ingénieurs de l’énergie atomique en raison de ces mêmes qualités et de ses exceptionnelles propriétés nucléaires : c’est l’un des éléments qui absorbent le moins les neutrons. Mais son emploi dans les réacteurs est retardé par de nombreuses difficultés. On déploie actuellement de grands efforts pour y remédier, et nous allons voir que cela en vaut apparemment la peine.
- Distingué pour la première fois de l’alumine en 1798 par Vauquelin, l’oxyde de béryllium fut baptisé glucine par l’illustre chimiste, à cause de la saveur douce de ses sels. Le nom de glucinium pour le métal allait de soi et nombre de chimistes français regrettent que ce nom soit maintenant abandonné généralement, même en France, au profit du nom de béryllium, que lui donnèrent plus
- tard les chimistes allemands. Le métal fut isolé en 1828, simultanément par Bussy en France et Wohler en Allemagne, qui réduisirent à chaud le chlorure de béryllium par le potassium dans un creuset de platine. Mais la première préparation industrielle du béryllium ne fut réalisée qu’en 1898 par Lebeau, par électrolyse d’un bain fondu de fluorure double de béryllium et de sodium. Depuis lors, le béryllium a été produit en laboratoire par de nombreuses méthodes ; deux d’entre elles sont actuellement utilisées industriellement ; ce sont, en France l’électrolyse du chlorure de béryllium, aux États-Unis la réduction du fluorure de béryllium par le magnésium.
- Du béryl, pierre précieuse, à la glucine et au béryllium
- Une vingtaine d’espèces minérales, appartenant à différents systèmes cristallins, renferment le béryllium sous forme de silicate, d’aluminate, de borate, de phosphate ou d’oxyde, représentant de 3 à 36 pour 100 du poids total. Le seul minerai existant en gisements suffisamment importants pour justifier une exploitation industrielle est le béryl, silicate double d’aluminium et de béryllium, Be3Al2(Si6018).
- On trouve le béryl dans des schistes argileux, les micaschistes et les veines de pegmatite (variété de roche granitique). A l’état pur, ses formes transparentes sont bien connues comme pierres précieuses, recherchées de tout temps sous le nom d’émeraudes lorsqu’elles sont vertes, d’aigues-marines lorsqu’elles sont bleues, de morganites lorsqu’elles sont roses. Les gisements les plus célèbres de ces gemmes sont situés au Pérou, en Colombie, en Sibérie, au Brésil et à Madagascar. Les formes opaques, en quantités notables, se rencontrent en gisements plus ou moins importants qui conviennent fort bien à une extraction industrielle du béryllium.
- 210
- p.210 - vue 211/560
-
-
-
- Fig. I. — Cristal de béryl de Madagascar de la Galerie de Minéralogie du Muséum de Paris. Ce cristal (système hexagonal) a une hauteur d’environ 40 cm.
- {Photo Laboratoire de Minéralogie du Muséum).
- Il est possible de trouver de faibles gisements dans la Haute-Vienne et dans les régions montagneuses granitiques et métamorphiques de France, au Brésil, en Argentine et dans l’Afrique orientale britannique. A titre d’exemple, indiquons que sur 8 ooo tonnes de béryl traitées en 1959 par les principales sociétés américaines, 321 tonnes seulement ont été extraites aux États-Unis, le reste provenant d’Amérique du Sud et d’Afrique orientale.
- Associés aux pegmatites potassiques extrêmement nombreuses à Madagascar, les minerais de béryl sont connus depuis fort longtemps dans la grande île. Le béryl étant, jusqu’à une époque récente, beaucoup plus recherché comme gemme (formes transparentes) que comme minerai de béryllium, il a été très facile de le récupérer dans les déblais des exploitations anciennes.
- Les minerais contenant à l’état naturel de 11 à 12 pour 100 d’oxyde sont rares et ne suffisent pas à répondre aux besoins de la production mondiale actuelle, cependant peu importante. Aussi est-il nécessaire de traiter des pegmatites à faible teneur : 1 pour 100 et même moins. On en obtient des concentrés enrichis en béryl par flottation 0, soit dans des dérivés sulfonés de pétrole, soit dans un mélange de ces dérivés avec l’acide sulfurique, après activation par l’eau de Javel. A partir d’un minerai contenant
- 1. Rappelons que la flottation est un procédé physique de séparation, qui consiste à broyer très finement un minerai et à en entraîner les éléments dans un liquide approprié où ils se trouvent triés selon leurs « propriétés de surface ».
- 0,25 pour 100 de béryl, on peut obtenir un concentré à 66,5 pour 100, le rendement de l’opération (c’est-à-dire la proportion de béryl retenu) pouvant atteindre 75 pour 100. A partir d’un minerai à 10 pour 100, on peut obtenir un concentré à 97 pour 100, avec un rendement de 82 pour 100.
- La production mondiale de concentrés, qui était de
- 7 200 tonnes en 1954, s’élève actuellement à plus de 14 000 tonnes. Les deux principaux producteurs, les États-Unis et la France (sans compter l’Union Soviétique sur laquelle on possède très peu d’informations), traitent ces concentrés pour une production annuelle de béryllium métal de l’ordre de 50 tonnes aux États-Unis et de l’ordre de 5 tonnes en France. Les firmes spécialistes sont Péchiney en France, la Brush Béryllium Co. et la Béryllium Co. aux États-Unis. La production américaine doit rapidement augmenter à partir de cette année.
- La préparation du béryllium se fait en France par élec-trolyse de son chlorure. Le béryl en poudre, traité entre 700 et 1 ooo0 C par un composé fluoré (seul l’acide fluor-hydrique attaque le béryl), conduit à un hydroxyde de béryllium qui, mélangé à du carbone et « briqueté » à
- 8 5 o° C, se transforme par séchage en oxyde BeO (glucine). La glucine est ensuite attaquée par du chlore gazeux. Le chlorure de béryllium que l’on obtient ainsi est purifié par sublimation. Son électrolyse directe n’est pas possible parce qu’il ne conduit pas le courant électrique ; on le mélange donc à parties égales avec du chlorure de sodium. L’électrolyse du mélange se fait à 4200 C dans un creuset de nickel servant de cathode, l’anode étant en graphite. Le béryllium se dépose en paillettes sur les parois du creuset. Les paillettes sont recueillies et débarrassées de l’électrolyte par pressage à chaud, puis lavage à l’eau glacée. Après élimination de petits cristaux d’impuretés, on obtient finalement des paillettes de béryllium assez pur, contenant plus de 99,5 pour 100 de béryllium métallique.
- Au terme de ces processus d’élaboration, le prix de revient est très élevé (de 600 NF à 800 NF/kg). Ce prix n’est pas tel cependant, qu’il puisse rebuter les deux catégories d’utilisateurs que nous avons citées, à savoir les constructeurs d’engins spatiaux et les constructeurs de réacteurs nucléaires.
- De rares propriétés nucléaires
- Le béryllium, ou glucinium, dont le noyau atomique contient 4 protons (numéro atomique Z = 4), se singularise étrangement au point de vue nucléaire. En premier lieu, contrairement à tous les éléments de numéro pair, il ne se présente pas à l’état naturel comme un mélange d’isotopes, c’est-à-dire de noyaux contenant des nombres différents de neutrons. Le béryllium naturel est uniquement composé de béryllium 9 (4 protons, 5 neutrons) et c’est là encore une singularité car, dans tous les autres éléments pairs (sauf l’argon), l’isotope le plus abondant est toujours celui dont le noyau contient protons et neutrons en nombre égal : ainsi, il y a 99,7 pour 100 d’oxygène 16 dans l’oxygène naturel (Z = 8).
- Le béryllium a retenu l’attention pour deux emplois dans les réacteurs atomiques : i° c’est un modérateur et un réflecteur remarquable, en raison de sa faible masse atomique ; 20 il peut être un bon matériau de gainage des
- p.211 - vue 212/560
-
-
-
- éléments combustibles, en raison de ses qualités de résistance à la corrosion aqueuse et de certaines de ses caractéristiques mécaniques à chaud. Sa faible capacité d’absorption des neutrons le recommande dans les deux emplois. Nous allons un peu préciser ces données.
- Rôle et choix du modérateur dans les réacteurs atomiques
- La probabilité pour que le noyau d’un atome absorbe une particule (en particulier un neutron) se mesure par la section efficace de capture, qui s’exprime en unité de surface. En effet, tout se passe comme si le noyau offrait à la particule une surface déterminée sur laquelle elle doit tomber pour être absorbée. Il ne s’agit bien entendu que d’une surface théorique, car la probabilité de l’absorption varie selon la nature de la particule et selon sa vitesse. On l’exprime en barns (i barn = io~24 cm2) ou en millibarns. On parlera donc de section de capture pour les neutrons rapides, de section de capture pour les neutrons lents, etc.
- Les neutrons issus de la fission d’un noyau d’uranium 235 dans un réacteur sont animés à l’origine d’une énergie moyenne d’environ 2 millions d’eV, ce qui correspond à une vitesse de 2 000 km/s. Ces neutrons rapides n’ont qu’une chance assez faible d’être capturés par d’autres noyaux d’U 235 et la réaction en chaîne ne peut alors s’établir que dans une masse considérable de matière fissile (masse dite critique'). Mais la section de capture de l’U 235 pour les neutrons est multipliée par 600 environ si ces neutrons sont ralentis jusqu’à atteindre une énergie de 0,025 eV seulement, correspondant à une vitesse moyenne de 2 zoo m/s (neutrons dits thermiques, parce que leur énergie individuelle correspond à la température du milieu).
- Pour ralentir les neutrons, il faut leur faire traverser une substance, appelée modérateur ou ralentisseur, dont les atomes soient les plus légers possible. En effet, si un neutron frappe un noyau lourd, et par conséquent de grande inertie, il rebondit avec une vitesse sensiblement égale à celle qu’il avait avant le choc. Si au contraire l’obstacle est d’une masse plus voisine de la sienne, une part bien plus grande de son énergie est communiquée au noyau rencontré, le neutron étant alors ralenti d’autant.
- La qualité essentielle du modérateur serait donc de contenir le plus grand nombre possible d’atomes légers et c’est ainsi que l’eau légère HaO est en principe le meilleur de tous les ralentisseurs puisqu’elle offre un très fort contingent de noyaux d’hydrogène de masse atomique 1, équivalente à celle du neutron. A mesure que l’on fait appel à des atomes moins légers, le ralentissement devient plus ardu. Cela se chiffre par le nombre de chocs nécessaires pour que les neutrons atteignent la vitesse de 2 200 m/s (état thermique) :
- Sur des atomes d’hydrogène 18 chocs
- » » de deutérium 25 »
- » » d’hélium 42 »
- » » de béryllium 90 »
- » » de carbone (graphite). 114 »
- » » d’oxygène 150 »
- Mais ces chiffres ne sont pas les seuls à considérer. On comprend que tout neutron absorbé par le modérateur
- Fig. 2. — Four haute fréquence pour la fusion du béryllium.
- {Photo L’Aluminium français).
- est perdu pour le combustible. Si donc une grande section efficace de capture des neutrons est une qualité pour le combustible (plus de 600 barns pour l’uranium 235), elle est un défaut grave pour le modérateur comme pour tous les matériaux employés dans le réacteur atomique. Or, voici quelles sont les sections efficaces à l’égard des neutrons lents pour les modérateurs les plus utilisés :
- Eau légère 0,66 barn
- Eau lourde 0,001 »
- Carbone 0,0034 »
- Béryllium 0,01 »
- BeO (glucine) 0,01 »
- On remarque que le béryllium et son oxyde (glucine) sont supérieurs au carbone, utilisé sous forme de graphite, pour le ralentissement des neutrons ; par contre, leur section de capture est plus élevée, mais beaucoup moins que celle de l’eau légère. Au total, la glucine (trois fois moins coûteuse que le béryllium métal) est un modérateur bien meilleur que le graphite et elle a, comme le graphite, la qualité d’être solide : les réacteurs modérés à l’eau, légère ou lourde, comportent des difficultés en raison de la pression de vapeur que doit supporter l’enceinte.
- La glucine a d’autres supériorités encore. Elle est absolument inerte en présence d’eau (le graphite est facilement oxydable), elle possède une bonne conductibilité thermique, un point de fusion élevé. Alors que le graphite présente
- 212
- p.212 - vue 213/560
-
-
-
- toujours une certaine porosité et que l’azote de l’air que contiennent ses pores absorbe tant soit peu de neutrons, la glucine est exempte de cet inconvénient. Sous forme de briques obtenues par frittage (2) à i 900° C d’une matière première soigneusement purifiée, elle permet des empilements et des structures géométriques analogues à celles des réacteurs au graphite, mais dont les dimensions, en raison de toutes ses qualités, sont beaucoup plus réduites. La capacité de production de la glucine en France est actuellement de 10 tonnes par an, mais elle peut augmenter si le besoin s’en fait sentir.
- Le béryllium et la glucine sont également qualifiés pour entrer dans la composition du réflecteur, enveloppe extérieure du cœur du réacteur qui a pour objet de renvoyer vers l’intérieur les neutrons qui s’en seraient échappés. Les qualités neutroniques qju’on exige du réflecteur sont en effet les mêmes que pour le modérateur.
- Les débuts de la glucine comme réflecteur et modérateur
- teur. Des difficultés sont apparues, concernant la tenue de ce matériau sous les radiations, mais elles ne paraissent pas insurmontables.
- Comme réflecteur, la glucine a été utilisée à Saclay, dans la pile expérimentale « Proserpine ». Une pile hollandaise homogène (c’est-à-dire où le combustible, le modérateur et le réfrigérant sont mélangés en une seule masse liquide) a également un réflecteur composé de briques de glucine. Aux États-Unis, le cœur du Material Testing Reactor, au Centre d’Idaho Falls, composé de plaques d’alliage d’aluminium-uranium enrichi et d’eau légère qui sert à la fois de modérateur et d’agent de refroidissement, est entouré d’un réflecteur de béryllium (et non de glucine) épais d’environ 30 cm. La tenue sous rayonnement de ce réflecteur paraît avoir été satisfaisante, bien que l’on ait constaté un accroissement considérable de la dureté du métal et consécutivement de sa fragilité dans les régions les plus irradiées.
- Comme modérateur, nous avons vu que la glucine paraît intéressante pour construire un réacteur à hautes performances et d’un faible encombrement. Dès 1956, les études
- Un certain nombre d’expériences ont été réalisées pour mettre à l’épreuve la glucine comme modérateur et réflec-
- Fig. ). — Vue sur la partie supérieure de « Rubéole I ».
- Ce montage « critique » expérimental, entré en service à Saclay le Ier décembre 1957, était destiné à l’étude des réseaux uranium naturel-glucine (oxyde de 2. Rappelons que le frittage est un procédé d’agglomération d’une poudre béryllium),
- sous pression, à haute température.
- (Photo C. E. A.).
- p.213 - vue 214/560
-
-
-
- Fig. 4. — « Rubéole II » en cours de montage. Entré en service le 3 juillet 1959, le réseau se compose d’oxyde d’uranium enrichi et de glucine.
- (Photo Sudre, C. E. A.).
- du Commissariat à l’Énergie atomique, en liaison avec la Commission de l’Énergie atomique de la République de l’Inde, montraient l’intérêt potentiel de la glucine pour obtenir un taux élevé de ralentissement des neutrons dans les piles à uranium faiblement enrichi (3). Après diverses expériences menées à Saclay sur un « réseau » (c’est-à-dire un mode de répartition géométrique) d’uranium naturel et de glucine, une pile expérimentale nommée Rubéole I (fig. 3) comprenant un empilement de briques de glucine avec des barreaux d’uranium enrichi « divergea » (c’est-à-dire que la fission en chaîne s’y produisit) le Ier décembre 1957. Dans une autre pile à glucine, Rubéole II (fig. 4), l’uranium métal fut remplacé par l’oxyde d’uranium enrichi et on y procéda à de nombreuses expériences.
- A la suite de ces études, une pile expérimentale à uranium enrichi et glucine d’une puissance thermique de 10 à
- 3. Rappelons que l’uranium naturel ne contient que 0,7 pour 100 d’uranium 235, matière fissile et siège de la réaction en chaîne, tandis que l’uranium 238, principal constituant, est transformé en plutonium par absorption d’un neutron. L’enrichissement en U 235 permet de diminuer les dimensions du réacteur en abaissant la masse critique pour laquelle commencent les fissions en chaîne, mais cet enrichissement est très coûteux, et l’uranium naturel d’où l’on extrait l’U 235 laisse un résidu d’U 238 inutilisé. L’idéal serait donc d’enrichir l’uranium en lui incorporant du plutonium issu de la combustion de l’uranium naturel ; l’utilisation du plutonium dans les piles pose encore des problèmes ardus, mais qu’on ne désespère pas de résoudre.
- 15 MW (projet Brenda) devait être construite au Centre d’études nucléaires de Cadarache, actuellement en cours d’aménagement au nord-est d’Aix-en-Provence. Dans ce réacteur, refroidi par gaz en circuit fermé, on se proposait d’élever la température du gaz à 7000 C pour pouvoir lui faire actionner une turbine, en vue de l’application de ce modèle à la propulsion, ou à la production d’énergie. Cependant, il fallait étudier préalablement la tenue de la glucine sous un flux important de radiations. Les résultats des premiers essais à basse température effectués aux États-Unis firent apparaître des défauts, notamment une fragilisation de la glucine sous un fort bombardement de neutrons. Aussi, en 1959, la poursuite du projet Brenda fut-elle suspendue.
- Les travaux français ont montré depuis lors, d’une part? que le comportement de la glucine s’améliorait à haute température, d’autre part que le frittage peut être conduit de façon à obtenir un produit de meilleure tenue. Un certain optimisme est donc revenu et de nouvelles expériences vont être entreprises à Cadarache sur un assemblage « critique », dit « Expérience glucine chaude ».
- De son côté, la Commission américaine de l’Énergie atomique vient d’annoncer la construction prochaine à Idaho Falls d’un prototype surnommé Bore (Béryllium Oxyde Reactor Experiment) destiné à la propulsion navale civile. Bore sera modéré par glucine, refroidi par hélium à haute température et utilisera comme combustible un mélange d’uranium enrichi et de glucine ; sa puissance thermique atteindra 10 MW. Les chercheurs américains ont-ils réussi à élucider les causes de la fragilisation de la glucine ?
- Quoi qu’il en soit, pour les réacteurs destinés à la propulsion, et dont l’encombrement doit par conséquent être aussi réduit que possible, la glucine reste peut-être le modérateur de l’avenir. Les principaux producteurs de béryllium dans le monde, c’est-à-dire les États-Unis, la France et peut-être bientôt l’Inde, ne sauraient s’en désintéresser.
- Le gainage au béryllium : déceptions et espoirs tenaces
- Les combustibles nucléaires, dans le cœur d’un réacteur, sont revêtus d’une gaine métallique pour deux raisons : s’opposer à l’action corrosive du fluide de refroidissement ; éviter la dispersion des produits de fission dans le réacteur. Les métaux susceptibles d’être employés pour le gainage doivent satisfaire à certaines conditions : qualités mécaniques, point de fusion élevé, faible section efficace de capture pour les neutrons.
- Ainsi, parmi les métaux actuellement utilisés, le magnésium est le meilleur pour sa très faible section de capture des neutrons (0,063 barn) mais il fond à 644° C. Inversement, l’acier inoxydable, dont le point de fusion est beaucoup plus élevé, absorbe notablement les neutrons. Le béryllium, à ces points de vue, surclasserait tous les autres métaux : point de fusion aux environs de 1 280° C, section de capture la plus faible (0,01). Le gainage en béryllium d’éléments combustibles en uranium naturel, et surtout en oxyde d’uranium U02, serait un facteur d’économie important. Il reste à améliorer, comme nous allons le voir, ses propriétés mécaniques.
- 214
- p.214 - vue 215/560
-
-
-
- Les Britanniques prévoyaient des gaines en béryllium pour le prototype de puissance A. G. R. de Windscale, qui doit préparer la seconde génération des centrales uranium-graphite-gaz.
- En France, la pile de puissance E. L. 4, modérée par eau lourde, devait utiliser les éléments combustibles en oxyde d’uranium naturel gainés de béryllium et être refroidie par gaz sous pression. E. L. 4 est un prototype qui doit permettre, dans l’esprit de ses constructeurs, d’aborder les problèmes industriels à une échelle significative.
- Malheureusement, le béryllium métal a montré des défauts qui ont obligé à réviser ces projets, du moins dans l’immédiat. En mai 1960, on annonçait que 80 pour 100 des gaines de l’A. G. R. britannique devaient être en béryllium ; en février 1961, il n’était plus question que de .20 pour 100.
- En France, en attendant de nouveaux essais dans la métallurgie du béryllium, une solution d’attente a été adoptée et les gaines d’E. L. 4 seront en acier inoxydable, ce qui oblige à enrichir légèrement l’oxyde d’uranium en U 235 pour compenser l’absorption des neutrons par l’acier.
- On connaissait un grand inconvénient du béryllium, sa toxicité. Il est possible de se prémunir contre elle par
- Fig. J. — Élément combustible expérimental en oxyde d’uranium enrichi et sa gaine de béryllium métal.
- A gauche, pastilles d’oxyde d’uranium enrichi ;
- à droite, gaine de béryllium ; en haut et en bas, bouchons de béryllium.
- (Photo C. E. A.).
- Fig. 6. — Élément combustible gainé de béryllium, après irradiation à chaud.
- Les dilatations et déformations de l’oxyde d’uranium ont entraîné des fractures de la gaine de béryllium en raison de son manque de ductilité.
- (Photo C. E. A.).
- des méthodes maintenant classiques : enceintes étanches et ventilées, travail sous vide et en boîtes à gants, etc. Reste un défaut plus grave : la fragilité du métal, due à son manque de ductilité.
- Comme le chêne de la fable, en effet, le béryllium ne cède pas sous les contraintes, mais il rompt ! Il est très fragile, quel que soit son degré de pureté, du moins tel qu’on l’a obtenu jusqu’ici, et on ne peut avoir que des craintes sur le sort d’une gaine de béryllium si le combustible qu’il contient se déforme sous l’effet de toutes les réactions dont il est le siège au sein du réacteur (fig. 6).
- Aucune explication de cette fragilité n’a été unanimement acceptée. Pour certains, ce serait une caractéristique fondamentale de ce métal, et une amélioration de sa ductilité ne serait réalisable qu’en créant par des déformations appropriées une texture comportant une orientation préférentielle de certains plans des cristaux. Pour d’autres,
- 215
- p.215 - vue 216/560
-
-
-
- la fragilité serait due à des impuretés. Une première hypothèse, invoquant la présence d’oxyde entre les grains du métal, a été reconnue fausse. Mais il est exact que le béryllium préparé jusqu’à présent contient 0,2 pour 100 d’oxygène, et il est certain que des atomes étrangers incorporés au réseau cristallin du métal diminuent sa ductilité. On s’efforce donc actuellement de mettre au point des procédés de purification plus poussés (fig. 7), mais les difficultés sont grandes. L’avenir dira si le béryllium à haut degré de pureté peut donner toute satisfaction.
- Mais en même temps, d’autres études sont fondées sur une idée inverse : accommoder la mise en œuvre aux propriétés du métal tel qu’il est, ou presque. On cherche alors à augmenter la résistance du métal à haute température sans lui demander de se déformer. Il n’est pas interdit
- Fig. 7. — Installation destinée à la purification du béryllium par distillation sous vide.
- (Photo C. E. A.).
- d’espérer que les essais actuellement effectués en France conduisent ainsi à « court-circuiter » le manque de ductilité du béryllium.
- Il semble en être du béryllium comme de tous les métaux nouveaux, d’abord rares, fort chers, présentant un grand nombre de défauts qui peuvent paraître définitifs et irrémédiables. L’industrie de l’aluminium et celle de l’uranium en sont des exemples historiques. Certes, les solutions actuelles des problèmes que pose l’utilisation du béryllium ne sont que partielles et onéreuses. Le prix de ce métal est sans rapport avec celui de l’acier inoxydable. Mais, il ne faut pas oublier que l’emploi de l’acier exige un enrichissement appréciable des combustibles, ce qui multiplie considérablement son prix. Il semble tout à fait possible de réaliser des réacteurs dans lesquels, grâce aux gaines de béryllium et à la glucine comme modérateur, on puisse faire dans l’avenir de grandes économies de combustible.
- Une formule séduisante pour les prochains réacteurs de puissance
- C’est sur la mise au point de la formule des réacteurs modérés par graphite et refroidis par gaz carbonique sous pression que la France a fait porter jusqu’ici son principal effort, de même que la Grande-Bretagne. Les possibilités de la technique actuelle, caractérisée par l’utilisation de barreaux d’uranium naturel gainés par un alliage de magnésium, permettent encore de réaliser un certain nombre de progrès. Mais, si à plus long terme on cherche à perfectionner cette formule en obtenant une puissance spécifique plus élevée et une élévation notable de la température de sortie du gaz de refroidissement, on sera amené à envisager des modifications de structure assez importantes, telles qu’un plus grand fractionnement du combustible, l’utilisation d’oxyde d’uranium et le gainage en béryllium. Une telle combinaison permettrait des températures de sortie du gaz de l’ordre de 5200 et un rendement thermodynamique de 37 à 38 pour 100, en admettant une température de 6oo° sur gaine de béryllium (que ne pourrait supporter le magnésium). Ce type de combustible paraît être la clé du domaine réservé des hautes températures.
- La glucine étant, en tout état de cause, réservée aux réacteurs destinés à la propulsion, le réacteur de puissance modéré par eau lourde est un des plus séduisants pour la prochaine décennie, plus peut-être que le réacteur à haute température modéré par graphite, comme est l’A. G. R. britannique.
- Permettant en effet des puissances spécifiques moyennes élevées, de l’ordre de 15 MW/tonne, le réacteur est économiquement comparable aux réacteurs à eau légère dans la mesure où l’eau lourde immobilisée ne représente qu’une partie des investissements. En même temps, il permet ce qui est sans doute la meilleure utilisation possible de combustible, en exploitant le plus complètement la voie de l’uranium naturel. L’excellente économie de neutrons due à l’eau lourde du modérateur et au béryllium du gainage rend possibles des taux de combustion moyens de l’ordre de 10 000 MW par jour et par tonne, ce qui permet de fixer le coût du combustible aux environs de 0,06 NF par kilowattheure produit, même en tenant compte d’un prix de gainage élevé.
- Claude Benoit.
- 216
- p.216 - vue 217/560
-
-
-
- L’aspiration de la couche-limite augmentera
- le rayon d’action des avions
- Les grands rayons d’action, dans l’état actuel de la technique des avions, ne sont obtenus qu’au prix de réductions importantes de la charge utile. Ceci oblige les appareils de transport qui desservent de longs parcours à faire des escales intermédiaires qui, lorsqu’elles ne sont pas nécessaires à l’écoulement du trafic, coûtent cher, du fait du combustible dépensé pour descendre de l’altitude de croisière et pour y remonter. Le facteur qui influe le plus sur le rayon d’action est la traînée de l’avion, c’est-à-dire la force que l’air oppose à son avancement. La traînée est beaucoup augmentée (et la portance diminuée) par la couche-limite dont nous avons déjà parlé (La Nature, août 1957, P- 323)-
- Rappelons que si l’on considère une aile d’avion animée d’une vitesse V, une couche de molécules d’air adhère à la surface de l’aile ; leur vitesse par rapport à celle-ci est nulle. Au fur et à mesure qu’on s’écarte de la paroi, la vitesse augmente et, au delà d’une certaine distance, on retrouve la vitesse Y. C’est cette pellicule d’air, entourant l’aile, que l’on appelle la couche-limite.
- La couche-limite présente deux états. Dans une première région, à l’avant du profil, l’écoulement de l’air au voisinage de la surface se fait par filets fluides indépendants les uns des autres ; c’est l’état laminaire. A l’arrière, il se superpose à ce mouvement de translation un mouvement d’agitation des particules d’air qui se meuvent de façon désordonnée : c’est l’état turbulent, qui s’accompagne d’ailleurs d’un décollement de l’écoulement d’air sur l’extrados du profil ; ce décollement provoque une perte de portance. Tout dispositif capable d’agir sur la couche-limite en contraignant l’écoulement à demeurer attaché au profil doit augmenter la portance et diminuer la traînée de l’avion, en évitant qu’une partie de l’énergie ne soit perdue par turbulence.
- Pour cela deux procédés ont été imaginés : x° souffler de l’air dans le sens de l’écoulement, pour entraîner l’air stagnant de la couche-limite ; z° aspirer la couche-limite à travers des fentes ou une paroi poreuse. Ces deux procédés ont déjà été employés en combinaison par les ingénieurs allemands entre les deux guerres, mais le poids élevé des organes de production d’air comprimé annulait presque complètement le bénéfice aérodynamique. L’avènement de la turbine à gaz et la possibilité de prendre l’air comprimé au compresseur de la machine avaient permis de reprendre ces études sur de nouvelles bases. Les premiers résultats obtenus, tant en Angleterre qu’aux États-Unis (voir notre article déjà cité), étaient très encourageants.
- L’aspiration de la couche-limite a été spécialement étudiée par la société américaine Northrop qui, après plus de dix ans de travaux théoriques et d’essais en soufflerie, est maintenant arrivée au stade de l’expérimentation en vol, qui doit per-
- mettre de juger du prix de revient du procédé et de son efficacité en fonction des différentes conditions de vol.
- Quelques essais préliminaires furent déjà effectués sur un intercepteur Lockheed F. 94 à aile en flèche ; les résultats furent très substantiels et une nouvelle série d’essais sur des bombardiers Douglas B. 66 D va permettre de mesurer exactement l’amélioration des performances. Ces avions seront propulsés par des réacteurs à double flux Pratt et Whitney de 7 700 kg de poussée ; de tels réacteurs sont indispensables au contrôle de la couche-limite, car le niveau de bruit des réacteurs classiques est trop élevé pour que la stabilité de la couche-limite ne soit pas perturbée. Le poids de l’avion est de 32 t et sa vitesse de 1 000 km/heure.
- Le système d’aspiration utilise deux aspirateurs, l’un créant à l’intérieur du bord d’attaque et sous l’extrados une pression égale au tiers de la pression ambiante, et l’autre créant au-dessus de l’intrados une pression égale à la moitié de la pression ambiante. Les deux flux aspirés seront ensuite portés à une pression égale à une fois et demie la pression ambiante avant d’être éjectés à l’extérieur par une tuyère qui participera ainsi à la propulsion de l’avion. Les deux aspirateurs consomment peu d’énergie et pourront être entraînés par une turbine alimentée par un prélèvement d’air sur les premiers étages des compresseurs des réacteurs ; par contre, le compresseur final qui traite les deux flux aspirés sera constitué par un turbogénérateur de gaz d’environ 2 500 ch.
- Du point de vue technologique, le caisson de l’aile d’origine sera entouré d’une enveloppe à double paroi en nid d’abeilles. La paroi extérieure comportera des fentes parallèles sur toute l’envergure, de largeur variable entre 0,1 et 0,25 mm. Chacune de ces fentes débouchera dans une rainure en forme d’U percée de milliers de trous de 1,5 mm de diamètre, à travers lesquels s’effectuera l’aspiration de la couche-limite. Une telle fabrication nécessite un outillage spécial de grande précision. En outre, le maintien de l’écoulement laminaire sur une grande partie de l’aile n’est possible que si l’état de surface du revêtement est amélioré en conséquence. C’est ainsi qu’avec la technique Northrop, les aspérités ne devront pas dépasser 0,12 mm.
- Grâce à cette technique, les nouveaux avions cargos construits pour l’armée de l’air américaine verront leur rayon d’action à pleine charge augmenter de 40 pour 100.
- La même technique pourra évidemment améliorer de la même façon les performances des avions de transport civils, et ce d’autant plus que la voilure sera plus nette. C’est ainsi qu’elle s’adaptera mieux aux avions du genre « Caravelle » ou V. C. 10, à réacteurs accolés au fuselage, qu’à ceux dont les réacteurs sont suspendus sous la voilure (Boeing 707 ou D. C. 8).
- J. Spincourt.
- 217
- p.217 - vue 218/560
-
-
-
- Les besoins en eau aux Etats-Unis dépasseront bientôt
- les quantités disponibles par Louis Thaler
- En matière d’aménagement du territoire le cas des États-Unis est toujours exemplaire. C’est vrai surtout en ce qui concerne les problèmes d’exploitation, de conservation, de protection, voire de restauration des ressources naturelles. Dans aucun autre pays de dimensions continentales les déséquilibres introduits dans le milieu naturel par la civilisation industrielle ne progressent aussi rapidement. Mais dans aucun autre pays non plus l’étude scientifique de ces déséquilibres n’est aussi poussée. Enfin, aucun autre pays ne met en œuvre des moyens techniques aussi puissants pour tenter de réparer les dégâts qu’on a pu mettre en évidence. Ainsi les États-Unis offrent à l’avance à l’Europe le spectacle commenté des méfaits et des bienfaits qu’elle peut attendre des progrès accélérés de la technique.
- L’un des problèmes les plus préoccupants est celui de
- l’eau. Voyons ce que nous apprend à ce sujet le rapport que vient de publier le Water Information Center (Ava.il-ability and Use of Water in the United States, New York, i960).
- C’est du ciel que vient, plus ou moins directement, l’eau que les hommes utilisent. La moyenne des précipitations, établie sur une longue série d’années, correspond à une hauteur annuelle d’environ 75 cm sur l’ensemble des quarante-huit états continentaux de l’Amérique du Nord. On estime que plus de la moitié des précipitations fait presque immédiatement retour à l’atmosphère par simple évaporation. Une autre fraction importante est également restituée à l’atmosphère par la transpiration des plantes. Sur ce flux d’évaporation et de transpiration qui détourne plus des deux tiers des précipitations, l’homme n’a pratiquement aucune prise.
- Seules, l’eau qui s’écoule jusqu’aux rivières et celle qui
- Tableau I. — Ressources en eau et consommation aux États-Unis
- (D’après les chiffres donnés par le Water Information Center, New-York, i960).
- Régions Surface en millions de km2 Débit moyen de l’écoulement annuel Ressources utilisables à tout moment de l’année et consommation en millions de mètres cubes par jour
- en cm/an en millions de m3/jour Évaluations pour 1955 Prévisions pour 1980
- Disponibilités permanentes Utilisation globale Utilisation consommante Disponibilités permanentes Utilisation globale Utilisation consommante
- 1. Nouvelle-Angleterre 153 61 25 5 ! 56,7 13,2 0,8 83,2 49,5 3,4
- 2. Delaware-Hudson . 81 56 122 | 30,2 37>° U9 9°,7 94,1 60,5
- 3 . Chesapeake 148 48 194 DU 12,1 0,8 45,4 47,6 4,5
- 4. Grands Lacs Est 122 46 144 113,4 40,4 i,9 124,7 140,6 7,9
- 5 . Grands Lacs Ouest. 21 I 28 160 128,5 55,6 3,o 136,1 225,7 26,1
- 6. Mississipi supérieur. 474 18 236 60,5 34,8 3,4 117,2 169,3 32,1
- 7. Sud-Est 725 41 806 170,1 44,6 3,4 283,5 271,0 28,7
- 8. Tennessee-Cumberland . D3 53 224 68,0 18,9 1,1 OO 00 N 78,6 6,4
- 9. Rivière Ohio .... 377 41 418 26,5 90,0 4,5 151,2 358,7 31,7
- 10. Missouri-Baie d’Hudson 1 508 5 198 60.5 88,4 42,0 124,7 161,4 31,0
- 11. Mississipi inférieur . . , 166 41 185 56,7 19,3 2,6 94,5 106,9 21,5
- 12. Arkansas-Red River. 702 18 342 37 , 8 28,3 n,7 75,6 72,2 26,1
- 13 . Golfe Ouest-Rio Grande 887 8 198 26,5 67,7 34,8 75,6 109,6 35,5
- 14. Fleuve Colorado. 671 2,8 57 45 >4 63,9 40,4 56,7 60,5 35D
- 15 . Grand-Bassin .... 520 2; 5 38 30,2 34,o 21,9 34,o 32,9 17,8
- 16. Pacifique Nord-Ouest . 668 33 604 192,8 105,1 49D 264,6 179,2 7D1
- 17. Pacifique Sud .... 291 30 236 68,0 82,4 48,4 105,8 99,4 42,7
- Etats-Unis 7 857 20,5 4 417 1 186,9 835,7 27D7 1 95D7 2 257,8 472,i
- Ce sont les valeurs relatives qui font l’intérêt de ce tableau ; comparer notamment les disponibilités permanentes avec l’écoulement moyen. Les disponibilités actuelles des régions voisines des Grands Lacs sont énormes, ce qui n’évitera pas cependant à l’avenir d’avoir recours à la réutilisation. Dans la région de la rivière Ohio, un effort gigantesque sera déployé pour quintupler ou sextupler les disponibilités actuelles, à l’aide de barrages et d’adductions lointaines. Dans les régions arides (14, ij) l’homme abandonnera partiellement la partie ; pour pouvoir subvenir aux besoins industriels et domestiques accrus, l’agriculture irriguée y sera supprimée. L’utilisation « consommante » atteindra dans certaines régions un niveau tel que le régime des cours d’eau en sera fortement affecté.
- 218
- p.218 - vue 219/560
-
-
-
- >y ;
- 0 C EA N-
- ------->.
- t=AT LA N Tl Q U E-
- MEXIQUE
- G 0 LFE=DU=MEX!QUE
- Fig. I. — Principaux bassins de drainage des Etats-Unis.
- Les numéros correspondent à ceux qui sont utilisés dans le tableau de données quantitatives : i, Nouvelle-Angleterre ; 2, Delaware-Hudson ; 3, Chesa-peake ; 4, Grands Lacs orientaux et Saint-Laurent ; 5, Grands Lacs occidentaux ; 6, Mississipi supérieur ; 7, Sud-Est ; 8, Tennessee-Cumberland ; 9, Rivière Ohio ; 10, Missouri-Baie d’Hudson ; 11, Mississipi inférieur ; 12, Arkansas-White River-Red River ; 13, Ouest du Golfe-Rio Grande ; 14, Fleuve Colo-
- rado ; 15, Grand-Bassin ; 16, Pacifique Nord-Ouest ; 17, Pacifique Sud. Sur plus de la moitié des Etats-Unis le débit annuel des écoulements (supposé étalé sur tout le territoire de la région considérée) est inférieur à 12 cm d’eau ; dans la région du fleuve Colorado il n’atteint pas 3 cm. Dans la région du Pacifique Nord-Ouest, ce débit correspond à 33 cm par an et en Nouvelle-Angleterre à 61 cm. Quant au fleuve Mississipi il écoule à lui seul un tiers du débit
- total annuel des cours d’eau américains. Voir le tableau I.
- (Imité de Availability and Use of Water in the United States, New-York, i960, avec l’aimable autorisation du Water Information Center).
- s’infiltre jusqu’aux nappes aquifères du sous-sol peuvent être considérées comme disponibles. L’excès en eau du sous-sol trouve finalement lui aussi sa voie jusqu’aux rivières. Aussi le débit annuel total des rivières est une expression de la quantité-limite supérieure de l’eau disponible chaque année. Aux États-Unis ce débit total correspond à une moyenne d’environ 50 000 m3 par seconde, c’est-à-dire de 4,4 milliards de mètres cubes par jour environ, ou encore de 20,5 cm d’eau répandue sur toute la surface du pays en un an (tableau I).
- La consommation en eau des États-Unis est considérée comme inférieure actuellement à 1,1 milliard de mètres cubes par jour, c’est-à-dire inférieure chaque année au quart du débit annuel total des cours d’eau. La marge de sécurité peut donc paraître à première vue confortable. En fait le débit total annuel n’est pas une donnée très instructive. Le débit des cours d’eau d’une région donnée varie au long de l’année avec les conditions météorologiques. L’élévation de la température, par exemple, accroît les pertes par évaporation et transpiration. Les fortes précipitations d’autre part entraînent une augmentation momentanée des pertes d’eau par écoulement immédiat vers la mer. Dans les régions arides et semi-arides, les trois quarts du débit total annuel sont dissipés par une sorte de vague
- qui naît, s’enfle et meurt en quelques semaines (il s’agit de la fonte de neiges d’altitude). Les débits quotidiens sur lesquels on peut compter sont des débits minimaux qui peuvent être très inférieurs au débit moyen. Le tableau I fait apparaître ces différences selon les régions.
- Lorsqu’on cherche à évaluer ces débits minimaux, on doit examiner le rôle que jouent les réservoirs naturels et les réservoirs artificiels. Ces derniers, malgré l’importance des travaux qui leur ont été consacrés, ne modifient pas de façon importante les quantités d’eau disponible dans les grandes unités régionales (ils jouent, par contre, un rôle fondamental dans le mode d’utilisation de cette eau). Ce sont les nappes aquifères du sous-sol qui constituent le réservoir hydraulique principal. Dans les régions où une forte proportion de l’feau précipitée peut s’infiltrer, les variations saisonnières du débit des cours d’eau sont beaucoup plus amorties, car dans le sous-sol l’eau ne circule que très lentement. Mais ce n’est pas tout, la capacité du sous-sol est telle que l’eau qui s’y trouve accumulée représente ordinairement la production pluviale de plusieurs années et constitue par conséquent un volant capable d’amortir les variations annuelles de la pluviosité.
- Aux États-Unis on estime que le sous-sol emmagasine au total une quantité d’eau égale à dix fois le total annuel
- 219
- p.219 - vue 220/560
-
-
-
- moyen des précipitations, c’est-à-dire à 35 fois le débit total annuel des cours d’eau. Dans la région des Grands Lacs la quantité d’eau qui, de plus, est préservée en surface est fantastique, d’un ordre de grandeur supérieur même à celui de l’eau souterraine. L’eau emmagasinée dans certaines régions par les lacs artificiels joue un rôle beaucoup plus modeste. Les disponibilités en eau d’une région sont donc déterminées de façon assez rigide par son climat et par le volume de ses réservoirs naturels. Compte tenu de ces conditions les spécialistes américains estiment que les quantités d’eau sur lesquelles on peut vraiment compter actuellement ne sont guère supérieures (20 à 30 pour 100) à celles qu’on utilise déjà effectivement ! Avant de livrer les autres données numériques sur le problème de l’eau aux États-Unis, arrêtons-nous un moment sur cette révélation impressionnante : dans un pays qui représente une fraction appréciable de la surface des terres émergées, l’activité de l’homme à elle seule absorbe la presque totalité du débit d’eau « sur lequel on peut compter » ! Il s’agit bien d’un phénomène d’importance planétaire. Cette constatation nous permet de préciser certaines modalités du cycle « humanisé » de l’eau.
- Puisque les rivières continuent de couler et que les poissons (pour combien de temps encore ?) continuent d’y nager, c’est que l’eau n’est pas, dans la plupart des cas, véritablement consommée ; après usage, elle est rendue aux plantes, aux animaux... et à d’autres hommes. Par ailleurs une consommation aussi importante n’est possible que grâce à la mise en jeu des volants hydrauliques naturels et l’on doit s’attendre à ce que l’utilisateur y puise parfois avec excès. C’est bien ce qu’on observe en effet en maints endroits où l’on s’achemine rapidement vers l’épuisement des « eaux fossiles ». Les eaux fossiles sont celles qui se sont emmagasinées au cours des époques passées dans les profondeurs du sous-sol et qui n’en ont pas bougé depuis lors, se trouvant au-dessous du niveau des sources les plus basses. Ce sont ces eaux fossiles que l’on exploite dans les régions arides ou semi-arides, où précisément elles n’ont aucune chance de se renouveler. Ainsi, les cultures irriguées qui, dans le Nord du Texas, font vivre une population de 500 000 personnes, sont entretenues aux dépens d’une réserve souterraine de 300 milliards de mètres cubes qui, dans vingt ans, cessera d’être exploitable.
- La consommation en eau de la nation américaine est si forte que la réutilisation de l’eau est devenue un problème majeur. Dans bien des régions, si l’on additionne les quantités consommées par les foyers domestiques, les usines et les fermes, on obtient un total qui dépasse de beaucoup les ressources naturelles. Cela provient bien entendu de ce que la plupart des utilisateurs ne font qu’ « emprunter » l’eau qu’ils utilisent. Le type de cet emprunt suivi de restitution totale est l’usine hydroélectrique. Manifestement ce type d’utilisation n’entre pas en compte dans le problème de l’eau et ne doit pas figurer dans les calculs de consommation. Il en va de même pour l’eau qui sert à la navigation et celle qui est nécessaire à certaines formes de loisir actif. Ces cas étant exclus, on estime cependant qu’aux États-Unis les deux tiers de l’eau que l’homme distrait du cycle naturel satisfont des besoins qualifiés ainsi de « non-consommants ». Le tiers restant est véritablement consommé : il s’agit de la majeure partie de l’eau qui est utilisée par les cultures irriguées (une faible partie seulement en rentre dans le cycle souterrain), de celle qui actionne les machines à
- Tableau IL — Utilisation de l’eau aux États-Unis
- Année Besoins (en millions de m3 par jour) Population desservie par les systèmes publics
- Domestiques Industriels Agricoles Total
- 1950. . 34,4 261,2 312,2 607,8 94 millions
- 1955- • 42,7 374,6 418,0 853,3 1x5 millions
- 1980. 139,9 1 489,3 627,5 2 256,7 240 millions
- vapeur, de celle qui entre dans la composition de produits manufacturés tels que les aliments en boîtes, etc.
- Dans la région de la rivière Ohio la consommation totale s’élève à trois fois la quantité d’eau disponible. Ceci implique une réutilisation massive et répétée. Mais bien que le phénomène de réutilisation soit de première importance, la distinction entre besoins « non-consommants » et « consommants » n’est pas aussi satisfaisante que les rapporteurs américains le laissent entendre. L’eau qui est restituée ne l’est pas vraiment au cycle naturel. Ce dernier est à jamais perturbé. Après usage domestique, industriel ou fermier, l’eau est fortement polluée bactériologiquement, chimiquement et même physiquement (songeons à l’élévation de température des eaux utilisées par les centrales thermiques, aux changements de tension superficielle des eaux chargées de produits détergents, à la radioactivité de celle qui sort des usines atomiques).
- On estime qu’en 1955 la moitié de l’eau prélevée était utilisée par l’agriculture, 45 pour 100 par l’industrie et 5 pour 100 par les foyers domestiques. Pour 1980 on prévoit des besoins globaux doubles ou triples (tableau I) : la consommation industrielle quadruplerait, tandis que 50 pour 100 des surfaces cultivées dans les zones humides seraient irriguées et que la population atteindrait 275 millions d’habitants (tableau II).
- Comment faire face à de pareils besoins ? Réduire les pertes par évaporation, accroître les chutes de pluie, adoucir l’eau de mer ? En grand, de pareils projets paraissent irréalisables d’ici longtemps. L’augmentation des disponibilités résultera de l’utilisation plus efficiente des volants hydrauliques naturels (dont certains sont encore vierges) et de la création massive de nouveaux réservoirs artificiels. De la sorte on espère voir les disponibilités augmenter d’un tiers. Ce sera bien insuffisant. Les besoins totaux des États-Unis en 1980 dépasseront de 20 pour 100 les disponibilités totales de l’époque. La réutilisation sera donc systématique et généralisée.
- Il faut toujours émettre avec réserve des prévisions à longue échéance. C’est ce que font les rapporteurs américains qui précisent bien qu’ils n’ont voulu faire que des estimations minimales en fonction des tendances observables à présent ; en plus des besoins dont la nature est connue dès maintenant, d’autres peuvent résulter du développement de telle technique encore inconnue. Cependant, ils ne semblent apercevoir aucune limite à l’utilisation, c’est-à-dire pour l’essentiel à la réutilisation de plus en plus intense de l’eau et ils envisagent avec confiance le développement d’une industrie appelée au plus grand avenir, celle de l’épuration des eaux usées.
- A ce sujet, le Service de la Santé publique a adressé à une commission du Sénat américain un rapport dans leque
- 220
- p.220 - vue 221/560
-
-
-
- il évalue à plus d’un milliard de dollars les frais qu’entraînera la lutte contre la pollution en 1980. D’ici l’an 2000 on doit s’attendre à une augmentation de 475 pour 100 de la quantité des déchets qui sont déversés dans les cours d’eau. L’augmentation des déchets non traités de la seule industrie chimique sera de l’ordre de 2 000 pour 100, suivie par l’industrie papetière, la pétrochimie et les industries alimentaires.
- Les enquêteurs du Water Information Center se contentent de noter que les quantités d’eau nécessaires pour maintenir dans les fleuves une dilution suffisante des résidus
- qu’on y jette ne feront qu’augmenter. C’est ainsi que pour la grande rivière Ohio déjà citée, il faudra d’ici 1980 multiplier plusieurs fois le volume des réservoirs artificiels qui permettent encore de conserver au fleuve des eaux à peu près propres. Mais n’est-il pas évident qu’il existe de ce côté une limite ? L’eau qui sert d’excipient aux déchets chimiques est définitivement utilisée.
- On en viendra bien à se passer de fleuves et de rivières, sinon d’égouts et de grands collecteurs !
- Louis Thaler.
- Le Ciel en Juin 1961
- SOLEIL : du Ier au 21 (à oh) sa déclinaison croît, de -j- 2l°59/ à + 23°27/ (maximum), puis revient à -j- 23°9/ le Ier juillet (à O11) ; la durée du jour passe de I5h50m le Ier à i6h7m le 21, puis revient à lôh4m Ie 3° I diamètre apparent le Ier (à oh) = 3i'3S",7, L 30 (à 24h) = 31'30",8. — LUNE : Phases : D. Q. le 5 à 2ihi9m ; N. L. le 13 à 5hi7m, P. Q., le 21 à 9h2m,
- P. L. le 28 à I2h38m ; périgée le 2 à 3h, diamètre app. 32’43" ;
- apogée le 17 à 22h, diamètre app. 2g'2g" ; périgée le 30 à lh, diamètre app. 33'g". Principales conjonctions : avec Saturne le 2 à i8h, à 2°42/ N. ; avec Jupiter le 3 à 6h, à 203O/ N. ; avec Vénus le 9 à 911, à 2°4' S. ; avec Mercure le 14 à 1811, à 2°4l' S. ; avec Uranus le 18 à Jh, à I°i8' S. ; avec Mars le 18 à Ioh, à l04Ô' S. ; avec Neptune le 24 à 911, à 3°7' N ;
- avec Saturne le 30 à oh, à 2°44' N. ; avec Jupiter le 30 à
- J2h, à 2°35/ N. Principale occultation : le 3, de p Capricorne (mag. 5,0), émersion à th4ini,6. — PLANÈTES : Mercure, encore étoile du soir dans la première décade du mois, puis disparaît, le 6, se couche à 2lh33m, soit ih45m après le Soleil ; Vénus, belle étoile du matin, se lève le 18 à ih42m, soit 2h6m avant le Soleil, mag. —4,1 ; Mars, dans le Cancer, puis le Lion étoile du soir se couchant avant minuit ; Jupiter, dans le Sagittaire brille dès la soirée, le 15, diamètre pol. app. 42",4 et mag. -— 2,2 ; Saturne, dans le Sagittaire précède Jupiter, le 15, diamètre pol. app. 16",2, mag. 0,5 et axes de l’anneau : 40",9 et + 14",8 ; Uranus, dans le Lion peut se rechercher le soir, près de Mars le 16, se couche à 22h57m le 18 ; Neptune, dans la Balance visible encore la majeure partie de la nuit,
- Verre transparent aux infrarouges
- Un nouveau verre transmettant le rayonnement infrarouge est fabriqué par la Corning Glass Works, États-Unis d’Amérique. Sous une épaisseur de 2 mm, ce verre (9752) transmet 77 pour xoo de l’infrarouge à 4 p.m et 38 pour xoo à 5,5 pm ; à 6oo° C, il n’y a aucune perte de transmission à 4 gm et seulement une perte de 13 pour 100 à 5,5 p.m. Ce verre possède de bonnes propriétés électriques et une excellente tenue aux conditions atmosphériques ; un essai de durabilité n’a fait apparaître aucune perte appréciable de transmission après 2X jours à un degré d’humidité de 95 pour 100 avec des cycles de températures bi-quotidiens entre 250 et 65° C. En dehors de ses applications dans les instruments d’optique, l’emploi de ce verre est particulièrement signalé pour les missiles guidés où il permet la détection de cibles à rayonnement infrarouge.
- H. M.
- le 15, position : I4h28m et — I2°44/, diamètre app. 2",4. — ÉTOILES VARIABLES : minima de (3 Lyre (3m,4-4m,3) le 2 à ioh,i, le 15 à 8h,5, le 28 à 6h,9 ; minima de 8 Balance (4m,8-5m,9) le 5 à 23L9, le 12 à 23L4, le 19 à 23h,o, le 26 à 22h,6 ; maxima de 4 Aigle (3m,7-4m,4) le 4 à I7h,°i le 11 à 2lll,3, le 19 à ih,5, le 26 à $h,J ; maxima de 8 Cèphée (3m,7-4m,6) le 4 à 3h,i, le 9 à 11 tL,9, le 14 à 20h,7, le 20 à 5h,5, le 25 à I4h,3. le 30 à 2311,1 ; maxima de Mira Ceti (2m,o-iom,i) le 12, de B Triangle (5m,7-i2m,6) le 18. — TEMPS SIDÉRAL : au méridien de Pai’is à O11 (T. U.) : le Ier : l6ÎL46ml8s,
- le il : I7jl25m43s, le 21 : 18115m9s, le Ier juillet : i8ll44m35s.
- Phénomènes intéressants : Observer l’apparition de taches et de facules à la surface du Soleil ; Solstice d’été le 21 à i6h. — Les grosses planètes Jupiter, Saturne, Uranus et Neptune sont facilement observables dans la soirée. •— Les anneaux de Saturne commencent à se refermer, le petit axe (face Nord) devient inférieur au diamètre pol. app. de la planète. — Uranus en conj. avec Mars le 16 à oh, à o°37/ S., profiter de ce rapprochement, pour rechercher aisément la lointaine planète. — Mercure est encore visible à l’œil nu dans le crépuscule au début du mois. — Le long crépuscule gêne l’observation de la Voie lactée.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- L’analyse des mélanges d’acide gras
- En dépit des progrès réalisés par l’utilisation de la chromatographie en phase gazeuse, l’analyse des mélanges d’acides gras demeurait jusqu’alors une opération longue et délicate. La séparation directe de ces acides, en particulier ceux qui ont plus de 12 atomes de carbone, étant pratiquement impossible, on les transformait en leurs esters méthyliques par chauffage au reflux pendant 2 h en présence de méthanol et d’acide sulfurique. L’Armour Institute vient d’annoncer avoir mis au point un réactif nouveau, à base de trifluorure de bore et de méthanol, qui permet d’effectuer cette estérification en 2 mn seulement. De ce fait, l’analyse complète d’un mélange d’acides gras contenant jusqu’à 18 atomes de carbone ne demande plus que 20 mn au lieu de 3 à 4 h qui étaient nécessaires auparavant. L’analyse en continu de ces mélanges apparaît donc désormais possible à l’échelle industrielle.
- R. R.
- 221
- p.221 - vue 222/560
-
-
-
- LES LIVRES NOUVEAUX
- Mais oui, vous comprenez les Maths, par Fred Klinger, directeur technique des Cours polytechniques de France, i vol. 13,5 X 20,5^ 200 p,, dessins de Jean Mangin. Éditions du Jour, Bruxelles ; Librairie Desforges, Paris, i960. Prix : 8,60 NF ; franco : 9,20 NF.
- Il est courant de dire que les mathématiques sont à la portée de tout le monde ; beaucoup de livres récents se sont efforcés de le prouver. Celui-ci n’a cure des progressions scolaires. Il ne craint pas d’aborder le calcul binaire, le maniement de la règle à calcul, la résolution graphique des équations et aborde le calcul intégral avant le second degré. Avec des figures excellentes il semble pouvoir mener assez loin le lecteur doué d’une suffisante attention.
- Mechanics, par Keith R. Symon. i vol. 16 x 23,5, xrv-557 p., 154 fig. Addison-Wesley Publishing Company, Reading (Mass.), i960. Prix, relié : 10,50 dollars.
- Cours de mécanique des étudiants américains, analogue à notre cours du certificat de mécanique générale. Belle présentation, nombreux exercices et solutions.
- Problèmes actuels en théorie de la Relativité,
- par O. Costa de Beauregard, R. Dupeyrat, B. Decaux, E. Sci-iatzman, S. Mavridès, J. Lévy, A. Lichnerowicz, Pham Mau Quan, F. Hennequin, Tan Hoang Pham, S. Kiche-NASSAMY, C. LanCZOS, P. MILLION et J.-P. VlGIEK, M.-A. Tonnelat. i vol. 16 x 24, 124 p. Éditions de la Revue d’Optique, Paris, 1959. Prix : 12 NF.
- Textes des communications présentées par les auteurs dans les réunions d’études et de mises au point tenues en 1958 sous la présidence de M. Louis de Broglie.
- La Radioastromie et son apport nouveau à la connaissance de l’Univers, par A. Boischot, astronome à l’Observatoire de Paris. 1 vol. 14 x 23, 126 p., 53 fig., 12 planches de photos hors-texte. Collection Évolution ries Sciences, Masson, Paris, i960. Prix : 13 NF.
- Après un bref rappel de « quelques notions utiles » l’auteur expose succinctement le mécanisme d’émission des ondes radio : émissions thermiques des solides et des gaz (raies spectrales et notamment de l’hydrogène neutre, émission gyromagnétique), émissions non thermiques (effet synchrotron, oscillations de plasma et autres mécanismes) ; puis la propagation dans les radiosources et l’atmosphère. La deuxième partie, plus étendue, est consacrée aux sources d’ondes radio dans l’univers : soleil, planètes, galaxie, enfin sources extragalactiques. Un petit livre très dense, bon condensé des connaissances acquises dans un domaine scientifique en rapide extension.
- Silicon Carbide. A higb température semiconductor, édité par J. R. O’Connor et J. Smiltens. i vol. 18,5 X 25,5, xx-521 p., fig. Pergamon Press Ltd., Oxford, Londres, New York et Paris, i960. Prix, relié : 90 sh.
- Un semi-conducteur apte à travailler à des températures élevées sera particulièrement intéressant pour certaines applications militaires et pour l’équipement des fusées. Le carborundum a été utilisé comme semi-conducteur jusqu’à des températures de 500° C et le présent volume réunit les conférences faites à ce sujet en 1959 à Boston. Il fait le point sur les connaissances tant théoriques que technologiques.
- Reaktivitat und Mechanismus in der organi-schen Chemie, par Jack Hine. Trad. allemande par Erhard Benzing et Volker Vossius. 1 vol. 15,5 X 23,5, xn-486 p,, 26 fig. Georg Thieme Verlag, Stuttgart, i960. Prix, cart. : 29,70 DM.
- Traduction en allemand du manuel de Jack Hine publié en 1956 sous le titre Physical Organic Chemistry ; quelques modifications ont été appor-
- tées à l’occasion de cette réédition. L’auteur rappelle les notions fondamentales sur la structure des molécules organiques (concept de résonance, liaisons-hydrogène, propriétés des solutions d’électrolytes, etc.). L’essentiel du volume est consacré à l’étude du mécanisme proprement dit des réactions chimiques, donc des étapes successives, considérées sous l’aspect structural et sous l’aspect énergétique que parcourent les composés mis en présence avant d’être transformés en produits finaux de la réaction. L’analyse porte essentiellement sur les réactions « polaires » et les réactions qui font intervenir des radicaux libres, catégories dans lesquelles s’intégrent d’ailleurs la plupart des réactions qui interviennent en chimie organique. La lecture de cet important ouvrage n’exige pas de connaissances mathématiques particulières, mais suppose des bases solides en chimie générale et organique. — G. B.
- Chromatographie en chimie organique et biologique, publié sous la direction de E. Leurrer. Volume 2 : Applications en chimie biologique. 1 vol. 16 X 25, 876 p., 98 fig., 251 tableaux. Masson, Paris, i960. Prix, broché : 130 NF ; relié : 140 NF.
- Rappelons que le premier volume de cet ouvrage paru en 1959 traitait des Généralités et des Applications de la chromatographie en chimie organique. En y joignant la présente livraison, les lecteurs français disposeront d’un traité parfaitement à jour, fruit de la collaboration d’une trentaine de spécialistes. Chapitres du volume 2 : sucres ; esters phosphoriques ; composés soufrés ; stérols, stéroïdes et substances apparentées ; lipides ; amino-alcools ; acides aminés et peptides ; dérivés des amino-acides ; protéines ; purines, pyrimi-dines et dérivés ; pigments non azotés ; pigments azotés ; vitamines lipo-solubles ; vitamines et facteurs de croissance hydrosolubles ; hormones azotées ; chromatographie des antibiotiques. Ouvrage destiné aux laboratoires de recherche et d’application.
- Laboratory Methods. Feuillets mobiles sous reliure spirale 18 X 22,5. Air Pollution Control District County of Los Angeles.
- Le voyageur qui arrive à Los Angeles est presque toujours accueilli par le « smog », brume formée par les émanations des usines et des pots d’échappement des automobiles et que nul vent ne vient balayer. Cet ouvrage réunit les méthodes d’études physico-chimiques utilisées par le Service des études de la pollution atmosphérique de Los Angeles.
- La pollution atmosphérique. 1 vol. 15 X 23,5, 226 p., 107 illustrations et plan de Paris en couleurs. Éditions Hermann, Paris, i960. Prix : 15 NF.
- ----- A NOS LECTEURS -------------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- Ce volume groupe l’ensemble des communications faites au cours des deux journées d’information sur la pollution atmosphérique qui ont eu lieu les 3 et 4 décembre 1959. Ces journées avaient été organisées par l’Association pour la Prévention de la Pollution Atmosphérique ; le Centre d’information pour le développement du conditionnement d’air, de la ventilation, du filtrage de l’air et du dépoussiérage ; l’Institut national de Sécurité. La vingtaine d’exposés contenus dans ce volume représente une approche, sous différents angles (expérimental, statistique, biologique, technique), du problème complexe de la pollution. Bien que datant à présent de plus d’un an, les travaux auxquels se réfèrent ces exposés demeurent une base essentielle de la connaissance en cette matière. Citons, parmi les conférenciers : MM. Raymond, Avy, Serruys, Chouard, Besson, Coin, Bugnard.
- Transport and accumulation in biological Systems, par E. J. Harris. 2e édition. 1 vol. 14,5 y 22, XII-Z79 p., 60 fig., 10 pl. Butterworths Scientific Publications, Londres, i960. Prix, relié : 50 sh.
- Cette réédition d’un ouvrage paru en 1956 et très apprécié des biophysiciens est profondément remaniée. L’évolution d’une science qui a particulièrement profité des techniques modernes, notamment du « marquage » des molécules pâlies radioéléments, le justifie. Les premiers chapitres traitent des propriétés générales des membranes cellulaires et des lois applicables aux mouvements de l’eau et des substances salines en solution. Dans les chapitres suivants sont analysés avec précision divers systèmes de transport et d’accumulation (globules sanguins, muscles, mitochondries, nerfs, rein, cellules végétales, levures). Dans certains cas, l’intervention d’énergie métabolique apparaît indispensable à l’entretien d’un mécanisme de perméabilité sélective. On regrettera que les observations rapportées dans cet ouvrage concernent presque exclusivement les mouvements d’ions minéraux et que la place dévolue au transport des composés organiques, qui a fait l’objet rie nombreuses recherches récentes, soit extrêmement réduite. — G. B.
- Developing Cell Systems and their Control, édité par Dorothea Rudnick. i vol. 16 X 23,5, vi-240 p., 125 fig. The Ronald Press Co., New York, i960. Prix, relié : 8 dollars.
- Chaque année, d’importantes communications sont présentées au Symposium de la « Society for the Study of Development and Growth ». Les neuf rapports dont les textes constituent cet ouvrage traitent respectivement de la différenciation cellulaire chez les Myxomycètes (J. T. Bonner), des facteurs gouvernant les processus de régénération chez les hydroïdes (P. È. Tardent) et chez les vertébrés (M. Singer), de la reconstitution des tissus artificiellement dissociés (A. A. Moscona) ; l’action des gibbérellines sur la croissance végétale est analysée par B. O. Phin-ney et C. A. West, l’effet des œstrogènes sur le métabolisme par C. A. Villee. H. Stern montre qu’une séquence de réactions biochimiques est décelable au cours de la mitose, cependant qu’A. B. Novikoff s’attache à localiser dans le cytoplasme les systèmes enzymatiques. Enfin, T. S. Work résume les données actuelles relatives aux mécanismes biochimiques et génétiques qui assurent la synthèse des protéines.
- Atlas de Paléogéographie, par Henri Termier, professeur à la Sorbonne, et Geneviève Termier, maître de recherches au C. N. R. S. 1 vol. 19 X 25,5, 100 p., 8 fig., 36 cartes en couleurs. Masson, Paris, 1959. Prix : 16 NF.
- Nous avons rendu compte de la publication, en 1952, de l’Histoire géologique de la Biosphère, de FI. et G. Termier, où les auteurs cherchaient à établir la liaison entre les phénomènes géologiques et biologiques dans l’histoire de la Terre.
- Cet ouvrage comprenait 35 cartes paléogéographiques où étaient indiqués la nature et les mouve-
- 222
- p.222 - vue 223/560
-
-
-
- ments présumés des flores et des faunes aux époques considérées. La Paléogéographie ayant été récemment introduite dans le programme de la licence ès « Sciences de la Terre », il a paru utile de faire une publication à part de ces cartes en leur adjoignant quelques données nouvelles et des commentaires succincts.
- Érosion et sédimentation, par Henri Termier, professeur à la Sorbonne, et Geneviève Termier, maître de recherches au C. N. R. S. i vol.
- 18,5 X 24,5, 412 p., 195 fig. Masson, Paris, i960. Prix, broché : 60 NF. ; relié toile : 69 NF Sans cesse compensées par les forces internes d’équilibre qui rehaussent les continents et approfondissent les cuvettes océaniques, érosion et sédimentation sont les deux phénomènes principaux qui ont modelé le relief terrestre. Ils dépendent d’abord du climat et le relief actuel porte encore les traces de ces grands accidents climatiques qu’ont été les glaciations quaternaires. Après avoir analysé ces influences les auteurs consacrent un chapitre aux mouvements du sol et à la genèse du relief terrestre. Puis ils étudient la glyptogenèse sous-marine dans ses rapports avec l’évolution continentale, avant d’appronfondir les mécanismes de l’érosion et ses principales « formes en grand », puis les diverses formes de la sédimentation. La sédimentation dans les lacs, dans la marge continentale, dans la mer, la sédimentation salifère et carbonatée font l’objet de chapitres spéciaux. Enfin, après quelques exemples de sédimentation complexe, on aborde la transformation des sédiments. Une courte conclusion envisage les causes de ces phénomènes et leurs cycles.
- Sols et végétations des régions tropicales.
- 1 vol. 21 X 27, 116 p., 10 fig., 9 pi. hors texte. Éditions de l’Unesco, Paris, i960. Prix : 15 NF. Travaux présentés au Colloque d’Abidjan du 20 au 24 octobre 1959. Ce colloque, rappelons-le, avait été organisé par l’Unesco, en accord avec la Commission de coopération technique en Afrique, au Sud du Sahara. Au cours de ses séances, les aspects les plus variés de la pédologie africaine ont été abordés, l’accent étant mis tout particulièrement sur les interrelations qui existent entre sols et végétations. Cette somme de travaux constitue un abondant matériel pour les pédolo-gistes, les écologistes, les agronomes et les géographes.
- Amanites du Sud-Ouest de la France, par
- Aimé G. Parrot, professeur de Sciences Naturelles au Lycée mixte de Biarritz. 1 vol.
- 15,5 x 24, 174 p., nombr. fig. et photos. Centre d’études et de recherches scientifiques, Biarritz, i960.
- Les Amanites comptent parmi les champignons qui ont été le plus étudiés et parmi ceux qui retiennent le plus l’attention des amateurs. Il reste pourtant beaucoup à faire pour leur étude, et cela suffit à montrer la complexité de la mycologie. M. Parrot s’est signalé par ses enquêtes approfondies sur la flore mycologique du Pays Basque. Les Amanites y sont particulièrement bien représentées, avec quelques espèces rarissimes. Cet excellent travail, où les espèces sont étudiées dans
- leur morphologie et dans leur écologie (qui pose parfois des problèmes curieux), sera grandement apprécié de tous les mycologues et les incitera à explorer notre Sud-Ouest, si favorable à leur science.
- Faune de France. Vol. 64 : Isopodes terrestres (Première partie), par A. Vandee, membre de l’Institut. 1 vol. 16 X 25, 416 p., 205 fig. Lechcvalier, Paris, i960. Prix, relié toile : 105 NF.
- Les Isopodes terrestres, connus sous le nom de Cloportes, ont été longtemps négligés par les 'Zoologistes orientés avant tout vers l’étude des formes marines. Depuis trente ans, aidé de nombreux récolteurs, le professeur Vandel s’est attaché à l’étude de la faune française. Actuellement 166 espèces réparties en 54 genres sont connues dans notre pays. Chaque espèce est étudiée dans cet ouvrage à tous les points de vue : morphologie, reproduction, parasites, écologie, répartition géographique, paléontologie. Les clés de détermination, fort précises et en même temps utilisables même pour un non-spécialiste, inciteront certainement les zoologistes à récolter ces animaux, les connaissances relatives aux Isopodes terrestres de notre pays étant encore remplies de lacunes et offrant matière à bien des recherches. La répartition géographique de ces animaux pose en particulier des problèmes fort intéressants. — K. D.
- Klinische Physiologie ( AkJnelle problème in Uebersicbten), publié sous la direction de W. A. Müller. Tome I, en deux fascicules
- 18,5 X 27. Georg Thieme Verlag, Leipzig, i960. Fasc. 1 : 118 p., 42 fig. ; prix : 23 DM. Fasc. 2 : 85 p., 22 fig. ; prix : 18 DM.
- Ces fascicules représentent les deux premiers d’une série d’exposés sur les problèmes d’actualité de physiopathologie humaine. Dans ces fascicules sont étudiés : l’énergie rayonnante primitive à l’échelon cellulaire, les phénomènes fondamentaux de l’électroencéphalographie, le transport du glucose dans les cellules et les tissus, le problème des idioties métaboliques et génétiques, les protéines anormales, le mécanisme et la régulation de la fonction gastrique. Chacun de ces chapitres représente une mise au point moderne de ces problèmes mouvants, toujours accompagnée d’une très riche bibliographie.
- Chine d’hier et d’aujourd’hui, par Pierre Huarii et Ming Wong. i vol. 22 X 28, 271 p., 582 fig. et cartes, 36 h.-t. en coul. Horizons de France, Paris, i960. Prix, relié : 75 NF.
- Nous ne possédions pas encore en français l’équivalent de ce travail, véritable encyclopédie des choses chinoises. La haute tenue de l’ouvrage, sa documentation parfaitement à jour, sa présentation irréprochable satisferont les plus exigeants. Tous les aspects du cadre (historiques et géographiques, y compris les questions anthropologiques), de la pensée, des arts, de la littérature et de la langue, des sciences et des techniques, de la vie sont étudiés sans nul pédantisme ni esprit didactique : « Ce livre ne s’adresse pas aux sinologues, mais au grand public... ». L’iconographie abondante, variée, techniquement excel-
- lente, est puisée aux meilleures sources. Cet ouvrage contribuera à clarifier les connaissances, à rectifier certaines idées reçues, à faire prendre conscience de problèmes intérieurs et extérieurs que t pose à ses gouvernants la Chine contemporaine. Destiné aux adultes autant qu’aux jeunes gens achevant leurs études secondaires, il rencontrera une large diffusion car il vient à une heure où son utilité n’est pas à démontrer. Bibliographie de six pages, dont les titres sont, en majorité, aisément accessibles, — L. T.
- Recueil d’études géographiques concernant le territoire de la République Populaire Roumaine. 1 vol. 17 x 24,5, 178 p., illustr.,
- 13 cartes h. t. Éditions de l’Académie de la République Populaire Roumaine, Institut de Géologie-Géographie, Bucarest, i960.
- Ce recueil a été publié à l’occasion du XIXe Congrès international de Géographie, tenu à Stockholm en i960. Il rassemble une série de quatorze articles consacrés à la Roumanie : les uns traitent de la morphologie, du périglaciaire, du climat, de l’hydrologie, de la faune et de la flore (10 articles) ; les quatre autres traitent de certains aspects de géographie humaine, types de villages, principes de la division régionale du territoire, géographie de la population. Contribution précieuse à l’étude géographique d’un pays de culture si proche de la nôtre. D’autres aspects géographiques sont contenus dans un recueil intitulé Pro-bleme de Géograjic (i960), publié en roumain avec résumé russe et français. Adresse : Bucuresti 20, strada Dr. Burghelea 1.
- Centre nucléaire de Cadarache. Numéro spécial de la revue Énergie nucléaire, vol. 3, n° 1, janvier-fevrier 1961. 24 x 31, 96 p. Prix : 16 NF.
- Un numéro spécial de la revue Énergie nucléaire (janvier-février 1961) a été entièrement consacre au nouveau centre de Cadarache, en voie d’installation par le Commissariat à l’Énergie atomique. Rédigé par des administrateurs et des chercheurs de cet organisme national, ce numéro représente une véritable monographie de Cadarache, comportant une vue d’ensemble du centre ainsi que la description des piles (notamment Pégase et Rap-sodie) et des différents services qui vont y fonctionner désormais.
- La philosophie de l’algèbre de Lagrange, par J. Vuillemin, professeur à la Faculté des Lettres de Clermont-Ferrand. 1 brochure 13,5 X 18, 24 p. Édition du Palais de la Découverte, Paris, i960. Prix : 1,60 NF.
- L’auteur montre comment Lagrange, notamment par son Mémoire de 1771, a inauguré ce qu’on peut appeler la méthode critique de l’algèbre.
- Jean Fernel et les problèmes de la médecine de la Renaissance, par Jacques Roger, chargé d’enseignement à la Faculté des Lettres de Poitiers. 1 brochure 13,5 X 18, 26 p., 1 figure hors texte. Édition du Palais de la Découverte, Paris, i960. Prix : 1,70 NF.
- « Un des médecins les plus importants de la Renaissance et l’un des esprits les plus représen
- MATHÉMATIQUES MAGIE ET MYSTÈRE
- PAR
- M. GARDNER
- TRADUIT DE L’AMERICAIN PAR R. ROSSET
- x-179 p. 14x22, avec 86 fig. 1961. broché sous couvcrl. i 11... 8,80 NF
- En vente dans toutes les bonnes librairies et chez
- . Éditeur, 92, rue Bonaparte, Paris-6'. DAN 99-15.
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- {Reconnue par l'État - '. M. 25 |uiilet I95s|
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Püris-4e. —ODE 54-83
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d’État.
- Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- 'ymÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊIÊÊÊÊÊÊÊÊlÊÊÊÊÊÊÊÊIÊIÊÊÊÊIÊIÊÊÊKÊÊÊÊÊÊÊÊÊÊÊlÊÊÊÊMI
- 223
- p.223 - vue 224/560
-
-
-
- tatifs de son temps » ; il tenta une synthèse impossible de la science ancienne et de la science moderne qui commençait à s’édifier.
- France, quelle agriculture veux-tu ? par Raymond Cartier, i vol. 14 X 20,5, 100 p. Plon, Paris, i960. Prix : 4,30 NF.
- Une étude sérieuse fondée sur des enquêtes impartiales a conduit l’auteur à des conclusions nettes et vigoureuses. Le niveau de vie de l’agriculteur pourrait être égal à celui des autres catégories sociales, et l’agriculture française, grâce au Marché commun, pourrait trouver de grands débouchés, si l’on consentait en sa faveur les efforts de tech-
- nique et.de financement qui sont accordés à l’industrie. Tous les sols peuvent devenir productifs et la « culture de l’herbe » promet à l’élevage des rendements inespérés. Mais il faut vouloir.
- Fishes of the Marshall and Marianas Islands,
- par Leonard P. Schultz et collaborateurs. Vol. 2 : Fami/ies front Mullidœ through Stroma-tcida. U. S. National Muséum, Bull. n° 202. 1 vol. 15,5 X 23,5, vm-438 p., fig., 48 pi. h. t. Smithsonian Institution, Washington, i960. Prix : 2,25 dollars.
- Cet important travail forme la deuxième partie d’une faune complète des poissons des îles Mar-
- M
- WMtemtè
- CH. LEMONNIER IO.S
- DES CRAIES ARTISTIQUES AUX MILLE RESSOURCES
- Par leurs Qualités exceptionnelles les CRAIES NEOCOLOR sont particulièrement appréciées de l'artiste, du maQuettiste, du décorateur. Exemptes de toute matière nocive, elles sont précieuses pour l'enseignement du dessin aux enfants.
- D'UNE LUMINOSITÉ INCOMPARABLE
- el/es s'a/i/Ufçu&ittsul. TOUT
- Très fortement pigmentées et résistantes au soleil, les CRAIES ARTISTIQUES NEOCOLOR permettent de travailler, même en grande surface, sur papier, carton, bois, textile, métal, verre, plastiçues, plâtre, etc.
- €l/es seiïïsf&htà i&tts Offertes
- Les CRAIES ARTISTIQUES NEOCOLOR employées à sec permettent la techniQue du grattage. Diluées dans le FOTOL (diluant caran D’ACHE) ou la térébenthine, elles s'appliQuent au pinceau donnant les effets de lavis ou de peinture à t'huile.
- £fféî du
- En boîtes : 10, 15 et 50 couleurs
- DISTRIBUÉ par CORECTO R - A D H É SIN E
- shall, dont le début a paru en 1953 et dont un troisième volume est en préparation. La partie de cette faune publiée aujourd’hui comporte l’étude de quinze familles allant des Mullidœ aux Stromateidœ. Les auteurs se sont partagé le travail de telle façon que le texte concernant chaque famille est traité par l’un d’entre eux qui en est responsable. L’ensemble est cependant parfaitement homogène et comporte des tableaux de détermination des genres et des espèces suivis, pour chacune de ces dernières, de la description complète et de la répartition géographique. L’illustration est abondante et présente en particulier, sur 48 planches de photographies, l’aspect général de toutes les espèces. C’est un travail indispensable pour tous les Laboratoires d’Ichthyologie.
- Expédition Boumerang, par Bengt Danielsson. Trad. du suédois par M. Gay et G. de Mautort. 1 vol. 13 X 20, 310 p., 2 cartes, 16 photos hors texte. Albin Michel, Paris, i960. Prix : 12 NF.
- Un voyage de 30 000 km à travers l’Australie, plein de péripéties et conté avec verve. Chemin faisant, on apprend à connaître ce continent sous tous les points de vue, géographique, politique, économique et social, des grandes cités modernes aux vestiges, encore vivants pour peu de temps, de l’âge de la pierre.
- Plaisirs de la chasse, par Jacqueline de Chimay. 1 vol. 18,5 X 23,3, 96 p., 80 illustr. en noir et 12 hors-texte en couleurs. Collection Tout par l’image, Hachette, Paris, i960. Prix, cartonné : 12 NF.
- Bref historique et exposé à bâtons rompus, en partie anecdotique, des différents modes de la chasse au fusil, où ne manquent pas les conseils, chemin faisant. Les perdreaux, les faisans, les grouses (en Écosse), les bécassines et les chevreuils font les frais de ces plaisirs. Les chiens y sont à l’honneur.
- La nature et la vie, par Jean-Marie Roche. 1 vol. 12 x 18,5, 64 p. Chez l’auteur, Naillat (Creuse), i960.
- Ce petit livre, surtout composé, de façon originale, par des citations, prétend montrer dans sa première partie que le mot « nature » doit être chassé de la biologie. La vie n’est pas un produit de la matière. Elle est énergie, et elle est esprit, ce que pose, si l’on comprend bien, la deuxième partie. Quant à la conclusion, elle est tirée d’Anatole France, qui se disait accablé par la bêtise humaine. Ce qui montrerait que, si la vie est esprit, l’esprit a ses défaillances !
- A propos des piles à combustible. — L’article de R. Rosset sur les piles à combustible (La Nature-Science Progrès, janvier 1961, p. 35-42) ne comportait, par erreur, aucune référence. Précisons que des emprunts ont été faits à M. Georges Génin (Chaleur et Industrie, avril et mai i960) ainsi qu’aux publications américaines Revue d’entreprise de la General Electric et Chemical Engineering News, aux revues britanniques Engineering (MM. Bacon et Forrest) et The Engineer, aux Annales des Mines de Bruxelles (MM. Justi et Bischoff), à Ingénieurs et Techniciens (M. Brocard).
- PETITES ANNONCES
- (3 M*’ la ligne, taxes comprises. Supplément, de 1,50 iST’ pour domiciliation aux bureaux de la revue)
- Labo. rég. Maisons-Laffitte CHERCHE labo-rant, (e) pour anal, micro-biol. industr. SOMY-CEL, B. P. 28, Maisons-Laffitte (S.-et-O.).
- Le gérant : F. Dunod. — dtjnod, éditeur, paris. •— dépôt légal : 2e trimestre 1961, x° 37.37. •— Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL. N° 4a6o. — 5-rg61.
- 224
- p.224 - vue 225/560
-
-
-
- Les naines blanches, étoiles « dégénérées »
- des millions de fois
- par Jacques Bouchet
- us_denses que
- Les étoiles naines de luminosité blanche comptent sans doute parmi les astres les plus étranges et les plus mystérieux du ciel. Il semble qu’elles représentent l’aboutissement presque final de l’évolution stellaire et que, préfigurant le destin du Soleil, elles s’acheminent vers une mort thermique fatale par l’extinction progressive des fournaises nucléaires qui y engendrent l’énergie radiante. Quoique la surface de ces étoiles soit restée chaude et brillante, leur débit lumineux total est faible car elles sont devenues très petites. D’une masse comparable à celle du Soleil, qui, rappelons-le, est 333 000 fois plus grande que celle de la Terre, la dimension des naines blanches s’est réduite à celle de notre globe, de sorte que la matière y atteint, surtout dans leur centre, un degré de densité extraordinaire, hors de toutes proportions avec les normes qui nous sont familières.
- En 1844, Bessel s’aperçut que la plus brillante des étoiles, Sirius, suivait dans le ciel un trajet sinueux. Pour perturber ainsi Sirius il fallait un astre très massif qui pourtant demeurait invisible ; on pensa donc qu’il s’agissait d’un système double, dont la composante inconnue était obscure. Il n’en était rien et, en 1862, Alvan Clark put apercevoir le « compagnon de Sirius », d’ailleurs tout à fait par hasard. Clark cherchait simplement à vérifier la perfection optique d’un nouvel objectif de grandes dimensions qu’on venait de lui livrer et il avait choisi Sirius dont la luminosité lui paraissait idéale. Il fut d’abord désappointé en apercevant à côté de l’étoile un point lumineux plus petit qu’il attribua à une imperfection de sa lentille : celle-ci avait sans doute besoin d’être repolie. Mais il s’avisa bientôt que le point lumineux n’était autre que le compagnon de Sirius, inaperçu jusque-là. Le compagnon reçut le nom de Sirius B, Sirius A désignant l’étoile principale, ou composante primaire (fig. 1).
- La détermination de l’orbite indiqua pour Sirius B une masse voisine de celle du Soleil, tandis que sa luminosité était 360 fois plus faible. On ne s’en étonna pas d’abord : la température de Sirius B devait être très basse. Ce fut en 1914 seulement qu’Adams, examinant l’étoile avec le télescope de 2,50 m du Mont Wilson, trouva que, loin de se montrer rougeâtre, elle était d’une blancheur éblouissante. Il était évident qu’elle donnait par unité de surface plus de lumière que le Soleil. Donc, pour que sa luminosité totale fût si faible, il fallait que son diamètre
- Terre
- fût très petit. Connaissant la distance de Sirius B, qui est approximativement la même que celle de Sirius A, on pouvait aussi connaître son éclat réel par la mesure de son éclat apparent. Il suffisait alors d’estimer sa température d’après sa couleur (spectre lumineux) pour calculer son flux d’énergie par unité de surface et en déduire ses dimensions qu’on trouva peu supérieures à celles de la Terre.
- Sirius A
- Sirius B
- Fig. 1. — Le mouvement du système de Sirius.
- Le centre de gravité du système se déplace en ligne droite. Les étoiles suivent dans l’espace à trois dimensions un trajet hélicoïdal ; la composante principale, Sirius A, circule plus près du centre de gravité commun ; Sirius B, qui est plus léger, circule un peu plus loin.
- (Dessin imité de l’Astronomie populaire Flammarion).
- 225
- p.225 - vue 226/560
-
-
-
- A l’époque ce fut une révolution scientifique. La masse et le rayon étant bien établis, on ne pouvait échapper à la conclusion que Sirius B était formé d’une matière des milliers de fois plus dense que lé platine ! Les chiffres actuellement admis (Evry Schatzman, Paul Couteau) donnent un rayon de 7 500 km, un volume de 1,7 (la Terre étant prise pour unité), une température de surface de 15 ooo° et une densité moyenne de 780 kg/cm3 pour une masse 0,97 0 (le signe O indique que le Soleil est pris pour unité).
- Ces chiffres sont basés sur les spectres enregistrés en 1915. Ce n’est qu’en 1965 que les conditions idéales d’observation seront de nouveau réunies pour Sirius B qui se trouvera alors au point le plus éloigné de son orbite autour de Sirius A. En effet, la lumière de la naine blanche est la plupart du temps noyée dans celle de l’étoile principale du système, de sorte qu’il est très difficile d’en obtenir un spectre. Il est d’ailleurs probable que les moyens d’observation utilisables en 1965 nous apporteront des précisions nouvelles.
- Depuis la découverte de Sirius B on a catalogué environ 250 naines blanches, mais 80 seulement ont pu être étudiées avec quelque détail. Une centaine de parallaxes (c’est-à-dire de distances calculées trigonométriquement) sont connues
- et des spectres en nombre équivalent ont été obtenus au Mont Palomar, par l’astronome américain Jesse L. Green-stein, grâce au télescope Haie de 5 m. Mais on ne connaît avec précision que trois masses de naines blanches : celles de Sirius B déjà citée (0,97 Q), de 40 Eridani B (0,45 0) et de Procyon B (0,65 0). Ces étoiles sont en effet les seules à faire partie de systèmes doubles ou triples dont les orbites soient calculables. On sait qu’en se basant sur les lois de Képler et la constante de gravitation universelle, on peut chiffrer les masses des composantes d’un système double : les étoiles s’influencent réciproquement et tournent autour d’un centre de gravité commun situé entre elles deux. Si les masses sont inégales l’étoile la plus légère est évidemment la plus éloignée du centre de gravité commun.
- Quoiqu’elle fasse partie d’un système triple, au mouvement plus complexe, c’est la naine blanche 40 Eridani B qui est la mieux connue. Elle est assez proche des deux
- Fig. 2. — Dimensions relatives des trois étoiles du système 40 Eridani. Le rayon du Soleil étant pris pour unité, les étoiles A et C ont des rayons respectifs de 0,9 et 0,4 ; la naine blanche B, qui décrit une orbite proche de C, n’a qu’un rayon d’environ 0,016 (10 500 km).
- (Dessin imité de Scientific American).
- O
- Fig. 7. — Un système double : LDS 500.
- Les deux composantes du système sont indiquées par des traits de part et d’autre. Ces étoiles ont un faible éclat et le calcul de leurs orbites est difficile.
- (Photos aimablement communiquées par M. Paul Couteau).
- Fig. 4. — Une naine blanche : Ross 640.
- Le spectre de cette étoile présente des raies métalliques, contrairement à la théorie qui prévoit que l’énorme pesanteur à la surface de ces étoiles doit entraîner en profondeur les éléments lourds. Voir p. 234.
- 226
- p.226 - vue 227/560
-
-
-
- autres composantes pour que son orbite soit bien mesurable et elle en est cependant assez éloignée pour qu’il soit aisé d’en isoler le spectre lumineux, ce qui n’est pas le cas de Procyon B, trop proche, comme Sirius B, d’une étoile beaucoup plus brillante. Le système de 40 Eridani possède une composante primaire de dimensions et de luminosité très comparables à celles du Soleil, accompagnée d’une étoile plus faible de rayon 0,45 Q et de la naine blanche dont le diamètre de 21 000 km lui donne « seulement » une densité de 300 kg/cm3 pour une masse un peu inférieure à la moitié de celle du Soleil. Nous verrons cependant que des méthodes moins directes que le calcul des orbites permettent encore d’estimer les masses et les densités de naines blanches isolées dans l’espace. Selon M. Evry Shatzman, de l’Institut d’Astrophysique de Paris, la densité moyenne de l’étoile Yan Maanen 2, par exemple, atteindrait 30 tonnes par centimètre cube (cent fois plus que 40 Eridani B). Pour comparaison, rappelons que la densité moyenne du Soleil est de 1,4 g/cm3 et celle de la Terre 5,5 g/cm3.
- Disons encore un mot de la magnitude absolue (luminosité vraie, indépendante de la distance à laquelle on l’observe). Celles des naines blanches s’étagent entre un centième et un dix-millième de la luminosité du Soleil, ce qui les rend invisibles quand elles ne sont pas relativement proches : on ne peut guère en apercevoir au delà d’une distance de 30 années-lumière et c’est pourquoi l’on n’en connaît pas davantage. Cependant, d’après leur abondance dans nos parages, elles ne semblent pas constituer un type exceptionnel : elles entreraient pour 3 pour 100 dans la composition stellaire de la Galaxie.
- Les réactions thermonucléaires, source d’énergie des étoiles
- Les étoiles entretiennent leur chaleur en transformant l’hydrogène en hélium, soit par un cycle où le carbone joue le rôle de catalyseur, étant retrouvé intact à la fin du cycle (cycle de Bethe), soit par une réaction, beaucoup plus simple, entre protons (noyaux d’hydrogène), analogue à celle qui a lieu dans une bombe H. Dans ce dernier cas les noyaux d’hydrogène, sous l’effet de la haute agitation thermique, se combinent pour former du deutérium : deux protons se réunissent et l’un d’eux se transforme en neutron par émission d’un électron positif. Ensuite, par capture d’un nouveau proton, il se forme suivant le même processus de l’hélium 3. Enfin deux noyaux d’hélium 3, se réunissant et réémettant deux protons isolés, forment de l’hélium 4, très stable, dont les noyaux sont connus sous le nom de particules a (fig. 5). Ces réactions créent de l’énergie qui s’échappe sous forme de rayons y, l’hélium 4 pouvant être considéré comme une cendre résiduelle. On croit que la réaction proton-proton est la seule à intervenir dans les premiers temps de la vie d’une étoile et sans doute aussi dans les naines blanches où la grande densité rapproche les noyaux d’hydrogène, augmentant leurs chances de fusion.
- On peut se demander comment les photons y, produits par ces réactions, gagnent la surface de l’étoile à travers une épaisseur considérable de matière. L’explication s’en trouve dans les interactions continuelles entre le rayonnement et la matière, les noyaux et les électrons absorbant et réémettant sans cesse des photons. En définitive, ceux-ci
- JH
- Fig. j. — Schéma de la réaction thermonucléaire proton-proton. Deux noyaux d’hydrogène ordinaire 1H, c’est-à-dire des protons (P), s’unissent et l’un d’eux se transforme en neutron (N) par émission d’un électron positif e+, ce qui donne un noyau de deutérium 2D(PN). Par capture d’un nouveau proton le deutérium donne de l’hélium 3 (PPN). Deux noyaux d’hélium 3 s’unissent enfin et, après expulsion de deux protons, forment de l’hélium 4 ordinaire (PNPN).
- progressent lentement vers la surface de l’étoile. Leur fréquence étant proportionnelle à leur énergie qui est elle-même fonction directe de la température, cette fréquence baisse lorsque les rayonnements atteignent les couches extérieures moins chaudes et ils s’échappent finalement dans l’espace sous forme de lumière, émise par une couche relativement mince de l’étoile, la photosphère.
- Dans la première phase de son existence, une étoile est une immense bulle d’hydrogène de très faible densité. En se contractant sous l’effet des forces de gravitation, elle s’échauffe progressivement et il arrive un moment où la température en son centre est suffisante pour que s’y amorcent les réactions thermonucléaires. L’élévation de la température arrête par elle-même la contraction. D’abord l’agitation thermique des particules du gaz, dans les régions centrales de l’étoile, crée une force d’expansion, une élasticité de la matière, qui tend à soutenir le poids des couches supérieures. Mais à cette force s’en ajoute une autre qui dépend directement de l’intensité des réactions nucléaires et stabilise l’étoile d’une manière en quelque sorte automatique : c’est la pression de radiation, capable d’équilibrer la pression de gravitation. Les photons y naissent en telle quantité dans les régions centrales, où les réactions nucléaires sont les plus actives, qu’on peut les comparer à un « vent » qui se dirige vers la surface de l’étoile et la fait se distendre. Le diamètre de la gigantesque sphère gazeuse se règle par un mécanisme de rétroaction ou feed-back, comme disent les cybernéticiens. Si les réactions nucléaires s’emballent, la pression de radiation augmente et l’étoile se gonfle. Mais alors la densité et la pression
- 227
- p.227 - vue 228/560
-
-
-
- de gravitation diminuent, la température tend à baisser et les réactions nucléaires se ralentissent : la pression de radiation diminue, la gravitation reprend le dessus et l’étoile se contracte de nouveau jusqu’à ce qu’un équilibre s’établisse entre les forces opposées.
- C’est ainsi que les étoiles de type solaire sont très stables et conservent cette stabilité tant qu’elles n’ont pas usé une grande partie de leur réserve d’hydrogène. On montre d’ailleurs par la théorie que la masse de l’étoile intervient dans cet équilibre. Un astre trop massif engendre trop d’énergie, de sorte que la pression de radiation peut l’obliger à se scinder. Ce serait, d’après certains astronomes, l’origine des systèmes doubles : il y aurait scission en deux masses plus petites. D’autre part, une masse très forte abrège la vie d’une étoile. En effet une forte masse entraîne au centre de l’astre une densité, une pression et une température plus élevées qui déterminent des réactions nucléaires plus intenses et une dépense plus rapide du combustible. En définitive, la luminosité, qui mesure la dépense énergétique, est fonction de la masse et croît plus vite qu’elle. C’est ce qu’exprime la relation masse-luminosité établie par Eddington. A l’inverse, une étoile de faible masse brûle lentement son combustible nucléaire, elle conserve son capital d’hydrogène et a une vie beaucoup plus longue qu’une étoile géante.
- L’analyse théorique des phénomènes est rendue possible grâce à la composition relativement simple de la matière stellaire, composition qui facilite les calculs. En effet, l’ionisation produite par la haute température ne laisse guère subsister qu’un gaz de noyaux et d’électrons libres dont il est plus aisé de définir le comportement.
- (inactif)
- Radiation de surface (lumière visible)
- Fig. 6. — Modèle d’étoile à coquille thermonucléaire.
- Autour d’un noyau d’hélium résultant de l’hydrogène déjà consommé, les réactions thermonucléaires se poursuivent dans une « coquille ». Au-dessus de cette zone la température est insuffisante pour entretenir les réactions de l’hydrogène qui se contente de transmettre la radiation, les rayons y étant tour à tour absorbés et réémis par les atomes. Près de la surface se trouve une zone de transport de chaleur par convection. A la surface le rayonnement s’échappe aux longueurs d’onde de la lumière visible.
- Mais qu’advient-il quand les étoiles ont brûlé une grande partie de leur hydrogène ? Celui-ci s’épuise d’abord dans les régions centrales, laissant à sa place un noyau d’hélium qui grossit progressivement. A ce moment les réactions thermonucléaires ne se produisent plus que dans une « coquille » d’hydrogène qui entoure le noyau (fig. 6). Plus haut, vers la surface, la température n’est pas suffisante pour entretenir les réactions. A ce niveau les gaz transmettent la radiation par le procédé d’absorption et de réémission des photons dont nous avons déjà parlé, mais aussi grâce à un transport de chaleur par convection (déplacement de matière) qui se produit plus près de la surface et qu’on peut comparer à une ébullition. La présence de la coquille d’activité thermonucléaire autour d’un noyau devenu inerte marque le début de l’évolution d’une étoile vers sa fin, évolution qui ne s’amorce qu’après une longue période de stabilité.
- L’évolution des étoiles
- Il est très instructif de construire un diagramme où sont portés en abscisses le type spectral de chaque étoile (qui dépend de sa température de surface) et en ordonnées l’éclat absolu (lui-même en rapport avec la masse pour les étoiles stables). On voit alors que les étoiles ne se répartissent pas sur toute la surface du papier, mais se concentrent en un certain nombre de bandes, autour de lignes dont les principales ont été tracées sur la figure 7. C’est le diagramme dit de Hertzsprung-Russel. La plupart des étoiles se réunissent autour d’une ligne qui traverse le diagramme en diagonale, les masses crpissant de bas en haut. Ce sont les étoiles de la « série principale » qui montrent une longue période de stabilité parce qu’elles possèdent des réserves de combustible (hydrogène) suffisantes pour équilibrer leur bilan énergétique et conserver un rayon pratiquement inchangé. Il faut bien comprendre que la ligne continue du diagramme ne dépeint donc pas l’évolution d’une étoile. Lorsqu’une étoile, dans la première partie de son existence, a fini de se contracter pour entrer dans sa période de stabilité, elle vient se placer en un point de la ligne continue, point dont la position dépend de la masse puisque de celle-ci dépend la luminosité (fig. 8) ; l’étoile ne se déplace que fort peu sur cette ligne, dans la mesure où elle perd de la masse par son rayonnement (conformément à l’équivalence de la masse et de l’énergie).
- Cependant, il doit venir un moment où, ayant perdu suffisamment d’hydrogène, l’étoile ne sera plus stable ; alors sa figuration dans le diagramme de Hertzsprung-Russel la placera de plus en plus loin de la série principale et elle évoluera selon une ligne telle que celles qui, sur la figure 7, sont représentées en pointillé. La ligne d’évolution peut évidemment partir d’un point quelconque de la ligne continue. Cependant celle qui part du voisinage du Soleil, et qui a été figurée ici, est la plus habituelle, la plupart des étoiles ayant une luminosité comparable à celle du Soleil.
- Comment se fait cette évolution consécutive à la consommation d’une grande partie de l’hydrogène ? Lorsqu’une étoile a accumulé dans son noyau central une quantité d’hélium importante, les réactions thermonucléaires -s’éteignent progressivement dans ce noyau, entraînant une baisse de la pression de radiation. Le noyau d’hélium tend alors à s’affaisser sur lui-même. Il en résulte que la « coquille » d’hy-
- 228
- p.228 - vue 229/560
-
-
-
- Supergéantes
- /I Géantes // rouges
- 103 -
- Etoiles bleues ( Zwicky-Humason}
- —
- Naines blanches
- Couleur
- 3000 degrés
- 20000 10000 -----Température
- Fig. j. — Diagramme de Hertzsprung-Russel.
- Chaque étoile occupe une place déterminée sur ce diagramme en fonction de sa température de surface, connue d’après la couleur qui domine dans son spectre (en abscisses), et de sa luminosité (en ordonnées), la luminosité du Soleil étant prise pour unité. Les étoiles jeunes et stables (série principale) se placent toutes sur la ligne en trait continu, à un endroit qui dépend de leur masse (dont dépend leur luminosité). Quand les étoiles cessent d’être stables, elles quittent la ligne continue pour suivre des lignes telles que celles qui sont tracées ici en pointillé (ces lignes représentent donc une évolution, la relation entre la température et la luminosité changeant progressivement) ; la relation masse-luminosité est également altérée pour ces étoiles. Explications complémentaires dans le texte.
- drogène actif qu’il soutient s’affaisse à son tour. Cette contraction élève considérablement la température, entraînant par là une accélération des réactions thermonucléaires dans la coquille. L’évolution qui s’ensuit est relativement rapide, puisque l’astre accélère sa consommation de combustible, alors que celui-ci est près de s’épuiser. La température interne monte de plus en plus, les couches supérieures de l’étoile se dilatent considérablement et l’astre devient une géante rouge, de grande luminosité, mais avec une température de surface diminuée par l’énorme expansion de cette surface.
- Cependant la température centrale s’est accrue suffisamment pour que s’amorcent des réactions nouvelles. Les noyaux d’hélium se combinent entre eux pour formet des éléments plus lourds, comme le carbone (3 4He -> 12C) ou l’oxygène (12C -f-4He->leO). Ces réactions se produiraient au-dessus de cent millions de degrés (Fred Hoyle) alors que le Soleil n’en atteint qu’une quinzaine de millions dans ses régions centrales.
- Mais l’étoile épuise de plus en plüs ses réserves de combustible nucléaire et ce qui arriva précédemment à son noyau central va se répéter pour les couches qui l’entourent. L’étoile se contracte cette fois dans son ensemble et elle rebrousse chemin sur le diagramme de Hertzsprung-Russel (en pointillé de droite à gauche sur la figure 7). Quoique sa luminosité totale tende à diminuer, sa température de surface monte grâce à la contraction de son rayon et elle redevient blanche. Il semble alors qu’elle traverse la phase d’instabilité qui correspond aux étoiles périodiquement variables (Céphéides, RR-Lyrœ). Mais la théorie de cette pulsation lumineuse reste à faire : ses causes internes n’ont pas encore été précisées. Sans doute s’agit-il d’un
- Masse 110 0
- 1000000
- 100000
- Masse 20 0
- 10000
- Masse 10 o
- 20 10 987654 3 2
- Température (en milliers de degrés)
- Fig. 8. — Répartition des étoiles de la série principale selon leur masse dans le diagramme de Hertzsprung-Russel.
- Les étoiles ont des masses qui diffèrent en de larges limites autour de valeurs moyennes, plus fréquentes, analogues à celle du Soleil, qui est prise pour unité (0). Lorsque l’étoile, terminant la première phase de son existence, devient stable après contraction (les réactions nucléaires équilibrant alors les forces de gravitation), elle vient se placer sur la ligne continue du diagramme de Hertzsprung-Russel (série principale), en un point qui dépend de sa masse, et elle n’en bouge plus guère pendant toute la longue période (des milliards d’années) pendant laquelle elle reste stable.
- 229
- p.229 - vue 230/560
-
-
-
- Fig. ç. — Un spectrographe de l’observatoire de Meudon. L’appareil, monté sur un télescope, permet d’obtenir les photographies de spectres d’étoiles tels qu’en montre la figure 13 pour une série de naines
- blanches.
- 230
- p.230 - vue 231/560
-
-
-
- balancement de l’activité de l’étoile autour d’une position d’équilibre définie par la quantité de combustible qui lui reste. Suivant toujours de droitfe à gauche la courbe en pointillé du diagramme, l’étoile semble reprendre un éclat plus régulier mais son rayon diminué encore tandis que sa température de surface devient de plus en plus élevée. C’est ici apparemment que se place le stafle « nova » où les étoiles explosent et perdent par éjection une part plus ou moins importante de leurs couches superficielles. Malgré l’entrée en jeu des réactions de synthèse du fer et du nickel, qui auraient lieu à des températures de l’ordre du milliard de degrés, les régions internes de l’étoile devienhent si dépourvues de combustible qu’un moment arrive où elles s’effondrent d’un seul coup. Cet effondrement entraîne celui des couches proches de la surface qui cessent d’être soutenues. L’accroissement d’énergie dû à cette contraction subite est tel que les couches externes explosent en nuages de gaz qui s’éloignent de l’étoile à des vitesses de l’ordre du millier de kilomètres à la seconde. Ces pertes de masse rendent possible, d’après Subrahmanyan Chandrahsekhar de l’Observatoire de Yerkes, l’apparition du stade naine blanche. Cette théorie, complétée par M. Evry Schatzman, de l’Institut d’Astrophysique de Paris, prescrit la limitation de la masse d’une-naine blanche à 1,25 0. L’étoile doit auparavant perdre de la matière, que ce soit par éjection progressive (étoiles à bouffées de chaleur) ou par explosion (novæ et supernovæ). Plus massive, elle serait instable et resterait sujette à des phénomènes catastrophiques. Les naines blanches se placent en bas à gauche du diagramme de Russel dans des positions dispersées.
- maintenant beaucoup à celui d’une naine blanche (Green-stein).
- L’état dégénéré de la matière et la structure des naines blanches
- Les énormes densités qui régnent au sein des naines blanches correspondent à un état de la matière qui est dit « dégénéré ». Aux températures terrestres les atomes sont formés de noyaux entourés de ceintures électroniques qui leur donnent une structure relativement étendue mais aussi très vide. Un atome d’hydrogène, par exemple, a un diamètre dix mille fois plus grand que celui des particules, proton et électron, qui le constituent. Aux hautes températures qui régnent dans le Soleil, les atomes sont ionisés, c’est-à-dire que les électrons sont séparés des noyaux et forment un gaz de particules libres susceptible de devenir très dense. En effet, en l’absence d’orbites électroniques à parcourir, ces particules peuvent se rapprocher beaucoup sans perdre les caractéristiques de fluidité et d’élasticité d’un gaz parfait (fig. 10). Mais aux densités formidables qui sont atteintes dans les naines blanches, de nouveaux phénomènes apparaissent et la matière acquiert des qualités spéciales de résistance à la pression.
- Il subsiste bien entendu des incertitudes dans la théorie de l’évolution stellaire que nous venons d’exposer très succinctement. Il est possible, par exemple, que les étoiles qui ont une masse inférieure à 1,25 Qj ne passent jamais par le stade nova et finissent leur vie de façon plus calme en n’atteignant que progressivement une densité plus forte. Du moins ce serait le cas des naines rouges sensiblement moins massives que le Soleil. Les naines blanches suivraient elles-mêmes une évolution variable selon leur masse et peut-être selon leur composition dans un stade antérieur. Il semble bien cependant que la densité de ces étoiles ne provienne que de l’épuisement de leurs réserves thermonucléaires qui aurait laissé le champ libre aux forces de gravitation. L’extrême densité serait difficile à expliquer autrement. Dans ces conditions les lois de la thermodynamique indiquent qu’une naine blanche doit se refroidir de plus en plus et devenir finalement complètement obscure. Il n’est pas certain cependant, à cause de la lenteur d’une telle évolution, que notre Galaxie soit assez vieille pour contenir des naines noires de masse élevée. De toute façon nous entrons là dans le domaine des hypothèses et il est sans doute plus utile, selon l’opinion de M. Paul Couteau, de s’attacher à expliciter l’état actuel des naines blanches, d’ailleurs très difficiles à étudier à cause de leur faible lumière, que de se poser la question de leur évolution future. Tout ce que l’on peut dire est que nous avons sans doute assisté récemment à la naissance d’une naine blanche. Une nova récurrente, WZ de la Flèche, qui a explosé deux fois, en 1913 et en 1946, n’a plus qu’une luminosité qui équivaut au centième de celle du Soleil. En dehors de raies d’émission qui semblent correspondre à une éjection persistante de matière, son spectre ressemble
- O
- O
- • O
- 0
- O
- • o
- O o
- O
- • O
- o .
- o •
- O •
- ® o
- o
- 0
- 0 O »
- • • o
- o •
- o
- o
- O • o
- ° 5o
- Fig. 10. — Schéma d’un gaz ionisé.
- Quand les électrons (cercles blancs) deviennent libres par suite de leur énergie élevée et cessent de parcourir des orbites autour des noyaux d’atome (cercles noirs), le gaz peut atteindre de très fortes densités sans que les particules dont il est composé perdent leur liberté de mouvement.
- L’explication théorique de cette résistance fait intervenir le « principe d’exclusion » de Pauli, bien connu en microphysique. Les énergies des particules sont quantifiées, c’est-à-dire qu’elles ne peuvent prendre n’importe quelle valeur mais seulement un nombre défini de valeurs et sauter seulement d’un niveau d’énergie à un autre. Le principe d’exclusion énonce que deux électrons (du moins
- 231
- p.231 - vue 232/560
-
-
-
- dans un certain rayon qui est un multiple du libre parcours moyen des particules) ne peuvent occuper le même niveau d’énergie. Quand la densité et l’énergie totale sont faibles, les énergies individuelles se répartissent statistiquement de façon « normale », autour d’une énergie moyenne. Mais quand la densité des électrons et leur énergie totale sont considérables, tous les niveaux d’énergie inférieurs sont entièrement occupés. Il en résulte qu’une part importante des électrons atteignent des vitesses proches de celle de la lumière et deviennent capables de contrebalancer des pressions énormes, sans pour cela que la température moyenne augmente de façon appréciable, car les noyaux, de leur côté, conservent un faible éventail d’énergie et de nombreux électrons restent « gelés » à des niveaux inférieurs (fig. n).
- Fig. il. — Schéma de la distribution de l’énergie cinétique dans la matière dégénérée.
- Les noyaux (cercles noirs) conservent une certaine liberté. Mais la plupart des électrons (cercles blancs) occupent des niveaux de basse énergie cinétique (faibles vitesses) dans les gaz dégénérés soumis à très haute pression. D’autres électrons atteignent en revanche des énergies cinétiques considérables capables d’équilibrer la pression. La longueur des flèches figure symboliquement la vitesse des électrons.
- Au sein de cette matière dégénérée, des pressions cent millions de fois plus grandes que celles qui régnent au centre du Soleil pourraient ainsi, selon M. Schatzman, être équilibrées par simple augmentation de la densité. Il est inutile de faire intervenir des températures de plusieurs milliards de degrés comme on le faisait autrefois. Les températures centrales seraient indépendantes de la densité et ne dépasseraient pas 5 à 10 millions de degrés. Les naines blanches seraient donc nettement moins chaudes que le Soleil dans leurs profondeurs, malgré une température de surface beaucoup plus élevée. Leur température s’égalise par conduction dans le noyau central tout entier : la haute densité favorise la conductibilité thermique alors que le transport de chaleur par convection, c’est-à-dire par brassage de la matière, est impossible par suite de la gravité considérable qui a stratifié les éléments. Ceux-ci se sont à la longue triés selon leur poids atomique et cette stratification est définitive. L’hydrogène, qui a été complètement « brûlé » dans ies régions centrales, n’existe plus qu’à la périphérie (fig. 12).
- Le champ de pesanteur entraîne des pressions qui peuvent atteindre 100 millions de milliards d’atmosphères au centre d’une naine dense, alors que dans le globe terrestre, dont le rayon est comparable, elle ne dépasse nulle part trois millions d’atmosphères (un milliard dans le Soleil).
- La valeur de la gravité à la surface d’un corps sphérique est proportionnelle à sa masse et inversement proportionnelle au carré de son rayon. Par exemple, une étoile telle que Sirius B a une masse égale à celle du Soleil tandis que son rayon est 100 fois plus petit. L’intensité du champ de pesanteur à la surface est donc 10 000 fois plus forte qu’à la surface du Soleil. Sur les naines les plus denses la gravité peut atteindre des valeurs plus d’un million de fois plus élevées que sur la Terre. L’accélération de la pesanteur y est telle qu’un corps en chute libre pourrait y parcourir 500 m pendant le premier centième de seconde de son mouvement alors que sur la Terre il parcourt un demi-millimètre. La matière se tasse alors à tel point que la densité moyenne d’une naine blanche peut atteindre plusieurs dizaines de tonnes par centimètre cube, ainsi que nous l’avons déjà indiqué à propos de Van Maanen 2. Et n’ayons garde de confondre densité et poids. Quand nous parlons de tonnes par centimètre cube, les tonnes représentent ici une masse caractérisée par le poids qu’elle aurait sur la Terre. Pour obtenir le poids de cette même masse à la surface d’une naine blanche, il faut le multiplier par un facteur de io4 à io6.
- Les densités centrales dépasseraient donc, selon M. Schatzman, 100 t/cm3 et pourraient même être beaucoup plus élevées ; mais les calculs théoriques ne donnent pas de résultats sûrs pour les densités de cet ordre. Les courbes obtenues présentent des discontinuités et il est possible que la structure de la matière prenne au centre des naines blanches des aspects inconnus ou tout au moins difficiles à préciser dans l’état actuel de nos connaissances. Il faudrait sans doute tenir compte de la présence de grandes quantités de neutrons ainsi que d’hypérons (noyaux instables de masse supérieure à celle du proton) et d’hyper-fragments (noyaux atomiques normaux liés à des hypérons). Selon M. Paul Couteau, de l’Observatoire de Nice, il ne serait
- — Couche d'hydrogène normal
- Centre dégénéré Température de 5 a 106 degrés égalisée par conduction
- y -Zone de mélange (hydrogène +éJèments lourds)
- Fig. 12. — Structure interne d’une naine blanche.
- La couche d’hydrogène normal est très mince (quelques centièmes du rayon). Les réactions thermonucléaires ne se produisent qu’à sa base, au contact du noyau central dont la haute température s’égalise par conduction thermique.
- 232
- p.232 - vue 233/560
-
-
-
- pas impossible que la densité, tout au centre, approche de celle du noyau atomique. Les éléments d’une matière formée uniquement de neutrons (par absorption des électrons par les protons) pourraient théoriquement en venir à se toucher. Mais ce n’est là qu’une hypothèse.
- Se produit-il des réactions nucléaires entre éléments lourds dans les régions centrales des naines blanches ? Selon l’astronome américain Jesse J. Greenstein, cela n’est guère probable. Théoriquement les réactions de l’hélium seraient possibles grâce aux hautes densités qui compenseraient une température trop basse. Mais nous avons vu que la densité est indépendante de la température et provient des hautes pressions dues à la gravité. La production d’énergie thermonucléaire dans les profondeurs de l’étoile ne réussirait plus à augmenter son rayon, à la distendre par l’effet d’une pression de radiation. La température centrale monterait sur place . indéfiniment et finirait par provoquer une explosion générale du type supernova. Or, il semble que les naines blanches soient stables. Cependant, on n’en est pas absolument sûr et quelques auteurs ont été amenés à penser que certains modèles de naines ne pouvaient échapper à une évolution catastrophique (Schatz-man, Bertaud). D’autre part, les naines blanches seraient volontiers instables à l’égard de vibrations accidentelles. Des oscillations rapides de toute l’étoile amèneraient alors son retour à l’état non dégénéré de la matière et son explosion (Paul Couteau, Ledoux).
- Le spectre des naines blanches
- La plus grande partie de nos connaissances sur la structure des étoiles sont tirées de l’étude de leur spectre lumineux. En passant d’un état d’énergie à un autre, les atomes et leurs électrons émettent ou absorbent sur des longueurs d’onde bien précises (raies des spectres d’émission et d’absorption) qui aident à préciser l’état dans lequel se trouve la matière, tant émissive qu’absorbante. Pour que les spectrographes étalent de façon utilisable la lumière reçue des naines blanches, il faut les monter sur des réflecteurs de l’ordre de 2 m de diamètre. Le télescope de 1,93 m de l’Observatoire de Haute-Provence rendra des services à cet égard. Mais nous n’atteignons qu’une atmosphère très mince dont les raies spectrales, dans les naines blanches, sont déplacées et souvent élargies au point de se fondre les unes dans les autres et de disparaître complètement (fig. 13).
- Ces particularités du spectre permettent d’identifier facilement les naines blanches, mais cet avantage est compensé par le peu de renseignements qu’on en tire. On ne trouve guère que quelques raies de la « série de Balmer » de l’hydrogène, ce qui confirme du moins le triage des éléments et l’existence d’une gravité élevée capable de faire flotter en surface les gaz les plus légers.
- L’élargissement des raies peut s’expliquer par 1’ « effet Stark » ; dans un champ électrique, les états d’énergie des atomes sont perturbés et se décomposent en un certain nombre d’états voisins ; les raies initialement uniques se décomposent en un groupe de raies plus ou moins distinctes. Or, deux atomes voisins réagissent l’un sur l’autre par leur champ électrique et leurs états d’énergie sont ainsi un peu différents de ceux de l’atome seul ; on conçoit alors que l’effet Stark soit d’autant plus intense que la pression est
- plus élevée, les perturbations par les atomes voisins devenant plus importantes. L’hydrogène présente un effet Stark considérable et donne des raies très larges en atmosphère comprimée. Par exemple, sous 26 atmosphères on arrive à une largeur de 200 angstrôms. Par ailleurs, le champ électrique des ions présents (atomes privés d’un ou plusieurs électrons) est aussi un facteur important d’élargissement.
- Dans la photosphère dense des naines blanches, la pression est très élevée et, de plus, les particules chargées qui se trouvent à proximité d’atomes neutres créent, au niveau microscopique, des champs électriques perturbateurs des transitions quantiques. Il se produit donc un effet Stark intense qui se traduit par un élargissement considérable des raies principales.
- L’observation confirme que l’effet est proportionnel à la pression et par conséquent à l’intensité du champ de gravitation. A partir de la septième raie de la série de Balmer pour 40 Eridani B, de la cinquième pour Sirius B, de la deuxième pour Van Maanen 2, les raies disparaissent dans le fond continu (Schatzman). Le spectre peut donc donner une idée de la gravité en surface et d’importantes recherches théoriques sont poursuivies dans ce sens par M. Paul Couteau. Selon cet astronome, les températures superficielles de certaines naines blanches pourraient dépasser largement le maximum de 50 ooo° généralement admis jusqu’ici. Des températures supérieures à 100 ooo° existeraient à la surface de certaines naines très denses, soit parce qu’elles contiendraient des réserves d’hydrogène où auraient encore lieu les réactions thermonucléaires, soit parce que les couches de matière dégénérée, échauffées par conduction à partir des régions centrales, arriveraient très près de la surface. De telles étoiles rayonneraient fortement dans l’ultraviolet. Cependant des observations à très haute altitude seraient nécessaires pour le vérifier, à cause de l’absorption des courtes longueurs d’onde par l’atmosphère terrestre.
- Mais que dire des cas où les raies sont absentes ? Six spectres de naines blanches entièrement dépourvus de raies ont été observés au Mont Palomar (Greenstein). Dans d’autres cas, l’examen photo-électrique des clichés obtenus indique l’amorce de raies d’absorption diffuses qu’on ne peut relier aux raies d’un spectre de comparaison. On ne possède pas pour l’instant l’explication de ces faits. Cependant l’hypothèse d’une rotation très rapide de l’étoile ne serait pas à rejeter. Selon M. Schatzman une naine très dense aurait une cohésion suffisante pour supporter sans se briser une vitesse de rotation équatoriale de 6 000 km à la seconde. Une telle vitesse correspondrait à une période de 7 s pour une naine blanche ayant la circonférence de la Terre. On imagine difficilement une journée terrestre de cette durée ! Mais il est compréhensible qu’une étoile ayant, par exemple, la dimension et la masse du Soleil acquière une vitesse de rotation élevée en réduisant plus de cent fois son rayon, comme il en va pour un patineur dont le pivotement s’accélère quand il abaisse les bras. Or le spectre d’une source lumineuse qui se rapproche de nous est décalé vers le violet et celui d’une source qui nous fuit est décalé vers le rouge (effet Doppler-Fizeau). Par la rotation, l’un des côtés de l’étoile se rapproche de nous tandis que l’autre s’éloigne. Dans le spectre total de l’étoile, les raies se trouvent donc élargies proportionnellement à la vitesse de rotation.
- 233
- p.233 - vue 234/560
-
-
-
- 3 3 4
- 8 9 I
- 8 6 4
- 9 5 4
- 4
- 4
- 7
- I
- 4
- 6
- @
- 6
- DAe
- DO?
- DO
- DB
- DA DA s
- DA,F
- DFp
- DG
- HZ 9
- + 28° 4211
- HZ 21
- L1573-31
- L970-
- 30
- L532-
- 8!
- R 627
- R 640
- vMa 2
- 3
- 6
- i
- 3
- 3
- 8
- I
- 9
- 4
- I
- 0
- I
- 4
- 3
- 4 0
- 4 4
- 7 8
- I 6
- 3 I
- Fig. 13. — Spectres de naines blanches.
- On voit ici 9 spectres de naines blanches superposées, encadrés en haut et en bas par des spectres de comparaison, la longueur d’onde des raies principales étant notée en angstrôms (chiffres tracés verticalement). Sur la gauche le type spectral de chaque étoile est indiqué par des symboles qui correspondent à sa température et à sa composition. Sur la droite sont notés les noms ou numéros du catalogue d’étoiles. On sait que les raies correspondent à des longueurs d’onde, soit émises, soit absorbées par les atomes (un atome émet et absorbe sur les mêmes longueurs d’onde et ces longueurs d’onde caractérisent l’élément) ; sur ces spectres en positif, les raies qui se détachent en clair sont des raies d’émission, les raies sombres sont des raies d’absorption. La photosphère de l’étoile donne un fond continu dont la couleur dominante par son intensité fait connaître la température. Les raies sombres correspondent à une absorption dans les plus hautes couches de la photosphère et dans l’atmosphère supérieure. Le spectre du haut (HZ 9) montre des raies de l’hydrogène complexes; élargies par l’effet Stark (voir le texte), elles sont claires en leur milieu, ce qui correspond à une émission, phénomène étudié en France par M. Paul Couteau. Les deuxième et troisième spectres (+ 28°42ix et HZ 21) ne présentent presque pas de raies, sans doute par exagération de l’effet Stark et par une rotation très rapide de l’étoile (effet Doppler). Le quatrième spectre (L 1573-31) présente des raies de l’hélium. Les trois suivants (L 970-30, L 532-81, R 627) montrent des raies élargies et diffuses de l’hydrogène. Quant aux deux derniers spectres, ceux de Ross 640 (fig. 4) et Van Maanen 2, on y voit des raies métalliques (magnésium, fer) ce qui est une exception à la règle du « triage des éléments » d’après laquelle des éléments lourds devraient s’être enfoncés dans les couches inférieures, par suite de l’intense gravité qui règne sur les naines blanches.
- {Document aimablement communiqué par les Observatoires du Mont Wilson et du Mont Falomar).
- 234
- p.234 - vue 235/560
-
-
-
- Un autre point dont l’explication ne semble pas claire est la présence de raies métalliques chez deux naines blanches Ross 640 (fig. 4) et Van Maanen 2. La présence d’éléments lourds dans l’atmosphère de ces étoiles est contraire à la théorie du triage des éléments. Ce triage pourrait être imparfait à cause de la minceur d’une couche d’hydrogène, où se produiraient des effets de mélange avec les couches sous-jacentes. Il est possible aussi que ces étoiles aient synthétisé un pourcentage élevé d’éléments lourds à partir des réactions de l’hélium. Mais ces réactions auraient eu lieu dans un lointain passé : la température superficielle de Van Maanen 2 n’est plus maintenant que de l’ordre de celle du Soleil.
- Une dernière cause de déformation des raies est due à l’effet Einstein. Il s’agit d’un rougissement spectral tout à fait comparable à celui d’une étoile animée par rapport à nous d’une vitesse de fuite (effet Doppler). Mais ici la cause est différente. C’est l’énorme champ de gravitation régnant à la surface de l’étoile qui « retient » en quelque sorte la lumière émise par cette surface. Les raies du spectre, quand elles sont identifiables, montrent des longueurs d’onde décalées vers le rouge, comme ralenties par la pesanteur. Que cet effet ait été exactement prédit par la théorie constitue une remarquable vérification des théories de la Relativité : c’est le cas pour 40 Eridani B dont la masse calculée suivant les données de l’orbite (0,45 0) est très proche de celle indiquée par le déplacement des raies spectrales dû à l’effet Einstein (0,39 0).
- Nous aurions donc là un outil remarquable pour déterminer la masse de toutes les naines blanches qui ont un spectre analysable. Malheureusement, l’effet Einstein ayant le même aspect que l’effet Doppler, on ne peut l’en séparer que chez les naines qui appartiennent à un système multiple dont la vitesse par rapport à nous est déjà connue. Ce n’est pas le cas pour les naines isolées. Enfin l’élargissement des raies dû à l’effet Stark, et peut-être à la rotation, rend très aléatoire la mesure du déplacement spectral vers le rouge.
- Eleureusement nous avons un dernier moyen d’estimer
- Fig. ij. — Dimensions de quelques naines blanches, comparées à celles de la Terre.
- Les naines blanches les plus petites atteignent une masse supérieure à celle du Soleil, de sorte que leur densité croît plus vite que ne l’indique la diminution de leur volume.
- Sirius fi
- Soleil 40 Eridani A /
- M Endam
- 100 00G
- 1000000
- 10 000000
- Rayon (k)
- Fig. 14. — Diagramme masse-rayon des naines blanches.
- Alors que les étoiles stables (série principale) ont un rayon d’autant plus grand que leur masse est plus forte, c’est l’inverse qui se constate chez les naines blanches. Règle à première vue paradoxale, le rayon des naines blanches est d’autant plus petit qu’elles sont plus massives.
- (Imité de J. L. Greenstein, Scientific American).
- la masse d’une naine blanche. S. Chandrahsekhar a établi une remarquable théorie de l’équilibre d’une sphère de gaz dégénérés. Elle prescrit une masse inversement proportionnelle au rayon et il semble que les spectres le confirment (fig. 14). Les rayons qui ne paraissent pas concorder avec la théorie seraient dus au fait que la matière de l’étoile n’est pas entièrement dégénérée. Ce serait le cas, par exemple, de Sirius B dont les couches d’hydrogène normal, proches de la surface, seraient relativement épaisses. Au contraire, pour les naines blanches de dimensions inférieures à celles de la Terre, la relation masse-rayon se vérifierait très bien, les naines les plus petites étant aussi les plus massives et les plus dégénérées. Elles peuvent descendre jusqu’à un rayon de 4 500 km qui correspondrait d’après la théorie à une masse de 1,2 0, proche du maximum possible (fig. 15). En effet, plus la masse de l’étoile est considérable, plus l’écrasement de la matière y est poussé ; et plus elle est écrasée, plus la gravité vient encore manifester son effet.
- Rayon du soleil : 1 (700 000 km)
- Terre
- Rayon 6370 km (Masse 0,0000033 ©J
- Sirius B Rayon 7 500 km (Masse 0,97 ©J
- 40 Eridani B Rayon 10 500 km (Masse 0,45 ©j
- Naine très dense Rayon minimum 4400 km (Masse maximum 1,2 ©j
- 235
- p.235 - vue 236/560
-
-
-
- Enfin, il ne semble pas y avoir de rapport entre le rayon et la température de surface (Greenstein). Il existe des naines blanches de tous rayons, et de toutes températures, ce qui montrerait bien qu’elles peuvent se refroidir sans que leur contraction se poursuive. On sait d’ailleurs que ces étoiles occupent dans le diagramme de Russel des positions dispersées : à température égale, elles ont des éclats différents selon la valeur de leur rayon (fig. 7.).
- Les problèmes posés par les naines blanches, les difficultés d’analyse de leurs spectres, d’autre part, indiquent qu’une meilleure connaissance de leurs caractéristiques dépend particulièrement des progrès de la théorie des gaz dégénérés et en général de l’évolution future de la physique nucléaire.
- Jacques Fouchet.
- Des étoiles « hypéroniques » seraient encore plus denses
- Un article récent de M. Saakian, dans la revue soviétique Priroda (novembre i960), traite de l’existence possible d’étoiles « hypéroniques » dont la densité se montrerait encore supérieure à celle des naines blanches. Leur rayon serait minuscule, malgré une masse comparable à celle du Soleil, car les particules atomiques s’y serreraient au point de se toucher en formant un continuum où elles perdraient éventuellement leur individualité. Cette hypothèse n’est d’ailleurs' pas nouvelle et l’étude théorique en a déjà été faite en France par M. Evry Schatzman.
- Les hypérons sont des particules de masse supérieure à celle du proton. Alors que celui-ci a une masse au repos de 1 836 me (me — masse de l’électron), les hypérons A° atteignent 2 181 me, les 21 2 330 me et les E, les plus massifs, 2 5 80 Ces particules, mises en évidence dans les chambres à bulles, ont une durée de vie très éphémère (io“10 s), encore plus brève que celle des mésons (10-8 s). Elles se désintègrent spontanément en particules plus légères, mésons, puis électrons. Dans ces conditions, comment une matière formée d’hypérons pourrait-elle subsister ? Cela résulterait du principe d’exclusion de Pauli, déjà invoqué dans l’article qui précède pour expliquer les propriétés de la matière dégénérée au sein des naines blanches. Les particules qui résultent de la désintégration des hypérons occuperaient vite tous les niveaux d’énergie disponibles dans un rayon bien supérieur à celui de leur libre parcours, libre parcours réduit d’ailleurs à zéro, si les hypérons sont en contact ! Faute de niveaux libres, la plupart des hypérons, sinon tous, demeureraient stables.
- Toutefois une étoile hypéronique présenterait plusieurs couches. Au centre un noyau formé d’hypérons, et peut-être de mésons, occuperait la plus grande partie du rayon de l’astre. M. Saakian cite le chiffre de 6 X io38 particules par centimètre cube, qui correspondrait à une densité de i°15 g/cm3, supérieure à celle du proton (3,9 x io14 g/cm3). Il faudrait admettre que les hypérons sont en contact et possèdent un diamètre inférieur à celui du proton alors que leur masse est supérieure. Rien d’étonnant à cela puisque le diamètre du proton, évalué à 2 x io~13 cm, est inférieur à celui de l’électron, alors que sa masse est 1 836 fois plus grande (on ne peut manquer d’évoquer ici le cas des naines blanches, qui sont d’autant plus petites qu’elles sont plus massives). La densité de io15 g/cm3 imaginée pour la matière hypéronique correspondrait à quelque mille millions de tonnes par centimètre cube !
- Autour du noyau hypéronique se trouverait une couche formée uniquement de neutrons dont la densité décroî-
- trait de io13 à io9 g/cm3. C’est-à-dire que dans les régions les plus profondes de cette couche les neutrons seraient pratiquement en contact les uns avec les autres, tandis que vers la surface la densité neutronique deviendrait rapidement 10 000 fois moindre, soit 1 000 tonnes « seulement » par centimètre cube. On comprend qu’un gaz de neutrons (particules neutres) puisse atteindre des densités supérieures à celles d’un gaz de protons (particules positives) puisque les répulsions coulombiennes y seraient supprimées. Les neutrons auraient leur origine dans une absorption des électrons négatifs par les protons à partir d’un certain degré de pression. Les neutrons, qui normalement se désintègrent en protons et électrons, resteraient stables dans le milieu hyperdense, toujours en vertu du principe de Pauli.
- Une troisième couche, formée de protons et d’électrons, constituant un gaz dégénéré analogue à celui rencontré dans les naines blanches, arriverait au voisinage de la surface. Cette « enveloppe » serait elle-même surmontée d’une fine coquille de matière normale, de quelques mètres d’épaisseur, où pourraient éventuellement se trouver des atomes complets.
- Quel serait le rayon d’un astre de ce type ? M. Saakian donne des chiffres allant de 3 à 18 km selon leur masse. En effet un astre qui aurait la masse du Soleil (2 X io27 tonnes) et une densité de io15 g/cm3, aurait un rayon de l’ordre de 12,5 km. La pression serait de l’ordre de 5 X io28 atmosphères dans les régions centrales de tels astres. Certains d’entre eux pourraient cependant n’être composés que de neutrons et avoir un rayon plus grand. Pour une masse égale, il existerait des astres de rayons différents, selon qu’ils seraient hypéroniques ou neutroniques.
- On peut se demander si ces astres produiraient de la lumière. De toute façon, ils seraient indécelables optiquement à cause de leur petit diamètre. Seule, leur masse pourrait éventuellement révéler leur présence par les perturbations qu’elle apporterait au mouvement d’une étoile • voisine. Les étoiles hypéroniques ne relèvent donc pour le moment que de la théorie pure. Aussi semble-t-il peu nécessaire d’insister sur une hypothèse indiquée par M. Saakian : les étoiles hypéroniques ne constitueraient pas un stade final de l’évolution stellaire, mais au contraire un stade primitif. Elles seraient en quelque sorte des débris du fameux atome primitif de Lemaître, c’est-à-dire de l’état hyper-dense qui aurait précédé, selon certains théoriciens, l’expansion de l’Univers.
- J. F.
- 236
- p.236 - vue 237/560
-
-
-
- Comment on dresse les Grillons au combat
- La méthode des Chinois retrouvée au laboratoire
- par S. Fu^eau-Braesch
- Capturer des grillons, les conserver afin de jouir de leur chant est un plaisir répandu dans plusieurs régions du monde. En Europe, le « grillon du foyer » et son chant « porte-bonheur » font partie de très anciennes traditions. Dans le Midi de la France, on sait encore tenir captifs ces insectes chanteurs. En Extrême-Orient il existe une multitude de modèles de cages, de gourdes, etc., destinées à les loger.
- En Chine, les grillons ne sont pas seulement prisés pour leur agréable bruit. On s’amuse à les faire combattre et cette coutume, fort ancienne, remonte probablement à l’époque Song (xe-xnre siècles). Une gravure du xrre siècle, conservée au Musée de Chicago, représente des enfants qui préparent un de ces combats. Accroupis autour d’une petite enceinte rectangulaire, chacun d’eux a entre les mains une boîte qui contient l’un des précieux combattants.
- Entrant deux par deux dans la minuscule arène, les grillons offriront aux spectateurs l’occasion de se distraire et aussi d’engager des paris. Mais par quelle méthode l’insecte chanteur, d’ordinaire assez pacifique, a-t-il été mué par les Chinois en un gladiateur acharné ? C’est ce que nous allons montrer, en décrivant les expériences par lesquelles nous avons obtenu le même résultat.
- Ce procédé a été employé sur des individus mâles de l’espèce Gryllus bimaculatus (notre grillon méditerranéen), adultes depuis environ une semaine et qui avaient vécu depuis leur naissance dans un isolement complet. A de rares exceptions près, la réponse à l’excitation a consisté en un « chant de cour » caractéristique, produit par les élytres brièvement frottés l’un contre l’autre en position basse. Simultanément, l’insecte prend la posture d’accouplement : ailes écartées, livrant passage à l’abdomen soulevé, mouvements d’antennes, etc. Cette posture apparaît sur la figure i. Précisons que cette réponse a été obtenue à la suite d’une excitation des régions dorsales et postérieures (cerques). C’est là visiblement une posture d’accouplement telle qu’elle serait réalisée avec une femelle en position dorsale.
- Mis en présence pour la première fois, deux grillons excités de cette manière vont avoir, pendant une certaine période, un comportement confus, accompagné du « chant de cour » et d’une tendance à l’accouplement. Puis, les mâles s’étant reconnus, le chant de cour cesse ; les deux insectes se font face et s’affrontent en un premier combat de durée irrégulière. Un « chant de combat », nettement différencié, a succédé au chant de cour.
- L’éducation du combattant
- Non préparés, les grillons ne sont jamais que de médiocres combattants : s’ils s’affrontent, leur duel est toujours très bref et sans intérêt pour l’observateur. Pour qu’il en soit autrement, une « éducation » de l’insecte est nécessaire.
- Afin de comprendre le sens et la nature de cette éducation, il est préférable d’observer des insectes qui n’ont eu précédemment aucun contact avec d’autres grillons. Leurs réponses à des stimulus ne risquent pas, en ce cas, d’être influencées par quelque réflexe déjà établi.
- La stimulation éducative, utilisée par les Chinois, est conduite au moyen de quelques cheveux montés à l’extrémité d’une baguette (fig. i). C’est en caressant légèrement avec les cheveux, de façon appropriée, les nombreuses soies sensorielles qui parsèment le corps du grillon que Fon détermine l’excitation recherchée.
- Fig. i. — Début de dressage d’un grillon isolé.
- L’excitation par le moyen des cheveux provoque le « chant de cour » et la posture d’accouplement : élytres bas, ailes écartées, abdomen soulevé.
- p.237 - vue 238/560
-
-
-
- stimulus s’affaiblissent. Au contraire, chez ceux qui, préalablement excités, ont été affrontés en combat, le réflexe de retournement s’installe, mais à des degrés différents selon les individus. Les meilleurs combattants sont ceux dont le réflexe est conservé au bout d’un repos de quelque durée (2 ou 3 jours). Ils seront définitivement « sélectionnés » si, au bout d’une nouvelle préparation, ils répondent d’emblée en se retournant. La réussite est plus fréquente avec des insectes jeunes.
- Résumant ces observations, on peut conclure que la réponse « combat » est un réflexe inné du mâle en quête de femelle, mais que la préparation, telle qu’elle vient d’être décrite, est un renforcement conditionné de ce réflexe potentiel, autrement dit un véritable « dressage ».
- Effet de groupe et agressivité
- Observée au laboratoire, l’espèce Gryllus bimaculatus présente des individus de deux colorations différentes selon qu’ils ont vécu en groupe ou solitaires : dans le premier cas les grillons sont en majorité d’un brun-jaune clair, dans le second cas ils sont presque toujours noirs. Cet
- Fig. 2. — Posture de combat
- d’un grillon dressé. ,> ' ' i •
- « Chant de combat », mandibules écar- . < , , | *“ ' .
- tées prêtes à saisir l’adversaire, attitude r
- générale agressive. ........
- Fig. 3. — Début de combat.
- Les deux grillons se font face avant la prise de mandibules et la mêlée. Chant de combat et d’agressivité.
- Supposons qu’on sépare alors les deux mâles et qu’on renouvelle l’excitation par la baguette à cheveux. La réponse est alors modifiée : il n’y a plus chant de cour, mais « réflexe de retournement agressif ». Le grillon ne fuit ni ne chante, mais se retourne brusquement et cherche même assez souvent, lorsque les cheveux sont en contact avec ses antennes, à saisir la baguette avec ses mandibules.
- C’est donc le contact avec un deuxième mâle qui a modifié la réponse au stimulus. Cette méthode d’éducation (le terme est à vrai dire contestable) reproduit sans doute un processus courant chez les insectes qui vivent en liberté.
- Des grillons isolés, que l’on a excités et dont on a obtenu la réponse « chant de cour », vieillissent sans manifester d’agressivité s’ils n’ont pas été mis ensuite en présence d’un congénère. Peu à peu leurs réponses aux
- « effet de groupe » est attribué à certains stimulus complexes, qui résultent des contacts réciproques entre les insectes et qui font défaut dans la solitude. On sait que des effets de groupe considérables ont été notés chez d’autres animaux, influençant leur physiologie et leur morphologie. C’est à un effet de groupe qu’est dû le changement d’aspect des criquets migrateurs, qui s’accompagne de leur tendance à la migration.
- Le changement de couleur des grillons s’accompagne aussi d’un changement de comportement, qui précisément concerne la question qui nous intéresse, l’aptitude au combat. Les mâles prélevés dans un groupe sont inaptes au dressage et la plupart du temps refusent le combat, même s’ils ont pour adversaires des isolés noirs, déjà préparés. Le comportement des « groupés » est de fuir au moindre attouchement : très nerveux, ils sautent beau-
- 238
- p.238 - vue 239/560
-
-
-
- coup, nettoient fréquemment leurs organes sensoriels, antennes, tarses, palpes, ce que ne font pas les insectes isolés.
- Si l’on isole pendant plusieurs jours des mâles ayant jusque-là vécu en groupe, leur comportement se modifie quelque peu et un début d’éducation devient possible. Toutefois, on ne parvient pas aux mêmes résultats qu’avec les isolés intégraux. La vie en groupe a influencé l’insecte de manière durable : le nettoyage des antennes, en particulier, persiste dans la plupart des cas.
- La pigmentation differente ne joue-t-elle pas un rôle dans la reconnaissance des mâles et en conséquence dans l’aptitude au combat ? Pour vérifier cette hypothèse, on a utilisé des souches de grillons génétiquement sélectionnés qui, demeurant isolés, conservent leur teinte claire. Aucune différence dans ce cas entre le comportement de ces grillons clairs et celui des grillons foncés : le dressage et le combat se déroulent de façon identique ; le comportement d’un grillon ne varie pas selon la couleur de l’adversaire ; les vainqueurs figurent indifféremment parmi les clairs ou les foncés.
- Preuve est ainsi donnée que l’aptitude au combat est
- Fig. J. — Vainqueur et vaincu.
- Le grillon vaincu, qui a réussi à se dégager, fuit et refusera ensuite tout combat-Le vainqueur chante.
- iiSSl
- baguette. Quelques signaux antennaires de reconnaissance et la position de combat est adoptée (fig. 2). Face à face, mandibules écartées, tête en avant, vibrant sur leurs pattes et (dans la première phase) faisant entendre un bref chant de combat, les deux adversaires cherchent à se saisir par leurs mandibules. La symétrie souvent parfaite dans laquelle ils se trouvent fait qu’un temps assez long peut s’écouler avant qu’ils puissent s’atteindre (fig. 3). Enfin la prise de mandibules a lieu ; le grillon le plus fort entraîne l’autre, le retourne et le maintient renversé aussi longtemps que possible, car le lutteur qui a le dessous cherche à se rétablir (fig. 4). La mêlée, souvent furieuse, peut reprendre plusieurs fois. Soudain l’un des grillons, fatigué, prend peur et s’enfuit brusquement, abandonnant le combat (fig. 5). Le grillon vainqueur, maître du terrain, chante de façon brève, énergique et saccadée, tout en explorant le terrain où désormais il ne tolère plus la présence d’aucun autre grillon (fig. 6).
- Fig. 4. — La mêlée.
- Les grillons se sont saisis par les mandibules ; le plus fort a retourné l’autre qui cherche à se dégager.
- Fig. 6. — Maître du terrain.
- Émettant un chant bref et irrégulier, le vainqueur explore le terrain où il ne tolérera plus aucun rival.
- bien déterminée par l’isolement et sans relation directe avec la pigmentation.
- Un combat « sportif » : la rééducation des vaincus
- Deux grillons sélectionnés comme il a été dit plus haut sont placés dans une enceinte basse de quelques décimètres carrés. Une cloison empêche les adversaires de se voir. Après avoir vérifié leurs réflexes agressifs, on retire la cloison et on les guide l’un vers l’autre, à l’aide de la
- p.239 - vue 240/560
-
-
-
- Par la suite, le vaincu refusera tout combat. Il se réfugiera dans un endroit abrité (tel qu’un angle de 1’ « arène »). Son inhibition est caractéristique et l’excitation par la baguette ne provoque plus que la fuite.
- Les amateurs de combats poursuivent cependant leurs interventions qui, comme nous allons en juger, ne sont pas alors les moins intéressantes. Le but est de rééduquer le vaincu et de renverser l’issue du combat.
- Plusieurs méthodes sont utilisées, tendant à provoquer chez l’insecte une forte émotion, un choc nerveux susceptibles de lever l’inhibition dont il est victime. On peut le secouer fortement dans les mains, ou bien introduire une petite baguette sous le premier segment du thorax (pro-notum), les tarses perdant ainsi le contact avec le sol ; le grillon, si l’on souffle sur lui, sera capable de battre les ailes et de tourner sur la baguette. Troisième méthode : suspendre le grillon par les antennes et le faire tourner, ce qui provoque vraisemblablement de fortes décharges nerveuses au niveau de l’organe de Johnston (organe sensoriel situé à la base de l’antenne).
- Il arrive souvent que ces procédés de « rééducation » aboutissent à la reprise du combat.
- Quelques auteurs occidentaux, parmi lesquels d’ailleurs ne figure aucun entomologiste, ont décrit le combat sous un jour tragique : selon eux, le vaincu serait mutilé, tué et même dévoré. Rien de semblable n’a été observé au laboratoire, où aucun combat réussi ne s’est terminé par la mort d’un grillon, ni même par de graves blessures.
- Il se peut que les conditions diffèrent d’une espèce à l’autre, mais tout paraît indiquer que la joute entre les mâles, telle qu’elle est décrite plus haut, ne tend pas à la destruction de l’adversaire. Sa conclusion n’est que la maîtrise du terrain et cela, soulignons-le, chez une espèce qui pourtant ne creuse pas de terrier (comme le fait par exemple le grillon des champs Grjllus campestris) et par conséquent ne paraît pas avoir de territoire à défendre.
- On peut difficilement penser, par ailleurs, que les Chinois se soient évertués à rééduquer les vaincus, si ces derniers avaient été souvent détruits ou rendus impropres, par quelque dommage corporel, à tout combat ultérieur !
- *
- * *
- Cet amusement populaire est riche finalement en observations biologiques et psychologiques! Plus que le zoologiste, le sociologue serait en mesure d’expliquer pourquoi le combat de grillons a été mis en honneur parmi certains peuples.
- L’intérêt en tout cas est grand pour le biologiste de pouvoir étudier le comportement des insectes, enregistrer leurs réflexes au niveau d’un véritable « psychisme » et constater l’influence de la vie en groupe sur des animaux qui, pourtant, ne se sont pas socialisés au cours de l’évolution.
- S. Fuzeau-Braesch,
- Chargée de recherches au C. N. R. S.
- Pétrole et ga% européens
- L’attention qui se porte, en France, sur les imposants gisements de pétrole et de gaz du Sahara et sur ceux, plus proches de nous, de Lacq, de Parentis et du Bassin Parisien, tend à reléguer dans l’ombre les résultats non négligeables enregistrés, en ce domaine, par nos voisins d’Europe occidentale.
- Certes, la France est privilégiée, par le fait qu’en toute probabilité elle continuera à disposer, pour ses approvisionnements, du pétrole et du gaz africains. Le tableau est tout différent si l’on n’envisage que son territoire. Cela apparaît nettement à la lecture des chiffres suivants :
- U Allemagne fédérale a réalisé en 1959 une production de 5 102 758 t d’huile brute et ses réserves prouvées se montaient (au ier janvier i960) à 57 888 000 t. Pour la même période et la même date, la production de gaz naturel a atteint 387 625 000 m3, les réserves étant estimées à 12,6 milliards de mètres cubes. Notons que les bassins les plus importants sont situés entre Elbe et Weser, entre Weser et Ems, à l’ouest de la Weser.
- U Autriche possède plusieurs gisements, surtout en Basse-Autriche, et sa production 1959 d’huile brute a atteint 2458 784 t, les réserves au Ier janvier i960 étant estimées à 36 400 000 t. Le gisement, de loin le plus important, est celui de Matzen, qui contient 91 pour 100 des réserves du pays. Le gaz naturel, issu de gisements différents de ceux qui produisent de l’huile, a été extrait en 1959, à raison de 1 128 000 000 m3. Les réserves se montent à 24,6 milliards de mètres cubes (chiffre du Ier janvier i960).
- U Italie a produit 1 695 000 t d’huile brute en 1959 et ses réserves prouvées étaient en fin d’année de 41 000 000 t. On
- doit noter que les bassins d’Émilie-Romagne et des Abruzzes sont en régression, tandis que celui de Sicile a vu son débit augmenter de 50 pour 100 dans les deux précédentes années. La production 1959 de gaz naturel s’est élevée à 6,2 milliards de mètres cubes. Elle se répartit principalement dans les plaines de Lombardie, avec une contribution appréciable de la Sicile. Les réserves globales étaient estimées en 1958 à 135 milliards de mètres cubes.
- Les Pays-Bas ont produit, en 1959, 1 680 900 t d’huile, dont les 2/3 environ ont été extraits du gisement de Schoonebeek. Réserves au ier janvier i960 : 27 000 000 t. La production de gaz est voisine de 350 000 000 m3. Elle est destinée à s’accroître, en raison de la découverte récente, dans la province de Gro-ningue, d’un gisement dont les réserves sont estimées à 9 milliards de mètres cubes.
- Après avoir souligné les pays absents de la production pétrolière (Grande-Bretagne, Belgique, Suisse), il nous faut citer les chiffres français métropolitains :
- Pour 19j9 (base de comparaison) : production d’huile : 1 610 054 t ; réserves : 26 800 000 t. Production de gaz : 2,6 milliards de mètres cubes ; réserves : 173 milliards de mètres cubes.
- Les chiffres récents accusent une sensible amélioration, avec (pour la période novembre 1959a octobre i 960) une production d’huile de 1 960 715 t et pour le gaz naturel 4,2 milliards de mètres cubes.
- Les richesses en hydrocarbures de notre territoire restent malgré tout assez modestes, exception faite pour le gisement de Lacq qui sans doute, d’ici deux ans, battra le record européen du gaz naturel. Y. M.
- 240
- p.240 - vue 241/560
-
-
-
- L’île Stromboli et son volcan
- par Antoine S allèles
- L’île Stromboli fait partie des îles Éoliennes ou Lipari, qui forment un groupe de sept îles, d’origine volcanique, situées au Nord de la Sicile (x). Ces îles se trouvent le long de cet ancien continent qu’était la Tyrrhé-nide et qui disparut à la fin du Miocène. Le nom de Stromboli désigne à la fois l’île et le volcan qui lui a donné naissance, mais qui dans sa forme actuelle est d’une importance réduite.
- Stromboli est l’ancienne Strongylé qui tire son nom d’un mot grec strombos qui signifie toupie, car l’île ressemble de loin à un cône dont la base est à 2 396 m de profondeur, ce qui confère au volcan, qui s’élève à 924 m au-dessus de la mer, une hauteur totale de 3 320 m, et fait ainsi du Stromboli le plus haut volcan d’Europe, l’Etna n’ayant que 3 274 m.
- La superficie de l’île est de 12 km2. La distance est de 4,5 km entre la pointe la plus septentrionale, appelée « Punta Frontone », et le cap le plus au sud, nommé « Punta Lena ». La largeur maximale de l’île est de 4,8 km. Le point culminant, appelé « Serra di Vancora », a une altitude de 924 m et appartient à l’ancien volcan qui explosa lors d’un paroxysme ultra-vulcanien ; c’est dans cet ancien cratère que se trouve le volcan actuel.
- La lave, avant de tomber dans la mer, suit toujours la même direction, appelée « Sciara del Fuoco », c’est-à-dire la ruée du feu. De direction sud-ouest, cette « Sciara del Fuoco », très abrupte, a une inclinaison de 35 degrés. Ayant à sa base un kilomètre de large, elle est limitée sur ses deux côtés par des bancs de lave appelés « Fili di Baraona » et « Filo del Fuoco ». Le cratère forme une zone, la « zona craterica » des habitants de Stromboli, où, en plus de nombreuses fumerolles, se trouvent les trois bouches éruptives. Il est séparé de la « Sciara del Fuoco » par un rebord et au sud il’est limité par un des côtés de l’ancien cratère, haut de 30 m. L’emplacement et le nombre des bouches ne sont pas constants, et il arrive souvent qu’une quatrième bouche s’ajoute aux trois autres.
- A un mille en mer, en face du village de San Bartolomeo, se trouve le rocher de Strombolicchio. Il est haut de 5 6 m et porte un phare. Les laves anciennes du Stromboli sont des andésites (roches moins basiques que les basaltes) ; elles forment tous les sommets de l’île. Les laves actuelles sont différentes et sont constituées par des basaltes, de couleur foncée. Cependant, il y a quelques endroits où les
- 1. Sur l’île Lipari, voir : Les Iles Éoliennes, Lipari et l’antique extraction de la ponce, par Jacques Guj.ixerme, La Nature, mars 1959, p. 104-107.
- Punta Frontone
- vLySan Vicenzo
- Craterica-
- Ginostro
- NaPles\nA^
- MER N r Strombm j RHçmwêfj
- Punta Lena
- Fig. 1. — Carte de Stromboli.
- laves sont brunes ou rougeâtres, couleurs dues à une altération par oxydation. Les minéraux ferrugineux se transforment en hématite (Fe203) ; transformation due à la vapeur d’eau, toujours plus ou moins acide.
- Le Stromboli émet continuellement de la fumée, composée de vapeur d’eau, de gaz carbonique, d’oxyde de carbone, de gaz sulfureux, d’hydrogène et de méthane. Toutes les 12 à 15 minutes, toutes les 45 minutes à certaines époques, la fumée devient plus abondante ; il y a projection de blocs et de lapillis, accompagnée de sifflements et d’explosions dus à la combustion plus ou moins complète du mélange d’hydrogène et de méthane avec l’air. Ces explosions appelées « scoppi » se produisent assez régulièrement ; mais le rythme a dû changer de nombreuses fois depuis la formation du volcan.
- Il se produit aussi de temps à autre de véritables éruptions, qui sont caractérisées par de plus fortes explosions, accompagnées d’une très abondante émission de fumée qui s’élève jusqu’à plus de 2 000 m. Le volcan rejette alors, mais en petite quantité, de la lave qui suit le traditionnel chemin de la « Sciara del Fuoco ». Il y a aussi projection de blocs, de lapillis et de bombes (2). Suivant la viscosité
- 2. Les matériaux projetés par un volcan sont nommés, selon leur grosseur décroissante : blocs, bombes, lapillis, cendres, poussières.
- 241
- p.241 - vue 242/560
-
-
-
- 'jmm&k
- Fig. 2. — Vue générale du Stromboli,
- On voit sur la gauche le village de Ginostra.
- Fig. ). — La Sciara del Fuoco.
- De part et d’autre de la coulée rectiligne qui plonge dans la mer, on voit les deux bancs de lave aux contours abrupts.
- du magma et la vitesse de rotation, les bombes peuvent être de simples fragments de lave tordus, ou avoir la forme d’un fuseau. Généralement ce s bombes tombent dans le cratère. Quant aux lapillis, ils vont assez loin et atteignent même la partie nord-est de l’île. Lors de certaines éruptions, le volcan rejette aussi des cristaux d’augite ; et ils sont si nombreux au pied de la « Serra di Vancora » qu’on appelle cet endroit « le Croci », car tous ces cristaux sont maclés en forme de croix (macle suivant o1).
- Sainte-Claire Deville appela strombolien ce dynamisme volcanique, spécial au Stromboli, caractérisé par la prédominance de phénomènes explosifs peu violents, par l’émis-
- sion de petites quantités de lave et par l’activité constante du volcan. Ces volcans stromboliens ne sont généralement pas dangereux.
- Depuis, on a classé parmi les volcans stromboliens de nombreux volcans du globe qui paraissent cependant assez différents du Stromboli. Ces volcans ont généralement une existence très brève et, lorsqu’ils sont éteints, ils ne se rallument jamais ; si par hasard le volcanisme vient à se manifester de nouveau dans la région, c’est un autre cône qui se forme. Le Stromboli, au contraire, a toujours été en activité depuis sa formation.
- 11 arrive que le dynamisme d’un volcan change, comme
- 242
- p.242 - vue 243/560
-
-
-
- c’est arrivé au Stromboli en 1919 où l’on vit apparaître un dynamisme dit vulcanien, caractérisé par des explosions très violentes accompagnées d’une grande quantité de gaz, de blocs, de lapillis et de cendres ; et ce mélange prit rapidement l’aspect de volutes, qui s’élevèrent très haut dans l’atmosphère, en formant une sorte de pin parasol. La quantité énorme de cendres et de lapillis anguleux provient de la pulvérisation de la lave qui obstruait la cheminée du volcan. L’émission de lave fut très faible, mais les cendres allèrent très loin et rendirent fertiles les sols d’alentour.
- Le dynamisme d’un volcan dépend de la température du magma, de sa composition chimique (la quantité de gaz dissous ayant une grande importance) et de l’abondance de la vapeur d’eau. Le potassium accroît la viscosité du magma et les sels de fer en augmentent la fluidité.
- Pour la première fois en février 1955, on a assisté au Stromboli à une éruption sous-marine, due à une fente produite le long de la paroi immergée de la « Sciara del Fuoco ». La lave gagna la surface, la mer se mit à bouillonner et une épaisse fumée sortit des flots. La lave émise était toujours du basalte.
- *
- * *
- Dans l’île de Stromboli, il y a trois petits villages : San Bartolomeo (263 habitants) sur la côte nord-est, San Vicenzo (503 habitants) dans la partie est, et Ginostra (325 habitants) sur la côte ouest. Entre San Bartolomeo et San Vicenzo, se trouve la plage de Ficogrande, par où l’on débarque dans l’île et où se trouve le bureau de l’Office de Tourisme.
- Les flancs du volcan sont assez abrupts et la côte est surtout formée de petites falaises ; aussi les habitants de l’île préfèrent-ils emprunter la mer pour se rendre d’un point à un autre.
- Les maisons se ressemblent toutes ; elles sont de forme cubique, leurs façades sont blanchies à la chaux et leurs toits sont en terrasse pour permettre de recueillir l’eau de pluie car il n’y a pas de sources dans l’île ; aussi voit-on sans cesse des ânes tirer dans une barrique le précieux liquide.
- L’île n’a que 1 193 habitants et, comme sa terre ne peut nourrir convenablement une population supérieure, l’émigration est très forte, surtout vers l’Amérique du Sud et
- Fig. 4. — Au sommet du Stromboli : le cratère et les bouches éruptives.
- l’Australie ; mais une fois fortune faite, certains n’hésitent pas à retourner dans leur île natale pour y finir leurs jours.
- La principale culture de l’île est la vigne. Elle pousse très bien dans ces sables volcaniques décomposés ; elle donne un excellent vin, le malvoisie, et des raisins appelés « uve passoline ». La vigne est principalement située dans la partie nord, appelée « Serro Adorno », entre le « Filo del Fuoco » et le ravin de Vallonazzo. On trouve également quelques vignes au nord de Ginostra. Il y a aussi dans l’île des câpriers, des figuiers, des figuiers de Barbarie, des oliviers et des genêts. Le blé, qui a été cultivé autrefois, est aujourd’hui presque abandonné.
- Les alentours de l’île sont très poissonneux, surtout aux environs de Strombolicchio, et l’on pêche principalement l’espadon, appelé Pesce spada, c’est-à-dire le poisson-épée. La langouste y est très abondante aussi.
- Mais le principal revenu de l’île est le tourisme qui ne cesse de croître d’une année à l’autre, à mesure que se multiplient les pensions de famille et les hôtels. La grandeur sauvage de l’île y perd de son charme, mais le tourisme permettra aux habitants de Stromboli de vivre plus dignement sur leur terre natale, sans être obligés de s’expatrier dans les proportions actuelles.
- Antoine Sallèles.
- p.243 - vue 244/560
-
-
-
- Une nouvelle pénicilline pour laquelle il n’est plus de staphylocoques résistants
- Les Journées pharmaceutiques françaises, qui ont eu lieu à Paris il y a quelques mois, furent inaugurées par un exposé du professeur Ernst Boris Chain, intitulé « Nouvelles voies microbiologiques pour l’obtention de médicaments » dans lequel l’illustre savant annonçait une éclatante victoire remportée par la chimie au bénéfice de la pharmacologie et de la médecine : la création d’une pénicilline efficace dans la lutte contre le staphylocoque, l’un des derniers microbes contre lesquels les antibiotiques connus se montraient en définitive inopérants.
- On sait que le professeur Chain a partagé en 1945 avec Alexander Fleming et Howard Walter Florey le prix Nobel de physiologie et de médecine pour ses travaux, d’importance majeure, dans le grand œuvre collectif qui devait conduire à l’avènement de la pénicilline, ouvrant ainsi l’ère des antibiotiques. Par la suite, Chain n’a pas participé à la découverte des nouveaux antibiotiques, œuvre qui nécessitait, certes, des efforts et des capitaux considérables mais pour laquelle il suffisait d’appliquer des méthodes d’investigation déjà connues. Il a préféré s’attaquer à des recherches plus fondamentales concernant la structure des pénicillines, leur synthèse par les microorganismes et les modalités de leur action. Ces recherches viennent de porter leurs fruits avec la découverte d’une nouvelle pénicilline pour laquelle il n’est plus de staphylocoques résistants. Cette découverte en annonce d’ailleurs bien d’autres et c’est dans une voie nouvelle que vient de s’engager la chimie des antibiotiques. Nous nous proposons dans ce qui suit de décrire avec quelques détails les travaux entrepris par le professeur Chain (1).
- La pénicilline occupe une place à part parmi les antibiotiques ; elle demeure en effet, après vingt années d’utilisation intensive, l’agent antibactérien le plus puissant grâce à un ensemble étonnant de propriétés favorables : elle a un pouvoir bactéricide remarquable, elle est relativement dépourvue de toxicité et, surtout, elle n’induit
- 1. La documentation de cet article est pour une grande part due au professeur E. B. Chain qui a bien voulu nous communiquer plusieurs de ses publications récentes, en particulier un article paru dans The new Scientist, vol. 8, p. 838-840, et intitulé « Conquest of the résistant staphylococcus by new penicillins ».
- par Fernand Lot et Robert Rosset
- aucune résistance permanente chez les bactéries contre lesquelles elle est employée. A ce point de vue, elle diffère radicalement de la plupart des autres agents antibactériens. Alors que de nombreux microbes, comme les gonocoques par exemple, sont devenus résistants aux sulfamides, que la streptomycine rend le bacille tuberculeux résistant, la pénicilline est, aujourd’hui encore, aussi efficace contre les microbes qui sont sensibles à son action qu’elle l’était en 1941 lorsqu’elle fit son apparition en thérapeutique.
- En dépit de cette remarquable propriété cependant, la pénicilline a rapidement perdu son efficacité à l’égard d’une bactérie pathogène très dangeureuse, le staphylo-
- Fig. 1. — Le Staphylocoque de l’orgelet.
- On voit ici les microbes dans le pus d’un petit abcès (orgelet) après fixation et coloration.
- (Photo Institut Pasteur).
- 244
- p.244 - vue 245/560
-
-
-
- Fig. 2. — Culture de Pénicillium en fiole de Roux.
- Les Pénicillium sont des moisissures telles qu’on en rencontre souvent sur divers milieux nutritifs (lait, pain, etc.). On voit ici sur milieu gélosé, à l’intérieur d’un flacon spécial (fiole de Roux), des mycéliums de l’espèce Pénicillium chrysogennm, la plus employée aujourd’hui pour la fabrication de la pénicilline (le mycélium est la partie végétative du champignon, sur laquelle se développent ensuite les organes reproducteurs, qui donnent les spores). Rappelons que le pouvoir antibiotique a été découvert par Fleming avec une souche d’une autre espèce, Pénicillium notatum.
- coque. Cette situation peut sembler à première vue assez contradictoire et mérite que l’on s’v arrête plus longuement.
- sibles à l’action de la pénicilline. On pensa tout d’abord que cette résistance du staphylocoque était acquise par le microbe à la suite des traitements à la pénicilline comme c’était le cas pour les bactéries sulfamido-résistantes. En réalité il n’en était rien et c’est un des mérites du professeur Chain que d’avoir montré qu’il était absolument faux de dire que le staphylocoque devenait résistant à la pénicilline. Il a toujours existé, de par le monde, des souches de staphylocoques résistants. Cette regrettable propriété est liée au fait que certaines espèces de bactéries, et particulièrement le staphylocoque, peuvent élaborer une enzyme spéciale, la pênicillinase (2). Cette substance provoque l’hydrolyse rapide de la pénicilline qui, ainsi détruite, devient inopérante au point de vue thérapeutique.
- Le pouvoir de fabriquer de la pênicillinase appartient à certaines souches de staphylocoques qui sont donc résistantes tandis que les autres ne le sont pas. L’aptitude à faire la synthèse d’une enzyme dépend d’un caractère génétique spécifique ; elle se transmet héréditairement. Telles lignées de staphylocoques se montrent ainsi résistantes, exactement comme telles lignées humaines comportent la possession d’une peau noire.
- Avant que ne fût employée la pénicilline, les lignées de staphylocoques résistants n’occupaient qu’une place limitée dans les populations microbiennes et c’est pourquoi les premiers traitements à la pénicilline eurent raison de beaucoup d’infections staphylococciques. Mais l’emploi généralisé de la pénicilline a éliminé peu à peu les souches sensibles, tandis que les autres sont restées indemnes, à savoir celles qui par leur structure génétique produisent de la pênicillinase. Ces souches, débarrassées de la concurrence des autres, ont occupé la place ainsi libérée et ce sont elles qui sont en jeu dans une proportion croissante des staphylococcies devant lesquelles se trouve aujourd’hui le médecin.
- La situation est encore aggravée par le fait que la pénicilline, si elle ne crée jamais l’aptitude à produire la péni-cillinase, la stimule du moins chez les staphylocoques qui la possèdent déjà, au point que ces microbes produisent jusqu’à 300 fois plus de pênicillinase en présence de pénicilline qu’en son absence.
- Cependant le fait que la résistance du staphylocoque à l’égard de la pénicilline fût due à une enzyme spécifique permettait d’entrevoir une solution au problème. En effet, la spécificité des réactions enzymatiques est telle que lorsqu’une substance chimique est attaquée par une enzyme, il suffit de modifier légèrement la structure chimique de cette substance pour que l’enzyme devienne impuissante : la serrure dans laquelle entrait sa clé a été faussée, elle ne peut plus l’y introduire.
- Partant de ces considérations, le professeur E. B. Chain a donc cherché à modifier tant soit peu la « serrure ». Mais, celle-ci, quelle était-elle ? Il fallait, en effet, la connaître et l’avoir à sa disposition pour pouvoir agir à sa guise sur elle.
- Une enzyme destructrice de l’antibiotique : la pênicillinase
- Lorsque la pénicilline fut utilisée en thérapeutique, elle vint rapidement à bout des infections dues au staphylocoque et ce fut même à l’époque l’une de ses plus brillantes victoires. Puis, peu à peu, ces infections devinrent insen-
- 2. On appelle eu^ ymes ou diastases un ensemble de substances organiques que l'on ne peut rattacher à aucune fonction chimique déterminée. Agissant à la manière de catalyseur, elles permettent aux organismes vivants d’effectuer des transformations chimiques. Ces réactions peuvent être des hydrolyses, des oxydations, des transferts d’acide phosphorique, de groupes aminés, des isomérisations, etc. Elles sont le plus souvent fortement spécifiques, c’est-à-dire qu’une enzyme déterminée ne peut catalyser qu’une seule réaction. C’est ainsi que la fermentation alcoolique (transformation du glucose en alcool éthylique) s’effectue par une suite de transformations complexes qui mettent en jeu diverses enzymes : phosphatases, isomérases, hydrogénase, carboxylase, etc.
- 245
- p.245 - vue 246/560
-
-
-
- Les diverses pénicillines
- Tableau I
- Constitution chimique des diverses pénicillines.
- Ce que l’on appelle communément pénicilline n’est pas une substance simple ; il existe, en réalité, un certain nombre de pénicillines douées de propriétés chimiques et biologiques très voisines mais qui diffèrent par un détail de leur structure moléculaire. Toutes ces pénicillines sont caractérisées par l’existence d’un noyau commun dont la structure est représentée sur la figure 3. Par contre, elles diffèrent entre elles par la nature de leur chaîne latérale — R.
- CH:
- CH:
- :c — CH — COOH
- S N
- \/ \
- CH CO
- XCH
- I
- NH-CO-R
- Fig. 3. — Structure chimique générale des pénicillines.
- Elles diffèrent entre elles par la nature de leur chaîne latérale — R.
- Au début, on distinguait les pénicillines par des chiffres romains ou des lettres ; actuellement on préfère utiliser une nomenclature dans laquelle des préfixes indiquent la nature de la chaîne latérale comme, par exemple, hen^yl-pênicilline, dans laquelle R — C6H5CH2 ; heptylpénicilline, dans laquelle R = C7H15 et ainsi de suite. On trouvera dans le tableau I les noms et les formules des chaînes latérales de quelques-unes des pénicillines isolées de filtrats de cultures de moisissures (Pénicillium).
- Toutes ces pénicillines sont détruites par la pénicillinase des staphylocoques résistants qui rompt le cycle à quatre atomes de carbone de leur molécule, appelé cycle (3-lactame, ce qui conduit à l’acide pénicilloïque dépourvu de toute action bactériostatique (fig. 4).
- Ancienne
- nomenclature
- Nouvelle
- nomenclature
- Chaîne latérale
- Péncilline I ou F
- Pénicilline II ou G
- Pénicilline III ou X
- Pénicilline IV ou K
- Dihydro I ou F
- A 2 - Penténylpéni-cilline
- - CH2 - CH = CH - CH2 -CH3
- Ben2ylpénicilline
- Parahydroxyben-
- zylpénicilline
- «-Heptylpénicil-
- line
- -CPI2-CgH5
- -CH2-C6H4OH
- -CH2-(CH2)5-CH3
- n - Amylpénicilline
- -CH2-(CH2)3-CH3
- pénicillines variées. Toutefois, cette voie est limitée par le fait que la moisissure ne peut incorporer à la molécule de pénicilline qu’un nombre restreint d’acides organiques et, de plus, toutes les pénicillines synthétisées de cette manière ont montré des propriétés biologiques voisines. Aucune ne résistait à l’action de la pénicillinase. Signalons cependant que c’est par cette méthode qu’a été découverte la phénoxyméthylpénicilline (dont la chaîne latérale a pour formule — CH2 — O — C6H5) qui présente la propriété intéressante d’être administrable par la bouche au lieu de nécessiter des injections.
- Une deuxième voie possible s’offrirait dans la synthèse totale de nouvelles pénicillines, effectuée par le chimiste sans la collaboration du champignon. Pendant des années et en dépit des efforts de nombreux chercheurs, toutes les tentatives pour synthétiser la pénicilline avaient échoué. Ce n’est que récemment que John Sheehan et ses collaborateurs du Massachusetts Institute of Technology sont
- ch3^ 0,. >-CH-C00H CH3^| | ch3. >C —CH—COOH CH3/ j |
- S N PÉNICILLINASE S NH
- \/ \ \/
- CH CO + H20 CH
- \ / 1
- CH CH-COOH
- j NH-CO-R | NH-CO-R
- Fig. 4. — Schéma de l’hydrolyse de la pénicilline sous l’influence de la pénicil-linase.
- Le cycle rectangulaire à 3 atomes de carbone et 1 atome d’azote (appelé cycle (blactame) est ouvert par l’enzyme, ce qui conduit à l’acide pénicilloïque.
- PÉNICILLINE
- ACIDE PÉNICILLOÏQUE
- Comment alors modifier la molécule de la pénicilline pour la rendre insensible à l’action de cette enzyme ? Trois voies différentes étaient possibles ; nous allons maintenant les examiner.
- Une première méthode pouvait se fonder sur le fait qu’une même moisissure est capable de synthétiser toute une série de pénicillines ne différant que par leurs chaînes latérales. La nature du composé formé dépend essentiellement de l’acide organique que l’on ajoute au milieu de culture du Pénicillium. Par exemple, en y incorporant de l’acide phénylacétique on obtient presque exclusivement la benzylpénicilline. C’est là une manière d’obtenir des
- parvenus à vaincre les difficultés de synthèse du fameux cycle rectangulaire (3-lactame à quatre atomes de carbone. Pourtant, bien qu’elle soit très prometteuse au point de vue théorique, la méthode de ces biochimistes, trop délicate et trop coûteuse, n’a pas encore conduit à de nouvelles pénicillines.
- Fig- J — A l’usine Roussel-Uclaf de Romainville : l’atelier des fermentations.
- La culture en grand du Pénicillium chrysogemm se fait en milieu aqueux additionné de substances nutritives (huile, farine, etc.). Le mycélium du champignon se développe en quelques heures dans ces grands bacs.
- (Photos Karquel, aimablement communiquées par Roussel-Uclaf).
- 246
- p.246 - vue 247/560
-
-
-
- p.247 - vue 248/560
-
-
-
- Fig. 6. — A l’usine de Romainville : le grand filtre rotatif.
- Extrait des bacs de fermentation puis raclé sur une presse, le mycélium passe sur ce filtre pour en extraire le jus de culture d’où sera séparée la pénicilline qu’il contient.
- (Photo Karquel, Société Roussel-Uclaf).
- La troisième voie, celle qui fut suivie par le professeur Chain, consistait d’abord à préparer une pénicilline possédant un groupement chimique tel que l’on pût y greffer par substitution des structures chimiques variées. Son choix se porta sur la para-aminobenzylpénicilline (R == — CH2 — C6H4 — NH2) que l’on pouvait obtenir par synthèse biologique et qui disposait d’un groupement aminé sur lequel il était possible de fixer des substituants variés. Cette pénicilline devenait alors le matériel de base pour la préparation de nouvelles pénicillines. Cela se passait en 1955 et M. Chain décida en effet de poursuivre les recherches dans cette voie.
- De la pénicilline « essentielle » à la pénicilline inattaquable
- Cependant, des membres d’une équipe de chercheurs appartenant à une entreprise anglaise, MM. F. P. Doyle, G. N. Robinson, F. R. Batchelor et J. H. C. Nayler, venus travailler à Rome dans le service du professeur Chain,
- allaient faire une constatation ' importante : lorsqu’on n’introduisait aucun « précurseur », c’est-à-dire aucun acide organique dans le milieu de culture du ‘Pénicillium, celui-ci élaborait une substance qui présentait les mêmes réactions chimiques que les pénicillines classiques mais qui ne manifestait par contre aucun pouvoir antibactérien. La nature de cette substance fut élucidée par les chercheurs britanniques de la manière suivante : ils montrèrent d’abord qu’elle était attaquée par la pénicillinase, réaction qui est spécifique de la présence du cycle [3-lactame, puis qu’elle donnait une substance biologiquement active, c’est-à-dire une pénicilline normale, lorsqu’elle était traitée par le chlorure de l’acide phénylacétique. Il était donc hautement probable que le milieu de culture considéré contenait le noyau même de la pénicilline, c’est-à-dire l’acide 6-amino-pénicillanique représenté sur la figure 8. Cette hypothèse fut confirmée peu après en isolant cet acide sous forme cristallisée du milieu de culture.
- Le noyau de la pénicilline, que l’on peut encore appeler
- Fig. 7. — A l’usine de Romainville : batterie d’extracteurs Podbielniak.
- La phase liquide aqueuse passe dans ces extracteurs où circule, à contre-courant, un solvant (acétate d’amine, par exemple) d’où la pénicilline sera-finalement séparée par voie chimique.
- (Photo Karquel, Société Roussel-Uclaf).
- 248
- p.248 - vue 249/560
-
-
-
- ch3x
- CH3^-f-C°°H
- S N
- \/ \
- CH CO
- XCH
- I
- NH,
- ACIDE 6- AMINOPÉNICILLANIQUE
- £, — CH —COOH CH3/| I S NH \ /
- CH
- CH—COOH
- I
- NH2
- ACIDE AMINOPÉNICILLOÏQUE
- CH
- 3\
- CHj^
- C- CH — COOH
- I I
- S N
- \ / \
- CH CO \ /
- CH
- + H CL
- NH — CO-CHz-O1 PÉNICILLINE ACTIVE
- Fig. 8. — L’acide 6-aminopénicilla-nique, noyau de la pénicilline.
- Sous l’influence de la pénicillinase, le cycle (3-lactame est ouvert, ce qui conduit à l’acide aminopénicilloïque. L’action du chlorure de l’acide phénylacétique permet de fixer une chaîne latérale sur le groupement aminé — NH2 et l’on obtient une pénicilline active au point de vue biologique, mais dont l’activité est détruite par la pénicillinase.
- « pénicilline essentielle », possède un groupement aminé — NH2 (fig. 8). On conçoit dès lors qu’il soit facile d’obtenir des produits variés par substitution de l’un des atomes d’hydrogène du groupement aminé, comme on pensait le faire initialement sur la para-aminoben2ylpénicilline.
- Le problème qui s’est alors posé était de pouvoir obtenir en quantités suffisantes et à bas prix de la pénicilline réduite à son noyau et l’on a cherché des microorganismes du sol capables de la fabriquer, en scindant la chaîne latérale d’une pénicilline classique abondamment produite à l’échelle
- p.249 - vue 250/560
-
-
-
- CH
- 3\
- CH3/
- C-CH-COOH
- S N
- \/ \
- CH CO
- Y«
- NH-CO-R
- PÉNICILLINE
- CH3^
- nil /C-CH-COOH
- ^1 |
- AMIDASE S\/N\
- + H7 O CH CO
- CH
- NH2 + R-COOH
- ACIDE 6-AMINOPÉNICILLANIQUE
- Fig. </. — Sous l’influence d’une ami-dase, enzyme produite par différents microorganismes, la pénicilline perd sa chaîne latérale et donne l’acide 6-aminopénicillanique.
- industrielle (fig. 9). On a trouvé, par chance, un champignon inférieur idéal, un streptomycète, qui possède une remarquable spécificité puisqu’il attaque exclusivement la phénoxyméthylpénicilline, c’est-à-dire la pénicilline orale que l’on fabrique aujourd’hui en très grandes quantités. Des bactéries du groupe des colibacilles ont été également trouvées, qui exercent la même action, mais en attaquant préférentiellement la pénicilline ordinaire (benzylpéni-cilline) et non la pénicilline orale.
- Ainsi, le noyau de la pénicilline est devenu aisément accessible ; ainsi on a pu disposer d’une pénicilline réduite à sa partie centrale, sans chaîne latérale, et se livrer alors au travail de serrurerie dont nous parlions plus haut, en modifiant cette molécule de multiples façons.
- C’est ainsi que l’équipe de chercheurs britanniques est parvenue à créer une pénicilline, la 2,6-diméthoxyphényl-pénicilline (fig. 10), qui diffère de toutes les autres par une
- CH:
- CH-
- jC —CH — COOH
- S N
- \/ \
- CH CO
- Yh
- I
- NH-CO
- 0CH3
- 0CH3
- Fig. 10. — Structure de la 2,6 diméthoxyphénylpénicilline, qui n’est pas attaquée par la pénicillinase des staphylocoques résistants.
- propriété d’une importance capitale : elle n’est pas attaquée par la pénicillinase. Cette nouvelle pénicilline s’est montrée en effet parfaitement stable en présence de toutes les pénicillinases, celle du staphylocoque comprise. A la concentration de 1,5 mg par millilitre, elle inhibe complètement le développement des souches de staphylocoques résistants aux pénicillines classiques. Cette concentration
- est environ 20 fois plus élevée que celle habituellement employée avec les anciennes pénicillines, mais l’absence de toxicité du nouvel antibiotique permet de l’administrer à ces doses élevées sans aucun danger.
- Les résultats cliniques ont tout de suite été spectaculaires. On a vu des moribonds, victimes de séquelles staphylococciques de la grippe asiatique, ressusciter littéralement, en 48 heures, à la suite du traitement avec le nouveau produit. Tous leurs staphylocoques avaient cédé, aussi bien ceux qui étaient de souches naturellement résistantes à la pénicilline classique que ceux non producteurs de pénicillinase.
- C’est donc là une nouvelle et décisive conquête de la chimie microbiologique puisque l’on peut dire que le staphylocoque résistant, qui représentait le principal danger actuel des infections bactériennes, est maintenant vaincu.
- Par ailleurs, de nouvelles recherches sont en cours et laissent présumer d’importantes découvertes. On sait, par exemple, que l’un des principaux obstacles aux traitements à la pénicilline réside dans le fait que certaines personnes présentent de graves réactions allergiques à l’égard de cet antibiotique. On conçoit dès lors (et quelques résultats ont déjà été obtenus en ce sens) qu’en modifiant la chaîne latérale de la pénicilline on puisse trouver de nouveaux produits qui ne déclenchent plus aucune réaction allergique chez les malades. Il ne serait pas surprenant non plus que, parmi les nouvelles pénicillines dont la liste s’accroît chaque jour, on découvre des produits qui soient plus lentement éliminés par l’organisme que la benzylpénicilline, ce qui simplifierait les traitements. Tout cela n’est plus désormais qu’une question de recherches, c’est-à-dire de crédits et de foi en l’avenir.
- Comme le disait récemment le professeur Chain, 20 ans après la découverte des propriétés thérapeutiques de la pénicilline et à une époque où l’on pensait avoir définitivement exploité son puissant pouvoir bactériostatique, on assiste au contraire à un renouveau remarquable dont les conséquences n’ont pas fini de se développer. '
- Fernand Lot et Robert Rosset.
- 250
- p.250 - vue 251/560
-
-
-
- *Télévision stéréoscopique
- La Société américaine Westinghouse vient de présenter un équipement de télévision qui permet la vision en relief. Il comporte deux caméras qui transmettent deux images distinctes au récepteur sur l’écran duquel elles apparaissent juxtaposées. La différence fondamentale avec les équipements de télévision classiques réside dans le fait que les deux images sont polarisées perpendiculairement. On sait que la lumière émise par les sources lumineuses ordinaires n’est pas polarisée, c’est-à-dire que le vecteur vibration qui caractérise l’onde lumineuse est orienté au hasard dans toutes les directions. Au contraire, une lumière polarisée est caractérisée par un vecteur vibration ayant une orientation fixe. Si l’on observe les deux images à travers des polaroïds dont les directions de polarisation sont rectangulaires, chaque polaroïd ne laissera passer qu’une seule image et éteindra complètement l’autre. L’œil droit ne voit alors qu’une seule des deux images, l’autre étant vue par l’œil gauche. L’ensemble est équivalent à un stéréoscope et la scène est vue en relief.
- Bien que cet appareil n’ait pas encore dépassé un stade purement expérimental, il n’en est pas moins l’amorce d’une future télévision en relief dont la commercialisation est peut-être moins éloignée qu’on aurait pu le penser.
- Fig. I. — Récepteur de télévision stéréoscopique.
- On distingue sur l’écran les deux images juxtaposées.
- (.Photos Westinghouse).
- Fig. 2. — Les spectateurs se voient en relief sur l’écran en observant les deux images au moyen de verres polarisants.
- p.251 - vue 252/560
-
-
-
- Deux hommes dans Y espace
- Le vol « orbital » du
- Depuis le vol spatial historique du 12 avril dernier, c’est sur la tête de Youri Alexeievitch Gagarine que les lauriers se sont accumulés. Deux jours après son retour de l’espace, Moscou lui faisait un accueil délirant, on donnait son nom à un glacier du Kazakstan, il recevait les titres de « héros de l’Union Soviétique », « aviateur cosmonaute de l’U. R. S. S. », « pionnier d’honneur » et aussi « maître émérite ès sports ». Si l’on exceptait le mot de M. Khrouchtchev pour exalter la science et la technique soviétiques, on pourrait croire que le mérite de cet exploit revient au seul commandant Gagarine et qu’il est, comme les frères Wright ou Clément Ader, le créateur de son engin en même temps que l’auteur de son vol.
- Fig. I. — Revêtu du scaphandre spatial, le commandant Gagarine échange des saluts avec les techniciens, avant de prendre place dans l’ascenseur qui va le conduire à l’étage supérieur de la fusée.
- (Photo aimablement communiquée par le Bureau soviétique d’information).
- par Charles Le Gros
- commandant Gagarine
- Pourtant cette réussite est avant tout la récompense d’un magnifique travail d’équipe et les essais des 9 et 25 mars, derniers, couronnés de succès, avaient déjà garanti le retour du vaisseau-satellite Orient {Vostok). Le commandant Gagarine jouait une partie gagnée d’avance. Mais la tentation était grande de détourner sur le pilote une curiosité naturellement orientée vers l’engin. Il n’était pas possible à l’Union Soviétique d’y résister puisqu’il n’est pas dans ses habitudes de fournir tous les détails désirés.
- Une note des Services soviétiques d’information a apporté quelques données intéressantes sans pour autant satisfaire notre légitime curiosité. Pour le reste nous en sommes réduits aux maigres informations recueillies à l’occasion des précédentes expériences spatiales russes, aux quelques commentaires plus anecdotiques que scientifiques publiés par la presse moscovite et à beaucoup de conjectures.
- Et nous commençons de supposer dès le départ du vaisseau Orient. Par quelle fusée a-t-il été placé sur son orbite ? Il s’agit probablement d’une fusée du même type que celle qui a été essayée pour la première fois dans l’Océan Pacifique au mois de janvier i960. S’agirait-il plus précisément d’une fusée T4 A dont le plafond est de l’ordre de 300 km (apogée de l’orbite du vaisseau Orient : 302 km) et la vitesse supérieure à Mach 10 ? Une estimation des spécialistes occidentaux permet d’affirmer que pour placer sur une orbite assez basse un satellite de 5 tonnes (poids du Vostok : 4 725 kg), une poussée de 700 tonnes est nécessaire.
- Sur la cabine, sur son installation, nous possédons quelques détails. Le 25 avril, les deux plus grands journaux de Moscou, Pravda et lyyestia, ont donné un récit circonstancié de l’expérience et des photographies accompagnées de légendes de l’intérieur du vaisseau-satellite et une note technique des Services soviétiques d’information y ajoutait quelques détails intéressants. Ainsi on a su que toutes les manœuvres ont été commandées automatiquement par un cerveau électronique placé à bord de l’engin et auquel une programmation avait été imposée à l’avance. Youri Gagarine n’a pas eu à intervenir ; il en avait cependant la possibilité pour assurer sa sécurité personnelle. Des commandes à portée de ses mains lui permettaient de revenir sur terre à n’importe quel moment. Il pouvait également orienter son véhicule « à vue » dans l’espace.
- 252
- p.252 - vue 253/560
-
-
-
- Youri Gagarine voyait-il les champs, les fleuves comme il l’a prétendu ? La photographie publiée par ïyyestia tranche la question : la cabine spatiale comportait trois hublots. On peut supposer qu’ils étaient protégés au moment de la descente par un opercule extérieur. D’autre part, en vision verticale à partir d’un observatoire situé à 300 km d’altitude, l’œil distingue encore deux lignes pourvu qu’elles soient séparées par une distance minimale de 200 m.
- Pour que l’astronaute pût connaître à tout moment sa position exacte dans l’espace et pût agir en conséquence, le pupitre de commande comportait un globe dont la rotation était synchronisée avec le mouvement du vaisseau sur l’orbite. Le premier navigateur de l’ère spatiale, s’il n’avait possédé un tel appareil, n’aurait eu évidemment ni le loisir ni le moyen de faire le point !
- Pour assurer la communication radiotéléphonique entre l’astronaute et les stations soviétiques à terre, trois bandes de fréquences ont été choisies, dont deux sur ondes
- Fig. 2. — Vue intérieute partielle de la cabine du « Vostok ».
- i, Tableau de bord du pilote ; 2, tableau avec appareil de contrôle et sphère qui indique la position du vaisseau par rapport à la Terre ; 3, caméra de télévision ; 4, hublot avec orientateur optique ; 5, levier d’orientation du vaisseau ; 6, radio ; 7, container avec aliments.
- (Photo aimablement communiquée par le Bureau soviétique d’information).
- courtes (9,019 et 20,006 mégacycles) et une sur ondes ultra-courtes (143,625 mégacycles), cette dernière étant utilisée pour les liaisons à 1 500-2 000 km de distance. Aux liaisons directes s’ajoutait une liaison « en différé », assurée par un magnétophone qui enregistrait les paroles de l’astronaute et les diffusait lorsque le vaisseau survolait les centres de réception, situés sur la Terre.
- Recherche de la sécurité
- On a pu écrire que l’expérience du 12 avril avait été le triomphe de la sécurité. On avait en effet multiplié les précautions. C’est ainsi que le scaphandre du passager éventuellement pilote constituait une véritable cloison étanche, suffisante pour le protéger même dans le cas d’une rupture de l’hermétisme de la cabine sous le choc de météorites. L’habitacle, d’après les journaux soviétiques,
- est « beaucoup plus spacieux qu’une cabine de pilote d’avion ». Il est insonorisé et sa surface extérieure est revêtue d’une « couche de protection thermique, évitant la combustion pendant la descente », couche faite probablement d’un matériau réfractaire. Deux écoutilles permettent l’entrée et la sortie. A l’extérieur se trouvent, hormis les organes de direction, d’orientation et les antennes, des volets à commande automatique qui, en liaison avec un échangeur de chaleur, contribuent à la régulation thermique de la cabine, où la température est maintenue entre 150 et 220 C.
- La régénération de l’air obéit également à un système automatique ; des appareils spéciaux détectent les excès tantôt de C02, tantôt d’oxygène et en informent un transducteur dont les signaux commandent les différents organes du régénérateur. La régénération de l’air est obtenue par une réaction chimique dont la nature n’est pas précisée. Il y a assez d’oxygène et de vivres pour un vol de dix jours.
- Sur la photographie des I^vestia, on distingue deux caméras de télévision. L’une, face au passager, filme son comportement ; l’autre prend son image de profil. A gauche du siège se trouve le tableau de commande pour l’atterrissage et l’orientation à main ; à droite, le récepteur radio et le garde-manger. Le siège lui-même est orientable de manière que les effets de l’accélération et de la décélération soient toujours ressentis dans le sens poitrine-dos par l’astronaute. A l’arrière du poste de pilotage se trouve la section des instruments, séparée de la cabine par une cloison hermétique et dont on ne dit pas si la récupération a eu lieu.
- On sait que le passager du Vostok portait certains appareils qui enregistraient ses fonctions physiologiques, en particulier rythme cardiaque et rythme respiratoire. En cas de catapultage, une réserve d’oxygène et un système de ventilation du scaphandre lui auraient permis d’éviter l’asphyxie. Parvenu au sol, il pouvait, grâce à un émetteur radio portatif, faire connaître sa position.
- La note publiée par les Services soviétiques d’information mentionne les appareils de mesure radioélectriques et radiotélémétriques dont les informations sont transmises à des stations à terre. Les données recueillies sont fournies automatiquement à des calculatrices électroniques qui en font la synthèse, font connaître les paramètres fondamentaux de l’orbite et permettent de pronostiquer la suite du vol.
- Quelques généralités sont également données sur le système d’orientation de l’engin. Le vais seau-satellite, en effet, avant d’amorcer la descente et afin d’atteindre correctement la région visée, doit être orienté selon une direction parfaitement définie dans l’espace. Cette orientation a été acquise en alignant un des axes du vaisseau en direction du Soleil. Au moyen de transducteurs optiques et gyroscopiques, éléments sensibles du système, des signaux ont été transmis à un bloc électronique qui a fait pivoter le vaisseau et l’a maintenu avec précision dans la position adéquate.
- Les inconnues du trajet et du mode de récupération
- Tout ce que nous savons du trajet du vaisseau-satellite est limité à l’apogée de l’orbite (apogée théorique : 302 km ; en fait l’engin est monté jusqu’à 327 km), au périgée
- 253
- p.253 - vue 254/560
-
-
-
- périgée théorique : 175 km, pratique : 187 km) et à son angle d’inclinaison sur l’équateur : 65 degrés. Ce dernier chiffre est intéressant. Toutes les orbites des précédents vaisseaux de 5 tonnes avaient la même inclinaison. Les spécialistes soviétiques semblent avoir adopté ce chemin et en connaître toutes les caractéristiques et les embûches. Les mécaniciens célestes dont le travail est le calcul des orbites des satellites ont dû mettre au point la trajectoire inclinée à 65 degrés sur l’équateur terrestre, ce qui explique la sécurité des vols cosmiques des engins soviétiques.
- Sur l’atterrissage et la récupération, nous ne possédons rien de sûr. Alors qu’on demandait à l’astronaute quelle technique avait été employée pour assurer son retour sur terre, il répondait : « la meilleure qui puisse permettre un plein succès de l’entreprise ». C’est beaucoup dire. Aussi voici, compte tenu de ce que les expériences américaines nous ont appris, ce que nous sommes en droit de supposer. Le freinage par rétrofusées est maintenant chose acquise. Aucun autre système connu ne présente les mêmes avantages. Les I^vestia nous révèlent que la descente s’est effectuée sur une distance de 8 000 km. Le film des événements situe l’amorce de cette descente au-dessus de l’Afrique. En s’en tenant au message transmis par Radio Moscou, le freinage aurait été amorcé à 9 h 27 (heure de Paris) et l’atterrissage aurait eu lieu à 10 h environ : une demi-heure pour le retour. L’article des I^yestia parle des freins aérodynamiques. S’agit-il de volets de freinage, d’ailerons, de parachutes ? Peut-être de tous ces procédés savamment gradués de façon à assurer une rentrée progressive dans les couches denses de l’atmosphère. Ce que la presse soviétique affirme, c’est que le commandant Gaga-rine pouvait se libérer à l’altitude de 7 km par un catapultage de son siège, grâce à une petite fusée à allumage automatique. Dans ce cas, le commandant aurait atterri en parachute. La Komsomolskaia Pravda, dans un commentaire repris par Radio Moscou, assurait que Youri Gagarine était revenu sur terre par ce moyen. La lumière, sur ce point encore, reste à faire.
- Pour apprécier la portée technique de l’expérience du 12 avril, il faudrait rappeler les multiples recherches qu’implique une telle réussite : la mise au point d’un carburant permettant à la fusée d’atteindre en 2 ou 3 étapes la vitesse de 40 000 km/h ; la fabrication d’alliages résistant aux fantastiques pressions de l’air, au frottement lors du retour, alors que la vitesse du satellite est de l’ordre de 28 000 km/h ; tous les travaux sur les ondes de choc pour éviter la désintégration lors de la rentrée dans l’atmosphère. Peut-être a-t-on oublié que lors du lancement des premiers spoutniks, le problème de la « rentrée dans l’atmosphère » faisait prévoir 5 ans de recherches. Quatre ans seulement se sont écoulés depuis cette date. Les savants russes ont mis les bouchées doubles : ils tenaient à arriver les premiers, étant partis à point.
- Fidèles à Pavlov, les Russes avaient choisi les chiens pour leurs expériences de « biologie spatiale ». A peine un mois après le départ du premier spoutnik (4 octobre 1957), ils envoyaient dans l’espace la chienne Laïka. En i960, après une série de tirs à longue portée en direction du Pacifique, destinés à essayer de nouvelles fusées à très forte poussée, munies d’un système automatique de guidage, ce fut la série des vaisseaux-satellites lourds, ainsi nommés parce que leur charge utile contenait déjà la réplique de l’habitacle du futur astronaute. Il y en eut 5 en tout, dont 4 « habités » par une sorte d’arche de Noé où des chiennes voisinaient avec des souris blanches ou noires, des insectes, des bactéries et des tissus humains.
- Les problèmes techniques que posaient le départ d’un homme dans l’espace et son retour sur terre étaient résolus dès le vol réussi du 19 août i960. Aujourd’hui, les savants songent déjà aux prochaines étapes de la conquête de l’espace : à l’installation d’observatoires au delà de l’écran atmosphérique qui leur dérobe tant d’utiles radiations et à l’intervention pleine de promesses de découvertes d’un opérateur humain qui corrigerait, au besoin réparerait les instruments automatiques qu’emportent les satellites.
- Le vol « balistique » du commandant Shepard
- Ajourné à plusieurs reprises en raison des mauvaises conditions atmosphériques, différé le 2 mai alors que le « compte à rebours » (décompte des instants qui précèdent le moment de la mise à feu de la fusée porteuse) n’en était qu’à 15 minutes de 1’ « heure H », le vol d’un astronaute américain a finalement eu lieu, vendredi 5 mai, à 15 h 34, en présence de milliers de spectateurs, à la façon d’une « première mondiale ». Il faut reconnaître aux spécialistes de la N. A. S. A. (Administration de l’Aéronautique de l’espace) le courage d’affronter l’opinion publique. L’expérience du 5 mai s’est déroulée au grand jour, les responsables du projet Mercury prenaient le risque d’un échec, gros de conséquences.
- Ils s’étaient, il est vrai, entourés de grandes précautions. La forme de la capsule dans laquelle a pris place le commandant Shepard n’a été dessinée qu’après cent passages des maquettes dans des souffleries, au cours d’essais qui ont duré près de cinq mille heures. La capsule prête, elle a subi une première série de tests lors de lancers à haute altitude à partir d’avions. Ces essais étaient destinés à mettre au point le système des parachutes et l’ensemble des opérations de récupération.
- Suivirent une deuxième série d’épreuves qui furent de véritables répétitions du vol balistique. Le véhicule porteur de la capsule n’était pas toujours le même ; souvent il soumettait la cabine du futur astronaute à des conditions
- 254
- p.254 - vue 255/560
-
-
-
- beaucoup plus difficiles que celles qu’elle aurait à affronter avec son passager. Ce fut en particulier le cas du dernier essai du 28 avril au cours duquel, lancée à basse altitude (12 000 m), la capsule a eu à subir des forces de frottement considérables. Elle a été occupée par un chimpanzé et par des mannequins avant d’être habitée par l’homme. Enfin, pour plus de sûreté, on n’a confié l’habitacle qu’à un véhicule dont on était sûr, plusieurs fois éprouvé au cours d’essais opérationnels et actuellement en service dans l’armée américaine.
- Il s’agit d’un engin balistique de moyenne portée, militairement dépassé. La fusée Redstone a une poussée de 39 tonnes, soit dix fois moins que celle qui a placé sur son orbite le vaisseau satellite Yostok. Pour les besoins du projet Mercury, surtout pour augmenter la capacité de ses réservoirs, on l’a allongée de 3 m. La fusée mise à feu le 5 mai avait 25 m de long. Elle utilise pour carburant de l’oxygène liquide, ce qui explique que tout ajournement de l’essai entraîne la vidange complète des réservoirs, la matière étant par trop corrosive. Précaution supplémentaire, on a installé sur cette fusée un système d’alerte automatique qui signale toute défaillance mécanique dès le départ. En pareil cas, la séparation de la capsule est immédiatement déclenchée, une fusée auxiliaire automatiquement allumée qui éloigne l’habitacle de la fusée et assure ainsi sa sauvegarde : la capsule, habitée ou non, est donc toujours récupérable. Aussi peut-on penser que, en cas de mauvais fonctionnement du véhicule, la cabine spatiale du commandant Shepard aurait été sauvée.
- Cette cabine, énorme cône métallique qui pèse plus d’une tonne, ressemble à un entonnoir. Le pilote n’y dispose pas de moins de place que celui d’un intercepteur à réaction moderne. Il a par contre sous les yeux un tableau de bord d’un genre tout nouveau.
- Au centre, le viseur du périscope qui lui permet de voir la terre en plein vol ; de chaque côté, les voyants et manettes. A gauche d’abord, les altimètres et le contrôle des rétrofusées chargées de ralentir la vitesse de l’engin afin d’en provoquer le retour sur terre. A côté de ces instruments, les appareils qui rendent compte du bon déroulement des manœuvres « programmées ». A chaque voyant correspond une manette correctrice, capable de rectifier la manœuvre mal amorcée ou de remédier à la défaillance signalée. C’est à droite du périscope que se trouvent les instruments de navigation qui doivent, entre autres, lui indiquer le niveau du combustible dans les petits moteurs-fusées dont la capsule est munie.
- Pour s’orienter, l’astronaute utilise son périscope et une petite mappemonde qui, grâce à un mouvement d’horlogerie, effectue une rotation analogue à celle de la capsule au-dessus de la Terre. A l’extrême droite, enfin, les instruments de contrôle du « système d’environnement » chargé d’assurer la survie de l’astronaute. Toutes les indications fournies par ces appareils sont retransmises à terre par télémétrie.
- Le « système d’environnement » lui-même comporte une série de dispositifs logés derrière l’astronaute. Deux circuits : l’un contrôlant l’approvisionnement en oxygène de l’homme enfermé dans la combinaison spatiale, l’autre surveillant l’atmosphère de la cabine pour lui permettre de relever la visière de son casque et éventuellement de détacher les sangles de son siège pour mieux éprouver les conditions d’impesanteur.
- Directement sous les yeux de l’astronaute, des appareils sont appelés à déceler toute défaillance de l’automaticité du système, notamment en ce qui concerne la pression et la température à l’intérieur de la cabine. Toutes ces indications, transmises à terre durant le vol, sont regroupées sur un panneau où sont aussi rassemblés les renseignements reçus sur l’état physique de l’astronaute.
- Fig. 3. — Le départ de la fusée portant la cabine du commandant Shepard.
- Au-dessus de la fusée Redstone on voit la capsule conique où se trouvait le passager. Au-dessus de cette capsule, la « fusée d’échappement » qui doit entraîner la capsule en altitude pour l’empêcher de s’écraser au sol en cas d’arrêt de là fusée porteuse.
- p.255 - vue 256/560
-
-
-
- Fig. 4. — La capsule Mercury entraînée par la fusée d’échappement.
- La fusée d’échappement comprend trois petites fusées qu’on voit ici en fonctionnement. Ce dispositif n’a pas eu heureusement à fonctionner lors du vol du 5 mai.
- Le contrôle de l’altitude et de la stabilité de l’engin est assuré par un dispositif de cellules sensibles aux rayons infrarouges. Elles ont pour mission de surveiller la ligne d’horizon et de déclencher automatiquement, par l’intermédiaire d’un programmateur, de petits moteurs-fusées dont l’effet est de contrebalancer le déséquilibre décelé.
- Enfin un contrôle manuel, par le moyen d’un levier à trois crans d’arrêt qui agit sur de petits moteurs-fusées, est destiné à assurer la sécurité du retour. Au cours de l’entraînement préparatoire au vol, l’astronaute s’est exercé au maniement et à la lecture de tous ces appareils et ce n’est qu’après l’épreuve du bon fonctionnement de chacun d’eux que le commandant Shepard a été enfermé dans la capsule. Installé sur son siège, il participe aux dernières minutes du « compte à rebours ».
- — A moins quinze minutes, il révise les procédures à suivre en cas d’urgence et contrôle le système de télé-métrie ;
- — A moins sept minutes, l’approvisionnement en énergie de la capsule est coupé, l’engin s’alimente sur ses propres batteries ;
- — A moins six minutes, tous les « responsables » doivent être à leur poste.
- Puis, à quelques secondes, les opérations s’enchaînent automatiquement. Un responsable appuie sur le bouton rouge de la mise à feu dans le blockhaus de contrôle, face à la fusée dressée comme un crayon depuis qu’on en a écarté les échelles et autres échafaudages.
- La fusée partie, son moteur a fonctionné durant deux minutes et a propulsé la cabine à la vitesse de 7 500 km à l’heure. Le trajet de la capsule, d’abord vertical, commence de s’incurver vers l’est. Ce serait le moment, en cas de défaillance grave, de déclencher le système de sécurité. Trois petites fusées disposées en faisceau au sommet d’une tourelle assureraient le retour de la capsule brusquement détachée de son véhicule avarié (fig. 4). Au premier quart de la course, la tourelle de sauvetage, devenue inutile, se détache. Le moteur de la fusée Redstone s’arrête ; dix secondes plus tard, la capsule se détache de son véhicule par explosion des boulons. Le pilote est alors adossé au fond de la capsule, faisant face à la direction du vol. Il subit, dans cette position, une accélération égale à six fois celle de la pesanteur. Mais cinq secondes après la séparation de la fusée et de la capsule, l’engin, sur commande, bascule afin de présenter sa face la plus large en avant, l’astronaute tournant ainsi le dos à la direction de marche. Quant à la pointe de l’engin, elle s’abaisse vers le sol selon un angle de 40 degrés avec l’horizontale. La capsule va atteindre son apogée, soit 185 km.
- Nous sommes 2 mn 45 s après la mise à feu et la capsule doit réduire de 14 degrés l’angle que fait son axe avec l’horizon. C’est dans cette position de la capsule que la force centrifuge équilibre les effets de la pesanteur et que l’astronaute ne sent plus son poids.
- Alors s’allument les rétrofusées qui doivent provoquer le retour ; elles sont placées sur le bouclier protecteur qui recouvre le fond de la capsule. Dans le cas du vol balistique du 5 mai, ces rétrofusées n’étaient pas nécessaires ; elles furent alors expérimentées en vue de futurs vols orbitaux.
- Le retour amorcé, le pilote abandonne toute direction de la capsule au système automatique. Les effets de la décélération qu’il ressent sont à ce moment 9 ou 10 fois ceux de la pesanteur. Il y a huit minutes que la fusée est partie, six minutes doivent encore s’écouler avant que la capsule n’amérisse. Auparavant, le pilote accomplit sous l’œil de la caméra un certain nombre de mouvements qui permettront l’étude des forces auxquelles il était soumis.
- Puis c’est l’ouverture du premier parachute, d’étroites dimensions, dont le rôle est de stabiliser l’engin. Suit à quelques secondes celle d’un second parachute, assez vaste celui-là, destiné à freiner la chute. La vitesse est alors réduite à 10 m par seconde.
- Quinze minutes après la mise à feu, la capsule touche l’Océan et répand sur l’eau une substance colorante qui doit guider de loin les recherches en vue de sa récupération. Le parachute a été largué entre temps et le task groupe véritable petite flottille de surveillance dont les unités ont été égrenées le long du parcours, s’occupe à repêcher la
- Fig. j. — La capsule, freinée par le grand parachute, vient d’amétir dans l’Océan Atlantique.
- 256
- p.256 - vue 257/560
-
-
-
- p.257 - vue 258/560
-
-
-
- Fig. 6. — L’astronaute sort de la capsule tombée dans l’Océan.
- L’engin contient un radeau gonflable, un émetteur radio et tout un matériel de survie.
- (Photos aimablement communiquées par le Centre culturel américain).
- capsule. C’est un hélicoptère qui l’enlèvera au bout d’un filin tandis que son passager, délivré de sa combinaison, a gagné la carlingue de l’appareil. Le point prévu pour la chute (à 295 milles du point de lancement) a bien été atteint. L’opération a suivi point par point le déroulement prévu.
- Faudra-t-il maintenant attendre 1963, ainsi que l’a prédit un savant soviétique, pour assister à la première « satellitisation » d’un astronaute américain ? Ce qui manque le plus aux Américains, c’est une fusée de forte poussée, capable de placer sur orbite des charges supérieures à une tonne. Le dernier essai d’une satellitisation par une fusée Atlas de 178 tonnes de poussée, le 26 avril, s’est soldé par un échec. La fusée, de fonctionnement irrégulier, a dû être détruite en plein vol.
- La fusée Saturne, si sa réalisation est menée à bien, portera des capsules qui pourront contenir des équipages de plusieurs hommes. Mais jusqu’à présent, la plus grosse charge placée sur orbite par les Etats-Unis n’excède pas 1 100 kg (Discoverer XX).
- Dans la « course à l’espace », les spécialistes de la N. A. S. A. compensent leur léger retard technique par la variété et le nombre de leurs expériences. Ils ont aujourd’hui lancé 40 satellites et les Soviétiques n’en ont avoué que 1 x : les renseignements scientifiques qu’ils ont recueillis sont considérables et ils ont été les seuls à essayer de mettre en place un réseau de satellites météorologiques avec les engins Tiros et Transit, puis un réseau de satellites de communications avec les engins Echo et Courrier. Us songent déjà à un nouveau vol balistique pour astronaute dès la fin juin. De tels projets, si proches d’une première réussite, n’augurent-ils pas des expériences plus audacieuses ?
- Charles Le Gros.
- 258
- p.258 - vue 259/560
-
-
-
- La « Thalassa », chalutier océanographique remplace le « Théodore-Tissier »
- L’ancien navire de recherches océanographiques français, le Trêsident-Thêodore-Tissier, lancé en 1933, vient d’achever sa carrière. La Thalassa lui succède au service de l’Institut scientifique et technique des Pêches maritimes. Lancé en mai i960 au Havre, il vient de terminer sa première campagne d’essais. Ce navire doit faire face aux besoins nouveaux de la pêche et de l’océanographie. Il mesure 66 m hors tout et déplace 1 500 tonnes. Son tirant d’eau est de 5 m. Premier bateau français à présenter cette originalité, il a été construit pour chaluter par l’arrière et sa poupe est terminée par une rampe à forte pente. Il offre, pour les travaux scientifiques, des locaux qui couvrent 200 m2.
- L’ensemble propulsif est adapté au travail très particulier d’un navire océanographique qui exige de pouvoir passer avec souplesse à des allures très différentes. Pour cette raison on a adopté l’hélice à pas variable et la formule des deux moteurs (800 ch et 300 ch) pouvant être attelés sur l’arbre ensemble ou séparément. La Thalassa peut atteindre une vitesse de 12 nœuds et possède une autonomie de 60 jours. Les installations de navigation comportent un radar, un récepteur Decca, un gyrocompas et un loch électrique, ainsi que des appareils de radio et de météorologie. Quatre sondeurs ultra-sonores sont adaptés aux différentes profondeurs. L’un d’eux a une portée de 9 000 m.
- Le système de pêche est original. La rampe arrière, large de 4 m, est surplombée par une passerelle transversale qui relie deux plate-formes latérales. Au-dessus de la passerelle, un portique ayant la largeur de la poupe permet l’accrochage et la manœuvre des panneaux du chalut. Le contenu de ce dernier est déversé directement dans la salle de tri, au pont principal.
- Fig. 1. — La Thalassa dans le port du Havre.
- {Photo G. Beaufils, Le Havre).
- La conservation du poisson par le froid se fait dans une cale de 35 m3 à — 50 C, une cale de 27 m3 à — 26° C et une cale de 5 m3 à— 400 C. Le traitement du poisson pour la fabrication des farines et autres sous-produits s’effectuera dans un grand local attenant à la salle de tri.
- Les travaux d’océanographie pourront être réalisés dans cinq laboratoires où travailleront dix-huit océanographes. Un laboratoire d’hydrologie et sédimentologie est réservé aux lectures de températures, aux prélèvements d’eau de mer et à l’étude des carottages. Deux laboratoires de chimie, un laboratoire de biologie disposent de tout le
- Fig. 2. — Vue arrière de la Thalassa.
- On voit la rampe arrière (servant à la remontée du chalut), la passerelle et le portique où sont accrochés les panneaux du chalut.
- {Photos aimablement communiquées par /’Institut scientifique et technique des Pêches maritimes).
- p.259 - vue 260/560
-
-
-
- confort nécessaire. Un laboratoire-atelier et une chambre noire complètent l’installation.
- Une vedette de pêche de 9 m équipée d’un moteur de 45 ch et d’un sondeur permet de détecter près de la côte, à faible profondeur, les -bancs de poissons. Une tourelle de plongée « Galeazzi » peut descendre jusqu’à 600 m pour l’exploration sous-marine.
- Ainsi conçue, la Thalassa est un navire solide et bien aménagé, permettant à des chercheurs de poursuivre tous les travaux scientifiques et techniques concernant l’étude des mers et des produits de la pêche. Son dispositif de chalutage, nouveau pour un navire français, en fait un chalutier qui peut, dès à présent, servir la grande pêche lointaine. Après une mission en Méditerranée, la Thalassa se prépare pour une expédition dans l’Atlantique du Nord-Ouest. C’est la première fois que les océanographes français
- possèdent un navire spécialement conçu pour la recherche. Jusqu’à cette année ils devaient se contenter d’embarquer sur des cargos, des embarcations de pêche ou sur des unités de guerre converties. La Calypso, dotée de perfectionnements techniques très modernes, est un ancien dragueur de mines canadien. Le dragueur Origny a été aussi transformé en navire océanographique. Ces conditions matérielles précaires ont jusqu’à maintenant rebuté de nombreux chercheurs. Avec la mise en service de la Thalassa il est à souhaiter que de nombreux jeunes s’orientent vers l’exploration scientifique de la mer, qui n’en est qu’à ses débuts.
- R. Dajoz.
- Documentation fournie par l’Institut scientifique et technique des Pêches maritimes, revue Science et Pêche.
- L’exploitation de l’énergie géothermique en U. R. S. S.
- La prospection des sources d’énergie géothermique s’étend à travers de nombreuses contrées. Après l’Islande, la Toscane, la Nouvelle-Zélande (voir Ta Nature, août 1959, p. 356) et plus récemment le Chili, l’Union Soviétique a entrepris l’équipement des sources chaudes et des « nids de vapeur » qui existent sur son territoire.
- Les sources thermales souterraines constituent une réserve d’énergie particulièrement intéressante, car elles sont pratiquement inépuisables. Des forages peuvent les atteindre jusqu’à une profondeur de 4 000 m et les faire jaillir, sous pression naturelle, à une température qui dépasse parfois ioo° C. Déjà à l’heure actuelle, la ville de Reykjavik, capitale de l’Islande, ce pays si riche en sources thermales, est, comme on le sait, chauffée presque exclusivement par ces sources judicieusement exploitées.
- En U. R. S. S., d’après la revue soviétique Priroda, l’exploitation des sources souterraines d’eau chaude n’est qu’à ses débuts. C’est au Caucase surtout que les sources thermales sont nombreuses. Des forages de prospection ont déjà été entrepris dans plusieurs régions en vue de
- Spéléothérapeutique
- Un centre de cure pour la guérison de l’asthme vient d’être installé dans les grottes d’Aggtelek (Hongrie) à 70 m de profondeur. La température ambiante y est de io° C et l’atmosphère est totalement dépourvue de poussières. Des mineurs souffrant de cette affection ont passé, sous surveillance médicale, de 4 à 6 h par jour pendant deux semaines dans la grotte. Les résultats ont été jugés satisfaisants, les malades ayant enregistré une très nette amélioration de leur état et n’ayant pas eu de rechute depuis (Information du Pureau hongrois de Presse et de Documentation J.
- l’utilisation éventuelle de l’eau chaude souterraine pour le chauffage des villes telles que Tbilissi et Grosny. Au Daghestan, certaines sources thermales sont déjà partiellement exploitées aujourd’hui pour le chauffage d’immeubles et leur alimentation en eau chaude. Cependant, des sources importantes d’eau chaude ont également été découvertes dans le sous-sol de la Sibérie, du Kamtchatka, des îles Kouriles et même à l’extrême nord de l’U. R. S. S. Ainsi, en pleine zone de congélation éternelle, on rencontre de vrais « champs thermaux », couverts de végétation, de buissons et même, parfois, parsemés de fleurs. Ce réchauffement local est dû exclusivement aux sources thermales souterraines qui parviennent à se frayer un passage à travers les couches extérieures congelées du sol. Des calculs préalables permettent d’affirmer qu’à elles seules les sources thermales déjà découvertes pourraient assurer le chauffage et l’alimentation en eau chaude d’une soixantaine de villes et d’une centaine de districts de l’Union Soviétique.
- C. M.
- Journal diffusé par satellites ?
- D’après une information du Centre culturel américain, on estime aux États-Unis qu’il sera possible en 1962, en utilisant un système de satellites de communications, de reproduire en quelques minutesudans toutes les parties du monde un journal fraîchement imprimé. Le fpurnal sera balayé page par page par une caméra de télévision et les impulsions électriques correspondantes seront envôyées vers un satellite qui les réfléchira jusqu’à leur destination. Il faudrait six minutes pour la transmission d’un journal de 90 pages. Mais combien y aura-t-il de « coquilles >> par rapport à l’édition originale ?
- 260
- p.260 - vue 261/560
-
-
-
- L’ACTUALITÉ INSTRUMENTALE
- Une caméra de télévision qui « voit » dans l’obscurité
- UN tube de prises de vues de télévision qui peut « voir » un cambrioleur rôder autour d’une banque dans l’obscurité ou observer les mœurs nocturnes des hiboux et des chauves-souris vient d’être mis au point en Angleterre par la Société E. M. I. Electronics Limited (représentée en France par Antarès).
- Il s’agit en effet d’un tube sensible aux rayons infrarouges qui couvrent la bande de longueurs d’onde comprise approximativement entre 4 000 et 10 000 angstrôms (0,4 à 1 micron). Bien entendu, la scène télévisée doit être éclairée par des lampes infrarouges mais cela n’est pas gênant pour les deux applications que nous avons évoquées, le rayonnement infrarouge n’étant pas aisément décelé par les êtres vivants. Cette sensibilité aux grandes longueurs d’onde a été obtenue en modifiant la nature de la couche photo-conductrice d’un tube de prises de vues classique du type Vidicon ; nous pensons qu’il est utile de rappeler succinctement le mode de fonctionnement de ce genre de tube.
- La figure 1 représente schématiquement la disposition interne des éléments du tube. La partie essentielle est la photo-cathode constituée par une surface conductrice transparente, la plaque signal, sur laquelle est déposée une mince couche semi-conductrice sensible à la lumière. Dans les tubes Vidicon ordinaires ce peut être du sélénium, du trisulfure d’antimoine Sb2S3, etc. Alors que dans l’obscurité ces corps sont des isolants presque parfaits, leur résistivité diminue lorsqu’ils sont éclairés, de sorte qu’ils deviennent plus ou moins conducteurs. Tandis que l’on forme sur la plaque signal, au moyen d’un objectif, une image de la scène télévisée, la photo-cathode est balayée par un faisceau d’électrons de la manière suivante : une cathode émet par chauffage un pinceau très fin d’électrons accélérés par l’anode sous une tension de -j- 300 volts.
- Tandis qu’il se dirige vers la photo-cathode, le pinceau électronique est soumis à deux champs de déviation magnétiques, l’un horizontal et l’autre vertical. Il se trouve ainsi contraint à effectuer le mouvement de balayage par lignes bien connu. Après la déviation, le champ magnétique de la bobine de concentration ramène le pinceau électronique dans une direction parallèle à l’axe du tube de sorte que ce pinceau frappe perpendiculairement la surface de la photo-cathode. Dans l’obscurité, la couche semi-conductrice étant isolante est au même potentiel que la cathode, soit o volt. Par suite les électrons, qui avaient été soumis à une tension d’accélération de +300 volts, rencontrent un champ de freinage intense. Théoriquement, l’intensité de ce champ est telle que les électrons s’immobilisent à l’instant où ils atteignent la photo-cathode. Si le pinceau est rigoureusement perpendiculaire à la photo-cathode et s’il n’est soumis à aucune force transversale, il se renversera et reprendra le chemin de la cathode sous l’influence du champ de freinage. Durant le retour, il sera dévié et reviendra frapper un ruban collecteur entourant la cathode d’où il sera conduit hors du tube.
- Ainsi, en l’absence de lumière, le pinceau explorateur s’immobilise et revient en arrière avant d’atteindre la photo-cathode. Si maintenant, une image se trouve projetée sur la photo-cathode, la couche semi-conductrice devient plus ou moins conductrice dans les parties claires de l’image et le potentiel positif, auquel est soumise la plaque signal, se transmet à la face de la couche qui est soumise à l’exploration du faisceau d’électrons. Lorsqu’il balaye de telles plages chargées positivement, le pinceau d’électrons ne peut rebrousser chemin avant d’avoir cédé à ces plages assez d’électrons pour que leur potentiel redevienne nul. Le nombre des électrons cédés dépend de la luminance de l’image à l’endroit considéré. On recueille
- Fig. 1. — Coupe schématique d’un tube de prises de vues de télévision du type Vidicon.
- A gauche, l’ensemble de la plaque signal et de la couche photoconductrice constitue la photocathode.
- Dispositif det déviation magnétique
- Bobine de correction
- Cathode OV
- Plaque signal
- (+40 V)
- Collecteur.
- Couche photo conductrice
- Bobine de concentration
- p.261 - vue 262/560
-
-
-
- Fig. 2. — Tube de télévision sensible aux rayons infrarouges.
- De dimensions standard (longueur : 15 cm ; diamètre: 2,5 cm) il peut être monté dans n’importe quelle caméra de télévision Vidicon ordinaire. L’échelle est donnée par une pièce de monnaie.
- {Photographie aimablement communiquée par F Ambassade de Grande-Bretagne).
- donc au collecteur un courant modulé par le contenu de l’image. Aux parties claires de l’image correspond un courant de faible intensité et aux parties sombres un courant d’intensité plus forte. En même temps, les variations de charge de la couche semi-conductrice font naître sur l’électrode signal un courant capacitif alternatif qu’il est plus commode d’utiliser et qui constitue, après amplification, le signal vidéo qui sera transmis ensuite au récepteur.
- La figure 3 représente la sensibilité d’un tube Vidicon au trisulfure d’antimoine en fonction de la longueur d’onde. Le maximum de sensibilité est obtenu entre les longueurs d’onde de 0,4 et 0,5 micron. L’utilisation d’un mélange de trisulfure d’antimoine et de triséléniure d’antimoine Sb2Se3, s’il diminue la sensibilité dans le visible, accroît au contraire la sensibilité vers les grandes longueurs d’onde, c’est-à-dire dans l’infrarouge. La couche semi-conductrice est produite par évaporation sous vide (1 mm Hg environ) ; son épaisseur est voisine de 4 microns et elle est formée d’une mosaïque de petites particules de 0,1 micron de diamètre.
- Nous avons déjà indiqué deux applications possibles de ce nouveau tube de prises de vues, la surveillance des banques, des bijouteries ou d’autres édifices dans l’obscurité et l’étude des mœurs des animaux nocturnes, mais ce ne sont pas les seules. De telles caméras pourraient être utilisées pour étudier les réactions d’un auditoire plongé dans l’obscurité lors de la projection d’un film ; elles trouveraient aussi des applications en médecine : par exemple on peut de cette manière étudier l’intérieur de l’œil d’un patient alors qu’éclairée normalement la pupille se ferme rapidement ; la pénétration de l’épiderme par les radiations infrarouges est plus importante qu’en lumière visible, ce qui permet d’examiner le système veineux avec précision.
- On sait aussi que la plupart des émulsions photographiques sont peu sensibles aux longueurs d’onde supérieures à 0,8 micron. La nouvelle caméra permet ainsi l’étude non destructive des films photographiques. La plupart des défauts qui rendent les films inutilisables sont ainsi décelés.
- Enfin, le tube de caméra infrarouge peut également « voir » les températures des corps chauds sans l’emploi de lampes infrarouges. Lorsqu’un objet, une plaque d’acier par exemple, est chauffé au-dessus de 4500 C il émet des radiations infrarouges. En couplant un oscillographe avec la caméra de télévision, on peut mesurer la température de l’objet avec un degré élevé de précision.
- ------1-----1----1_____1___--------------1
- 0.3 0,4 0.5 0,6 0,7 0,8 0,9 10
- Longueurs d'onde ( microns)
- Fig. 3. — Variation de la sensibilité d’un tube de prises de vues en fonction de la longueur d’onde selon la nature de la couche photoconductrice.
- Tube sensible aux rayons ultraviolets. —- En modifiant la nature de la couche semi-conductrice, on est également parvenu à réaliser un tube sensible aux rayons ultraviolets. Cette propriété est d’ores et déjà utilisée pour obtenir des images de télévision d’observations effectuées en microscopie ultraviolette. On sait en effet que le pouvoir de résolution du microscope optique est limité par la longueur d’onde de la lumière utilisée Q. On ne peut
- 1. Voit : Le microscope électronique à très haute tension permet l’observation de cellules vivantes, La Nature Science-Progrès, avril 1961, p. 145-151.
- 262
- p.262 - vue 263/560
-
-
-
- guère distinguer deux points s’ils sont plus rapprochés que la moitié de la longueur d’onde que présente la radiation dans le milieu qui entoure l’objet.
- Par suite, l’emploi de la lumière ultraviolette et d’une optique de quartz, en abaissant la valeur de la longueur d’onde aux environs de 0,25 micron, fournit une résolution voisine de 0,12 micron alors que la résolution du microscope ordinaire ne dépasse pas 0,2 micron. Mais il faut alors prendre de nombreuses photographies, d’où des
- pertes de temps et une détérioration des coupes sous l’effet prolongé des rayons ultraviolets.
- Au contraire, en couplant une caméra de télévision sensible aux rayons ultraviolets avec le microscope, on peut observer directement les coupes sur l’écran du téléviseur. Un autre avantage réside évidemment dans le fait qu’un grand nombre de spectateurs peuvent voir l’objet simultanément et, si besoin est, à une distance considérable de la scène observée.
- R. Rosset.
- Diffractomètre linéaire Hilger
- Le diffractomètre linéaire Hilger, mis au point avec la collaboration du Laboratoire Davy-Faraday de l’Institut Royal de Londres, permet la détermination rapide des structures de monocristaux.
- L’utilisation de l’analyse structurale par rayons X pour l’étude des substances complexes, comme les protéines, a conduit les chercheurs à mettre au point des méthodes de mesure précises, rapides et automatiques. De très grands progrès ont été réalisés, particulièrement pour les chambres photographiques. Mais l’exploitation des clichés est longue et délicate. Les diffractomètre s jusqu’à présent décrits dans la littérature, appareils qui mesurent directement les intensités X diffractées à l’aide de dispositifs comme les compteurs proportionnels, ne sont pas très adaptés aux mesures précises et rapides. Ce sont généralement des goniomètres classiques à 2 ou 3 cercles et chaque mesure nécessite le calcul et la détermination de trois angles d’orientation du compteur et du cristal.
- Le diffractomètre linéaire introduit un système original qui permet d’orienter aisément le compteur et le cristal. Entre deux mesures consécutives, il suffit alors d’effectuer un déplacement d’amplitude constante.
- Nous n’entrerons pas dans le détail décrivant le principe de cet appareil ; qu’il nous suffise de dire que le mouvement de l’appareil est tel qu’il mesure les réflexions aux points où les intensités sont proportionnelles à la quatrième puissance du nombre atomique, sur un réseau réciproque sans distorsion. Or, si le réseau est sans distorsion, les réflexions de Bragg sont possibles en des points équidistants le long d’un axe : la programmation des points d’exploration devient alors un problème simple.
- Fig. 4. — Diffractomètre linéaire Hilger.
- Le diffractomètre proprement dit est situé en haut à droite de cette photographie. A gauche on reconnaît l’échelle de comptage et le télétype.
- {Photo aimablement communiquée par /'Omnium Scientifique et Industriel de France).
- p.263 - vue 264/560
-
-
-
- Département Physique
- RAYONS X
- Générateur « MICROFOCUS » 40 y.
- pour l’étude de monocristaux laboratoires de métallurgie microradiographies biologiques
- Diffractomètre pour poudres et monocristaux
- double faisceau axe vertical GM ou PM exploration automatique —90° à + I60°2 0 Précision : 0,01°
- Diffractomètre linéaire
- pour l’étude de structures — Automatisme Programmation
- Diffractomètre poudres avec PM
- AGENTS GÉNÉRAUX de HILGER & WATTS Département DIFFRACTION-X :
- OMNIUM SCIENTIFIQUE & INDUSTRIEL
- 141, rue de Javel, PARIS (15e) - LEC 92-00
- NOUVEAU
- SPECTROPHOTOMÈTRE ENREGISTREUR U LTRASCAN-HILGER
- 2 000-7 500 A Double faisceau
- Ag excl. : Éts F. C. DANNATT, S A.
- 198, rue Saint-Jacques, PARIS 5e
- --- V1ENT DE PARAITRE --------------------______
- DICTIONNAIRES POLYGLOTTES ELSEVIER
- DICTIONNAIRE DE LA MESURE DU CALCUL ET DU RÉGLAGE ÉLECTRONIQUES
- En six langues : anglais-américain, français, espagnol, italien, hollandais et allemand
- PRÉPARÉ ET CLASSÉ D’APRÈS L’ORDRE ALPHABÉTIQUE
- DES MOTS ANGLAIS j
- PAR |
- W. E. CLASON j
- Chef du Département Traductions 1
- Société Philips. Eindhoven (Pays-Bas). |
- vin-848 page.. 16x23. Relié toile sous jaquette. 105 NF jt
- En vente dans toutes les bonnes librairies et chez |
- DU3VOD, Éditeur, 92, rue Bonaparte, Paris-6“. DAN 99-15. [f
- 264
- p.264 - vue 265/560
-
-
-
- Automatisme. — Le diffractomètre linéaire peut être rendu automatique de deux façons : dans le premier cas, la source détectrice, compteur à scintillation ou compteur proportionnel, est reliée à une échelle de comptage. Un moteur synchrone entraîne le goniomètre de façon qu’un point du réseau réciproque explore en zigzag les lignes de ce réseau et les intensités diffractées sont enregistrées sur un diagramme. Dans le deuxième cas, l’exploration se fait point par point. A chaque position du compteur et du cristal, l’intensité réfléchie de Bragg et le bruit de fond sont mesurés et leurs valeurs transmises à un télétype.
- La vitesse d’exploration et la précision de cet appareil dépendent du cristal observé. Dans la plupart des cas, dans la méthode point par point, il est possible d’effectuer 3 à 4 mesures par minute, avec une précision de 2 à 3 pour ioo. La méthode d’exploration en continu, moins précise, permet néanmoins des mesures plus rapides.
- Avantages. — La détermination des structures par chambres à rayons X photographiques est une opération délicate, longue, nécessitant de fastidieux calculs. Par exemple, un goniomètre de Weissenberg fournira un cliché où se distribueront des taches. Il faudra évaluer la densité de ces taches et leur valeur intégrée. Il faudra ensuite repérer les positions respectives de ces taches. Puis, à partir de ces données, de longs calculs conduisent à la détermination de la structure du cristal. L’étude d’une structure complexe peut ainsi exiger 9 à 12 mois de travail.
- La conception du diffractomètre linéaire conduit à une programmation aisée de l’exploration. L’utilisation de compteurs à scintillations permet l’enregistrement direct de l’intensité absolue des raies de diffraction. Ces valeurs, prises en charge par des machines à calculer, fournissent rapidement les paramètres structuraux du cristal.
- Microbalances électroniques
- La mesure de poids ou de variations de poids très faibles revêt dans plusieurs domaines une grande importance. Si le problème est relativement simple et a reçu de ce fait de nombreuses solutions tant que l’on ne descend pas au-dessous de 0,1 mg, il n’en est plus de même lorsqu’il s’agit de mesurer des charges de l’ordre du microgramme (0,001 mg).
- La firme allemande Sartorius (représentée en France par l’Omnium Scientifique et Industriel) a conçu dans ce but un ensemble de balances électroniques de grande précision qui fonctionnent selon un principe de compensation automatique : le couple de torsion produit par la charge est compensé par un couple électrique antagoniste (fig. 5).
- c
- Fig. J. — Principe de fonctionnement d’une microbalance électronique Sartorius.
- Explications dans le texte.
- Deux bras d’un fléau en quartz A sont soudés de chaque côté d’un anneau de quartz B autour duquel un fil enroulé en spirale constitue un cadre mobile. Celui-ci est placé dans un champ magnétique horizontal uniforme créé par un aimant en ferro-céramique. Un deuxième cadre D, dont l’axe est perpendiculaire à l’axe du premier enroulement, est parcouru par un courant haute fréquence.
- Quand la balance est en équilibre, le cadre mobile n’est pas traversé par les lignes de force du champ magnétique haute fréquence.
- Si le fléau s’incline autour du fil de torsion C sous l’action d’une force extérieure (poids), le champ haute fréquence induit dans le cadre mobile un signal électrique de même fréquence. Ce signal, dont l’amplitude est fonction de la grandeur et du sens de l’inclinaison, est transmis à un amplificateur, puis redressé ; il est alors retransmis sous forme d’un courant continu I au cadre mobile : il en résulte un couple qui s’oppose au couple de torsion et qui est égal au produit H X I du champ de l’aimant par le courant I. Le champ H étant constant, ce couple est proportionnel à I. Le courant I, lu sur l’échelle d’un appareil indicateur relié à la balance, traduit ainsi le couple qui agit sur le fléau et par conséquent constitue une mesure de la variation de poids. Il peut aussi, si on le désire, être enregistré en continu. Quant à l’oscillation du fléau, elle est minime, car elle est stoppée rapidement par l’effet d’amortissement créé par le courant de compensation.
- La capacité maximale de ces balances est de 1 g. La sensibilité maximale atteint 1 microgramme, qui correspond dans la gamme de mesure la plus sensible à un courant de 1 micro-ampère.
- Un dispositif de tarage électrique des poids permet de décaler, en cours de mesure, l’origine des poids. Ce dispositif est particulièrement utile dans les pesées sous vide. Il permet de sélectionner pendant toute la mesure la gamme la plus sensible, quitte à décaler en cours d’expérience l’origine des poids si la variation de poids dépasse l’amplitude de l’échelle choisie : on peut ainsi, sans interrompre la mesure, dilater à volonté, en changeant de sensibilité, les régions intéressantes des courbes d’enregistrement.
- Il existe deux modèles de microbalances électroniques : l’Électrono I modèle standard et l’Électfono I pour pesées sous vide.
- 265
- p.265 - vue 266/560
-
-
-
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955]
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Püris-4e. — ODE 54-83
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d’Etat. Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- Stéréomicroïcbpe
- à grossissement continuement
- avec oculaires supplémentaires et lentilles additionnelles
- grossissement de 3,5 x à 120 x
- Autres fabrications :
- microscopes spectrographes-projecteurs * banc métallographique - projecteur de profil -réseaux - microdosimètre - refractomètre » colorimètre et analyseur de couleur
- Société Française d'instruments de Contrôle et d'Analyses
- LE MESNIL SAINT-DENIS (S.-&-0.) Tél. 923 84-89
- VIENT DE PARAITRE
- Collection « DEMAIN »
- Raymond FURON
- La Géologie et l’Économie moderne
- I vol. in-16 Jésus, 112 pages, 5 fig., 4 hors-texte . . 3,50 NF
- Henri PRAT
- Métamorphose explosive de l’Humanité
- Première partie
- I vol. in-16 Jésus, 155 pages, 20 fig.... 4,50 N F
- La seconde partie paraîtra en octobre.
- S.E.D.E.S., 5, Place de la Sorbonne, PARIS-5e
- -- VIENT DE PARAITRE ------------
- DICTIONNAIRE FRANÇAIS - ANGLAIS ÉLECTRONIQUE PHYSIQUE NUCLÉAIRE
- ET SCIENCES CONNEXES
- PAR
- G. G. KING
- viïi-396 pages 14x22. Relié toile souple. 38 NF
- RAPPEL DU MÊME AUTEUR :
- DICTIONNAIRE ANGLAIS-FRANÇAIS ÉLECTRONIQUE, PHYSIQUE NUCLÉAIRE ET SCIENCES CONNEXES
- viii-312 pages 14x22. 1959. Relié toile souple. 26 NF
- En vente dans toutes les bonnes librairies et chez DUNOD , Éditeur, 92, rue Bonaparte, Paris-6*. DAN 99-15.
- BL 03
- p.266 - vue 267/560
-
-
-
- Fig. 6. — Balance Électrono I modèle standard.
- {Photo O. S. I.).
- Électrono 1 modèle standard (fig. 6). — Il s’agit d’une microbalance pour pesées très rapides d’échantillons de quelques milligrammes ou pour l’enregistrement de variations de poids dans des conditions atmosphériques normales. A l’aide d’un bouton moleté on peut faire sortir, par un volet qui s’entrouvre automatiquement, la nacelle, ce qui permet d’effectuer rapidement la mise en place de l’échantillon à peser. La précision est de l’ordre de i microgramme. Toutefois, l’avantage de cette balance réside moins dans cette sensibilité très grande (que l’on retrouve dans d’autres types de balance analytique) que dans la très grande rapidité de la pesée. Un opérateur entraîné peut effectuer des pesées en série d’échantillons d’un poids voisin de i mg à des cadences de plusieurs dizaines de pesées par minute.
- Un des domaines d’application de cette balance est celui des semi-conducteurs. On sait que l’on modifie les propriétés des semi-conducteurs comme le germanium ou le silicium en leur ajoutant de petites quantités d’impuretés, donneurs ou accepteurs d’électrons. Ce « dopage » s’est d’abord effectué par le procédé des couches électrolytiques, notamment pour l’or, puis par sublimation, mais le contrôle
- Générateur électrique à air ionisé
- Un appareil de laboratoire, appelé génératrice magnéto-hydrodynamique, a été mis au point par la société américaine General Electric. Il a pour but de produire du courant électrique à partir de l’air ionisé. Porté à la température de z 760° C, l’air libère les électrons de l’oxygène et de l’azote. Ces particules sont ensuite accélérées dans un tube de quartz qui relie les pôles d’un électro-aimant. Le flux ainsi créé est recueilli dans un conducteur. On estime que ce procédé permet de transformer l’énergie thermique en énergie électrique avec un rendement de 40 à 50 pour 100.
- Fig. 7. — Balance Électrono I pour pesées sous vide.
- Photo O. S. I.).
- et le dosage des couches déposées ne sont pas toujours simples. Le nombre important des impuretés utilisées complique encore le procédé. On s’oriente aujourd’hui vers des charges réalisées à partir de doses pondérales exactes, doses qui, bien inférieures au milligramme, peuvent cependant être aisément pesées avec l’Électrono.
- Électrono I pour pesées sous vide (fig. 7). — Ce modèle est surtout utilisé pour l’enregistrement de faibles variations de poids, sous vide ou sous atmosphère contrôlée. Tout le système de pesée est disposé dans une enceinte en verre d’Iéna. Des rodages normalisés permettent le raccordement aux dispositifs annexes et au groupe de pompage. Il est possible d’atteindre un vide maximal de io~5 mm Hg.
- Les applications de cette balance, sont très nombreuses : détermination de la surface spécifique des poudres, contrôle des processus d’évaporation des métaux, mesures de susceptibilité magnétique, etc.
- Utilisée conjointement avec des fours ou enceintes thermostatiques, elle permet aussi d’effectuer sous vide ou sous atmosphère contrôlée des mesures thermogravi-métriques et d’analyse thermique différentielle.
- R. R.
- Lampes électriques superminiatures
- Des lampes électriques à incandescence de très petites dimensions (2,5 mm de long, 0,6 mm de diamètre) sont fabriquées aux États-Unis. Elles peuvent être utilisées comme lampes indicatrices dans les circuits miniatures des calculatrices ; leur poids étant inférieur à 5 mg, elles peuvent être également montées dans les aiguilles des appareils de mesure pour avions.
- Des lampes de ce type (2,5 mm de long, 1,5 mm de diamètre) ont été également construites au Japon à titre d’essai ; on suggère leur emploi sur les boucles d’oreilles, montres-bracelets, broches et autres objets personnels.
- 267
- p.267 - vue 268/560
-
-
-
- Le Ciel en Juillet 1961
- SOLEIL : du Ier juillet au' Ier août (à oh) sa déclinaison décroît de + 2309' à + l8°8' et la durée du jour de i6h3m à I5h5m ; diamètre app. le Ier (à oh) = 3i/3o",8, le 31 (à 2411) = 31 "34", 1. — LUNE : Phases : D. Q. le 5 à 3h33m, N. L. le 12 à I9hl2m, P. Q. le 20 à 23hi4m, P. L. le 27 à 19h51m ; apogée le 15 à llh, diamètre app. 2Ç)'2$" ; périgée le 28 à 9h, diamètre app. 33'2 5". Principales conjonctions : avec Vénus le 8 à 20h, à 2°I9/ S. ; avec Mercure le 11 à 6h, à o°ii' S. ; avec Uranus le 15 à 1711, à i°2/ S. ; avec Mars le 17 à 2h, à o°i7' N. ; avec Neptune le 21 à 1711, à 3°ig' N. ; avec Saturne le 27 à 7h, à 2°55' N. ; avec Jupiter le 27 à I7h, à 2°54' N. Principales occultations : le 8, de 5 Taureau (mag. 4,3), immersion à 3h6m, I ; le 9, de y Taureau (mag. 3,9), émersion à 2h5lm,4 ; le 9, d’Aldébaran (mag. 1,1), immersion à Iihi5m,7 et émersion à I2h30m,5 ; le 29, de 42 Capricorne (mag. 5,3), émersion à °h39m>7- — PLANÈTES : Mercure, devient étoile du matin à partir du IO, se lève le 24 à 2h42m, soit lh33m avant le Soleil ; Vénus, belle étoile du matin, se lève le 24 à ih8m, soit 3h7m avant le Soleil ; Mars, dans le Lion étoile du soir, se couche le 24 à 2ih23m, soit ih44m après le Soleil ; Jupiter, dans le Capricorne astre magnifique (mag. — 2,3) visible toute la nuit, le 15 diamètre pol. app. 44",6 ; Saturne, précède Jupiter, le 15, diamètre pol. app. 16",6, axes de Panneau : 41",7 et + I5">6, mag. 0,3 ; Uranus, dans le Lion devient peu visible le soir ; Neptune, dans la Balance, se couche vers minuit, le 16, position : I4h27m et — I2°39', diamètre app. 2",4. — ÉTOILES VARIABLES : minima de [3 Lyre (3m,4-4m,3) le 11 à 5h,3, le 24 à 3h,6 ; minima de 8 Balance (4m,8-5m,9) le 3 à 22h,i, le 10 à 2ih,7> le 17 à 2ih,3, le 24 à 20h,9, le 31 à 20h,4 ; maxima de 8 Céphée (3m,7~4m,6) le 6 à 7h,9, le 11 à l6h,7, le 17 à Ih,5, le 22 à loh,3, le 27 à 1911,1 ; maxima de 7] Aigle (3m,7-4m,4) le 3 à ioh,o, le 10 à I4h,2, le 17 à 18h,5, le 24 à 22h,7. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.), le Ier : i8h44m35s, h; II : i9h24mos, le 21 : 20h3m2Ôs, le 31 : 20>142m5ls.
- Phénomènes intéressants : Le 5 à 20h, la Terre à l’aphélie, le Soleil à l’apogée. — Surveiller l’apparition de taches à la surface du Soleil. — Du 7 au 10, lumière cendrée de la Lune, le matin. — Le 9, on ne manquera pas l’observation de l’occultation de la belle étoile orangée Aldébaran (mag. 1,1), en plein jour aux heures indiquées, dans une petite lunette. — Les planètes Jupiter et Saturne sont bien observables, les anneaux de cette dernière se referment peu à peu. — Du 25 au 3o, étoiles filantes : Aquarides (radiantS Verseau), maximum le 28. — En l’absence de Lune, l’observation de la Voie lactée devient facile dans les constellations où elle est la plus intense : Scorpion, Ophiuchus, Sagittaire, Écu, Aigle, Cygne.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- fondée en 1887 par C. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc.
- Demandez les programmes au Siège Social de la
- Société Astronomique de France, 28, rue Serpente, Paris-6*
- Permanence, tous les jours non fériés de 14 à 17 h
- Colisalions : Région Parisienne, 25 MF ; France, 20 MF ; Étranger, 30 NF ; Étudiants, 3 MF ; Droits d’inscription pour tous, 2 MF.
- Spécimen gratuit de la revue sur demande.
- Demandez « Splendeur de l’Astronomie », les plus belles photographies astronomiques : 16 pages 13,5x20.5, tirage néogravure bleu nuit. 0,65 MF franco. — Compte Ch. post. Paris 1733.
- Un cas d’infestation des narines de l’homme par une tique
- Les chasseurs connaissent bien les tiques ou Ixodes, ces Acariens qui, à l’automne, se fixent sur les oreilles et différentes parties du corps de leurs chiens. Ce sont les larves et les nymphes qui, postées sur les herbes, s’attachent aux animaux de passage, enfoncent leur rostre dans les téguments et se gorgent de sang jusqu’à atteindre la grosseur d’un petit pois. Devenue adulte la tique se détache et, après la fécondation, pond derrière un abri quelconque. Les œufs éclosent après une période d’incubation qui peut durer, suivant les conditions extérieures, la température en particulier, de 6 à 36 semaines. Il en sort alors une petite larve qui diffère des adultes par la présence de six pattes au lieu de huit. Cette larve grimpe sur un brin d’herbe où elle attend le passage d’un hôte possible ; elle peut demeurer dans cette attente, sans prendre aucune nourriture, pendant près d’une année. Il arrive souvent aussi que ces larves se fixent sur l’homme ; comme elles sont très petites et que leur piqûre n’est pas douloureuse, on ne s’aperçoit de leur présence que lorsqu’elles ont atteint une certaine taille.
- Dans les pays tropicaux, les Ixodes sont nombreux et parfois beaucoup plus gros que ceux des régions tempérées ; ils s’attaquent à tous les animaux, depuis les lézards et les serpents jusqu’à l’éléphant et au rhinocéros. Bien plus que par leurs piqûres, ces parasites sont dangereux par les maladies qu’ils peuvent transmettre ; ils sont en effet les vecteurs de graves maladies du bétail dues à des hématozoaires qui détruisent les globules rouges du sang (Piroplasma) ; chez l’homme, ils sont responsables de la propagation de fièvres à Kickettsia, en particulier de la fièvre pourprée des Montagnes Rocheuses.
- Un cas assez curieux de parasitisme par des larves de tiques a été rapporté par G. A. Walton dans la revue britannique Nature (24 décembre i960). L’observation a été faite par un entomologiste bien connu de Nairobi, le Dr van Someren. C’est sur lui-même et sur deux de ses compagnons qu’il a observé la fixation de ces larves dans le nez, au cours d’une exploration dans les grandes forêts primaires de l’Uganda. Il est à remarquer que cet entomologiste expérimenté n’a jamais senti les larves de tiques sur sa peau alors qu’elles cherchaient à gagner leur point de fixation ; il n’a remarqué leur présence que par une légère sensibilité du nez, une fois qu’elles étaient déjà fixées sur la cloison ou sur la muqueuse de la partie supérieure des fosses nasales. Leur présence ne produit aucune irritation ni saignement et elles se détachent lorsqu’elles ont atteint la taille d’un petit pois.
- L’absence complète de réaction à la présence du parasite chez l’homme, qui est un hôte occasionnel, a fait supposer que les larves de cette tique infestent normalement les fosses nasales des singes anthropoïdes, en particulier du chimpanzé, commun dans ces forêts.
- Des exemplaires de cette tique soumis à des spécialistes ont été reconnus comme appartenant au genre Amblyomma, de la famille des Ixodidés, mais ils n’ont pu être déterminés spécifiquement. On suppose que ce sont peut-être les larves de Y Amblyomma paulopimetatum, laquelle parasite, à l’état adulte, le grand sanglier noir de la forêt équatoriale, l’Hylochère (Hylo-chærus meinert^bagenï).
- L. C.
- p.268 - vue 269/560
-
-
-
- LES L
- U V E A U X
- Catalogue collectif des livres français de Sciences et Techniques 1950-1960. Introduction de P. Piganiol, délégué général à la Recherche scientifique et technique. 1 vol. 13,5 X 21, 244 p. Cercle de la Librairie, Paris. Prix : 2,80 NF.
- La difficulté d’une information tenue à jour est un thème familier à tous les scientifiques et techniciens. En particulier, une information permanente sur les principaux ouvrages publiés dans chaque pays est devenue indispensable. Ce catalogue répond à ce besoin en ce qui concerne les ouvrages français. Les livres y sont classés par matière et à l’intérieur de chaque matière par ordre alphabétique des titres. Des tables alphabétiques des auteurs et des « mots clefs » facilitent les recherches.
- Nouvelle Carte du Ciel, par Robert Chanceux. 55 X 75, sous jaquette 29 x 40. Gauthier-Vil-lars, Paris, 1954. Prix : 12 NF.
- Il n’est pas trop tard pour signaler cette carte remarquable, qui fournit à tous, débutants et initiés, les renseignements les plus utiles pour l’observation et l’étude du ciel boréal. On y trouve toutes les étoiles jusqu’à la magnitude 5,75, quelques étoiles doubles jusqu’à la magnitude totale 6,25 et même certaines étoiles plus faibles quand elles ont des propriétés singulières. La carte est entourée de tableaux qui donnent de nombreuses précisions utiles sur les étoiles doubles visuelles et spectroscopiques, étoiles variables, amas, nébuleuses, galaxies, spectres des principales étoiles, etc. La carte elle-même précise en beaucoup de cas distances, diamètres réels, vitesses, température de couleur, etc.
- Atlas du Ciel, par Vincent de Callatay. Préface de E. Delporte, directeur honoraire de l’Observatoire royal de Belgique. 1 vol. 24 x 32, 158 p. Nombreux dessins, planches et photographies. Gauthier-Villars, Paris, 1960. Prix, cartonné : 45 NF.
- Cet atlas du ciel est conçu comme un atlas de géographie, réalisé avec un soin remarquable et extrêmement bien présenté. Il comprend d’abord 36 planches <( muettes », à fond noir, couvrant ensemble la totalité de l’univers : 9 planches « générales » sont des planisphères qui représentent la voûte céleste vue de diverses latitudes ; 27 planches de détails représentent des portions du ciel systématiquement découpé. On trouve ensuite 45 cartes complémentaires sur lesquelles ont été dessinées chacune des quatre-vingt-huit constellations, avec leurs étoiles principales et leurs dénominations ; les objets remarquables y sont l’objet de commentaires succincts. Enfin à chaque planche est rattachée une théorie qui se rapporte à un objet remarquable situé dans la région représentée. Les étoiles sont figurées jusqu’à la cinquième magnitude. Ainsi compris, l’ouvrage est un bon guide pour une première étude du ciel à l’œil nu, et une introduction à l’astronomie stellaire.
- Le calcul mental à la portée de tous, par
- Robert Tocquet. i vol. 15 x 20,5, 264 p. Les
- Productions de Paris, Paris, i960. Prix : 8,50 NF
- Nous avons déjà signalé la publication de ce livre (mars 1961, p. 141) mais des remontrances de l’auteur nous obligent à reconnaître que, sur un point, nous l’avions mal compris. Donnant de longs développements sur les calculateurs prodiges et même sur les « animaux calculateurs » pour lesquels d’aucuns invoquent des phénomènes « paranormaux », nous lui attribuions cette façon de voir qu’il ne faisait que rapporter. Il la rejette en effet mais sans doute n’est-ce pas assez apparent dès le début. En ce qui concerne les animaux, il suppose que les assistants leur « soufflent » pour ainsi dire le résultat inconsciemment, par le rythme de leur respiration ou telle autre manifestation instinctive de leur émotion... N’est-il as plus simple de supposer un truquage ?
- Introduction to Quantum Field Theory, par
- F. Mandl. 1 vol. 15,5 X 23, vm-202 p., 37 fig. Interscience Publishers Inc., New York, 1959. Prix, relié : 6 dollars.
- Theory of elementary particles, par Paul Roman, i vol. 15,5 x 23, xn-575 p., 31 fig. North-Holland Publishing Company, Amsterdam, i960. Prix, relié : 50 guilders.
- Ces deux ouvrages très dissemblables ont cependant pour objet le même domaine de la Physique moderne, l’un des plus abstraits : la théorie quantique des champs. Le premier est une introduction, en principe élémentaire, à cette technique de calcul, appliquée particulièrement aux électrons et aux photons. L’exposition correspond à celle d’un cours de Faculté et vise à la concision : en conséquence, de nombreuses difficultés ont été escamotées dans cet ouvrage très court qui couvre l’électrodynamique quantique depuis la théorie ancienne de la seconde quantification jusqu’aux normalisations. Cependant, ce livre sera un guide précieux pour le débutant connaissant bien les principes de la mécanique quantique non relativiste et disposant d’une source d’explications complémentaires.
- Le second ouvrage au contraire traite avec les outils mathématiques convenables (surtout théorie des groupes, exposée dans le premier chapitre) le problème fondamental des particules élémentaires. Le but de l’auteur est de justifier et d’interpréter la classification des particules dues à Gell-Mann et acceptée actuellement, en fonction des propriétés d’invariance (ou éventuellement de non-invariance) des équations d’onde représentant les particules, par rapport aux transformations spatio-temporelles (translations, parité, renversement du temps) ou « matérielles » (conjugaison de charge, conservation du spin isobarique, étrangeté). L’ouvrage inclut les développements récents dus à la découverte de la non-conservation de la parité dans les interactions faibles. — P. M.
- Paléontologie stratigraphique, par Henri Ter-mier, professeur à la Sorbonne, et Geneviève Termier, maître de recherches au C. N. R. S. 1 vol. 22,5 X 28, 516 p., 3 425 fig., 62 tableaux. Masson, Paris, i960. Prix, cartonné toile : 148 NF.
- Cet ouvrage, principalement destiné aux étudiants, se présente en partie comme un atlas où
- MWWVAMM
- C9LJNT;
- ÀWAMWW
- COLLECTION ARMAND COLIN
- nouveautés :
- INTRODUCTION A L’ASTROPHYSIQUE
- LES ÉTOILES
- J. DUFAY
- Notions de base indispensables à une étude plus poussée des divers problèmes |de l’astrophysique, vol. n° 352
- ÉLECTROTHERMIE
- J. BERNOT et C. JARRY
- Vue d'ensemble des problèmes résolus grâce à la diversité illimitée des applications du chauffage électrique, vol. n° 353
- C.A.C. 224 p. 4,50 N F
- COLIN«0 A. COLIN t
- les dessins et les tableaux prennent une très grande place. Cependant les dessins sont accompagnés d’un texte, très dense, qui décrit et explique les principaux caractères, note les tendances évolutives, les affinités, les apparitions et extinctions, les particularités écologiques. Les groupes paléon-tologiques, végétaux et animaux, sont présentés dans l’ordre de leur entrée en scène, mettant ainsi en évidence les associations biologiques et les faits marquants de l’évolution. Pour chaque époque, une introduction résume les principaux caractères de la vie terrestre et décrit les faciès dans leut contexte géologique général, non sans souligner, à l’occasion, les incertitudes. « Pour rendre service aux géologues de terrain, et en patticulier à ceux qui préparent une thèse de doctorat, écrivent les auteurs, nous avons jugé indispensable de transcrire les zones stratigraphiques qui nous ont paru les mieux établies ». Le même ouvrage est publié en quatre fascicules séparés : i° de l’Antécambtien au Silurien ; 20 du Dévonien au Permien ; 30 Secondaire ; 40 Tertiaire et Quaternaire. U Atlas de Paléogéographie des mêmes auteurs, dont nous avons déjà rendu compte, constitue un complément du présent ouvrage.
- Théories de l’évolution des Vertébrés, par Erik Jarvik, professeur au Muséum d’Histoire naturelle de Stockholm. Préface et traduction de J.-P. Lehman, professeur au Muséum de Paris. 1 vol. 16 X 24,5, 104 p., 30 fig. Masson, Paris, i960. Prix : 20 NF.
- Les récentes années ont été marquées par des découvertes fondamentales sur les Vertébrés inférieurs .fossiles. D’une part les Poissons Cros-soptérygiens, notamment les Rhipidistiens qui sont la souche des Vertébrés terrestres, ont été étudiés avec de nouvelles méthodes, telles que les coupes minces en série, qui ont permis de connaître les moindres détails de leur anatomie interne ; d’autre part M. Jarvik lui-même a pu découvrir, à la suite de vingt ans de recherches dans les terrains primaires du Groenland, des squelettes entiers d’Ichthyostega, à quatre pattes quoique munis encore de nageoires impaires, qui montrent clairement ce que furent les premiers Vertébrés terrestres. On sait enfin maintenant que Dipneustes et Cœlacanthidés sont dépourvus de narines internes (choanes). Toutes ces études ont obligé à modifier entièrement les théories qui prévalaient sur l’évolution des Poissons et sur les affinités des différents groupes. Ceux-ci se montrent déjà bien séparés à l’époque des plus anciens fossiles connus, et les tendances mêmes de l’évolution de certains groupes, comme les Agnathes, sont remises en cause. L’origine des Reptiles ne doit plus être cherchée dans les Batraciens Stégocéphales et elle garde une part d’incertitude. On voit par l’exemple des discussions ici résumées qu’aucune hypothèse phylogénique ne peut se fonder que sur de minutieuses études anatomiques.
- Sciences naturelles (classe de je), par M. Bour-nerias, professeur agrégé, docteur ès Sciences, M. Fabre, professeur agrégé, Ch. Pomerol, chef de travaux à la Sorbonne. 1 vol. 17,5 X 24, 192 p., nombreuses figures en noir et en couleurs. Fernand Nathan, Paris, i960. Prix, cartonné : 11,20 NF.
- Les qualités que nous signalions dans le livre des mêmes auteurs pour la classe de 6e se retrouvent dans celui-ci dont on imagine que de jeunes esprits curieux se nourriront avec plaisir. Là encore, on a fait choix de plantes et animaux généralement bien connus, qui fournissent l’occasion de leçons brèves mais substantielles d’anatomie, de physiologie, de comportement, sans négliger quelques notions utilitaires. L’illustration, toujours excellente, tient une grande place et serre le texte de près. Beaucoup d’observations et de petites expériences sont suggérées chemin faisant ; elles guideront le maître autant que l’élève. Un amateur débutant en histoire naturelle ne dédaignera pas de se plonger dans cet ouvrage agréable.
- 269
- p.269 - vue 270/560
-
-
-
- ENCYCLOPÉDIE VISUELLE
- Nouvelles séries de diapositives
- r
- GEOLOGIE par J. Mercier, R. Létolle et G. Bresse BOTANIQUE par R. Mercier ZOOLOGIE par G. Bresse
- GEOLOGIE — 16 séries de 10 vues
- ROCHES : SÉDIMENTAIRES, ÉRUPTIVES, MÉTAMORPHIQUES — VOLCANISME ANCIEN — ROLE DES EAUX SAUVAGES — TRAVAIL : DES EAUX SOUTERRAINES, DES GLACIERS — LA MER — FLORE ET FAUNE DES PREMIÈRES ÈRES
- BOTANIQUE — 26 séries de 10 vues
- PAPILIONACÉES — CRUCIFÈRES — ROSACÉES — OMBELLIFÈRES — CÉRÉALES — ARBRES DE LA
- FORÊT — ARBRES FRUITIERS — FOUGÈRES — MOUSSES — ALGUES
- ZOOLOGIE — 28 séries de 10 vues
- CARNIVORES — RUMINANTS — RONGEURS — ÉCHASSIERS — PALMIPÈDES — CRUSTACÉS —
- CŒLENTÉRÉS — ORTHOPTÈRES — PAPILLONS — LIBELLULES — INSECTIVORES — REPTILES
- CATALOGUE SPÉCIAL SUR DEMANDE
- ARMAND COLIN - 103, Bd SAINT-MICHEL - PARIS Ve
- Perruches australiennes et autres Psittacidés, par Nicolas Mélides. i vol. 15 X 21,5, 282 p., 32 planches en couleurs par P.-A. Robert. Collection Les beautés de la Nature (Série Exotique). Delachaux et Niestlé, Neuchâtel, Paris, i960. Prix, cartonné : 29,50 NF.
- Amateur passionné mais doué d’un esprit méthodique et épris de science, l’auteur s’est consacré depuis trente ans à l’élevage des perruches dans le grand centre qu’il a créé à cet effet à Bruxelles, et il est devenu un spécialiste universellement apprécié. Dans ce beau livre, il décrit les caractères morphologiques et biologiques de trente-cinq espèces dont il a réussi l’acclimatation et l’élevage. En mettant à profit son expérience, on pourrait éviter la quête de ces oiseaux dans leur pays d’origine, et le trafic qui s’accompagne d’une mortalité élevée. On pourrait même songer à réintroduire dans la nature les espèces qui y ont dispam ou presque disparu par suite d’une chasse impitoyable. Les amateurs de ces charmants oiseaux liront avec profit ce livre qui intéressera aussi tous les naturalistes. La présentation, agrémentée par les belles aquarelles de P.-A. Robert est celle qui a fait le succès de tous les ouvrages de la collection « Les beautés de la Nature ».
- L’Homme préhistorique en Europe, par F. C. Hibben, professeur d’anthropologie à l’Université de New-Mexico. Trad. de S. M. Guillemin. 1 vol. 14 X 22,5, 350 p. Payot, Paris, i960. Prix : 22 NF.
- Certes ce tableau de la préhistoire européenne n’a pas pour nous la valeur qu’avait celui que nous présentait précédemment le professeur Hibben dans son ouvrage L’Homme primitif américain, paru également chez Payot, car nous avons déjà, sur les hommes préhistoriques de nos régions, d’excellents livres. Cependant, celui-ci se lit avec plaisir, et non sans profit. C’est plutôt un récit historique, montrant l’évolution des civilisations depuis l’origine, qu’une étude des documents. On ne s’étonnera pas qu’il soit très succinct
- quant au Paléolithique. Comme il ne prend sa vraie valeur que si l’on consulte (avant ou après) des ouvrages plus documentés, ne nous plaignons pas qu’il manque d’illustrations.
- Traité de la pêche en mer j Manche-Océan, par Loïc Naintré, avec le concours de C.-J. Odde-nino pour la pêche en Méditerranée. 1 vol. 21,5 X 28, 350 p., nombreux dessins. Crépin-Leblond, Paris, i960. Prix, cartonné : 45 NF ; franco : 47 NF.
- Ce n’est là ni un ouvrage scientifique ni un manuel technique destiné aux pêcheurs professionnels, quoique ceux-ci, sans doute, puissent y apprendre beaucoup de choses utiles. C’est donc un traité destiné aux amateurs de pêche en mer. Ils y trouveront d’abord quelques notions suc-
- ----- A NOS LECTEURS -------------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- cinctes sur le milieu marin et sur les espèces qui les intéressent, et beaucoup plus de détails sur le matériel : bateaux, lignes et hameçons, accessoires, autres engins (filets, casiers, etc.), appâts. La 2e partie décrit avec toutes les précisions souhaitées la pêche à la ligne des différentes espèces de nos côtes et pour de nombreux poissons des façons de les accommoder. La 3 e partie, moins copieuse, étudie les pêches aux engins et les pêches de grèves. A juste raison, l’anathème est jeté sur le chalutage, qui malgré la loi est pratiqué près des côtes, détruisant les alevins. Crustacés, coquillages, céphalopodes ne sont pas oubliés. Une véritable somme.
- Pêches continentales (biologie et aménagement), par R. Vibert et K. F. Lagler. 1 vol.
- 16 X 25, 720 p., 210 fig. Dunod, Paris, 1961.
- Prix, relié toile sous jaquette : 88 NF.
- Cet important ouvrage, dont les auteurs sont respectivement le directeur de la station d’hydrobiologie de Biarritz et le président du département des pêches de l’Université du Michigan, représente la somme des connaissances accumulées par les spécialistes dans le domaine des pêches continentales. C’est un traité désormais indispensable à toutes les catégories professionnelles directement ou indirectement intéressées par le vaste problème de la pèche, en notant qu’il n’existe pas de cloison étanche entre pêches continentales et pêches maritimes. Mais par ailleurs les biologistes pourront trouver dans plusieurs chapitres du livre de précieuses informations sur l’écologie des eaux douces, les facteurs héréditaires, l’influence de l’environnement, l’organisation sociale des populations de poissons. Ainsi se brosse un tableau d’ensemble de la vie des lacs et des rivières où chacun des aspects concernant le milieu et les habitants apparaît à son tour. Notons l’idée fondamentale qui a présidé à la conception de l’ouvrage, à savoir l’assimilation des populations de poissons, prises dans leur ensemble, à un « super-organisme » sur lequel il est physiolo-
- 270
- p.270 - vue 271/560
-
-
-
- giquement irrationnel de pratiquer des saignées sans une science approfondie de ses capacités de renouvellement.
- Le pétrole, par Henri Weiss, i vol. 12 X 18, 192 p,, 100 photos et schémas. Éditions du Seuil (Coll. Le rayon de la Science), Paris, i960. Prix : 4,50 NF.
- Ce petit ouvrage de large vulgarisation offre un panorama étendu de l’industrie du pétrole, depuis les techniques de prospection et de forage jusqu’à celles du transport et de la raffinerie. On y trouve également un condensé des problèmes économiques que posent la production, la distribution et le marché du pétrole. Il peut être consulté avec fruit et constitue un aide-mémoire de valeur. Un lexique éclaire le lecteur sur la définition des principaux termes utilisés au cours de l’exposé.
- Le gaz naturel, par Raymond Guglielmo. i vol. 11,5 X 18, 128 p. Éditions des Presses universitaires de France (Coll. Que sais-je ?), Paris, i960. Prix : 2,50 NF.
- Cet ouvrage ne fait qu’une brève incursion dans l’étude géologique et biologique des hydrocarbures gazeux et dans les conditions de leur extraction. Laissant donc dans l’ombre les aspects scientifiques et la plupart des aspects techniques, l’auteur s’est surtout attaché à présenter le gaz naturel dans sa distribution, ses marchés et sa répartition géographique. Ainsi conçu, l’ouvrage est d’une utilité certaine pour les économistes.
- Terres vierges au Mozambique, par François Balsan. i vol. 14,5 X 20,5, 310 p., 58 illustr. dont 50 h. t., 2 cartes. Plon, Paris, i960. Prix : 15,40 NF.
- L’auteur d’Aventures au Kalahari et de tant d’autres ouvrages passionnants poursuit ses investigations au cœur des dernières terra incognitœ
- du globe. Le voici racontant son plus récent voyage d’exploration solitaire aux confins du Mozambique et du Tanganyka, parmi des peuples ignorés, indifférents au tumulte qui secoue leur continent. Une leçon de travail et de bonne humeur, narrée dans un style direct qui nous place au cœur de l’action.
- Aspects sociologiques du loisir (Vol. XII, n° 4, de la Revue internationale des Sciences sociales). 1 vol. 15 X 24, 156 p. Éditions de l’Unesco, Paris, i960. Prix : 6 NF.
- La formule « La machine libère l’homme » est entrée dans les faits, en ce qui concerne du moins les horaires de travail. C’est ainsi que l’on peut opposer à la semaine de 75 heures (au milieu du xixe siècle) celle de 40 heures, courante dans les sociétés industrielles d’aujourd’hui. Arithmétiquement, 35 heures sont donc gagnées, ce dont les sociologues se louent, tout en constatant que ce gain pose une vaste série de problèmes dont aucun n’est véritablement résolu. Le loisir est un temps disponible qui doit être, de quelque manière, rempli. Peut-on le meubler passivement ou activement ? Doit-il être organisé, dirigé, ou livré aux impulsions anarchiques de chaque individu ? Ce sont ces questions, parmi d’autres, qui sont débattues dans ce numéro de la Revue internationale des Sciences sociales, à travers les articles de MM. Friedmann, Dumazedier, Lowen-thal, Wilensky, Mayntz, Vitomir, Hennion et Ripert.
- La conquête de l’énergie solaire, par Paul Kolodkine. 1 vol. 11,5 X 18, 182 p., 68 fig. in texte. Éditions la Éarandole, Paris, i960. Prix, broché : 4,95 NF.
- Ce livre, très maniable, clair et établi selon un plan judicieux, dégage les différents aspects de l’énergie solaire, vue sous l’angle des applications. Destiné davantage au grand public qu’aux tech-
- niciens, il confirme que l’énergie solaire (utilisée directement) a été déjà domestiquée pour le chauffage des habitations, la distillation de l’eau, les hautes températures réalisées en fours solaires, les piles photoélectriques, etc. Il est fait état également de la production industrielle d’électricité, qui se heurte, on le sait, à de particulières difficultés.
- Teilhard de Chardin, par Ernest Kahane, professeur à l’Université de Montpellier, secrétaire général de l’Union rationaliste. Préface de Jean Orcel, professeur au Muséum, vice-président de l’U. R. 1 vol. 12 x 19, 130 p. Publications de l’Union rationaliste, Paris, i960. Prix: 5 NF ; franco : 5,60 NF.
- La pensée de Teilhard de Chardin ne saurait se résumer en quelques lignes et l’analyse qu’en fait un savant rationaliste, avec une sympathie admira-tive mais critique, ne saurait davantage se résumer. Disons seulement qu’on est d’abord très étonné de découvrir tant de correspondances entre le savant spiritualiste et celui qui se veut pur matérialiste. Mais on croit comprendre que ce qui les réunit malgré toutes leurs divergences, c’est la « fin » que l’un et l’autre assignent à l’Homme et qui somme toute est l’objet d’une foi commune.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- ÉCOLE NORMALE D’INSTITUTRICES DE SAINT-BRIEUC recherche le livre suivant : La F aune'de France, par Perrier, tome I B : Les Vers.
- Vient de paraître :
- H . H A R A N T ET D. JARRY
- LE GUIDE DU NATURALISTE
- dons le midi de la fiance
- PRÉFACE DU PROFESSEUR GRASSE
- Membre de l’Institut
- Tome I :
- LE LITTORAL - LES ÉTANGS
- 208 pages, 12 hars-texte couleurs, 8 en noir, et nombreuses illustrations, croquis et cartes
- Un guide de poche (11,5x18,5)
- relié pleine toile sous jaquette de couleurs 28,50 NF
- DELACHAUX ET NIESTLÉ - PARIS
- AMUSEMENTS
- MATHÉMATIQUES
- PAR
- A. BAKST
- TRADUIT DE L’ANGLAIS PAR
- H. BORZER
- vm-204 pages 14 x 22, avec 130 figures. Nouveau tirage. 1961. Broché ........................................... 9,50 NF
- En vente dans toutes les bonnes librairies et chez DU3VOD, Éditeur, 92, rue Bonaparte, Paris-6*. DAN 99-15.
- 271
- p.271 - vue 272/560
-
-
-
- L’ENCYCLOPÉDIE VISUELLE
- La France physique
- vues fixes pour renseignement
- GÉOGRAPHIE
- sous la direction de Victor Chagny — 20 séries
- LE RELIEF — LES MASSIFS ANCIENS — LES MONTAGNES RÉCENTES — LES PLAINES — LE LITTORAL
- — LES GRANDS FLEUVES
- La France économique et humaine
- sous la direction de André Labaste — 21 séries
- LES VILLAGES ET LES CAMPAGNES — LES VILLES NOUVELLES — LES CULTURES — LES INDUSTRIES — LES COMMUNICATIONS ET LES TÉLÉCOMMUNICATIONS — LES TRANSPORTS — LES PORTS
- L’Europe
- sous la direction de Paul Wagret — 20 séries
- LES PAYS SCANDINAVES — L’ITALIE — L’ESPAGNE — LE PORTUGAL — LA GRÈCE ET LA TURQUIE — LA SUISSE — L'AUTRICHE — L’ALLEMAGNE — LES PAYS D'EUROPE CENTRALE
- L’Inde
- sous la direction de Paul Raison — 4 séries
- L'INDE, ASPECTS PHYSIQUES ET URBAINS — LA POPULATION ET LES RELIGIONS — LA VIE RURALE
- — LES ACTIVITÉS ARTISANALES
- CATALOGUE SPÉCIAL SUR DEMANDE
- LIBRAIRIE ARMAND COLIN - 103, Bd SAINT-MICHEL - PARIS Ve
- JL
- VIENT DE PARAITRE
- DICTIONNAIRE GÉOLOGIQUE
- en deux volumes en langue russe
- 12 000 termes sur la géochimie, hydrogéologie, cristallographie, minéralogie, géologie générale, paléontologie, etc.
- 2 vol. reliés, format 17 X 22 — 850 pages Les deux volumes : NF 49,50
- Le premier volume du
- DICTIONNAIRE ENCYCLOPÉDIQUE DE PHYSIQUE
- en quatre volumes en langue russe
- é 500 articles sur toutes les parties de la physique et des domaines limitrophes (mécanique appliquée, électronique, physique nucléaire, dynamique des gaz, certains problèmes de mathématiques, etc.).
- I vol. relié, format 20 X 26 — 664 pages Le Ier volume : NF 29,40
- Remise habituelle à Messieurs les Libraires
- LIBRAIRIE DU GLOBE, 21, rue des Carmes, PARIS-5e C.C.P. Paris 9694-67
- /
- Deux questions à Tordre du jour...
- LES RADIATIONS ATOMIQUES ET LA VIE
- par P. ALEXANDER
- Traduit de l’anglais par H. MARCOVICH
- Les propriétés des radiations ionisantes, leur action sur la matière, leurs conséquences chimiques et leurs effets sur la croissance, le vieillissement, sur les mécanismes de l’hérédité et des mutations de la cellule vivante.
- 250 pages, nombreuses figures et planches .... 9 NF
- LES SATELLITES ARTIFICIELS
- par P. MULLER
- 41 pages, figures et planches.. . . 7,50 NF
- GAUTHIER-VILLARS & CIE
- Éditeur Paris
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légat : 2e trimestre 1961, n° 3737. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 4275. — 6-1961.
- 272
- p.272 - vue 273/560
-
-
-
- L’industrie
- minutieuse et diverse
- des radioéléments
- radioisotope ou radio-| Â élément, on pense aujourd’hui à la foule des corps radioactifs employés a de nombreux usages scientifiques, médicaux, industriels, agricoles, et dont on croit savoir qu’ils sont apparus depuis la libération de l’énergie nucléaire. Cependant le phénomène de la radioactivité a été mis en lumière, bien avant la « divergence » de la première pile atomique et même bien avant la première expérience de transmutation, par l’existence des radioéléments naturels. De ces radioéléments que l’on trouve dans la nature l’uranium est le plus anciennement connu, le radium est le plus célèbre et aussi l’un des plus actifs, mais il existe environ 5 5 autres radioéléments naturels, parmi lesquels le carbone 14 et le potassium 40 sont souvent cités.
- C’est pourquoi les atomistes ont précisé la terminologie en appelant radioéléments artificiels les corps radioactifs produits par les réactions nucléaires qui se déroulent dans les appareils construits par l’homme. Cette appellation désigne donc une provenance et non une nature particulière : le carbone 14 qui se forme sans cesse dans l’atmosphère sous l’influence des rayons cosmiques est un radioélément naturel ; le même carbone 14 que l’on obtient dans une pile atomique a droit au qualificatif d’artificiel.
- L’importance qu’ont prise dans tous les pays les radioisotopes artificiels a été marquée par le colloque international que l’Unesco leur a consacré en septembre 1957 et où la plupart de leurs utilisations ont été passées en revue. Depuis lors l’industrie des radioéléments s’est rapidement développée. C’est la Grande-Bretagne qui tient la tête avec un chiffre d’affaires annuel d’environ un million de livres sterling et 30000 livraisons, dont 60 pour 100 à l’étranger. Viennent ensuite les États-Unis qui ont vendu l’année dernière pour environ 2,2 millions de dollars en radioéléments, mais n’en ont exporté que 10 pour xoo. La France se classe aujourd’hui au troisième rang parmi les pays occidentaux, après une progression en flèche : 475 000 NF en 1958, 878000 en 1959, 1 627000 en i960 (dont 674000 pour l’exportation). Dans cette même année les livraisons ont atteint le chiffre de 9 962.
- C’est le Commissariat à l’Énergie atomique qui détient en France le monopole de cette industrie si active. Les installations où se préparent les radioéléments artificiels se trouvent au Centre d’études nucléaires de Saclay. Devant l’accroissement constant des demandes, un nouveau
- artincie
- -r ORSQU ON prono
- par Yves Mériel
- bâtiment a été construit pour accueillir cette production. Ses aménagements seront très prochainement terminés.
- Complétons ce bref aperçu économique en notant les sommes que différentes industries ont pu épargner grâce à l’emploi des radioéléments : dès 1958, les États-Unis annonçaient un gain de 500 000 dollars par an ; la France a sans doute atteint un chiffre du même ordre en cumulant les économies réalisées depuis que les radioéléments ont pris place dans certaines de nos branches industrielles. Ces chiffres ne concernent que des emplois techniques. Il faudrait pouvoir évaluer aussi l’amélioration du « rendement » des recherches scientifiques grâce à l’utilisation des « traceurs », mais il serait évidemment bien malaisé de la chiffrer en numéraire.
- Fig. 1. — Le travail dans une boîte à gants.
- La chimiste opère à l’aide de gants en plastique fixés sur la paroi transparente. Cette boîte à gants est utilisée pour manipuler des substances dont la radioactivité est peu intense.
- (Photo Ranson).
- 273
- p.273 - vue 274/560
-
-
-
- Les réactions nucléaires utilisées
- Bien que la notion d’isotope ait été abondamment vulgarisée, on ne nous en voudra pas de faire ici quelques brefs rappels. Les noyaux d’atome sont formés de protons (particules portant l’unité de charge électrique positive) et de neutrons (particules neutres). Chaque type de combinaison de ces deux particules constitue un nuclide particulier, caractérisé par son nombre atomique Z (nombre de protons) et son nombre de masse A (nombre total de protons et de neutrons). Tous les nuclides de même nombre Z, capables de retenir un même nombre d’électrons négatifs périphériques, donnent des atomes de propriétés chimiques et physiques très voisines ; ce sont des isotopes d’un même élément chimique. La variation du nombre de neutrons entraîne en revanche des changements radicaux dans les propriétés nucléaires. La plupart des éléments ont un ou plusieurs isotopes stables, les autres étant radioactifs et se désintégrant en émettant, soit une particule a (noyau d’hélium 4 formé de 2 protons et 2 neutrons), soit une particule (3~ ou (3+ (électron négatif ou positif), soit un photon y (rayon électromagnétique très énergique). Chaque nuclide radioactif est en outre caractérisé par sa période, qui est le temps au bout duquel la moitié des noyaux de ce type se sont désintégrés.
- Des radioisotopes peuvent être obtenus en bombardant des éléments déterminés (constituant alors la cible) par des particules diverses, électrons, protons, etc., comme cela se fait journellement dans les accélérateurs. Mais le procédé le plus économique pour en obtenir en quantités importantes est d’utiliser les flux de neutrons qui sont produits au sein des piles atomiques. Nous n’aurons donc en vue ici que ce qui se passe lorsqu’une « cible » a été atteinte par des neutrons. Cependant quelques-uns des nuclides qui sont les résidus de la fission de l’uranium dans les piles sont aussi des radioisotopes utilisables.
- Fig. 2. — Une « sorbonne blindée ».
- Dans cet appareil en tôle d’acier sont conduites des manipulations de produits d’intense radioactivité. Elles sont effectuées à l’aide de « télémanipulateurs » qui permettent d’opérer à distance, sans aucun contact avec les produits radio-
- Toutes les caractéristiques d’un radioisotope peuvent avoir une importance pour l’utilisateur. Ce que l’on vise est donc d’obtenir un radioisotope d’un élément chimique déterminé, ayant un rayonnement déterminé (a, [3 ou y) et une période convenable. Or l’impact d’un neutron sur un noyau d’atome peut avoir des conséquences variées, qui varient bien entendu d’un nuclide à l’autre, mais peuvent également se rencontrer chez un même nuclide. Ayant absorbé un neutron, le noyau voit son nombre de masse A augmenter d’une unité, mais le nouveau noyau ainsi obtenu est en général extrêmement instable et se désintègre aussitôt en émettant, soit un photon y, soit un ou deux neutrons, soit un proton, soit une particule a (noyau d’hélium 4). Le type de réaction auquel on assiste ainsi se symbolise par deux lettres à l’intérieur d’une parenthèse, la première représentant la particule absorbée, la seconde l’émission consécutive. Ainsi le dernier cas que nous venons d’envisager se symbolisera par (n, a). Pour symboliser complètement une réaction, on écrira par exemple 14N (n, p) 14C, ce qui veut dire que l’azote 14, ayant absorbé un neutron et émis un proton, donne du carbone 14.
- Comme nous l’avons dit, le même nuclide, ayant absorbé un neutron, peut donner lieu à des réactions différentes, le type de réaction dépendant de l’énergie du neutron incident. Un bon exemple, que nous empruntons au Cours de génie atomique de M. C. Fischer, en est fourni par le chlore 35 ; les cinq possibilités offertes sont exposées dans le tableau I.
- Tableau I. —• Réactions diverses consécutives a l’absorption d’un neutron par le chlore 35
- Noyau résultant et particule émise Type de réaction Caractéristiques du noyau résultant
- Z A Période Radioactivité
- i° 17CI + {n, ri) U 35 Stable n
- \ 20 ™C\ + y . («, Y) U 36 4,5 x io5 ans P-
- Î?C1 + J» -> [??ci] -, 3° 17CI + 2« (», 2n) U 34 33 mn (U
- 4°??S +\P («» P) 16 35 85 jours P-
- (' 50 jgP -ftHe(a) («, a) U 32 14,3 jours r
- L’absorption d’un neutron par le chlore 35 transforme celui-ci en chlore 36 qui se désintègre aussitôt selon cinq processus possibles. Cas 1, émission d’un neutron : on retrouve le chlore 35 stable. Cas 2, émission d’un photon y : aucun changement dans les nombres Z (protons) et A (protons + neutrons)le chlore 36 passe seulement à un état de plus basse énergie et constitue le radiochlore 36 à assez longue période. Cas 3, émission de 2 neutrons : le nombre atomique Z est conservé mais le nombre de masse A baisse de 2 unités ; on obtient le radiochlore 34. Cas 4, émission d’un proton : Z et A baissent tous deux d’une unité ; on obtient le radiosoufre 35. Cas /, émission d’une particule oc (noyau d’hélium 4, constitué de 2 protons et 2 neutrons) : Z baisse de 2 et A de 4 ; on obtient le radiophosphore 32. La mise entré crochets du chlore 36 dans la colonne de gauche indique que ce nuclide, à ce niveau élevé d’énergie, n’a qu’une existence extrêmement éphémère.
- 274
- p.274 - vue 275/560
-
-
-
- p.275 - vue 276/560
-
-
-
- Fig. 3- — Un télémanipulateur en action.
- Grâce aux leviers et aux commandes, les mouvements des doigts de l’opérateur sont reproduits par les pinces que l’on voit à l’intérieur de la « sorbonne blindée ».
- Le verre de la fenêtre,, à base de plomb, arrête les rayonnements.
- r (Photo Ranson).
- Les types de réaction les plus fréquents, ceux aussi sur lesquels on peut tabler pour obtenir les radioéléments désirés, sont les trois types (n, y), (n, p), (n, a). Donnons un exemple de chacun.
- Voici d’abord la réaction (n, y) utilisée pour la fabrication du cobalt 60, dont les emplois thérapeutiques sont bien connus. C’est lé cobalt 59, corps stable et dénué d’isotopes naturels, gui est enfourné dans le réacteur et soumis au flux de neutrons. Ayant absorbé un neutron, son nombre de masse a augmenté d’une unité, sans changement du nombre atomique et donc des propriétés chimiques. C’est le cobalt 60, radioactif, émetteur et y, dont l’activité ira décroissant selon une période de 5,3 ans.
- Deuxième type de réaction (n, p), qui va donner naissance par exemple au carbone 14. C’est cette fois l’azote 14 qui est soumis au flux neutronique. Le nombre de masse (14) ne varie pas, car le corps irradié, gagnant un neutron, a perdu un proton. Mais le nombre atomique a baissé d’une unité, passant de 7 à 6. Le radiocarbone ,'C obtenu est émetteur avec une période de 5 760 ans.
- 276
- La troisième réaction (n, a.J, utilisée par exemple pour obtenir le tritium ou hydrogène radioactif, est plus « bouleversante ». La cible est le lithium 6 (yLi).
- Devenu lithium 7 par absorption d’un neutron, il expulse ensuite une particule a ; disons plutôt qu’il se scinde en deux fragments puisque, dans cet exemple, le résidu est plus léger que la particule expulsée. La formule suivante résume les événements :
- jpLi + o;z [âLi] -> ^He (partie, a) fl- i!H (tritium).
- La mise entre crochets du lithium 7 indique qu’il ne s’agit pas de lithium 7 stable (le plus commun dans la nature), mais d’un « isomère » dans un état extrêmement instable par suite de sa haute énergie interne. Le tritium obtenu est radioactif avec une période de 12,26 ans.
- Les trois réactions que nous venons de décrire donnent lieu à des irradiations en quelque sorte concertées et qui sont menées dans des conditions que nous allons préciser. Mais il faut rappeler que les réacteurs produisent spontanément et anarchiquement des radioéléments que l’on flétrit en général du nom de produits de fission ou de déchets. Par le phénomène de la fission, l’uranium 235 (ou tel autre combustible nucléaire) se fragmente de différentes manières
- p.276 - vue 277/560
-
-
-
- et il apparaît des radioéléments dont la plupart sont considérés comme indésirables : n’empêche que certains d’entre eux (strontium 90, iode 131, césium 137, prométhéum 147) sont recherchés pour certaines utilisations. Ils peuvent être récupérés dans les usines de séparation chimique où sont traités les combustibles irradiés.
- Le choix de la pile atomique selon le radioisotope désiré
- Jusqu’ici nous avons considéré la réaction comme devant inévitablement se produire, ce qui n’est vrai que dans une certaine mesure. La condition préalable est que la cible soit atteinte, que les neutrons circulant à des vitesses considérables rencontrent les noyaux dont l’édifice doit être remanié et soient absorbés par eux. La probabilité de l’absorption est faible; elle diffère pour chaque nuclide et dépend aussi de la vitesse des neutrons. Cette vitesse influe aussi sur le type de réaction qui se réalisera, une fois le neutron absorbé. Ainsi la réaction (n, y) sera réalisée de préférence avec des neutrons de faible énergie ; les réactions (n, p) et (n, a) seront plus probables avec des neutrons rapides.
- On sait que la fission de l’uranium 235 libère des neutrons très rapides, qu’on ralentit en leur faisant traverser un « modérateur » (graphite, eau lourde, etc.), les neutrons lents étant plus aptes à pénétrer l’uranium 235. Quand on
- Fig. 4. — Installation utilisée pour la préparation de radiosoufre 35.
- Ce montage sera introduit dans l’« appareil de production » que montre la figure 7.
- (Photo Ranson).
- vise la réaction (//, y) on place donc la cible dans un réacteur correctement ralenti. On choisit même, en général, de la loger dans le réflecteur en graphite qui entoure la pile, où les neutrons sont amortis au maximum.
- Quelle sera la durée de l’irradiation ? Il faut se rendre compte que les atomes bombardés ne seront atteints que les uns après les autres. Le temps nécessaire pour atteindre tous les atomes de la cible risque d’être fort long et il sera naturellement d’autant plus long que le flux de neutrons sera moins intense. En outre, il faut tenir compte du fait que les noyaux transformés sont radioactifs et qu’ils se détruisent donc au fur et à mesure de leur production. Il s’en détruit évidemment d’autant plus qu’ils sont plus nombreux, si bien qu’on se heurte finalement à un état d’équilibre, à une saturation où la vitesse de destruction compense exactement la vitesse de formation.
- Fig. /. •— Boîte à gants munie de pinces.
- Les pinces permettent de manipuler des substances dont la radioactivité est relativement élevée.
- (Photo Ranson).
- On arrêtera donc l’irradiation, en principe, quand l’activité de la cible sera devenue maximale. La durée nécessaire est donnée par une formule, où interviennent deux facteurs primordiaux : l’intensité du flux de neutrons et la période du radioisotope obtenu. Sous certains flux relativement faibles, on constate que pour pousser l’activité de la cible jusqu’à la moitié de l’état de saturation, il faut que la durée de l’irradiation soit égale à la période du radioélément désiré. Ceci ne pourrait effrayer personne dans le cas du sodium 24, dont la période est de 15 heures environ. Tout différent est le cas du cobalt 60, dont la*-demi-extinction ne survient qu’au bout de 5,3 années. .> On a recours alors aux piles à haut flux de neutrons. Si l’on passe par exemple d’une pile telle que Zoé, où le flux est de l’ordre de io11 neutrons par centimètre carré et par seconde, au réacteur EL. 3 où il atteint io13 #/cm2/s, la durée d’irradiation nécessaire est divisée par 100. N’empêche qu’elle sera toujours fort longue pour des radioéléments comme le cobalt 60 et qu’on ne cherchera même pas à atteindre l’état de saturation.
- Tout cela est encore relativement facile, lorsque le radioélément est issu de la réaction (n, y) où interviennent les
- 277
- p.277 - vue 278/560
-
-
-
- neutrons ralentis. Le problème se complique singulièrement pour les deux autres réactions (n, p) et (n, a.) qui bouleversent l’édifice protonique et exigent à cet effet une énergie plus grande. Il faut alors que la cible soit bombardée par des neutrons d’une énergie voisine de i MeV. A première vue, les possibilités semblent assez restreintes, car les réacteurs à neutrons rapides sont rares et d’un maniement délicat. Mais un neutron n’est-il pas nécessairement rapide dans la toute première phase de sa brève liberté ? On rencontre ainsi des neutrons rapides en quantité suffisante dans le centre des réacteurs thermalisés, région de flux plus intense. Au besoin l’élément cible sera placé à l’intérieur d’un bloc d’urànium, c’est-à-dire dans la source même des neutrons.
- Quelques mots sur les modalités pratiques de cette première et essentielle opération qu’est l’irradiation des cibles. D’après ce qui vient d’être dit, on conçoit que l’on a avantage à spécialiser les réacteurs, selon leurs caractéristiques, dans la fabrication de tel ou tel radioélément. En France, la hiérarchie est la suivante :
- Zoé, la doyenne de nos piles atomiques, se voit confier les radioéléments à courte période. On en use librement avec elle et on l’arrête fréquemment pour des enfournements et détournements répétés.
- EL. 2 n’est arrêtée qu’une fois par semaine. Avec son flux de 2.1 o12 n/cm2/s, elle peut produire des radioéléments de période moyenne.
- EL. 3, pile à haut flux, a été équipée en vue de produire des radioéléments à longue période, parmi lesquels le cobalt 6o. Les cibles y sont introduites et les radioéléments retirés, au moyen d’une hotte de défournement (fig. 6) qui permet d’opérer alors que la pile est en marche.
- Une autre pile expérimentale, Mélusine, récemment mise en route à Grenoble, participe à cette fabrication.
- Les grands réacteurs G.i, G.2 et G. 3 de Marcoule sont également mis à contribution. Toutefois on fait surtout appel à eux pour des radioéléments produits dans des cibles volumineuses et qui exigent plus d’un an d’irradiation : tel est le cas du nitrure d’aluminium, source du carbone 14, que l’on enfourne par dizaines de kg. Le polonium 210, le tritium et le cobalt 60 sont également produits à Marcoule. Le tube où sont logées les cibles prend la place d’un barreau d’uranium. Des précautions spéciales doivent être prises, en raison des hautes températures et des pressions qui régnent dans ces réacteurs de puissance.
- Les futurs radioéléments subissent généralement l’irradiation dans des tubes d’aluminium, dont le couvercle est ou bien vissé ou bien soudé à froid (ce qui assure une meilleure étanchéité). Il existe également des tubes en polyéthylène. Dans les grands réacteurs, l’acier inoxydable est substitué à l’aluminium.
- Séparations et préparations chimiques
- En dépit des soins apportés aux différents modes d’irra-ciation, le rendement en poids des réactions nucléaires reste toujours très faible. Même si l’on parvient à la saturation le nombre des atomes devenus radioactifs est infime en comparaison de celui des atomes restés stables. Dans une des piles où l’on traite le soufre pour le transmuter en phosphore radioactif, le poids de la matière première est 800 grammes, celui du produit 3 microgrammes.
- Les radioéléments ne se vendent d’ailleurs pas au poids, mais au curie, unité de radioactivité qui correspond, rap-pelons-le, à 3,7 x io10 désintégrations par seconde. Cette unité n’intervient en pratique que pour de très fortes livraisons et l’on a bien plus souvent l’occasion de mesurer les radioéléments en millicuries, ce qui représente déjà une radioactivité très appréciable. Or le poids du curie est pour les radioéléments suivants (supposés à l’état pur) : sodium 24 : 1,2 x io-7 g ; phosphore 32 : 3,5 x io~6 g ; strontium 90 : 5 X io-4 g ; carbone 14 : 0,22 g.
- On voit que les radioéléments « pesés » en millicuries représentent des quantités de matière en général infimes ; ce sont ces traces que les chimistes doivent s’ingénier à séparer de la matière inactive dans laquelle elles sont englobées et aussi des autres radioéléments, issus de réactions nucléaires hétérogènes : le cas du chlore présenté dans le tableau I est à cet égard démonstratif.
- Autre difficulté : les atomes radioactifs développent une énergie considérable qui a des répercussions sur les réactions chimiques ; celles qu’on emploiera pour les traiter devront souvent être assez différentes des réactions de la chimie classique.
- Deux cas sont à envisager : i° Obtenu par les réactions (n, p) ou (n, a.), ou par fission, le radioélément désiré diffère chimiquement de sa « gangue » ; 20 Obtenu par la réaction (n, y), c’est un isotope de la cible.
- Fig. 6. — Manœuvre de la hotte de défournement de la pile EL. 3 à Saclay.
- Placé sur la pile, selon son axe vertical, cet appareil permet, la pile étant en fonctionnement, d’extraûe les radioéléments qui ont pris naissance au sein
- p.278 - vue 279/560
-
-
-
- Radioélément différant chimiquement de la cible. —
- — La séparation est favorisée par le fait que les corps mélangés ont des propriétés physiques et chimiques dissemblables. On peut faire appel à des techniques courantes telles que la distillation, l’extraction par solvants, l’échange d’ions. Mais il se peut qu’on ait trop de difficultés à « saisir » les milligrammes ou microgrammes du radioélément, qui par exemple restent adsorbés sur les parois des récipients. En ce cas, le chimiste fera intervenir un entraîneur, c’est-à-dire un isotope stable du radioélément : le traitement se trouvera facilité et l’on pourra notamment opérer par coprécipitation. Le radioélément restera alors incorporé à son isotope stable, forme sous laquelle il est d’ailleurs fréquemment désiré par son utilisateur.
- Citons, parmi les nombreuses séparations qui se pratiquent à Saclay, celle du phosphore 32 d’avec le soufre 32 qui sert à le produire. Évoquons à cette occasion l’ambiance très spéciale dans laquelle se déroulent les opérations.
- Le « château de plomb » qui sert au transport des substances radioactives pénètre dans le laboratoire. Il vient de l’enceinte de la pile EL. 3 où le soufre a été irradié dans un tube d’aluminium soudé à froid. Le château, que transporte un chariot, s’arrête devant ce que les chimistes appellent l’appareil de production (fig. 7) : c’est un petit édifice dont la façade est rectangulaire. Les parois sont faites de briques de plomb, avec un revêtement interne parfaitement étanche en plexiglas. Dans ce bâtiment en miniature l’atmosphère est en légère dépression par rapport au laboratoire où circule le personnel, équipé de combinaisons blanches et de bottes en plastique. Si une fuite se produisait, la dépression aurait pour effet de faire circuler l’air en direction de
- Fig- 7- — Vue en façade d’un appareil de production.
- C’est dans cet appareil, où l’atmosphère est en légère dépression, que sont introduites les substances après irradiation dans la pile pour opérer la séparation des radioisotopes.
- (Photo Ranson).
- Fig. 8. — A l’intérieur de l’appareil de production.
- On -voit ici l’installation complexe réalisée dans une partie de l’appareil pour la distillation de l’iode 131.
- (Photo C. E. A.).
- p.279 - vue 280/560
-
-
-
- Fig. 9. —• Mesure du rayonnement gammi dans l’appareil de production.
- {Photo Ranson).
- l’enceinte où se trouvent les corps radioactifs et d’éviter une circulation inverse, évidemment dangereuse.
- Le tube de soufre est introduit dans l’appareil de production en passant par un sas en plexiglas. Désormais toutes les manipulations vont se faire, grâce à des pinces maniées de l’extérieur (fig. 5), par un opérateur qui regarde à travers d’épaisses lucarnes, faites de verre au plomb.
- Pour commencer, le tube est confié à l’appareil de dessertissage qui cisaille le couvercle et permet ainsi de libérer le petit cylindre de soufre. Ce corps est ensuite placé dans le récipient où va être pratiquée la distillation sous vide du soufre. Cette distillation une fois achevée, il ne reste rien dans le récipient, sauf les infimes quantités, invisibles et impondérables, de radiophosphore qui se présente (si l’on peut dire) sous forme de P2Os. Mais en adhérant aux parois, il s’est uni à des parcelles du matériau dont elles sont constituées, ce qui exige de le purifier sur une résine échangeuse d’ions.
- L’oxyde de phosphore est ensuite repris par de l’acide chlorhydrique dilué et c’est sous forme d’acide phospho-rique en solution aqueuse chlorhydrique que le radioélément sera finalement extrait de l’appareil de production. Il reste encore à le confier à la section de répartition (fig. 10) qui mesure son activité et additionne ou soustrait les doses jusqu’à pouvoir livrer un flacon contenant 5 à 10 milli-curies.
- Fig. 10. — Dans le laboratoire de répartition.
- Les flacons de radioéléments, tels qu’ils seront livrés à l’utilisateur, passent dans l’appareil de stérilisation.
- {Photo Ranson).
- Radioélément isotope de la cible. — Comme nous l’avons déjà rappelé, le radioisotope est généralement utilisé en mélange avec son isotope stable. Il arrive donc souvent que le chimiste n’ait pas à se poser le problème de leur séparation, quand ils se trouvent mélangés après la réaction (n, y). C’est le cas du cobalt 60 issu du cobalt 59. C’est encore le cas pour l’or 198 issu de l’or 197 ordinaire, que nous prendrons comme exemple ; cet or radioactif est couramment utilisé en médecine.
- La seule transformation imposée concerne l’état physique du noble métal. Le laboratoire reçoit des feuilles d’or de très grande pureté qui ont été irradiées pendant une semaine, sous un flux de 2,4 x io12 n/crcP/s. La tâche du chimiste est de préparer de l’or colloïdal qui puisse circuler dans les tissus vivants.
- De multiples opérations se succèdent dans un appareil de production analogue à celui précédemment décrit : dissolution dans l’eau régale, évaporation permettant de recueillir des cristaux d’acide chloraurique, dissolution dans l’eau distillée, neutralisation à la soude, incorporation à un bain composé de glucose, de gélatine et d’un germe d’or colloïdal inactif. Le produit final est un liquide visqueux de couleur rouge violacé.
- Pour d’autres éléments, il peut être désirable d’augmenter Y activité spécifique (nombre de millicuries par unité de poids), donc d’enrichir le mélange en radioisotope, ce qui équivaut à une séparation au moins partielle de l’isotope stable et du radioisotope. Cette séparation est en principe d’une extrême difficulté. Mais dans le cas présent, le chimiste se trouve heureusement aidé par un phénomène connu des atomistes sous le nom d’effet Szilard-Chalmers. Voici en quoi il consiste.
- 280
- p.280 - vue 281/560
-
-
-
- Lorsqu’on a placé par exemple dans le réacteur une cible d’iodure d’éthyle, les noyaux stables d’iode 127 qui ont capturé un neutron sont transformés en iode 128 radioactif. Mais au cours de cette réaction, un photon y est éjecté du noyau avec une énergie telle que le noyau se trouve propulsé en sens inverse (mouvement de recul que l’on peut comparer à celui d’une arme à feu). Cet effet cinétique a pour effet d’arracher l’atome à la molécule d’iodure d’éthyle. Par suite, il existe d’un côté des radicaux libres, débris des molécules dissociées, parmi lesquels les atomes d’iode 128 isolés, et de l’autre côté les molécules intactes d’iodure d’éthyle avec iode 127.
- Ce tri providentiel permet au chimiste d’intervenir efficacement en extrayant l’iode inactif grâce à une solution aqueuse de thiosulfate de sodium. Le rendement de l’effet Szilard-Chalmers n’est pas de 100 pour 100, car une partie des atomes d’iode 128 se sont entre-temps recombinés pour former de l’iodure d’éthyle. Mais on peut obtenir un « facteur d’enrichissement » de l’ordre de 10 000, c’est-à-dire une activité spécifique aussi élevée que si l’iode 127 avait été irradié par un flux de neutrons 10 000 fois plus intense (C. Fischer).
- Utilisant le jargon des chimistes nucléaires, nous mentionnerons le « Szilard » de l’arsenic 76. Ce radioélément est employé dans le traitement de certains cancers et l’on conçoit qu’il faille lui donner une haute activité spécifique, afin de réduire la quantité d’arsenic inactif mais très toxique, que l’on met en circulation dans l’organisme.
- Fig. 11. — Contrôle biologique.
- Un radioélément est injecté, en boîte à gants, à un lapin.
- {Photo Ranson).
- Molécules marquées. — Les laboratoires ont été conduits à développer une branche industrielle spéciale, celle des molécules « marquées ». Il s’agit ici de molécules organiques dans lesquelles l’un des atomes est un radioisotope, ce qui permet de suivre, par la détection de sa radioactivité, le sort de la substance dans un organisme vivant ou dans une réaction chimique. Les plus nombreuses sont celles auxquelles sont incorporés un ou plusieurs atomes de carbone 14. Mais on prépare également des molécules marquées au soufre 35 et au tritium. Certaines demandes concernent des molécules contenant des isotopes stables comme l’azote 15 et le deutérium.
- Ces diverses « fabrications » exigent une virtuosité particulière. Non seulement les molécules doivent être construites de toutes pièces, par voie de synthèse, mais l’utilisateur exige souvent que l’atome radioactif soit placé à un endroit désigné de l’architecture moléculaire. Les instructions jointes à la commande peuvent par exemple être libellées : « Prière de marquer l’atome n° 15»!
- On ne saurait être surpris si les synthèses impliquent souvent une laborieuse succession de quatre ou cinq étapes. Parfois les chimistes « passent la main » à des organismes vivants, souvent des algues ou des bactéries, qui élaborent des sucres ou des acides aminés marqués, après avoir absorbé du C02 lui-même marqué au carbone 14.
- Dans certains cas on peut irradier les molécules elles-mêmes au lieu de les construira avec un élément marqué d’avance. Il arrive par exemple qu’une molécule marquée au carbone 14 puisse être obtenue en irradiant une substance homologue contenant l’azote 14. Mais ces techniques radio-chimiques ne laissent pas d’être hasardeuses et leur rendement est en général faible.
- Contrôle et sécurité
- Tels sont les aspects essentiels de la jeune et prospère industrie des radioéléments artificiels. On doit ajouter qu’elle fourmille de détails techniques sur lesquels nous ne pouvons nous appesantir : contrôle de la pureté radioactive (pour détecter les radioéléments parasites), contrôle chimique (pourchassant les impuretés), contrôle biologique (vérifiant la stérilité d’une préparation sur milieu nutritif, ses affinités ou son innocuité en expérimentant sur l’animal) (fig. 11). Des problèmes de stockage doivent également être résolus, pour les radioéléments et les molécules marquées de vente courante : cela exige des appareils et des procédés qui évitent la radiolyse, c’est-à-dire les fuites de radioactivité (fig. 12). Ce stockage, bien entendu, n’a pas cours pour les radioéléments à période courte qui doivent être livrés aussi « frais » que possible ; mais, étant donné la durée du transport, l’utilisateur reçoit évidemment un nombre de millicuries plus faible que celui qui a été mesuré au laboratoire. Tel est le cas notamment pour l’or colloïdal dont la période est de 2,7 jours.
- La gamme des appareils qui assurent la sécurité des manipulateurs mériterait d’amples descriptions. Outre l’appareil de production auquel nous avons fait allusion, à propos du phosphore 32, il existe de simples boîtes à gants (fig. 1), utilisées lorsque les émissions [3 ou y sont minimes. Les « sorbonnes blindées » (fig. 2) sont faites de tôle d’acier de 8 cm d’épaisseur ; elles ont été conçues pour des manipulations très variées qui appellent des
- 281
- p.281 - vue 282/560
-
-
-
- Fis'. 12. — Le stockage des radioisotopes.
- Les radioisotopes à longue période peuvent être stockés en attendant leur livraison, moyennant des précautions rigoureuses.
- (Photo Ranson).
- démontages et remontages rapides de l’équipement intérieur. Lorsque enfin on doit traiter les radioéléments développant quelques curies ou au delà, on a recours à des cellules bétonnées (béton ordinaire, béton baryté, agglomérés de ciment et de fer) : les pinces sont alors remplacées par des télémanipulateurs mécaniques ou électriques (fig. 3) qui permettent d’opérer à distance ; la vision au travers des lucarnes en verre au plomb est parfois remplacée par des périscopes ou des caméras de télévision.
- Dans la nouvelle installation de Saclay, une disposition intérieure a été réalisée pour augmenter la sécurité tout en assurant une circulation rationnelle des radioéléments bruts ou finis. Ils pénètrent ou sortent par une série de couloirs actifs qui sont en dépression par rapport au reste de l’enceinte, car c’est là que les émissions radioactives ont le plus de chances de se produire. Les chargements et déchargements se feront en effet dans des appareils de production placés dans ces couloirs mais fermés sur une de leurs faces par la cloison au delà de laquelle se trouvent les « laboratoires chauds », c’est-à-dire où sont traités les produits radioactifs. Ainsi les manipulations pourront se faire dans ces laboratoires (malgré leur nom) sous un niveau de radioactivité moindre que celui des couloirs.
- D’autres séparations permettront d’isoler, après passage dans d’autres corridors, une série de « laboratoires froids ». Trois niveaux différents de dépression sont ménagés, correspondant à la plus ou moins grande radioactivité ambiante, celle du couloir (la plupart du temps inhabité) étant maximale.
- Tout ceci caractérise la physionomie particulière de l’industrie des radioéléments, produits très peu volumineux mais coûteux en raison des soins multiples dont ils sont entourés.
- Yves Mériel.
- Les photographies qui illustrent cet article nous ont été obligeamment communiquées par le Commissariat à l’Énergie atomique.
- A propos de Vimmersion des déchets radioactifs Des courants profonds sont décelés en Mer Noire
- On connaît les objections formulées par les océanographes contre l’immèrsion dans les mers des déchets radioactifs de l’industrie atomique. Pareil procédé d’élimination des déchets, ont-ils déclaré à plusieurs reprises, ne peut être envisagé que s’il est prouvé localement qu’aucun échange vertical n’existe entre les couches superficielles et profondes d’une mer.
- C’est afin d’étudier ce problème que des essais ont été effectués récemment en Mer Noire, non loin de la pointe méridionale de la Crimée. Leur but immédiat était de se rendre compte si l’eau des profondeurs était immobile ainsi que l’ont longtemps pensé les anciens auteurs. Dans le cas contraire (voire si les courants détectés sont plus ou moins horizontaux) on doit considérer que des échanges se produisent nécessairement entre couches superficielles et profondes.
- Les résultats des essais en Mer Noire, publiés par la revue soviétique Vriroda, sont les suivants : immergés une première
- fois pendant 31 h à la profondeur de 300 m, les appareils de mesure ont permis d’enregistrer un courant (permanent, semble-t-il) de direction E-NE et dont la vitesse varie entre 9 et 18 cm/s, soit 8 à 15 km par jour. A titre de comparaison, la vitesse des courants de surface varie entre 5 et 50 km par jour.
- Un deuxième essai, à 750 m de profondeur, dans un secteur différent, a fait apparaître également un courant, mais orienté cette fois vers l’ouest et dont la vitesse, très irrégulière, enregistrée pendant 70 h a atteint des pointes de 15 cm/s.
- Ces résultats semblent démontrer qu’un brassage existe entre les différents niveaux de la Mer Noire. La conclusion est un avis défavorable à l’immersion des déchets radioactifs. Rappelons d’ailleurs que, dans les réunions internationales, les océanographes soviétiques ont constamment défendu ce point de vue.
- C. M.
- 282
- p.282 - vue 283/560
-
-
-
- Des araignées pondent et élèvent leurs jeunes dans des coquilles d’escargot
- Contrairement aux insectes chez lesquels on cite comme exceptionnels les soins que les femelles de Forficules (vulgairement appelés perce-oreilles) accordent à leurs œufs, les Araignées entourent souvent leur progéniture de soins prolongés. Les femelles confectionnent pour abriter leur ponte un cocon de soie qu’elles déposent le plus souvent dans un abri naturel, sous une pierre, sous une écorce ou dans le trou d’un mur par exemple. Les Pholcidés portent leur cocon entre les chélicères (première paire d’appendices, terminés par une pince) tandis que les Lycoses le gardent attaché aux filières pendant tout le temps que dure le développement des œufs. D’autres araignées ne transportent pas leur cocon mais s’enferment avec lui dans un abri jusqu’à l’éclosion des jeunes et même jusqu’à ce que ceux-ci soient assez vigoureux pour se disperser. C’est un cas de ce genre qui est rapporté par Mme Izabella Mikulska, de l’université de Torun en Pologne (Nature, 22 avril 1961).
- Dans les environs de Torun, sur une pente très ensoleillée, Mme Mikulska remarqua des coquilles du petit escargot Helicella cauâicans suspendues sur des plantes, à une quinzaine de centimètres du sol, par un fil de soie. L’orifice de chacune de ces coquilles était clos par un opercule de soie tissé par une araignée qui se trouvait à l’intérieur avec ses œufs ; des fentes horizontales réservées dans ce rideau laissaient voir les pédipalpes (pattes-mâchoires) de l’habitant, couverts de poils blancs. L’année suivante, en juin-juillet 1959, une vingtaine de coquilles &Helicella furent encore récoltées dans les mêmes conditions, chacune occupée par une araignée du sexe féminin qui se tenait obstinément dans sa coquille dont on ne pouvait la faire sortir qu’en la chauffant légèrement.
- Apportées au laboratoire et mises en présence de coquilles vides, ces araignées, en l’absence de plantes, les attachent avec des fils de soie sur les bords du terrarium ; elles y pénètrent, en ferment l’ouverture avec une épaisse toile et y déposent une dizaine d’œufs enveloppés de soie. L’araignée reste avec ses œufs jusqu’à l’éclosion des jeunes qui y font leur première mue ; ils quittent alors la coquille mais y reviennent encore pendant un certain temps. L’araignée qui a fait l’objet de ces observations a été déterminée par le spécialiste français J. Denis ; c’est la variété bilunulata de l’espèce Pellenes nigrociliatus ; cette espèce appartient à la famille des Salticidés et est considérée comme très peu commune, la variété surtout qui n’était connue que par un seul individu provenant du Tarn.
- Le comportement de l’araignée observée par
- Mme Mikulska est très intéressant mais il n’est pas aussi exceptionnel que la note publiée le laisserait supposer. Tout d’abord le fait d’employer à la confection du cocon d’autres matériaux que la soie pure, feuilles mortes, brindilles, petits cailloux, est assez répandu. D’autre part, on a souvent observé que des araignées des familles des Drassidés et des Salticidés établissent leur retraite dans une coquille vide trouvée à terre ; l’araignée aquatique Argy-ronète (l’Araignée de verre de Maeterlinck) emploie de la même façon des coquilles vides de Planorbes et de Limnées qu’elle trouve au fond de l’eau.
- Mais un cas bien plus voisin de celui du Pellenes a été décrit par Louis Fage en 1926 à propos d’une araignée dont l’espèce était nouvelle et qu’il a nommée Olios cmo-bita. Elle appartient à la famille des Clubionidés et provient du Sud de Madagascar où ses mœurs ont été bien étudiées par Raymond Decary. De même que l’espèce polonaise, elle établit son nid dans des coquilles vides d’escargots terrestres ([Hélix, Clavator, etc.) qu’elle hisse et suspend aux buissons ; elle pond également dans la coquille, les jeunes y éclosent et y vivent pendant un certain temps, puis ils quittent le domicile commun. Decary a pu suivre alors leur sort et a constaté que chacun d’eux cherche à terre une coquille proportionnée à sa taille, ou plus exactement à sa force, la suspend aux branches et l’occupe aussi longtemps qu’il y trouve aise ; quand il grossit, il change de coquille pour une plus spacieuse. Les femelles passent toute leur vie dans un tel abri tandis que les mâles ne semblent pas demeurer sédentaires. On est surpris par la taille des coquilles ainsi suspendues dont certaines peuvent atteindre un poids trente-cinq fois supérieur à celui de l’araignée. On a cherché à se rendre compte du procédé qui permet aux araignées de soulever un poids relativement si considérable. Il est certain que ce sont les qualités d’élasticité présentées par la soie filée par l’araignée qui permettent l’exécution de ce travail. L’araignée fixe l’extrémité d’un fil de soie à une branche et l’autre sur la coquille qu’elle a choisie ; le fil est tendu à l’extrême et aussitôt cette tension relâchée, la force de rétraction est suffisante pour soulever un peu l’objet ; il suffit de répéter plusieurs fois l’opération pour obtenir le but désiré. Quant à l’origine d’une si curieuse habitude, on peut la rechercher dans les manifestations de l’instinct maternel qui pousse tant d’espèces d’araignées à ne pas abandonner leur nid et à rester au contact de leurs jeunes.
- L. Chopard.
- 108 346 km de côtes en U. R. S. S*
- La mesure précise de la longueur totale des côtes de TUnion soviétique était un travail considérable dont on imagine les difficultés ; elle n’a pu être achevée qu’à une date récente et la revue Priroda nous en a apporté les résultats. La longueur
- des côtes continentales atteint 60 085 km ; les côtes des innombrables îles totalisent 48 261 km. Ainsi la longueur totale des côtes maritimes des territoires qui font partie de l’U. R. S. S. s’élève à 108 346 km.
- 283
- p.283 - vue 284/560
-
-
-
- Espoirs pour la protection de la nature en France
- Il y aura bientôt un an, le 23 juillet i960, le journal Officiel publiait une loi-cadre qui suscitait de grands espoirs pour tous les amis de la nature, ou pour mieux dire pour tous ceux qui s’inquiètent de la destruction accélérée de nos richesses naturelles. La promulgation de cette loi-cadre, donnant au gouvernement la possibilité de créer et d’aménager par décret des « parcs nationaux », est l’aboutissement de l’action persévérante, menée depuis des années dans notre pays par des hommes lucides et désintéressés qu’anime un idéal fondé à la fois sur la raison et sur le sentiment : faire triompher, dans une société vouée aux vertiges de la technique, la cause si compromise de la protection de la nature.
- La nature est gravement menacée sur toute la surface de la Terre. Les mesures prises çà et là ne sont encore que partielles mais, à cet égard, la France était très en retard. C’est aux Etats-Unis que fut fondé en 1872, par un acte du Congrès, le premier Parc national du monde, le Yellowstone National Park, vaste domaine où plantes et animaux devaient être à l’abri de toute atteinte, et aussi « terrain d’agrément pour le bienfait et la joie du peuple » (voir La Nature, juillet i960, p. 295-298). Actuellement plus de quatre cents parcs nationaux existent dans toute les parties du monde. Dans les pays neufs ou peu peuplés, d’immenses surfaces peuvent être classées comme parcs, voire comme « réserves » dont l’accès est en principe sévèrement réglementé. En Argentine, ' aux Etats-Unis, en U. R. S. S., il a été possible de préserver ainsi des vestiges très intéressants de la vie sauvage, et il est à souhaiter que les réserves africaines, comme le Parc Albert au Congo, pourront être maintenues (les gorilles des monts Kivu sont en grand péril ; voir La Nature, avril i960, p. 144-145). Il est regrettable de constater qu’en cette matière, l’étranger nous a devancés. Les réalisations de la Suisse qui a créé en moyenne Engadine un parc national de 15 000 hectares où se rencontrent des ours, des chamois, des marmottes et d’autres espèces, moins spectaculaires mais non moins précieuses, peuvent servir d’exemple à cet égard (fig. 1).
- Le premier but à atteindre en France est de protéger, dans toute la mesure du possible, le monde animal, végétal et même minéral dans ce qu’il a de plus particulièrement et immédiatement menacé. L’extension rapide des activités industrielles et des communications, la recherche et l’exploitation de toutes les sources d’énergie, l’accroissement de la population, entraînent une dégradation progressive et irréversible des sites naturels que des mesures timides de limitation, constamment violées ou tournées, n’arrivent
- par Michel Rousseau et Roger Dajoti
- même plus à pallier. Or, indépendamment de l’intérêt scientifique, esthétique et moral qui s’attache à la conservation du patrimoine naturel dont nous avons hérité, au même titre que du passé monumental et archéologique, cette cause est aussi celle de l’homme lui-même. La pollution de l’air et des eaux est de plus en plus importante, les lieux de repos sont de plus en plus rares. Nous dépendons d’autre part, que nous le voulions ou non, que nous en soyons conscients ou non, de la nature et plus précisément du sol, des êtres vivants qu’il recèle, nourrit ou supporte. Enfin notre sort est lié aux progrès de la science et, à ce point de vue, la nature vivante doit nous être doublement précieuse : par le champ d’études qu’elle nous offre et qui est irremplaçable ; par l’utilité de telle ou telle espèce, que nous ne soupçonnons pas aujourd’hui et qui est imprévisible. Ces notions commencent heureusement, semble-t-il, à se répandre lentement en France.
- A vrai dire, si l’on examine les projets en cours de réalisation effective, on constate que les premiers efforts de protection ne se portent pas toujours, électivement, sur les domaines les plus menacés, mais pour ceux où la pression de l’intérêt instantané, de la part des particuliers ou des collectivités, est la moins puissante. Nous n’en sommes pas au point où les hommes sauraient renoncer à un avantage qui apparaît immédiat, en considération de vues d’avenir, si élevées et importantes qu’elles soient ; et ceux mêmes qui ont la charge de i’intérêt national n’arbitrent pas souvent, en cette matière, contre les intérêts locaux et particuliers, faute d’une véritable pression de l’opinion publique. C’est pourquoi l’avenir de la protection de la nature est une affaire d’éducation générale et, disons le mot, de propagande.
- La loi-cadre du 23 juillet i960 offre cependant une base de départ pour l’instauration d’une véritable politique de conservation des richesses naturelles en France. Nous allons en résumer les principales dispositions, les premières réalisations attendues, les prolongements souhaitables.
- Réserve intégrale, parc national et zone périphérique
- La création des parcs nationaux, prévue par la nouvelle loi, répond à trois idées essentielles, qui se matérialisent dans la définition de trois types d’enclaves territoriales, d’ailleurs logiquement dépendantes.
- i° Certaines zones de faible superficie sont dites réserves
- 284
- p.284 - vue 285/560
-
-
-
- intégrales (forêts, tourbières, 2ones rocheuses par exemple). Elles peuvent être établies par décret afin d’ « assurer dans un but scientifique, sur une ou plusieurs parties déterminées d’un parc national, une protection plus grande de la faune et de la flore » (article 2). Dans ce cas l’accès du terrain est strictement interdit au public, et ouvert seulement à des spécialistes compétents qui viennent étudier les êtres vivants protégés.
- 20 Autour de ces réserves intégrales existe une %one de protection qui constitue le Parc national proprement dit. Comme le précise l’article Ier, un territoire est classé parc national « lorsque la conservation de la faune et de la flore, du sous-sol, de l’atmosphère, des eaux et, en général, d’un milieu naturel présente un intérêt spécial et qu’il importe de préserver ce milieu contre tout effet de dégradation naturelle et de le soustraire à toute intervention artificielle susceptible d’en altérer l’aspect, la composition et l’évolution ». Il peut s’agir de « tout ou partie d’une ou plusieurs communes », ou même du « domaine public maritime ».
- Le classement d’un territoire en parc national est fait par décret pris en Conseil d’État, après enquête publique et consultations, selon une procédure analogue à celle de déclaration d’utilité publique. Particuliers et collectivités seront donc habilités à donner leur avis, mais un droit d’opposition des communes n’a pas été retenu.
- Un tel décret « peut soumettre à un régime particulier et, le cas échéant, interdire à l’intérieur du parc la chasse et la pêche, les activités industrielles, publicitaires et commerciales, l’exécution des travaux publics et privés, l’extraction des matériaux concessibles ou non, l’utilisation des eaux, la circulation du public quel que soit le moyen emprunté, toute action susceptible de nuire au développement naturel de la faune et de la flore et, plus généralement, d’altérer le caractère du Parc National » (article 2).
- Ce décret réglemente aussi « l’exercice des activités agricoles, pastorales et forestières ». On voit ainsi s’établir une judicieuse distinction. Les trois dernières activités, essentielles à la population, doivent certes être réglementées, mais elles ne sauraient être interdites que par expropriation (art. 5). Au contraire, on doit pouvoir interdire toutes les autres activités énumérées ci-dessus si une protection efficace l’exige.
- 30 L’article 3 prévoit la délimitation autour du parc d’une %one périphérique « où les diverses administrations publiques prennent (...) toutes mesures pour permettre un ensemble de réalisations et d’améliorations d’ordre social, économique et culturel tout en rendant plus efficace
- Fig. 1. — Marmottes dans le Parc national suisse de l’Engadine.
- (Photo aimablement communiquée par l’Office national suisse du Tourisme).
- p.285 - vue 286/560
-
-
-
- la protection de la nature dans le Parc ». Dans cette zone périphérique ou pré-parc le tourisme, les colonies de vacances, les classes de plein air peuvent être largement introduits. Des foyers d’éducation populaire pour l’intelli-gence de la nature seront édifiés. Toutefois, « la publicité y sera strictement limitée ». Les constructions y seront donc nombreuses et coordonnées. A l’intérieur du parc, certaines réalisations et améliorations pourront être, le cas échéant, également entreprises, mais il ne doit s’agir ici que de travaux beaucoup plus discrets, et nécessaires techniquement, d’entretien surtout.
- Protection de la nature ne signifie donc ni brimades contre l’homme ni entrave au progrès. Les populations locales devront garder leurs libertés et leurs droits ancestraux, sans être entretenues dans un mode de vie sclérosé. La création de parcs nationaux pourra aider le paysannat de la région à améliorer ses conditions de vie en utilisant des champs d’expérimentation et en le faisant bénéficier des études que les organismes scientifiques du Parc réaliseront. Le tourisme périphérique doit enrichir la région sans la défigurer. Il doit aussi permettre à tous, aux citadins en particulier, de faire des cures d’air pur, de calme et de silence de plus en plus indispensables.
- La création d’une zone périphérique a une importance pratique considérable. En effet aucun homme politique français n’aurait consenti à voter des crédits uniquement destinés à protéger la flore et la faune d’une région. Aussi, pour que des parcs nationaux puissent être créés dans notre pays, ils devaient présenter, outre leur but primordial de protection de la nature, un aspect social et touristique susceptible de faire pencher la balance en leur faveur. Mais il va de soi que de telles réalisations ne pourront se faire du jour au lendemain. Il faudra plusieurs années pour enregistrer des résultats vraiment marquants.
- Cette formule de zones schématiquement concentriques qui correspondent à trois degrés d’accès a été unanimement approuvée par le Congrès de l’Union internationale pour la Conservation de la Nature qui s’est tenu à Varsovie en juillet i960.
- L’article 4 de la loi confie « l’aménagement et la gestion des Parcs Nationaux à un organisme pouvant constituer un établissement public où sont représentées les collectivités locales intéressées ». « Certaines attributions des collectivités locales, notamment en ce qui concerne la gestion du domaine privé, la voirie et la police, pourront être, par règlement d’administration publique, transférées à cet organisme dans la mesure nécessaire à l’application des dispositions de l’article 2. »
- L’article 5 dispose que « les contestations relatives aux indemnités éventuellement dues aux intéressés et incombant soit à l’organisme chargé du Parc national, soit à l’État dans les conditions fixées par règlement d’adyninis-tration publique, seront réglées comme en matière d’expropriation pour cause d’utilité publique ». C’est donc l’autorité judiciaire qui est compétente dans les atteintes susceptibles d’être portées ici au droit de propriété, et non la juridiction administrative.
- L’article 6 envisage les ressources dont disposent les organismes chargés d’un parc national. L’article 7 prévoit que les « infractions commises dans les parcs nationaux (...) seront constatées par des agents assermentés commissionnés par le ministre de l’Agriculture ».
- Depuis la loi du 2 mai 1930, modifiée par celle du ier juil-
- let 1957, la protection des sites et des monuments naturels est en principe assurée. Environ 5 000 sites historiques ou touristiques, ainsi que 28 réserves naturelles ou de chasse d’intérêt national sont ainsi protégés. Les réserves s’étendent sur plus de 70 000 hectares. Les parcs nationaux pourront correspondre à ces sites déjà classés. Mais d’autres sont ou devront être créés et recevront une protection plus efficace grâce à la nouvelle loi de i960.
- Les réserves existantes et les réalisations attendues
- Les parcs nationaux et réserves de quelque importance sont indiqués sur la figure 2. Nous dirons quelques mots des plus notables.
- La Réserre qjw logique et botanique de Camargue, la plus ancienne, est une réserve intégrale soigneusement gardée (voir La Nature, juin 1959, p. 262-267). Située dans le delta du Rhône dans une région d’étangs, de marais et de sables où le sel joue un rôle capital, où les limites des terres et des eaux sont instables, elle s’étend sur 20 000 hectares. Elle englobe la « petite mer » du Vaccarès, le bois des Rièges (forêt unique en Europe de genévriers rouges dits de Phénicie, relique préglaciaire), et de nombreuses autres curiosités. Avant tout la Camargue constitue un sanctuaire d’oiseaux pour le repos des espèces migratrices et pour la nidification. Ses colonies de flamants roses sont célèbres (fig. 3). Cette réserve est gérée par la Société nationale de Protection de la Nature et d’Acclimatation de France ; elle est malheureusement menacée par le développement des rizières qui entraîne un dessalement progressif du sol, ce qui pourrait être fatal aux associations végétales si caractéristiques de cette région. Ce fait montre l’importance du périmètre de protection que l’on prévoit dorénavant autour des nouvelles réserves.
- Fig. 2. —- Parcs nationaux et réserves en France.
- Les parcs et réserves en projet sont soulignés.
- • Réserves biologiques ^ Réserves de chasse Souligné •'en projet
- le /Ile
- lap Fréhel
- ®Fontainebleau
- Volons Bauges g
- d'Auvergne G*Chartrmise Vanoise Pelvoux^pég Crépin
- Céverwes Lauzanier%t
- • MercantouiT'.^ . . *Valbonne Borécm
- "'"ST Cmargu, Jïtem.P' C.arninr
- iéouvielle
- 100 200km p/c^t^-1
- “J-------1 Midi d'Ossau
- t Massane
- 286
- p.286 - vue 287/560
-
-
-
- La première application de la nouvelle loi va concerner un projet à l’étude depuis 1953, le Parc national de Savoie, pour lequel sera préférée probablement l’appellation officielle de Parc de la Yanoise. L’établissement d’un parc dans ce secteur alpin s’imposait particulièrement du fait de l’existence du Parc italien du Grand Paradis qui s’appuie sur près de 8 km sur la frontière française. Dans cette
- réserve italienne, la faune et la flore prospèrent : des milliers de bouquetins, chamois et marmottes sont surveillés par une soixantaine de gardes. Cette faune s’aventure en France et assure un repeuplement spontané du futur Parc de la Vanoise dont la superficie prévue est de 65 000 ha et dont les limites sont définies par l’altitude de 2 000 m en général, jusqu’au point culminant de la Grande Casse à 3 852 m.
- Fig. 4. — Pralognan et le massif de la Vanoise, zone du futur Parc national de Savoie.
- Au premier plan, le village de Chollière.
- (Photo Jansol, Chambéry).
- 287
- p.287 - vue 288/560
-
-
-
- Si Gervais
- Cambon
- Douch,
- * ^1093 CAROUX
- i Colombières
- 1 Réserve de la GORGE
- 2 de la LAUZE
- 3 * du VIALAIS
- 4 « du CROUZET
- 5 » d'HERIC
- 6 « tfu CADIOL
- , Forêt des ECRIVAINS ' COMBATTANTS
- Olargues
- Fig. / — Carte du Parc national du Caroux.
- A l’intérieur du parc sont délimitées sept réserves intégrales.
- (D’après J. Prioton).
- Plusieurs petites réserves intégrales y seront délimitées.
- Le Parc national du Caroux (fig. 5 et 7) comprend 15 000 ha répartis sur 14 communes du département de l’Hérault. Sept réserves biologiques y sont délimitées. La plus connue est celle d’Héric, hêtraie relique où aucune intervention humaine n’a eu lieu depuis 1933. Un laboratoire est installé à Douch dans les limites du Parc. L’aménagement est en cours : entretien des routes, création de colonies de vacances, installation d’un centre agro-sylvo-pastoral pour perfectionner les méthodes de culture et d’élevage.
- Le Parc national des Cévennes (fig. 6 et 8) s’étend sur trois départements, Lozère, Gard et Ardèche, et comprend 130 000 ha, de Florac au pays des Vans et du mont Lozère au mont Aigoual. Les réserves intégrales qui y sont prévues sont ces deux sommets où la vie humaine est rare et diffi-
- cile mais où l’intérêt de la flore et de la faune est grand, ainsi que le bois de Païolive au nord des Vans. Autour du Parc national est prévue une zone d’exploitations forestières et agricoles où le reboisement serait mené sur une grande échelle. Cette région est en effet la plus arrosée de France et c’est son déboisement qui est à l’origine des inondations catastrophiques qui ont ravagé le Languedoc. La rénovation des hameaux cévenols est tentée afin d’éviter l’exode toujours croissant de la population. Pour cela le développement du tourisme et de l’artisanat traditionnel est prévu. Des lycées d’altitude et des centres de repos sont aussi souhaitables.
- La Réserve de Nêouvielle, au cœur des Pyrénées, comprend un territoire de 22 km2 dont l’altitude varie de 1 750 à 3 092 m. Elle est couverte de pâturages et de forêts (pins à crochets surtout). La faune et la flore y sont très variées. On y trouve l’isard, le grand coq de bruyère et de remarquables insectes, reliques des glaciations quaternaires.
- • Mende
- tAr LOZÈRE S
- A
- Florac
- Ml' BOUGES!
- MT AIGOUAL
- Le Vigan
- Fig. 6. — Limites prévues peur le Parc national des Cévennes. Le Mont Aigoual, le Mont Bougés et le Mont Lozère doivent être classés comme réserves intégrales.
- Fig. 7. — Vue
- sur le Parc national du Carout. Au premier plan, érosion dans les gneiss antécambriens, avec reliques de hêtres. A gauche, le roc du Caroux (1 090 m). A droite, la Fourcat d’Héric. Au second plan, au centre, la réserve intégrale d’Héric.
- (Photo Prioton).
- p.288 - vue 289/560
-
-
-
- Le massif de Fontainebleau parc national pat vocation
- Si la nouvelle loi-cadre nous apporte des raisons d’espérer, il faut craindre malheureusement qu’elle n’assure pas la sauvegarde de quelques sites en danger immédiat. Nous avons déjà évoqué la menace qui pèse sur la réserve de la Camargue. La forêt de la Sainte-Baume, au nord de Marseille, et la forêt de la Massane au nord de Banyuls-sur-Mer, deux hêtraies reliques célèbres pour leur faune entomologique d’une richesse exceptionnelle, sont aussi toutes deux menacées. Il en est de même de la forêt de Fontainebleau où existent depuis longtemps des « réserves artistiques » et des « réserves biologiques ». Connu dans le monde entier pour l’intérêt sans égal de sa flore et de sa faune, qu’expliquent son histoire comme la variété de ses sols et de ses conditions climatologiques (voir La Nature, septembre 1957, p. 355), le massif de Fontainebleau a subi déjà des attaques déplorables, qui risquent de s’amplifier dans l’immédiat de façon catastrophique.
- L’autorisation de l’exploitation pétrolière dans le nord du massif de Fontainebleau avait été subordonnée à des prescriptions techniques destinées à protéger au maximum ces plantations. Ces prescriptions n’ont pas toujours été respectées et, ce qui est plus grave, il est question de pousser les prospections et les forages vers le sud. D’autre part, la ville de Fontainebleau veut s’étendre au détriment de la forêt. Mais l’atteinte la plus sévère est celle qu’on veut lui infliger pour la construction de l’autoroute du Sud, en entamant largement le massif des Trois-Pignons. Malgré toutes les protestations, dûment motivées, malgré le fait qu’il existe notoirement pour l’autoroute un tracé plus
- économique, il semble que les jeux soient faits et que c’est la forêt de Fontainebleau qui en fera les frais. L’un des arguments avancés serait qu’il sera plus agréable pour les automobilistes de traverser la forêt !
- S’il était pourtant un domaine qui méritait d’être érigé en parc national, c’était bien la forêt de Fontainebleau, où les Parisiens pourraient trouver en outre tous les avantages que l’on attend des zones définies par la loi-cadre. Est-il trop tard ?
- Les conditions d’une véritable protection de la nature
- S’il v a lieu d’espérer, il ne faut donc pas nourrir de trop grandes illusions. Certains des projets en cours se heurteraient déjà à des oppositions d’ordres divers. Supposons néanmoins que ces oppositions puissent être réduites au nom de l’intérêt général. Peut-on croire qu’on aura tout fait pour la protection de la nature quand on aura délimité un petit nombre de territoires, qualifiés de réserves intégrales ou de parcs nationaux ?
- Si l’on se préoccupe de la survivance de la flore et de la faune, il faut savoir en analyser clairement les conditions. Or que nous apprend à ce sujet la génétique des populations ? C’est que les toutes petites populations (entendons par là les petits groupes vivants coupés de toutes relations avec les autres populations de la même espèce) sont vouées par ce seul fait au risque de la dégénérescence et de la disparition. Une réserve intégrale exiguë qui serait encerclée, privée de communications libres avec l’extérieur, ne serait donc protectrice qu’en apparence. A cet égard, il faut reconnaître que la création du parc national et de la zone
- 289
- p.289 - vue 290/560
-
-
-
- périphérique autour de. la réserve constitue une sage mesure ; ces zones conditionnent l’efficacité de la réserve intégrale elle-même. Mais il ne faut pas s’arrêter là. Les parcs nationaux eux-mêmes doivent pouvoir être multipliés sur toute l’étendue du pays, sans quoi ce ne seraient que des refuges provisoires où, à la longue, les plantes et
- Fig. 9. — Propagande philatélique pour la protection de la nature.
- Cette carte et son timbre à l’effigie du Macareux moine, émis dans la série « Protection de la nature », évoquent la réserve des Sept-Iles (Côtes-du-Nord) où sont protégés les oiseaux de mer.
- animaux les plus intéressants finiraient par disparaître lentement sous nos yeux. D’ailleurs, les zones périphériques, les pré-parcs que l’on envisage seront des zones heureuses où les touristes, les gens fatigués, les écoliers ne tarderont pas à pulluler. Il est donc certain que, si l’on ne veut pas avoir à en limiter l’accès, il faudra en créer d’autres. Espérons que cela pourra être fait, sous la pression même de ceux qui seront appelés à en bénéficier.
- Mais la protection de la nature, si elle doit être vraiment efficace, c’est sur toute l’étendue du pays qu’elle doit s’exercer. Elle est parfaitement conciliable, pour la majorité des espèces vivantes, avec l’exploitation rationnelle du sol. Quantité de plantes et d’animaux vivent autour de nous, intégrés dans les équilibres naturels dont notre agriculture elle-même dépend et dont nous dépendons nous-mêmes. C’est de cela que tous doivent prendre conscience, les pouvoirs publics d’abord, et ensuite l’ensemble de la population. Alors on ne tranchera plus dans des massifs comme Fontainebleau sans tenir compte de l’avis des naturalistes compétents ; on ne verra plus les citadins dégrader les sites où ils vont chercher le dimanche un peu d’air pur et saccager les plantes qui en font l’ornement ; les chasseurs ne considéreront plus les carnassiers et les rapaces comme des concurrents qu’il faut exterminer intégralement et à tout prix, mais ils comprendront que ces animaux jouent leur rôle dans l’équilibre général de la faune, v compris le gibier.
- Une protection raisonnable de la nature ne sera vraiment assurée que lorsque le public entier s’en fera le gardien résolu sur tout le territoire.
- Michel Rousseau, Roger Dajoz,
- Docteur vétérinaire. Agrégé de l’Université.
- Rétrécissement du Grand Lac Salé et projet de parc national
- Le Grand Lac Salé dont on enregistre le niveau depuis cent dix ans ne cesse de rétrécir. Les vieux hôtels et les anciennes promenades qui le longeaient jadis sont maintenant loin du bord. Cette tendance n’est pas récente puisque aux temps préhistoriques s’étalait sur toute la surface de l’actuel Désert du Grand Lac Salé une immense étendue d’eau que les géologues ont baptisée Lac Bonneville. Mais il semble que l’utilisation par l’homme de l’eau des tributaires du Grand Lac Salé ait causé une reprise de ce processus de rétrécissement, en créant un écart entre les masses d’eau qui s’évaporent à la surface du lac et celles qui lui parviennent par écoulement. A ce problème de superficie s’ajoute un problème de pollution (puisque le lac est le point d’aboutissement d’un très vaste bassin de drainage fermé). Le Congrès américain envisage de constituer deux îles du lac en parc national avant qu’il ne soit trop tard pour préserver les traits caractéristiques d’un paysage qui est célèbre dans le monde entier (d'après le Water Information Center, New York).
- Les ondes radar sont infléchies par le champ magnétique terrestre
- Il y a quelque temps, un physicien d’origine française du National Bureau of Standards des États-Unis, M. Roger M. Gallet, proposait une théorie selon laquelle les ondes radar ne se propagent pas toujours en ligne droite et suivent des sortes de « canaux » invisibles sillonnant le ciel.
- D’après une information du Centre culturel américain, un professeur de l’Université Cornell, M. Henry Booker, vient de procéder à une expérience qui a confirmé cette théorie. Il a envoyé dans le ciel en direction du nord, à partir de Washington, un puissant faisceau d’ondes radar. Au lieu de disparaître dans l’espace, ces impulsions ont apparemment suivi une trajectoire en forme d’arc, comme si elles se déplaçaient à l’intérieur d’un canal infléchi par certaines lignes de force du champ magnétique terrestre. Elles sont finalement redescendues sur terre, en un point situé près du Cap Horn, confirmant les calculs théoriques. On s’interroge toutefois sur le mécanisme exact et la nature de ce curieux phénomène.
- 290
- p.290 - vue 291/560
-
-
-
- La portance par réaction autorise le décollage
- vertical OU court par Jacques Spincourt
- Que ce soit pour des besoins militaires (avions d’attaque au sol, de reconnaissance, etc.), ou civils (transports sur courtes distances, lignes d’apport), la question du décollage vertical est tout à fait à l’ordre du jour. Il s’agit bien entendu de réaliser des appareils ayant en vol de croisière des performances comparables à celles des avions classiques et non des hélicoptères. Nous avons déjà examiné dans un précédent numéro de La Nature (décembre 1959, p. 534) une solution possible de ce problème avec le combiné Fairey « Rotodyne », mais les performances ne sont encore qu’intermédiaires entre celles d’un avion et celles d’un hélicoptère.
- La réalisation de moteurs à réaction d’une grande légèreté a ouvert une nouvelle voie aux recherches en permettant d’équilibrer le poids de l’avion à vitesse nulle uniquement par la poussée des moteurs. Comme en outre le turboréacteur est par excellence un moteur pour vitesses élevées, certains constructeurs n’hésitent pas à concevoir un avion supersonique à décollage vertical.
- Jusqu’à présent, de nombreux prototypes expérimentaux à portance par réaction ont volé, particulièrement en Grande-Bretagne et aux États-Unis. En France, cette solution avait été également étudiée par la Snecma avec l’Atar Volant, dont le développement fut malheureusement arrêté par un accident survenu en vol au troisième prototype. Mais le premier appareil de ce type véritablement opérationnel vient de faire son apparition en Angleterre ; il s’agit du Hawker P. 1127, prototype d’un chasseur d’appui tactique.
- Dans les lignes qui suivent, nous allons examiner les différents principes qui peuvent conduire à la portance par réaction. Deux solutions sont possibles : soit utiliser des moteurs différents pour assurer la propulsion et la sustentation de l’avion, soit utiliser le même moteur dont on fait varier l’orientation du jet selon les besoins.
- Avions à moteurs de sustentation
- Cette catégorie d’avions est pour le moment représentée par le seul prototype expérimental britannique Short S.*C. 1 (fig. 1). Celui-ci possède quatre réacteurs Rolls-Royce R. B. 108 de 920 kg de poussée montés verticalement dans le fuselage qui fournissent une poussée totale largement supérieure au poids de l’appareil, et un cinquième réacteur identique monté horizontalement. L’emplacement des moteurs de sustentation est choisi de telle sorte que la direction de leur poussée passe au voisinage du centre de gravité de l’avion afin de ne pas poser de problème d’équilibrage. (En effet, si la force verticale de poussée
- Fig. 1. — Le Short S. C. 1 au cours d’un décollage vertical.
- On voit la plate-forme métallique sur laquelle reposait l’appareil. Noter, sur le dessus du fuselage, l’entrée d’air qui alimente le réacteur horizontal de propulsion.
- {Photo Short Brothers and Harland Ltd., Belfast).
- était appliquée loin en avant ou en arrière du centre de gravité, il s’exercerait un moment de tangage qui tendrait à lever le nez de l’avion dans le premier cas, et à l’abaisser dans le second, et il faudrait équilibrer ce moment par un braquage supplémentaire des gouvernes, ce qui compliquerait le pilotage).
- Le fait que les moteurs de sustentation du Short S. C. x n’aient à fonctionner que pendant de courts laps de temps au décollage et à l’atterrissage permet de les concevoir sans se préoccuper de leur consommation spécifique. Affranchi de ce souci, on peut pousser leur légèreté au maximum, en acceptant par exemple une réduction de la température à l’entrée de la turbine. Réalisé selon ces principes, le réacteur R. B. 108 atteint un rapport poussée/ poids de près de 15.
- Le S. C. 1 a déjà effectué des vols de transition du vol vertical au vol horizontal et réciproquement d’une manière très satisfaisante. Aussi ses constructeurs ont-ils en projet un intercepteur basé sur les mêmes principes, qui pourrait atteindre deux fois la vitesse du son à haute altitude
- p.291 - vue 292/560
-
-
-
- Mirage III français, mais dans ce cas, les moteurs de sustentation seraient logés dans des fuseaux montés en bouts d’aile, ce qui éviterait d’avoir à retoucher la structure du fuselage.
- Si la conception des moteurs de sustentation séparés n’est pas la plus légère, puisqu’en définitive il faut emporter pendant tout le vol un poids qui ne sert que pendant quelques minutes au décollage et à l’atterrissage, elle présente de bonnes garanties de sécurité, vu le nombre élevé des moteurs de sustentation qui permet de s’accommoder facilement de la panne de l’un d’eux.
- Appareils convertibles
- Fig. 2. — Le Hawker P. 1127, vu de profil.
- On voit très distinctement sous l’aile deux des buses d’éjection des gaz du turboréacteur à double flux.
- {Photo Hawker Aircraft Ltd., Kingston-upon-Thames).
- Fig. 3. — Le Hawker P. 1x27, en position de décollage.
- On remarque aisément sur cette photo la structure peu habituelle du train d’atterrissage dénommé « monotrace » : les roues principales sont articulées dans l’axe du fuselage à sa partie inférieure et l’cquilibre latéral est assuré par deux balancines de bout d’aile terminées par de petites roulettes. Noter également la grande dimension des entrées d’air.
- (Photo Hawker Aircraft Ltd., Kingston-upon-Thames).
- tout en décollant et atterrissant à la verticale ; il utiliserait six moteurs de sustentation encore évolués par rapport au R. B. 108, et un seul réacteur à double flux et à postcombustion pour le vol en croisière (sur les réacteurs à double flux, voir La Nature-Sdence-Progrès, février 1961, p. 80).
- En France, la G. A. M. Dassault envisage de réaliser sur ces principes un dérivé du Mirage III à essor vertical ; huit turboréacteurs de sustentation de 2 tonnes de poussée chacun seraient logés au centre du fuselage en position verticale, le moteur de propulsion étant décalé vers l’arrière. Le poids total de l’avion s’en trouverait légèrement accru et passerait de 9 à 11 tonnes.
- La firme américaine Lockheed travaille également à l’adaptation au vol vertical de son intercepteur F. 104, de classe et de performances équivalentes à'"celles du
- Mais ce problème du poids mort a conduit beaucoup de techniciens à préférer la solution dans laquelle un même groupe moteur sert à la fois à la sustentation et à la propulsion. C’est à cette catégorie qu’appartient le Hawker P. 1127 auquel nous faisions allusion plus haut, et qui est la grande révolution technique de l’année (fig. 2 et 3). La réussite de cet avion est intimement liée à celle de son moteur, le Bristol B. S. 53, qui a permis d’obtenir une grande simplicité de fonctionnement et des performances satisfaisantes en vol vertical.
- Le B. S. 53 est un turboréacteur à double flux dont la particularité essentielle est de comporter quatre tuyères rotatives qui permettent d’orienter le jet soit vers l’arrière, soit vers le bas, pour assurer les deux fonctions de propulsion et de sustentation (fig. 2). Le flux secondaire aspiré par le ventilateur basse pression est éjecté par les deux tuyères montées à l’avant, alors que le flux principal est éjecté par les tuyères arrière. La quantité d’air aspirée est très grande, ce qui impose des entrées d’air très volu-
- VentUateur
- Fig. 4. — Turbo ventilateur General Electric,
- On voit les trois éléments principaux : turboréacteur, vanne d’orientation, ventilateur et sa turbine périphérique. La vanne d’orientation, selon sa position, sert à diriger les gaz d’échappement du réacteur soit vers la turbine périphérL que, soit vers l’arrière.
- {Photo General Electric Company, Schenectady, N. Y.),
- 292
- p.292 - vue 293/560
-
-
-
- Fig. J• — Rotor du ventilateur de la General Electric avec sa turbine périphérique.
- Il y a 324 ailettes de turbine pour 36 pales de ventilateur et les premières sont liées mécaniquement aux secondes par l’intermédiaire d’un anneau circulaire. Le technicien situé à gauche donne l’échelle de l’appareil.
- (Photo General Electric Company, Schenectady, N. Y.).
- mineuses, comme on peut le voir sur la photo ; il semble en outre que la géométrie du bord d’attaque de ces entrées d’air soit variable en fonction des caractéristiques du vol, c’est-à-dire principalement selon qu’il s’agit d’un vol lent ou d’un vol rapide. Du fait des tuyères débouchant sur les parois du fuselage, il a fallu adopter une position d’aile tangente au sommet du fuselage, et pour ne pas avoir un train d’atterrissage de trop grandes dimensions il a été articulé au fuselage, ce qui conduit à un train « monotrace » avec balancines latérales en bouts d’aile (fig. 3). Le pilotage est, comme toujours, obtenu à la fois par des gouvernes classiques et par des jets qui s’échappent aux extrémités de l’aile et du fuselage. L’avion pouvant décoller verticalement, son poids total doit être légèrement infé-
- rieur à la poussée du moteur qui est estimée aux alentours de 6 tonnes. Il reste à savoir quelles seront ses performances opérationnelles et en particulier son rayon d’action, car il ne semble pas, dans la version actuelle, qu’il y ait beaucoup de place pour loger le combustible.
- Dans cette catégorie d’avions qui utilisent le même moteur pour le vol horizontal et le vol vertical, de grands espoirs sont suscités par les avions à turboventilateur dans lesquels le ou les turboréacteurs qui assurent la propulsion horizontale servent de générateurs de gaz à des ensembles turbine-ventilateurs à axe vertical pour le décollage et l’atterrissage. Aux Etats-Unis, la General Electric a réalisé, à partir de son turboréacteur J. 85 de 3 350 kg de poussée, un ensemble de sustentation (fig. 4), dont la poussée au point fixe serait près de trois fois plus grande. Il comprend, en dehors du turboréacteur :
- — une vanne d’orientati©¥i des gaz, à deux positions ;
- — un ventilateur de grand diamètre qui est entraîné par une roue de turbine montée à sa périphérie (fig. 5). Pour le décollage vertical, les gaz chauds issus du turboréacteur sont orientés vers la turbine d’entraînement du ventilateur. Ce dernier aspire alors une grande masse d’air qu’il éjecte vers le bas, fournissant la poussée verticale désirée. La vanne d’orientation des gaz pivote alors progressivement et les gaz sont éjectés par la tuyère normale du réacteur, fournissant alors la poussée nécessaire au vol de croisière. A l’atterrissage, les mêmes phénomènes ont lieu en sens inverse.
- Seul, comme projet utilisant ce dispositif, figure un chasseur bombardier de Republic pesant 17 tonnes et comportant six réacteurs J. 85 et trois turboventilateurs de sustentation logés dans le fuselage ; cet avion à aile en delta pourrait décoller et atterrir verticalement tout en atteignant des vitesses supersoniques en vol horizontal, mais il n’a pas encore dépassé le stade de la planche à dessin.
- Enfin, réunissant les deux formules précédentes, on trouve un autre projet de chasseur supersonique américain, le Bell 188 D (fig. 6), qui possède des moteurs utilisables
- Fig. 6. — Le Bell 188 D en vol.
- Les réacteurs de bout d’aiie sont ici en position horizontale pour la propulsion à grande vitesse.
- Photo Bell Aerosystems Company, Buffalo, N. Y.),
- p.293 - vue 294/560
-
-
-
- Fig’ j. — Le Bell 188 D en position de décollage vertical.
- Ici, les réacteurs de bout d’aile sont en position verticale pour le décollage
- et l’atterrissage.
- (Photo Bell Aerosystems Company, Buffalo, N. Y.).
- à la fois pour la propulsion et la sustentation, et d’autres, spécifiques de chacune de ces fonctions. Cet avion ne comporte en effet pas moins de huit turboréacteurs General Electric J. 85 ; quatre de ceux-ci, pouvant pivoter de 90 degrés pour occuper une position soit verticale, soit horizontale, sont logés par paires dans des fuseaux d’extrémités d’aile (fig. 7) ; deux autres sont montés horizontalement côte à côte à l’arrière du fuselage et servent pour la propulsion ; les deux derniers, enfin, sont montés verticalement juste derrière le poste de pilotage, et ils servent exclusivement pour la sustentation. Les six premiers possèdent la post-combustion, mais les deux autres sont des
- réacteurs simples, plus légers. Les performances annoncées sont une vitesse de Mach 2 à 10 000 m d’altitude, un rayon d’action de 1 900 km et une vitesse ascensionnelle de 300 m/s au décollage, ce qui, pour un intercepteur, représente une qualité prépondérante. Un accord vient d’être signé entre la firme Bell et des industriels allemands en vue de la construction d’un appareil similaire en Allemagne.
- *
- * *
- Il reste à tous ces projets si séduisants sur le papier à faire leurs preuves en vol, mais d’ores et déjà on peut dire que l’avènement de l’avion à décollage vertical, de performances identiques à celles des avions classiques, va modifier l’aspect de l’aviation militaire et, plus tard, certainement aussi celui de l’aviation civile.
- Jacques Spincourt.
- p.294 - vue 295/560
-
-
-
- Un courant sous-marin de l’Océan Pacifique : le courant de Cromwell
- Un courant sous-marin, découvert par hasard en 1951 dans le Pacifique par un navire de pêche qui s’aperçut que ses filins étaient fortement entraînés vers l’est à partir d’une faible profondeur, a été nommé courant de Cromwell, du nom de l’un des océanographes qui en ont fait l’étude depuis lors. Ce courant suit exactement l’équateur d’ouest en est dans la moitié orientale de l’Océan Pacifique où il vient se heurter aux îles Galapagos, au large de la côte sud-américaine. On le découvre à 50 m sous la surface et il cesse d’être perceptible vers 300 m, ce qui lui donne une épaisseur maximale de 250 m dans sa partie centrale. Il s’étend en largeur sur 4 degrés de latitude, de part et d’autre de l’équateur, s’amenuisant sur ses bords où sa vitesse tombe à 60 cm par seconde, alors qu’au centre elle est de x,2o à 1,50 m/s. Il s’agit donc d’un courant rapide, bien délimité et particulièrement mince puisque sa largeur est au moins x 500 fois supérieure à son épaisseur. Selon les calculs les plus récents, il transporterait 40 000 000 m3 par seconde, contre 75 millions pour le Gulf Stream et 65 millions pour le Kouroshivo.
- D’après les recherches des navires américains Hugh M. Smith et Horizon, le courant de Cromwell s’étend en longueur de la longitude 150° (Sud des îles Hawaii) à )a longitude 90° (près des îles Galapagos) où il disparaît. Cette disparition pose d’ailleurs un problème : où passe l’énorme quantité d’eau transportée ? Il est possible que le courant ait déjà perdu par ses franges en arrivant aux Galapagos, une grande partie de sa masse. Des mesures plus complètes, faites au voisinage de l’archipel, pourraient le montrer. Mais il est probable qu’il s’agit avant tout d’une dispersion du courant par les terres rencontrées. D’ autre part, on ne connaît pas encore ses sources dans les régions occidentales du Pacifique. Il peut s’étendre très loin dans cette direction comme semblent le suggérer des recherches du Bureau hydrographique du Japon. De toutes façons sa théorie reste à faire. Peut-être n’est-il qu’un contre-courant sous-marin des courants de surface équatoriaux nord et sud qui, dans l’ensemble, se dirigent vers l’ouest.
- On sait qu’il est difficile d’intégrer dans une équation générale les causes qui président au déplacement des masses océaniques. Par suite de leur inertie elles tendent à ne suivre qu’avec un certain retard la rotation terrestre, ce qui donne naissance aux forces dites de Coriolis, varia-
- bles selon la latitude. Enfin les courants marins dépendent de coefficients de température et de salinité qui se modifient en surface et en profondeur, tandis que la forme des continents voisins intervient dans la direction ou la dispersion des eaux. Une nouvelle croisière d’études serait prévue à la fin de 1961, par le navire Argo, de la Scripps Institution, dans le but de découvrir les raisons d’être du courant de Cromwell.
- Pour préciser le mouvement des eaux, les océanographes américains se sont efforcés de le rapporter à un cadre de référence bien fixé. Comme un navire ancré par grands fonds est sujet à des mouvements latéraux importants, il s’agissait d’éliminer cette cause d’erreur. On a utilisé pour cela une cible radar flottant en surface et attachée par un filin très léger à une bouée sous-marine sphérique, noyée à 200 m de profondeur, qui pouvait être considérée comme pratiquement immobile sur son ancrage. La distance et le mouvement du navire par rapport à la cible radar étaient constamment pris en considération pour corriger les résultats fournis par un appareil à hélice (hélice de Robert) donnant la vitesse du courant sous-marin. Cet appareil de mesure, suspendu au navire, était complété par un compas magnétique et une jauge à pression qui indiquaient respectivement l’orientation et la profondeur d’immergement de l’hélice. L’ensemble de l’appareillage était relié électriquement à un tableau de contrôle placé à bord, ce qui permettait d’intégrer les données reçues par fil avec celles fournies par les échos provenant de la cible radar. Selon John A. Knauss, directeur des recherches sur Y Horizon, le fait de tenir compte à la fois de la vitesse du courant par rapport au navire et de la vitesse de celui-ci par rapport à la bouée sous-marine fixe, donne aux mesures une précision satisfaisante si l’on considère la rapidité du courant. Pour en connaître les limites latérales, Knauss a utilisé un tube d’aluminium lesté, flottant librement à une profondeur donnée et entraîné par les eaux. Le mouvement du tube était contrôlé par échos sonores sous-marins.
- On peut se demander si un tel courant, centré vers l’équateur, existe également dans les Océans Atlantique et Indien. Pour Knauss, cela semble probable. Toutefois dans l’Océan Indien, l’influence de la mousson modifierait suivant les saisons le régime des vents et des eaux.
- J. F.
- Souffleries hypersoniques pour maquettes stratosphériques
- L’O. N. E. R. A. vient de mettre en service deux souffleries hypersoniques dans lesquelles la vitesse de l’air peut atteindre plus de cinq fois la vitesse du son.
- Dans la première, des rafales de 10 à 20 secondes sont réalisées dans une veine de 30 cm de diamètre en simulant les pressions dans un domaine d’altitude compris entre 25 000 et 40 000 m.
- La seconde installation permet d’obtenir un écoulement bref
- à des nombres de Mach de l’ordre de 20 dans une veine de 50 cm de diamètre. La température génératrice de l’écoulement est de l’ordre de 5 ooo° et elle est engendrée au moyen d’un arc électrique. La durée de la rafale, limitée à 20 millisecondes, permet cependant d’effectuer des mesures de pression, de flux de chaleur et d’effort sur les maquettes. Le domaine d’altitude simulé est compris entre 30 000 et 70 000 m selon le véhicule considéré.
- 295
- p.295 - vue 296/560
-
-
-
- baignades méditerranéennes
- tièdes ou froides
- selon le régime des vents
- par S. Ostrovidow
- L n’est nullement certain que tous les baigneurs aient une prédilection absolue et définitive pour les eaux ti'edes. Ht si un fort grand nombre d’entre eux affluent en été vers les cotes de la Méditerranée, c’est surtout pour y trouver, sans grand risque d’être déçus, une succession de journées ensoleillées et exemptes de pluie. Avec une logique qui n’est pas sans défaut, ces baigneurs établissent parfois une relation entre beau ou mauvais temps et température de l’eau. On ne saurait nier évidemment que la surface de la mer est réchauffée par le soleil et tend à se refroidir quand il est absent. Mais il y a bien d’autres paramètres à considérer.
- Ha preuve en est fournie, empiriquement, lorsqu’on se plonge par une radieuse journée dans une eau qui paraît nettement froide et mieux encore lorsqu’en nageant on passe à deux ou trois reprises d’une qone tiède à une \one qui paraît glacée. Les habitués de la Méditerranée connaissent ces surprises et les apprécient de diverses façons. En tout cas, exception faite pour ceux qui fréquentent la classique Côte d’azur, à l’est de Cannes, ils n’osent prétendre que cette ?ner soit particulièrement chaude. Une expérience inverse pourra être faite sur certaines plages de la Mer du Nord, voire en Baltique où sous un ciel gris et dans une onde pareillement grise, on se baigne à une température à la fois accueillante et homogène.
- Connaissant ces faits et ayant la possibilité de les soumettre à l’investigation scientifique, un de nos correspondants, M. S. Ostrovidow, a amorcé, en Méditerranée, une étude qu’il serait sans doute intéressant de prolonger sur plusieurs années, mais dont les
- résultats, tout en gardant un caractère provisoire, sont instructifs. Les conclusions tirées de ses observations seront peut-être, elles aussi, sujettes à révision.
- Un relevé quotidien de la température de l’eau a été fait pendant trois années consécutives (du 20 juin aux premiers jours d’octobre) au-dessous d’un rocher, voisin de la plage de Carro, dans la portion de la côte qui s’étend entre Marseille et Caronte. Les prises de température se faisaient uniformément à 9 heures du matin. Toutefois, s’il apparaissait que les conditions avaient nettement changé dans les heures suivantes, l’opération était répétée à 17 heures.
- Le résultat de ces observations est condensé dans les courbes de la figure 2. On remarquera à la fois la grande amplitude des variations et le temps généralement très court qui s’écoule entre un minimum et un maximum. A plusieurs reprises, on voit la température passer de 13 à 240 C en l’espace de quelques jours, ce qui correspond à des variations de 85 pour 100.
- De tels écarts se retrouvent évidemment sur les côtes océaniques de la France, mais ils correspondent à des fluctuations saisonnières plutôt qu’à de brusques changements survenus d’un jour sur l’autre. Il apparaît donc que ce dernier phénomène est spécifique de la côte où il a été
- 1958
- 30 1 juillet 5
- 30 laoût
- 296
- observé. On peut toutefois, semble-t-il, le retrouver sur l’ensemble de notre littoral méditerranéen, plus accentué dans la partie languedocienne et s’amortissant progressivement jusqu’à la côte varoise. L’extrapolation ne s’étend pas à la région des Alpes-Maritimes ni à celle des Pyrénées-Orientales où les conditions climatiques sont toutes différentes.
- Quelles sont à présent les causes du phénomène ?
- Les riverains de la Méditerranée ont l’habitude, pendant l’été, de distinguer deux situations météorologiques distinctes, celle que caractérise le vent d’ouest, ou mistral,
- Fig. 1. — La plage de Carro (Bouches-du-Rhône).
- Les mesures de la température de l’eau ont été faites à proximité de cette plage.
- {Photo Photothèque française).
- Fig. 2. — Courbes des températures de l’eau pendant trois étés successifs.
- Ces courbes ont été tracées d’après un relevé quotidien . des températures près du bord, exécuté en 1958, 1959 et i960, de la fin de juin au début d’octobre. Les situations météorologiques (temps couvert, vent NO, etc.) n’ont été indiquées ici que pour l’année i960 et doivent donc être rapprochées des sautes de température de l’eau enregistrées pour cette année (courbe en trait plein).
- \ / V
- 10
- 15 20 25 30 1 sept. 5 10 15 20 25 30 1 octobre 5
- 297
- p.dbl.296 - vue 297/560
-
-
-
- Vent
- V7777777777Z7Z777777777777777777:
- Fig. 3. — Coupe schématique du bassin méditerranéen.
- Le schéma est celui d’une coupe orientée nord-sud. On voit que le vent dominant (grosse flèche), soufflant du nord-ouest, chasse l’eau superficielle vers le sud selon la ligne fléchée conventionnelle (courant ts). Ce mouvement a pour conséquence de faire remonter à la surface, près du rivage nord, l’eau froide des profondeurs tf. La ligne en trait interrompu représente l’horizontale.
- celle qui s’établit au contraire par vent d’est. Cette notion, un peu sommaire, du régime des vents, doit être corrigée. Le vent d’ouest souffle en général du secteur nord-ouest : c’est le vent dominant de la région, auquel elle doit d’ailleurs son ciel radieux et l’ensoleillement qui se prolonge sur de longues périodes ; il correspond, sur un plan plus général, à la formation de l’anticyclone des Açores et d’une aire cyclonique qui se stabilise aux environs de l’Islande. Mais le temps peut également être influencé par la position de l’anticyclone russo-sibérien. Si celui-ci se déplace vers l’Ouest de l’Europe, le vent s’oriente nettement au nord dans nos provinces méditerranéennes et souffle par violentes rafales : c’est alors seulement qu’on peut lui donner le nom de mistral.
- La confusion entre ce vent fort rude et les brises du nord-ouest vient sans doute de ce que, dans l’un et l’autre cas, le ciel reste bleu et le soleil éclatant.
- Quant au vent d’est, sa direction générale est plutôt sud-est : il est chargé d’humidité et s’accompagne souvent d’un régime orageux.
- Or c’est ici qu’apparaît le fait paradoxal qui souvent déconcerte les baigneurs : alors que le ciel se couvre et que le « vent d’est » soulève des vagues hostiles, l’eau reste tiède, tandis que par les plus belles journées de « vent d’ouest », elle tend à se rafraîchir jusqu’à des températures très inférieures à l’optimum de x 8° C.
- Empressons-nous d’ajouter que ceci n’est pleinement vrai que le long des parties rocheuses de la côte : dans les baies abritées et peu profondes, la réfrigération de l’eau par vent de nord-ouest est sensiblement amortie.
- Quelles sont les causes de ce phénomène ?
- J.a Méditerranée est un bassin dont la forme générale est celle d’un rectangle allongé d’est en ouest et dont la section nord-sud est relativement faible. C’est en outre un bassin profond où le plateau continental est réduit à sa plus simple expression : à courte distance du littoral régnent des profondeurs de 2 000 à 3 000 mètres. On peut représenter schématiquement ce bassin par une coupe transversale (fig. 3) orientée nord-sud. La flèche indique le vent dominant de nord-ouest, ou plus exactement sa composante perpendiculaire à la côte : il exerce un brassage continu sur la partie superficielle de la mer, qu’il « chasse » vers le large, ce qui tend à créer une dénivellation entre le bord septentrional et le bord méridional. Il va de soi que la nappe d’eau tend à rétablir d’elle-même l’horizontalité de sa surface et que la dépression de cette dernière est comblée (comme l’indique le circuit fléché de la figure) par de l’eau des profondeurs. Or cette eau est assez froide : en été comme en hiver, elle est stabilisée à une température de 13 à ] 40, correspondant sans doute à celle de l’Océan
- Atlantique (également en profondeur), telle qu’elle parvient à la Méditerranée, à travers le détroit de Gibraltar.
- C’est donc ainsi que se présente schématiquement le phénomène déconcertant de « l’eau froide par beau temps », dû au vent dominant de nord-ouest. Reprenons la figure 2 : nous constatons que, sur la courbe de l’été i960, les nombreuses oscillations de la température sont en relation avec des situations météorologiques bien définies. A chaque apparition du vent de nord-ouest correspond une chute plus ou moins importante de la température de l’eau qui remonte au contraire dès que le temps est calme ou que le vent souffle du sud-est.
- La courbe de i960 confirme la théorie ; le contraire eût été bien étonnant. Ajoutons que les mêmes correspondances auraient pu être inscrites sur la figure pour 1958 et 1959. C’est uniquement pour ne pas la surcharger que nous ne les avons pas reportées.
- Mais notre attention s’est trouvée attirée par les allures différentes qu’ont prises les trois courbes. En 1958, le régime des vents ne s’est modifié qu’assez rarement. Pendant de longues périodes, le vent dominant, soufflant à des vitesses modérées, a maintenu la température de l’eau à un niveau bas. C’est seulement dans la deuxième quinzaine d’août que les facteurs de réchauffement ont stabilisé la température à un niveau plus élevé.
- L’année 1959 est caractérisée par une courbe assez régulière, présentant d’amples oscillations qui obéissent à une période plus ou moins constante, d’environ deux semaines.
- En i960 enfin, la courbe revêt une allure intermédiaire entre les deux précédentes : les séries successives de changements de temps sont moins nettes que sur la courbe de 1959 mais les phases caractéristiques d’indétermination que l’on constatait en 1958 sont devenues plus rares. En dépit des nombreuses et irrégulières « dents de scie », on peut retrouver une périodicité fondamentale de 18 jours, à laquelle se superposerait un « harmonique » de 6 jours.
- Le fait remarquable est que chacune des saisons estivales a eu son caractère propre et que le régime qui s’est installé en juin s’est prolongé au cours des mois suivants. Cette observation ne pourrait-elle permettre, dès le début de la saison, de prévoir le régime local auquel seront soumis les baigneurs pendant le reste de l’été, aussi bien pour l’ensoleillement que pour la température de l’eau ? Cette prévision, certes, ne sera jamais rigoureuse, mais il semble qu’en renouvelant l’expérience pendant encore plusieurs années et si l’individualité des courbes se confirme, le régime probable pourrait être déterminé par avance avec une suffisante approximation.
- S. Ostrovidow.
- 298
- p.298 - vue 298/560
-
-
-
- Quelques passereaux à gros bec dans Fhistoire et la linguistique
- par Michel Rohlin
- Fig. i. — Moineaux.
- A gauche, moineaux’' francs ou domestiques (le mâle se reconnaît 'à la tache"noire de la gorge). A droite, tête de moineau friquet.
- (Dessins de RogeiCReboussin).
- De précédentes études, consacrées aux noms des arbres et des métaux dans les principales langues d’Europe, nous avaient montré l’intérêt d’une recherche située à la limite des sciences humaines et des sciences naturelles, également profitable au linguiste, à l’historien et au naturaliste (x). Le vaste domaine de l’ornithologue ne saurait être prospecté dans le cadre d’un article ; aussi avons-nous seulement isolé quelques passereaux bien connus, et à ce titre nettement différenciés par le vocabulaire populaire depuis des siècles et parfois des millénaires, afin de préciser l’ancienneté des rapports entre l’homme et l’oiseau, de déterminer leur nature particulière. Comme des fossiles, les noms des oiseaux nous offrent souvent en effet une image fidèle de la conquête progressive du monde animal, de la prise de possession, à l’aube de la protohistoire, par nos lointains ancêtres, de ce milieu hostile qu’ils allaient peu à peu asservir. Il est d’ailleurs difficile de parler ici d’asservissement, car les passereaux, notamment les moineaux et les Fringillidés (2), ont toujours conservé une grande indépendance, sans être jamais plei-
- i. Voir les articles de Michel Roblin : Métallurgie, linguistique et histoire, Fa Nature, novembre 1959, p. 472 ; Forêts, histoire et linguistique, La Nature, décembre i960, p. 508.
- 2. L’ordre des Passériformes, où l’on retrouve la plupart des Passereaux des anciennes classifications, renferme plus de la moitié des espèces d’oiseaux actuelles, d’aspect aussi différent que les hirondelles, les moineaux et les corbeaux, et se divise en nombreuses familles. La famille des Fringillidés est caractérisée
- nement domestiqués, apprivoisés, malgré leur prédilection pour la compagnie de l’homme. Ils se sont adaptés à cette présence, l’ont utilisée au mieux de leurs intérêts. L’asservissement serait plutôt celui de l’homme en face d’hôtes prolifiques et insatiables, dont l’utilité se manifeste surtout dans le maintien d’un équilibre biologique, perçu d’ailleurs plus nettement par les naturalistes que par les agriculteurs. Classés souvent parmi les espèces nuisibles, ils ont quand même été tolérés, et finalement leur gai babillage a payé la dette de leurs ravages dans les moissons.
- Agitation, pépiements, bruits d’aile : passereau et moineau
- <-
- Si les naturalistes et, bien avant eux, la sagesse populaire ont considéré le moineau comme le symbole de l’ordre entier des passereaux, c’est que cet oiseau par son omniprésence est bien le plus familier. Il nous est connu depuis une date si reculée que son nom, attribué il y a plus de cinq mille ans, avant la dislocation de l’unité linguistique
- par le bec court, épais et conique, et par la présence de neuf rémiges primaires seulement dans l’aile. Dans nos pays, ils comprennent notamment gros-becs, pinsons (Fringilla, d’où le nom de la famille), chardonnerets, linottes, tarins, bouvreuils, serins, verdiers, bruants. Ce sont des oiseaux à instincts sociaux développés, se réunissant parfois en grand nombre et qui ne craignent pas le voisinage de l’homme. Les moineaux font partie des Plocéidés qui, très voisins des Fringillidés, s’en distinguent surtout par leurs nids fermés qui, chez certaines espèces exotiques, atteignent une perfection très rare dans les autres groupes.
- 299
- p.299 - vue 299/560
-
-
-
- indo-européenne, au Néolithique, a subi des modifications phonétiques à en devenir méconnaissable.
- Passer désignait dans la Rome antique non seulement le moineau, mais tous les passereaux, notamment les hirondelles, puis la classe entière des oiseaux pour s’appliquer notamment à l’autruche, passer marinus, l’oiseau d’outremer ! C’est pourquoi certaines langues latines actuelles n’ont gardé que le second sens, plus général, de passer, devenu pasare en roumain et pajaro en espagnol. En italien passero s’applique cependant, comme en latin, au moineau plutôt qu’à l’ordre dans son ensemble, et il en est de même dans la plupart de nos dialectes, surtout de langue d’oc, avec des formes comme passe, passé et leurs diminutifs, passeron, passerai et passereau, ce dernier adopté dans le lexique ornithologique.
- De bonne heure, des synonymes sont venus concurrencer le terme antique. Tout d’abord un dérivé de musca, la mouche : muscio, le moucheron, en vieux français moisson, encore usité dans le nord et l’est, mais qui avait jadis une bien plus grande extension, ainsi qu’en témoignent d’assez nombreux noms de famille et des noms de lieu comme Puimoisson et Puimisson, des puys, des buttes, fréquentés par les moineaux. Moineau, petit moine, moi-nillon, est une allusion à la livrée brune de l’oiseau, rappelant celle des Franciscains, des Capucins, et en général de tout le bas clergé régulier, vêtu de bure, de grossière étoffe brune. La date assez récente de la disparition des synonymes empêche le nom actuel du passereau d’être très fréquent comme patronyme, comme nom de famille, et si les annuaires nous offrent Moineau, Moinaud, Moinel et Moinet, parfois pourvus de l’orthographe archaïsante Moynet et Moynaud, notre liste est bien plus abondante avec Passereau, Passeron, Passerat, avec Moisson, Mous-sion et Mousson, anciens sobriquets en allusion à la taille menue d’un ancêtre médiéval, à sa curiosité et à sa vivacité.
- Les noms de la mésange en latin, parus et parra, celui de l’étourneau en grec, psar, encore proches de passer, nous conduisent au nom du moineau en anglais, sparrow, en allemand spat% et sperling, et à celui de l’épervier en cette dernière langue, sperber, littéralement l’oiseau qui attrape les moineaux. Ces formes germaniques nous permettent d’enrichir notre lexique du grec sporgilos, nous mettant ainsi sur la voie de la solution du problème qui est de découvrir l’allusion, le sens contenu dans le nom que les Indo-Européens de l’âge de la pierre polie avaient donné au moineau. C’est encore le grec avec spairo, se trémousser, se débattre, qui fera progresser notre enquête, nous menant par le latin sperno, repousser, pousser du pied, à l’allemand spornen, éperonner, stimuler. Le passereau aurait donc été nommé de la vivacité de ses mouvements, de la brusquerie de son vol, de son agitation apparemment désordonnée. Une idée analogue se retrouve dans le nom du moineau en russe, vorobei, que l’on rapproche de l’allemand wirbel et de l’anglais whirl, le tourbillon, le tournoiement, caractérisant bien, avec le sautillement, le vol, le volettement de tous les passereaux.
- Le nom le plus fréquemment usité en grec, strouthos, nous fournit au contraire une allusion empruntée davantage au gosier de l’oiseau, à son babillage incessant, et nous montrera une fois de plus la très grande imprécision qui fut longtemps de règle en ce qui concerne l’identification des familles. On le retrouve en effet, appliqué à la
- grive, dans le lithuanien s fraudas, le breton drask, le russe drot^d et l’allemand drossel. Un radical très voisin apparaît, appliqué à l’étourneau, dans le breton dred, le latin sturnus, l’allemand star et l’anglais starling. Le grec trugon, désignant la tourterelle, et strigx, la chouette, nous indique qu’il s’agit d’un son très approximativement apprécié, d’un chant ou d’un bruit d’aile. C’est en effet le sens du grec trid^o, pousser un cri aigu, du latin strido, grincer d’une manière stridente, tandis que l’allemand strudeln évoque davantage le tourbillonnement. Nous avons là un terme employé pour caractériser les passereaux plus gros que les Fringillidés, mais qui éventuellement a pu les désigner globalement.
- Le meilleur exemple de la fantaisie de nos ancêtres nous est fourni par le grec où strouthos a finalement désigné un oiseau qui est à l’opposé même du moineau, l’autruche, le moineau d’outre-mer, passer marinus, des Romains, plus souvent nommée à Athènes strouthokamêlos, le moineau-chameau, passée dans le vocabulaire du bas empire romain sous la forme avis struthio, l’oiseau-moineau, dont l’espagnol a fait avestrutandis que les autres langues, du français autruche à l’allemand strauss, perdaient complètement le sens initial antique.
- Seules certaines familles, certaines espèces, ont été individualisées dès la préhistoire ; en général les passereaux, de trop peu d’importance pour éveiller un effort intellectuel suffisant, changent fréquemment de nom, et le bavardage, le babillage, caractérisent aussi bien le geai chez les Romains, garrulus, que le moineau, gorrion, en Castille.
- Chant et sveltesse : le pinson
- Un peu moins commun que le moineau, le pinson, par sa livrée et son chant si facile à reconnaître, méritait une place de choix. Son appel musical a été facilement distingué du pépiement monotone des autres espèces de la famille. On a cependant hésité à lui accorder le titre de chanteur, et le son de sa gorge frêle a été comparé à des
- Fig. 2. — Moineau et pinson dans diverses langues d’Europe.
- Les noms qui désignent le pinson sont soulignés.
- ^parrow
- spatz
- sperling
- pinson
- gorrion
- pinzon
- 300
- p.300 - vue 300/560
-
-
-
- ondes que nous trouverions aujourd’hui dénuées de tout intérêt artistique. A Rome, dans l’antiquité, le pinson, fringilla, passait pour chanter par les grands froids, frigora ; la même explication a été avancée pour le russe tfablik et le polonais sfeba, rapprochés de sfma, l’hiver, le froid. Il s’agit peut-être d’une simple étymologie populaire, car si le pinson mâle est moins migrateur que la femelle, il ne hante pas autant que le bouvreuil nos campagnes hivernales. Fringilla, comme friguttio, chantonner, pourrait exprimer le même son, plus prosaïque, que frigo, griller, frire ; le chant du pinson aurait été comparé au bruit de la friture, du crépitement sous l’effet de la chaleur ou de la sécheresse, comparaison peu' flatteuse qui nous montrerait le lent cheminement de la mentalité primitive vers l’abstraction, l’art et la musique.
- Ziablik et nfeba, en face de tfabniti, avoir froid, évoqueraient une idée semblable ; le pinson ne serait pas l’oiseau qui chante par le froid, que le froid fait chanter, mais celui dont l’agitation fébrile et le gazouillis syncopé évoquent le frisson produit par le froid et des expressions telles que grelotter ou claquer des dents rendent cette hypothèse vraisemblable.
- Fringilla a disparu des langues latines, sauf de l’italien, fringuello, devenu masculin, au profit de pincio, attesté seulement dans la basse latinité, dont le français a fait pinson, le castillan pinson, et visiblement issu de la même racine que le breton pint, l’anglais finch et le grec spinos. On y voit en général l’idée de petitesse, de minceur, plutôt qu’un radical expressif, doublet inutile de ceux que nous avons déjà rencontrés. Spinos a également en grec le sens de fluet qui est celui du suédois spinkig, tandis que le hollandais vink désigne non seulement tous les petits oiseaux, proies ordinaires de l’épervier, vinkendief, le voleur de pinsons, mais des insectes minuscules, comme les poux et les puces.
- Symbole de la joie, de la gaîté exubérante, ce passereau a été souvent choisi comme surnom par nos ancêtres du Moyen Age, et des noms de famille comme Pinçon, Pin-chon et Pinson n’ont pas d’autre origine. Les noms de lieu
- Fig. 4. — Bouvreuil et chardonneret dans diverses langues d’Europe.
- Les noms qui désignent le chardonneret sont soulignés.
- Jhistle finch
- snigir
- lullfincl
- b/oed vink
- distel fink
- \ stieçïïlz
- gimpel
- bJutf/nk
- chardonneret
- bouvreuil
- .jdguero ' pimon reat
- Fig. 4. — Pinson des arbres ou pinson vulgaire.
- (DesAn de Roger Reboussin).
- ont été très souvent donnés en allusion aux bandes de pinsons qui les fréquentaient avant la création du village : Montpinchon, Montpinçon, Motte Pinson et probablement Pinçon, bien que la situation escarpée de la plupart de ces lieux-dits ait conduit certains à formuler l’hypothèse d’une origine « pré-indoeuropéenne », notamment pour le Pincio qui domine Rome, un nom commun indiquant le relief. Il s’agit plus sûrement de l’identification de la butte avec l’oiseau qui est son hôte préféré, sans qu’il soit désormais utile de préciser le relief, comme dans les nombreux La Pinsonnière, portés par nos fermes, nos écarts ou nos hameaux.
- L’oiseau de feu, le bouvreuil : pivoine, chanoine et bouffon
- De tous les Fringillidés, le bouvreuil est celui qui nous offre la matière la plus ample dans le cadre de nos recherches ; plus rare que pinsons et moineaux, la beauté de son plumage a toujours attiré sur lui l’attention du peuple de nos campagnes.
- Les montagnards des Alpes le comparent à l’une des plus belles fleurs de nos jardins, et en Savoie le bouvreuil est la pivoine. Ce nom servira d’ailleurs à nous faire mieux comprendre le nom même de bouvreuil, exemple type de l’étymologie populaire, du contre sens séculaire auquel a donné lieu l’oiseau d’Apollon, l’oiseau de feu des Grecs antiques. Pivoine nous est en effet venu, par l’intermédiaire du latin
- 301
- p.301 - vue 301/560
-
-
-
- paonia, du grec paiônia, la fleur consacrée à Péan, l’un des surnoms de Phébus-Apollon, dieu du soleil et de la lumière. L’éclat de la fleur et la beauté de son rouge coloris expliquent facilement un nom qui par la suite fut appliqué non seulement au bouvreuil, mais au vin rouge, au pivois !
- Les Suédois ont comparé ' la poitrine rouge-violet de l’oiseau au costume d’un chanoine, domherre. Mais les Allemands ont remarqué à juste titre qu’il n’y a pas seulement du violet dans la livrée, mais du gris, du bleu et du noir ; aussi l’ont-ils appelé gimpel, l’un des noms du bouffon médiéval, avec son costume bigarré, et cette comparaison est également justifiée par la facilité avec laquelle les oiseleurs s’emparent des bouvreuils, jugés stupides parce que sans méfiance. Les Italiens ont repéré sa calotte noire, ciuffo, et c’est pour eux la petite calotte, ciuffolotto, comparable à celle des jeunes séminaristes, des « calotins », et c’est pourquoi il est aussi le monachino, le moinillon, le « moineau », pour une autre raison que celle qui a valu en français le sobriquet de ce dernier passereau.
- Fig. J- — Bouvreuil pivoine.
- (Dessin de Roger Reboussin).
- Les Grecs antiques, frappés par la belle couleur de son poitrail, l’avaient nommé purroulas, dérivé de pur, le feu, au même titre que purros, rouge comme la flamme, passé en onomastique et immortalisé par un célèbre roi d’Épire, transcrit Pyrrhus dans l’alphabet latin. A Rome, un doublet, hurrus ou hurrhus, employé aussi comme prénom, désignait la couleur rousse, mais le bouvreuil ne semble guère avoir été distingué des autres Fringillidés ; en tout cas les textes antiques sont muets à son égard. Nous avons déjà vu que les Italiens avaient recréé le terme, les Castillans en firent de même, et pour eux l’oiseau, pinson real, n’est qu’un pinson plus beau que les autres, un pinson royal. En France, bouvreuil, avec ses formes locales, bouvret, bouvreux, bouvreul, ne date, dans les textes, que d’une époque assez récente, et la littérature médiévale, française ou latine,
- ne nous renseigne guère. Les naturalistes ont d’abord pensé à un diminutif de bouvier ; le bouvreuil serait son compagnon, comme la bergeronnette est celle du berger. L’ennui est que si la bergeronnette peut trouver quelques insectes dans l’épaisse toison des moutons, il n’y a rien d’intéressant pour le bouvreuil dans la compagnie du bœuf car, étant granivore, les insectes ne sont guère de son goût. Une seconde hypothèse tient compte du fait que le bouvier est surtout l’agriculteur qui laboure avec des bœufs, tandis que le gardien des troupeaux de bovidés est appelé vacher : le bouvreuil aurait suivi le laboureur pour picorer dans les sillons. Que peut-il y trouver ? Toujours des insectes, et là aussi nous aboutissons à une impasse. C’est pourquoi une troisième solution a été proposée, fondée principalement sur l’onomastique avec des noms de famille comme Bouvet et Bouvard, à côté des Bouvron et Bouvret des annuaires : le bouvreuil serait le petit bœuf, le bouvillon, et non le petit bouvier ; sa carrure, la grosseur de son cou, sa placidité opposée à l’agitation perpétuelle du pinson et du moineau, semblaient donner à cette solution quelque chance de vraisemblance. On aurait pu ajouter que les Anglais le nomment bullfinch, pouvant aussi bien signifier pinson des taureaux, bulldog étant le chien destiné à les garder, ou pinson comparable à un taureau, bullfrog désignant le crapaud-buffle. Malheureusement, bullfinch est visiblement l’altération de bloodfinch, le pinson couleur sang, que l’on trouve aussi en Allemagne où blutfink double gimpel ; c’est donc une étymologie populaire, comme pour l’autre acception de bullfinch, haie pour les courses d’obstacles, simple déformation de bullfence ! D’ailleurs le taureau n’a pas l’allure placide du bœuf et son association avec le pinson est encore moins acceptable.
- C’est aussi une étymologie populaire qui, depuis deux mille ans, associe chez nous le bœuf et le bouvreuil. Phonétiquement bouvreuil continue bien le latin bovariolus, le petit bouvier, mais cette forme latine n’était que l’adaptation du grec purroulas, à la place d’un diminutif de burrus, *burrellus ou *burriolus, que nous aurions dû rencontrer. Il est probable que les deux formes ont coexisté, ainsi que le montre un troisième nom du bouvreuil en allemand, pirol, surtout appliqué à une variété de loriot, kirsch-pirol, le bouvreuil qui mange les cerises.
- En onomastique il est pratiquement impossible de distinguer entre les dérivés de burrus et de bovarius, entre la bure, l’étoffe rousse et la bourre, la grossière laine roussâtre, avec des noms de famille comme Bourret, Bourrel, Bourreau, très proches des Bouvet, Bouvron et Bouvet ; seuls Bouvier, Boyer et Bouyer indiquent nettement des familles issues de paysans assez riches pour labourer avec des bœufs, sans tirer eux-mêmes la charrue. Partout ailleurs, il est permis d’hésiter entre le bœuf, son maître, et le charmant oiseau qui leur a volé son surnom.
- Quelques peuples ont su garder au bouvreuil un nom sans ambiguïté, une allusion à son séjour parmi nous au cœur de l’hiver, lorsque la neige recouvre bois et guérets : du lithuanien sniegena au grec moderne cheimoniates en passant par le russe snigir, c’est l’oiseau des neiges, de l’hiver et du froid. De tous les Fringillidés le bouvreuil est en effet celui dont la nourriture s’accommode le mieux de la disparition des graines à partir de novembre ; il décortique alors les bourgeons des arbres, allant jusqu’à envahir les clos pour s’attaquer aux pommiers et aux poiriers des espaliers.
- 302
- p.302 - vue 302/560
-
-
-
- Le chardonneret et la linotte : chardon, acanthe, chanvre et lin
- Si les ornithologues distinguent bien le chardonneret des diverses variétés de linottes, le langage populaire a fréquemment confondu ces oiseaux également chanteurs et granivores, pour leur plumage vif et coloré et leur commune prédilection pour les herbacées.
- A Rome, le chardonneret, carduelis, est encore très proche du chardon, carduus ; il en est de même en italien avec cardellino et en français où le chardonneret est le petit « char-donnier », l’amateur de chardon. Par contre toutes les langues de la péninsule ibérique ont « accroché » le nom du passereau et les étymologies populaires ont rendu l’explication plus difficile. Les Catalans, avec cadernera, au lieu de *cardenera, semblent rapprocher l’oiseau du cahier, cadern, du livret de quatre feuillets. Les Castillans, confondant carde et corde, chardon et cordon, désignent du nom de cardeiro le cordier, qui fabrique les cordons ; ces derniers étant parfois de soie, l’artisan fut appelé sirguero, déformé en jilguero pour qualifier le chardonneret.
- Les Portugais, avec pintasilgo, ont suivi une voie identique. La plante favorite se retrouve plus facilement en allemand, distelfink, et en grec ancien où akanthis est encore voisin à’akanthos, non seulement l’acanthe, immortalisée par la sculpture corinthienne, mais toutes les plantes qui ont des aiguillons.
- Le second nom du chardonneret en allemand, stieglit semble avoir été emprunté aux Slaves ; on le retrouve en russe, scegol, très voisin d’un autre terme, sc'ègol, désignant le petit-maître, le jeune élégant. Nous pourrions être tentés de rapprocher ces noms du qualificatif elegans, précisant en ornithologie carduelis appliqué à diverses variétés, mais l’élégance semble secondaire dans l’évolution du terme russe ; le sens primitif, célibataire, isolé, celui du latin ccelebs, nous autoriserait plutôt à un rapport avec le nom donné au pinson par Linné, Fringilla cælebs, mâles et femelles voyageant séparément pendant la migration hivernale. Le nom du pinson aurait été attribué au chardonneret par les Slaves, et la ressemblance des espèces explique la confusion.
- De sa prédilection pour les graines de lin, les Français ont tiré le nom du linot, plus souvent usité au féminin, linotte, et les Hollandais, avec vlas fink, le pinson du lin, ont eu la même idée. D’autres ont plutôt remarqué son goût pour le chènevis, la graine de chanvre, d’où son nom en allemand, hanfling, et en russe, konoplianka, toujours dérivé de celui de la plante, lui-même emprunté aux langues sémitiques du Proche-Orient où le chanvre fut utilisé pour la première fois. Les Italiens sont les seuls à avoir remarqué la tache rouge qui brille comme un phare au milieu de sa poitrine, et pour eux la linotte est un petit fanal, fanello. D’un chant agréable, facile à attraper et capable d’apprendre, comme le perroquet, l’air que l’oiseleur lui enseigne, le linot est de ce fait devenu synonyme de personne légère, étourdie, manquant de jugement et surtout de mémoire, car malgré ses dispositions le passereau manifeste vis-à-vis de son dresseur quelque mauvaise volonté. Telle est l’origine de noms de famille comme Linard, Linais, Linel, Linet ou Liné ; il peut s’agir parfois de noms de hameaux proches de cultures de lin, mais dans ce cas Linière et Lignère sont bien plus répandus et la première série concernait plutôt à l’origine des têtes de linotte ! Le dressage du passereau donnant soif à l’oiseleur, l’expression « siffler la linotte » est une allusion à la compensation qu’il s’accordait, suivie d’une ivresse réparatrice du mal qu’il s’était donné.
- Fig. 6. — Chardonneret élégant.
- Fig. 7. — Linotte des vignes, ou mélodieuse, près de son nid.
- (Dessins de Roger Reboussin).
- 303
- p.303 - vue 303/560
-
-
-
- Fig. 8. — Bruants : proyer, jaune et zizi.
- (.Dessins île Roger Reboussin).
- Bruit et couleur : bruants et verdiers
- Deux oiseaux souvent confondus qui entrent bien dans la catégorie que les Espagnols ont réservée aux aves t ont as, aux oiseaux « étonnés », ahuris, qui se laissent facilement capturer. Bruant ou bréant est une allusion au caractère « bruyant » du passereau, en polonais d^ivoniec, la clochette. En anglais goldhammer,. yelloiv han/mer, le marteau d’or, le marteau jaune, sembleraient procéder de la même comparaison, mais il s’agit plutôt d’une étymologie populaire à en juger d’après son nom allemand, gold animer, animer, emmerling,, également celui d’une céréale, un blé rustique des terres maigres et froides, l’épeautre, dont les champs sont fréquemment pillés par le bruant. Nos campagnes connaissent surtout le verdier, l’oiseau vert, en castillan verderon, en anglais green finch, le pinson vert. C’est une comparaison avec le gai plumage et l’humeur joyeuse du verdier qui est à l’origine de la plupart des noms de famille qui représentent des formes dialectales comme Verdeil, Verdeille, Verdelon, Verdel, Verdalle, mais avec un radical aussi courant, la plus grande prudence est de règle, d’autant plus que verdier est, dans le Massif Central, la forme locale de verger, et que la verdeur et non seulement la verdure peut au Moyen Age avoir caractérisé un chef de famille !
- De tous ces oiseaux, Y ortolan est le seul à figurer sur nos tables, comme mets recherché depuis l’Antiquité. C’est proprement l’oiseau des jardins, en latin hortulanus, passé en français par le provençal, et conservé aussi dans l’italien ortolano. Ce passereau était engraissé après sa capture, d’où l’allemand fett animer, le bruant gras, tandis que pour les Russes il est resté le pille-avoine, ovsianka, bien distingué du bruant qui porte le nom même du plantain, podorojnik, dont tous les Fringillidés sont si friands.
- Tarières et sirènes : tarins et serins
- C’est une comparaison avec le bruit d’une vrille, d’une tarière, qui a valu au tarin, étroitement apparenté au canari, son nom en français. On retrouve le même essai pour fixer le chant de l’oiseau dans le russe tchijik ou l’allemand yeisig ; les Italiens ont été plus sensibles à sa livrée, et lucherino dérive de lucco, le vêtement d’apparat de la noblesse florentine.
- Fig. io. — Tarin des aunes.
- Avant de le réserver au canari, nous donnions le nom de serin, ou mieux de serein, à tous les petits passereaux dont le chant charmait les oreilles comme celui d’une sereine, forme directement issue du latin sirena, dont sirène est une adaptation académique. On se souvient des vers où François Villon, dans la Ballade des Dames du temps jadis, célèbre la reine qui « chantait à voix de sereine », et disparue comme « les neiges d’antan ».
- Les Grecs antiques donnaient le nom de seiren, latinisé sirena, à des divinités marines dont le chant distrayait les marins dans les passages difficiles pour les précipiter sur les récifs. On rapproche seiren du nom de la canicule, seirios, latinisé sirius, qui désigne aussi l’étoile de la constellation du chien, ou plutôt de la chienne, en latin cani-cula. Ceci est en rapport avec les grosses chaleurs estivales du Proche-Orient, patrie de la magie et de l’astrologie. Telle est la raison de la présence, dans les deux noms de la sirène et de l’étoile, d’un radical exprimant une idée de trouble, de bouleversement, puis de brûlure, qui est celui du verbe seiô, tandis que le chien, l’animal impur des Orientaux, la bête immonde, « cynique », était sacrifiée pendant la canicule, un chien roux dont la couleur évoquait celle du feu.
- La sirène, monstre marin apparaissant pendant le calme plat de la canicule, serait ainsi une personnification de la chaleur étouffante de l’été ; elle fut plus tard confondue
- 304
- p.304 - vue 304/560
-
-
-
- avec d’autres monstres comme les Harpies, les oiseaux à tête humaine qui emportent les âmes des morts et les représentations les plus anciennes font de la sirène un oiseau à tête humaine et non une mélusine à corps de poisson. Par suite de l’influence de la légende des rochers de Cha-rybde et de Scylla sur la côte sicilienne, le site des Sirènes fut localisé près d’un autre passage dangereux entre Sor-rente et Capri ; puis, peu à peu assimilées aux Muses et notamment à Euterpe, muse de la musique, elles perdirent leur caractère maléfique pour personnifier seulement la beauté du chant, le charme, l’enchantement musical.
- Hélas, sereine, devenu serin, a remplacé linotte pour exprimer le manque de jugement et seriner est aujourd’hui le synonyme de siffler la linotte, dans la première phase de l’occupation de l’oiseleur, de répéter inlassablement quelque chose à une personne douée de peu de mémoire et d’intelligence. Le pays d’origine de l’espèce la plus appréciée pour la vie en cage, les îles Canaries, a donné son nom au canari, mais des régions d’élevage comme la Saxe et le Harz concurrencent maintenant l’archipel espagnol.
- *
- * *
- Les moineaux et les passereaux de la famille des Frin-gillidés, chanteurs ou seulement babillards, compagnons de l’homme depuis des millénaires, ont été les témoins de ses progrès matériels et intellectuels, du développement de ses techniques et de son organisation sociale et politique. Les noms qui leur furent attribués, il y a souvent plus de cinq mille ans, gardent encore, malgré leurs altérations,
- Fig. il. — Serin cini.
- (.Dessin de Roger Reboussin).
- le souvenir du monde préhistorique, de l’esprit primitif de nos ancêtres, accédant peu à peu à des notions plus précises, comme celles de la couleur, du son et même du chant, isolant dans l’immensité du monde végétal et animal, les espèces les plus familières et les plus utiles. Moinillons et chanoines, pilleurs de lin, d’avoine, de blé ou de chanvre, enchanteurs, bouffons ou sirènes, les Fringillidés développent devant nous les figures de leur ballet éternel.
- Michel Roblin,
- Docteur ès lettres.
- De Mandrin à la carte perforée ou « la rançon du voyageur »
- « Lou camin aurelian », route de l’Estérel, première voie de liaison France-Italie sous le règne d’Aurélien et repaire de bandits fameux de Gaspard die Berre à Mandrin, est devenue la première autoroute française à péage.
- L’autoroute Fréjus-Antibes, avec une longueur totale de 50,5 km, est la plus longue de France. Les chaussées de 7 m de largeur autorisent une vitesse de 120 km/h. La réalisation de cette œuvre a représenté 6 millions de mètres cubes de terrassements et la construction de 141 ouvrages d’art.
- Le premier tronçon, Puget-sur-Argens-Mandelieu, soit 29 km, a été ouvert à la circulation il y a quelques mois ; le deuxième tronçon : Mandelieu-Cannes, de 21,5 km, sera inauguré au cours de l’été 1961. On estime que les usagers qui emprunteront l’autoroute gagneront près d’une heure sur le parcours habituel, fort incommode.
- Toutefois, les conducteurs des 5 à 20 000 véhicules qui emprunteront l’autoroute devront acquitter un montant
- variable selon les portes d’entrée et de sortie utilisées et le type de leur véhicule. Le problème posé par la perception de ces redevances a été résolu par l’utilisation de cartes perforées. A chacune des sept portes d’entrée de l’autoroute, un contrôleur remet à chaque automobiliste une carte préperforée correspondant à la catégorie de son véhicule. Sur cette carte sont imprimées les différentes sommes que le voyageur aura à payer suivant qu’il quittera l’autoroute par l’une ou l’autre des cinq portes. A chacune de celles-ci, les automobilistes remettent alors la carte à un guichet et acquittent la somme qui correspond au trajet effectué.
- Toutes les caftes d’une journée sont ensuite regroupées et un équipement de machines électriques assure la comptabilisation, le contrôle et les diverses études statistiques indispensables pour obtenir des renseignements utilisables à l’établissement des projets similaires actuellement en cours {D’après une information I. B. M. France).
- R. R.
- 305
- p.305 - vue 305/560
-
-
-
- L’ACTUALITÉ INSTRUMENTALE
- Mesucora et la 58e Exposition de la Société française de Physique
- par Robert Rosset
- La 58e Exposition d’instruments et de Matériel scientifiques, qui s’est tenue cette année du 9 au 17 mai sous la voûte du Palais du C. N. I. T. (Centre national des Industries et des Techniques) au Rond-Point de la Défense, a été jumelée avec « Mesucora », première exposition consacrée en France aux instruments et dispositifs de Mesure, de Contrôle, de Régulation et d’Auto-matisme. Quelles ont été les raisons de cette manifestation ? Depuis plusieurs années, un mouvement se dessinait, en France comme à l’étranger, pour rapprocher les organisations professionnelles qui groupent les constructeurs d’appareils de mesure, de contrôle, de régulation et d’automatisme, en vue d’expositions spécialisées dans ce domaine.
- Le temps n’est plus, en effet, où chaque branche industrielle utilisait seulement des instruments de mesure relevant de sa propre technique. Aujourd’hui, on trouve sur une machine-outil des instruments de mesure pneumatiques ou électriques aussi bien que mécaniques. Dans un même système de régulation, le capteur de mesure, le transformateur ou l’amplificateur de cette mesure, les organes de réglage peuvent ressortir de techniques différentes. Le développement de l’automatisme dans les domaines les plus variés a encore contribué à ce mouvement qui a abattu les cloisons entre des techniques autrefois
- séparées. Il en est résulté une coopération très fructueuse entre les différentes techniques de mesure pour satisfaire les besoins d’un automatisme toujours plus exigeant, coopération dont on peut dire que Mesucora a été le reflet.
- Toutefois, les représentants des industries intéressées, en accord avec leurs homologues étrangers, ont estimé qu’une manifestation de cet ordre ne pouvait avoir lieu tous les ans dans chaque pays. Non seulement elle exigerait un effort excessif, mais il serait difficile de présenter chaque année une gamme de nouveautés toujours renouvelées. Au contraire, il semblait nécessaire de provoquer, à l’occasion de telles manifestations, des confrontations internationales capables d’entretenir une saine émulation et d’étendre les marchés au delà des frontières, considération qui prend une importance sans cesse croissante au moment ou s’accélère la mise en place du Marché commun.
- Telles sont les raisons qui ont conduit à rechercher une harmonisation des expositions de Mesure et d’Automa-tisme, tout au moins dans l’Europe de l’Ouest. Après de longues négociations avec leurs partenaires européens, les chambres syndicales groupées dans le Comité Mesucora ont obtenu qu’après l’Interkama d’octobre i960 où l’industrie française était représentée par 3 5 exposants, l’année 1961 soit réservée à la France pour Mesucora.
- Fig. 1. — Vue extérieure du Palais du C. N. I. T. du 9 au 17 mai 1961.
- Fig. 2. — Vue générale de Mesucora et de la 58° Exposition de Physique au C. N. I. T.
- p.306 - vue 306/560
-
-
-
- En contrepartie, la France participera à l’exposition I. E. A. à Londres en 1962 et à l’Interkama à Düsseldorf en 1963. Mesucora ne se renouvellera donc en principe à Paris qu’en 1965.
- Quant à l’exposition annuelle de la Société française de Physique, on sait qu’elle a toujours eu pour principal objectif d’établir un contact suivi entre les utilisateurs de matériel scientifique et les industriels qui construisent ce matériel. A une époque où l’on insiste souvent sur l’association de la recherche et de l’industrie, on ne peut que se féliciter de ce jumelage qui a permis aux deux manifestations de se compléter. Il est bien entendu, toutefois, que la Société de Physique continuera par la suite à organiser son exposition annuelle, quelle que soit la périodicité de Mesucora.
- L’Exposition occupait deux des niveaux du Palais du C. N. I. T., soit environ 35 000 m2 de surface brute. Son caractère international était particulièrement accentué puisque 17 pays y étaient représentés et que, sur 730 firmes participantes, 391 étaient françaises et 339 étrangères. Parmi ces dernières figuraient notamment 110 firmes allemandes, 87 des États-Unis, 60 de Grande-Bretagne et 38 de Suisse.
- Comme chaque année les grands laboratoires nationaux avaient saisi cette occasion pour faire connaître les résultats de leurs recherches techniques. Citons tout particulièrement les présentations du Centre national de la Recherche scientifique, de l’Électricité de France, du Commissariat à l’Énergie atomique, de Sud-Aviation, etc.
- Nous présentons dans ces quelques pages des études sur des appareils qui nous ont semblé parmi les plus intéressants. Nous en donnerons quelques autres dans le numéro de septembre de cette revue. Disons pour conclure que malgré le « gigantisme » de l’exposition, il y a eu assez peu de réelles nouveautés. De nombreux appareils avaient déjà été présentés au cours des expositions précédentes ou n’ont subi que des modifications de détail. Il n’y a pas là des raisons de croire à une stagnation. Après les progrès souvent remarquables enregistrés au cours des dernières années, les appareils se stabilisent, les constructeurs faisant peser leurs efforts sur l’amélioration des types existants.
- A nos lecteurs
- Cette rubrique doit, pensons-nous, retenir l’attention des spécialistes, susceptibles d’utiliser les appareils qui font l’objet de nos courtes monographies. Cependant ils ne nous en voudront pas de les rédiger, chaque fois que c’est possible, de façon à être compris d’un plus large public qui désire acquérir une idée du progrès des techniques scientifiques et industrielles.
- L’analyse des contraintes par photoélasticité
- On sait que certains corps transparents deviennent biréfringents sous l’effet de déformations. Ils divisent un rayon lumineux incident en deux rayons R-l et R2 qui le traversent à des vitesses différentes et sont donc déphasés l’un par rapport à l’autre (fig. 3). Si l’on éclaire un tel matériau en lumière polarisée et si l’on analyse la lumière émergente au moyen d’un second dispositif polari-seur, le déphasage se traduit par l’atténuation ou l’annulation de certaines longueurs d’onde. On observe, en lumière blanche, des franges de couleurs variées qui révèlent la topographie exacte des déformations du matériau.
- Jusqu’à ces dernières années, ce procédé était généralement utilisé sur des maquettes en matériau photoélastique,
- Lumière
- Fig. 3. — Un corps biréfringent divise un rayon lumineux incident en deux rayons R, et R2 qui le traversent à des vitesses différentes.
- par exemple en plexiglas, ce qui présentait quelques inconvénients : tout d’abord, un prix souvent très élevé, la réalisation des maquettes exigeant un personnel expérimenté et plusieurs mois de travail. Par ailleurs, la méthode n’était appliquée que dans le domaine élastique afin que le
- Fig. 4. — Les pièces recouvertes de vernis photoélastique font apparaître dans ce vernis des franges de teintes variées qui révèlent la topographie des déformations subies par les pièces étudiées.
- 307
- p.307 - vue 307/560
-
-
-
- modèle ne présentât pas de déformations permanentes, ce qui l’aurait rendu inutilisable pour d’autres expériences. Il apparaissait comme beaucoup plus séduisant de disposer d’une matière photoélastique capable d’être appliquée en une mince couche sur la piè~e étudiée dont elle épouserait toutes les formes. Ce procédé avait déjà été préconisé par Mesnager, en France, dès 1930, mais les plastiques alors disponibles adhéraient mal aux métaux et étaient instables dans le temps. Ce n’est qu’en 1953 que le Dr. F. Zandman, de la Budd Company de Philadelphie (représentée en France par la Société Bufra), réussit à mettre au point des mélanges de matières plastiques et de silicones considérablement plus biréfringents que la plupart des corps connus, stables dans le temps et s’appliquant parfaitement sur les métaux, le béton, etc.
- Le procédé, baptisé Photostress, peut être mis en œuvre de deux manières différentes. La plus simple consiste à utiliser un vernis que l’on applique au pinceau sur la surface de la pièce étudiée. Soumise à une tension, il apparaît dans le vernis des teintes qui correspondent aux contraintes subies par la pièce. Une simple observation donne déjà une idée du travail effectué par la pièce. Par ailleurs, en se reportant à des tables comme celle du tableau I, on connaît avec une approximation satisfaisante la contrainte en chaque point.
- Tableau I. — Correspondance entre les teintes
- ET LES CONTRAINTES DES MATÉRIAUX
- Couleurs Allongements en io-6 Contraintes en kg/mm2
- Acier Aluminium
- Noir 1 ! ! 0 0 0
- Gris 170 3,4° 1,12
- Blanc 43° 8,60 2,85
- Jaune brun 720 14,40 4,80
- Rouge 900 18,00 6,00
- Bleu 1 100 22,00 7,3°
- Orangé .... 1 670 33,4° 11,10
- Vert 2 200 44,00 14,60
- etc. etc.
- Matière plastique photoélastique
- Source Tlumineuse
- Pièce
- étudiée
- Surface
- réfléchissante
- Analyseur
- -U
- Œil
- Plë- J- — Mise en œuvre du procédé Photostress.
- La matière plastique photoélastique est collée sur la pièce étudiée et éclairée par un faisceau de lumière polarisée. Après l’avoir traversée deux fois, la lumière émergente est observée à travers un deuxième polariseur, dit analyseur.
- ailleurs, le phénomène est quasi instantané. On peut donc observer des constructions statiques sous contraintes mais aussi des machines en mouvement. Lorsque le mouvement est trop rapide pour être suivi à l’œil, on associe à l’instrument un procédé de mesure dynamique, par stroboscopie par exemple. Inversement, une plaquette de vernis peut être collée sur une construction destinée à évoluer lentement (barrage, mine, etc.) et être observée à des intervalles espacés, même de plusieurs années.
- Une variante de la méthode précédente a permis de réaliser des jauges à lecture directe avec lesquelles il est possible d’effectuer des mesures d’extensométrie sans aucune instrumentation. Le principe de ces jauges est le suivant : certains matériaux photoélastiques, coulés et refroidis dans des conditions de tension déterminées, peuvent être « figés », c’est-à-dire conserver des contraintes internes, révélées en lumière polarisée par des couleurs.
- Supposons alors qu’une réglette de matière plastique photoélastique ait été figée de telle façon que ses contraintes varient linéairement le long de sa plus grande dimension..
- Fig. 6. — Cet appareil portatif, qui comprend un dispositif d’éclairage autonome et un ensemble de mesure, permet de déduire les valeurs des contraintes selon les teintes observées.
- Cependant, dans ce cas, les mesures dépendent de l’épaisseur. On peut se libérer de cette servitude en « tapissant » la pièce à étudier de vernis livré sous forme de plaquettes calibrées en épaisseur. Si le matériau est, même grossièrement, réfléchissant par lui-même, on utilisera du vernis transparent. Dans les autres cas, on utilisera des plaquettes métallisées sur une face tel un miroir (fig. 5). Si la pièce est galbée, on peut modeler les plaques en les chauffant légèrement. On « habille » ainsi la pièce quelle qu’en soit la forme. Ainsi, une pièce traitée au Photostress révélera pendant l’usage les contraintes dues à son travail et aux efforts subis et ensuite, les déformations résiduelles permanentes dues à des contraintes dépassant la limite élastique.
- La sensibilité de la méthode est remarquable puisqu’elle permet de mesurer des allongements relatifs de l’ordre d’un dix-millionième et des contraintes de l’ordre du gramme-force par millimètre carré dans les métaux. Par
- 308
- p.308 - vue 308/560
-
-
-
- Fig. 7• — Déplacement des franges sur une jauge d’extensométrie sous l’effet d’une compression et d’une traction.
- Sa biréfringence donnera les teintes du spectre photoélastique réparties linéairement suivant la longueur. Si cette réglette est soumise à une contrainte uniforme supplémentaire en chaque point, la coloration va varier. On retrouvera la même échelle des teintes, mais déplacée. La mesure du déplacement d’une frange déterminée permet de déduire l’allongement relatif du matériau et, par suite, les contraintes en appliquant les lois de l’élasticité.
- La jauge est constituée par une réglette de plastique photoélastique « figée » linéairement, sur laquelle est appliquée une feuille polarisante servant à la fois de polari-seur et d’analyseur. Les bords portent des graduations
- Fig. 8. — Jauge d’extensométrie à lecture directe.
- (Photo M. Clair).
- millimétriques. Il suffit alors de coller la réglette sur la pièce étudiée et de mesurer le déplacement d’une frange quelconque (fig. 7 et 8).
- La précision est de l’ordre de 2 à 3 pour 100. Bien entendu, l’indication n’a de sens que si l’on admet que la contrainte est uniforme sur toute la surface occupée par la jauge. D’une utilisation très simple, elle permet, par exemple, la surveillance des machines et des constructions, même par un personnel non spécialisé, le contrôle de l’alignement des machines de traction : une traction pure ne doit pas créer d’inclinaison des franges, etc.
- Dosage du bore dans les verres par absorption de neutrons
- Les verres culinaires et de laboratoire, les verres textiles et ceux utilisés pour l’isolation, de même que certains verres de flaconnage, contiennent du bore dans des proportions plus ou moins importantes et le dosage de cet élément au cours de la fabrication revêt une importance particulière. Or, une opération d’analyse comprenant le broyage du verre, sa mise en solution et le dosage chimique peut difficilement être effectuée en moins de quatre heures, temps souvent trop long pour que les responsables de la fabrication puissent tirer le meilleur parti possible des résultats qui leur sont fournis par le laboratoire d’analyse. Une méthode qui permet d’effectuer le même dosage en quelques minutes apparaissait donc d’un grand intérêt et c’est pourquoi la Compagnie de Saint-Gobain a étudié le procédé de dosage par absorption neutronique. Cette étude a conduit à la réalisation d’un appareil baptisé « boromètre » que nous nous proposons de décrire avec quelque détail.
- Le bore naturel est un mélange de deux isotopes : le bore 10 dans la proportion de 18,5 à 19,8 pour 100 selon son origine, et le bore 11. Le bore 10 présente la particularité de posséder une section efficace très élevée pour
- les neutrons : 3 990 barns (1). La section efficace du bore 11 n’est que de 50 millibarns, celle du bore naturel atteignant 750 barns.
- L’absorption des neutrons par le bore 10 conduit à la réaction :
- *5® + ow —* -j- |)Li -j- y
- bore 10 neutron hélium 4 lithium 7
- ou plus simplement (voir dans ce même numéro, p. 274) : 10B (n, oc) 7Li,
- c’est-à-dire que les produits de la réaction sont un atome de lithium 7 et une particule alpha (noyau d’hélium). Deux méthodes de dosage du bore sont évidemment
- 1. Tout se passe comme si le noyau de l’atome offrait à la particule une cible d’une certaine surface apparente. La probabilité de capture de la particule (appelée section efficace de capture) est donc exprimée en une unité de surface, le barti, égale à io~24 cm2.
- 309
- p.309 - vue 309/560
-
-
-
- possibles eu égard à cette réaction. On peut soit mesurer l’absorption subie par un faisceau de neutrons traversant l’échantillon de verre étudié, absorption qui sera d’autant plus importante que la teneur en bore est plus grande, soit compter les particules alpha produites par l’irradiation du verre par les neutrons. Ces deux modes de dosage sont équivalents au point de vue précision et rapidité ; nous nous limiterons ici à l’examen de la méthode par absorption.
- Les sources de neutrons utilisées sont des sources radium-béryllium. La désintégration des atomes de radium libère des particules alpha qui réagissent sur le béryllium selon le schéma :
- ÎBe + lUc -> \n + ^C.
- béryllium hélium neutron carbone
- Afin d’avoir un flux de neutrons uniformément réparti autour de l’échantillon, l’appareil comprend six sources disposées à 6o° l’une de l’autre (fig. 9). Les neutrons sont ralentis par de la paraffine, l’absorption par le bore étant maximale pour les neutrons lents (dits thermiques). Ceux qui s’échappent du bloc de paraffine sont entièrement arrêtés par une feuille de cadmium, élément qui présente une très grande section efficace pour les neutrons (3 315 barns). Par ailleurs, l’appareil est entouré d’une enveloppe de plomb pour que la dose de rayonnement gamma au contact des parois extérieures de l’appareil soit inférieure à la dose de tolérance.
- Protection de plomb .......
- Paraffine
- Tôle cadmiée
- Verre finement broyé
- JTompteur de neutrons
- Source
- Radium-béryllium (6 sources à 60°)
- vers l'échelle de comptage
- Fig. 9. — Schéma du « boromètre » de la Compagnie de Saint-Gobain.
- Fig. 10. — Courbe d’étalonnage servant au dosage du bore dans les verres.
- Explications dans le texte.
- 10 15 20 25
- Grammes de B2O3
- Quant au verre, il est disposé, finement broyé, dans un manchon creux glissé autour du compteur de neutrons. Celui-ci est constitué par un tube de cuivre fermé traversé par une électrode ; le tube est rempli de trifluorure de bore (enrichi à 90 pour 100 en bore 10) gazeux sous pression réduite. Une tension de quelques milliers de volts est appliquée entre l’électrode centrale et le tube. Lorsqu’un tel tube est placé dans un flux de neutrons thermiques, ceux-ci traversent facilement la paroi de cuivre et chaque fois qu’un neutron rencontre un atome de bore 10, il y a production d’une particule alpha et d’un noyau de lithium suivant la réaction que nous avons vue précédemment. Ce sont des ions positifs et il s’ensuit une décharge qui est alors amplifiée et enregistrée.
- Il suffit de procéder à un étalonnage de l’appareil avec des verres de teneurs connues en bore. Le graphique de la figure 10 montre l’allure de la courbe obtenue. En abscisses sont portés les poids d’anhydride borique B203 contenus dans les échantillons, et en ordonnées les taux de comptage enregistrés. L’absorption due aux autres éléments du verre étant négligeable, l’activité enregistrée ne dépend que de la quantité de bore contenue dans l’échantillon. La précision de la méthode est d’environ 1 pour 100, chaque mesure ne demandant que quelques minutes avec un personnel entraîné. Il semble donc que cet appareil soit amené à rendre de grands services dans les usines qui fabriquent des verres au bore.
- Contrôle des métaux par courants de Foucault
- On sait que sous l’effet des courants de Foucault, un solénoïde en contact avec un métal présente une variation d’impédance qui dépend de la nature du métal, de son épaisseur et de ses défauts. La Société Bufra présentait un appareil utilisant ce phénomène, le « Radac ». L’originalité de cet appareil est d’avoir utilisé au maximum les variables liées à . l’impédance : fréquence, amplitude, phase, etc. Par suite, selon les variables considérées, l’instrument peut avoir des fonctions variées : mesures d’épaisseur
- des tôles, mesures d’épaisseur des revêtements isolants sur des métaux, contrôle des défauts dans les métaux et en particulier les barres et tubes profilés. Dans ce cas, le contrôle peut être effectué à la vitesse de 150 mètres par minute. Un dispositif de marquage par jet de peinture indique la position du défaut.
- Il existe deux versions du Radac : dans l’une d’elles, les différents réglages sont effectués par un opérateur spécialisé ; dans l’autre, les réglages sont exécutés suivant
- 310
- p.310 - vue 310/560
-
-
-
- Fig. il. — L’appareil Radac.
- L’opérateur introduit dans l’appareil une carte perforée à partir de laquelle sont effectués tous les réglages nécessaires à un contrôle déterminé.
- (Photo Bufra).
- Fig. 12. — Contrôle en série de tubes métalliques au moyen de l’appareil Radac.
- (Photo Bufra).
- un , programme déterminé au moyen de cartes per- plus simples, qui utilisent une seule des caractéristiques forées (fig. xi). La figure 12 représente un contrôle en du Radac et permettent un contrôle unique, par exemple scric de tubes metüllicjues. Il existe aussi des instruments une mesure d?épaisseur.
- Intégrateur électronique pour coulométrie à potentiel contrôlé
- La coulométrie est une méthode de dosage dans laquelle la teneur du corps à titrer est déterminée au moyen de la mesure d’une quantité d’électricité. Supposons par exemple que l’on ait à doser une solution d’ions argent Ag+. Les ions Ag+ sont réductibles selon le schéma :
- Ag+ A 1 électron -> Ag (métal).
- On peut caractériser le phénomène de la réduction des ions Ag+ par la courbe qui donne, pour chaque valeur
- Fig. ij. — Courbe intensit é-p otentiel de réduction des ions argent.
- du potentiel de la cathode, l’intensité du courant dans le circuit d’électrolyse (fig. 13). Tant que le potentiel de la cathode est supérieur à une certaine valeur, la réduction des ions argent n’a pas lieu, le courant est nul. Lorsque le potentiel diminue, la réduction des ions argent commence
- et la valeur de l’intensité du courant d’électrolyse est une mesure de la vitesse de la réaction électrochimique. Toutefois, lorsque le potentiel cathodique est suffisamment bas, l’intensité du courant ne croît plus, la vitesse de réduction étant limitée par la vitesse de diffusion des ions argent vers la cathode, vitesse qui est constante lorsque la concentration des ions argent est elle-même constante. Dans certaines conditions, la hauteur du palier de la courbe intensité-potentiel est proportionnelle à la concentration des ions argent de la solution.
- Supposons alors qu’au moyen d’un potentiostat on impose une valeur constante JEq au potentiel de la cathode. Les ions Ag+ se déposant à la cathode, leur concentration diminue dans la solution et la hauteur du palier diminue. On peut montrer que cette décroissance est exponentielle (fig. 14). La durée de l’électrolyse nécessaire pour réduire la totalité des ions Ag+ est théoriquement infinie mais, en pratique, on peut l’arrêter lorsque le courant est suffisamment petit (0,2 pour 100 de l’intensité initiale
- Fig. 14. — Variation du courant d’électrolyse en fonction du temps lors d’une coulométrie à potentiel contrôlé.
- 311
- p.311 - vue 311/560
-
-
-
- L’ORGANISATION MONDIALE DE LA SANTÉ met au concours un poste de TRADUCTEUR MÉDICAL OU TECHNIQUE de langue maternelle française
- TITRES REQUIS : doctorat en médecine ou titre universitaire équivalent en biologie, physique, chimie ou toute discipline paramédicale.
- LANGUES : langue maternelle française. Connaissance approfondie de l’anglais et, si possible, d’une ou plusieurs autres langues.
- FONCTIONS : traduire rapidement d’anglais et, le cas échéant, d’une ou plusieurs autres langues des textes le plus souvent techniques portant sur des questions de médecine, de biologie, de physique ou chimie, etc.
- RÉMUNÉRATION : US $ 6 ooo par an (traitement exempt d’impôt). Augmentations annuelles jusqu’à concurrence d’un traitement de US $ 8 ooo. Indemnités de cherté de vie, de charges de famille et de frais d’études des enfants dans les conditions définies par le Règlement du Personnel. Prime de fin de service ; retraite assurée par une Caisse des Pensions ; prestations en cas de maladie ou d’accident ; congés annuels et congés dans les foyers.
- AFFECTATION : Contrat initial de deux ans. Lieu d’affectation : Genève (Suisse).
- Les candidats sont priés d’adresser leur demande, avec curriculum vita, à :
- ORGANISATION MONDIALE DE LA SANTÉ Chef du Service du Personnel Palais des Nations GENÈVE (Suisse)
- dans les quinze jours qui suivront la publication du présent avis, en inscrivant sur l’enveloppe la mention « VN.665 ».
- Seuls les candidats susceptibles d’être retenus recevront une réponse de l’Organisation.
- Agents exclusifs pour la France et les T.O.M.
- Éts F. C. DANNATT
- -- V/ElTT DE PARAITRE----------
- MONOGRAPHIES DUNOD
- ÉLÉMENTS
- DE
- MÉCANIQUE
- ANALYTIQUE
- PAR
- J. W. LEECH
- Maître de conférences de physique,
- Queen Mary College, Université de Londres.
- TRADUIT DE L’ANGLAIS PAR H. GIÉ
- A-grégé de l’Université.
- xu-177 pages 11 x 16, avec 7 figures. Relié toile souple 16 NF
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6e. DAN 99-15.
- VI EST DE PA HAIT HE ---
- ÉLÉMENTS
- DE
- PHYSIQUE
- STATISTIQUE
- PAR
- C. KITTEL
- Professeur de physique à l’Université de Berkeley, Californie.
- TRADUIT DE L’AMÉRICAIN PAR A. DESPRÉS
- x-240 pages 16 x 25, avec 28 figures. Relié toile sous jaquette. 32 N F
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6e. DAN 99-15.
- 312
- p.312 - vue 312/560
-
-
-
- par exemple). On voit alors qu’il suffit de déterminer la quantité d’électricité mise en jeu pour en déduire la teneur en argent de la solution, ces deux quantités étant reliées par la formule bien connue de Faraday : 96 500 coulombs correspondent à un ion-gramme d’argent.
- Diverses méthodes ont été proposées pour mesurer cette quantité d’électricité. On peut, par exemple, tracer la courbe qui représente la variation du courant d’électro-lyse en fonction du temps et en déduire la quantité d’électricité en planimétrant l’aire hachurée. On peut aussi placer en série dans le circuit d’électrolyse un coulomètre chimique, c’est-à-dire une seconde cellule d’électrolyse. La quantité d’électricité qui traverse les deux cellules est la même et peut être déterminée différemment selon le type de coulomètre utilisé : mesure d’un volume gazeux, pesée d’un dépôt métallique, etc. Toutefois, la méthode la plus séduisante consiste à utiliser un intégrateur automatique qui enregistre la quantité d’électricité qui passe dans le circuit.
- C’est un appareil de ce genre que présentait la firme J. Tacussel. Son principe est le suivant : la vitesse d’un moteur à courant continu est asservie électroniquement, par l’intermédiaire d’un amplificateur à vibreur mécanique, au courant à intégrer appliqué sous forme d’une tension électrique e à l’entrée de l’amplificateur. Une génératrice tachymétrique fournit la tension de contre-réaction nécessaire pour assurer la stabilité de l’amplificateur et l’amortissement de l’ensemble. Le moteur est accouplé à un compteur mécanique qui mesure l’angle de rotation total du moteur pendant la période d’intégration. A un facteur de proportionnalité près, l’intégrale de la tension e est égale au nombre de tours de rotation du moteur pendant la période de temps considérée, c’est-à-dire à l’indication du compteur.
- L’étendue d’intégration est telle que l’on peut avoir une intensité qui varie dans le rapport de x00 à 1 au cours de la mesure, pour chaque gramme. Celles-ci sont au nombre de 7, de 1-100 ;j.A à 1-100 mA. L’intégrateur est étalonné
- i
- 1;
- 1
- Fig. ij. — Intégrateur électronique J. Tacussel pour coulométrie à potentiel contrôlé.
- à l’aide d’une tension de référence interne. La capacité d’intégration est de 100 heures à la vitesse maximale et de 10 000 à la vitesse minimale, soit de 36 à 36 000 coulombs. Le temps de réponse est de l’ordre de 0,1 à 0,2 s et la précision comprise entre 0,1 à 0,2 pour 100 pour la limite supérieure de la gamme utilisée et 1 à 2 pour 100 pour la limite inférieure.
- Bien entendu cet appareil, bien que particulièrement adapté à la coulométrie, permet de réaliser l’intégration de toute variable physique susceptible d’être traduite en grandeur électrique sous forme de courant ou de tension. On peut donc envisager son emploi dans des applications extrêmement variées.
- Le comptage des particules microscopiques
- U est souvent nécessaire de connaître avec précision le nombre et la répartition en dimension des particules microscopiques qui constituent une « population » : particules des agents de pollution atmosphérique, abrasifs, aérosols, cellules sanguines, etc. Le comptage à l’aide du microscope non seulement nécessite des spécialistes entraînés mais il est lent, très fatigant et la précision est souvent médiocre car le nombre maximal des particules comptées est forcément limité. C’est pourquoi, depuis quelques années, des constructeurs se sont penchés sur la réalisation d’appareils automatiques. Deux types, fondés sur des principes très différents, étaient présentés cette année.
- Le premier, conçu par la Société Coulter Electronics Ltd. (représentée en France par J. Pontignv) utilise les variations de conductibilité électronique dues au fait que les particules comptées sont en général des isolants. Il est schématisé sur la figure 16. Il comprend un tube percé d’un petit orifice à sa partie inférieure et rempli d’un électrolyte convenable, par exemple une solution d’eau
- salée à 1 pour xoo. L’échantillon est dilué dans un récipient avec le même électrolyte et le récipient est mis en place de manière que le tube à orifice soit immergé dans l’échantillon. Deux électrodes disposées respectivement dans le récipient et dans le tube à orifice permettent la circulation d’un courant électrique à travers l’orifice. Le tube est relié, par l’intermédiaire d’un robinet, à un dispositif à vide. On ouvre alors le robinet pendant un temps très court, ce qui a pour effet de déséquilibrer le mercure du manomètre dans lequel plongent deux fils parcourus par un courant ; d’où production d’un signal qui déclenche le compteur. En même temps, le vide oblige l’échantillon à circuler à partir du récipient à travers l’orifice. Le robinet étant fermé, l’action de siphon du manomètre entretient la circulation de l’échantillon. Lorsqu’une particule est entraînée dans l’orifice, elle déplace une petite quantité d’électrolyte, ce qui fait varier la résistance entre les électrodes et produit une impulsion de tension de courte durée dont l’amplitude est proportionnelle à la dimension de
- 313
- p.313 - vue 313/560
-
-
-
- Amplificateur
- t Commande du\ compteur
- Fîg. 16. — Schéma de principe du compteur Coulter.
- Explications dans le texte.
- la particule. Ces impulsions sont amplifiées et apparaissent sur l’écran de l’oscilloscope sous forme de « pointes » verticales distinctes. La hauteur relative de ces pointes indique la dimension relative des cellules. Les impulsions sont également envoyées sur un circuit à seuil permettant le choix d’un niveau qtti, s’il est atteint ou dépassé par une impulsion, entraîne le comptage de celle-ci. Le niveau de ce seuil est indiqué par une plus grande luminosité des segments d’impulsions situés au-dessus du seuil. Au fur et à mesure de la circulation de l’échantillon, la colonne de mercure du manomètre s’élève et rétablit le contact,
- ce qui arrête le compteur après le passage d’un volume déterminé d’échantillon (par exemple 0,5 ml).
- Chaque comptage est très rapide (5 à 25 secondes de comptage, plus le temps de dilution) : un opérateur entraîné réussit à effectuer plus de 800 numérations par jour, alors que l’observation visuelle à l’aide d’un microscope ne permet pas d’en faire plus de 20 à 30. Le gain en main-d’œuvre de spécialistes permet en général d’amortir l’appareil en moins d’un an. Le nombre important de particules comptées par cette méthode (plusieurs dizaines de mille) limite l’erreur statistique. La gamme des dimensions des particules s’étend, par l’emploi de diamètres d’ouvertures différents, de 0,5 à 500 p. environ.
- Les domaines d’utilisation de l’appareil sont très variés. Citons : les abrasifs, les argiles et les sols, les matières colorantes, les produits pharmaceutiques, les ciments, les cellules du sang, etc. Sur la figure 18 nous avons représenté la courbe de répartition en dimensions d’un mélange de globules rouges dej)chèvre et d’homme.
- 0 10 20 30 40 50 60 70 80 90
- Fig. 18. — Courbe de répartition de globules rouges de chèvre et d’homme, obtenue au compteur Coulter.
- Prisme
- A
- Lentille
- ----------1
- Fente de balayage
- \
- Miroir
- \
- Oculaire
- Fig. IJ. — Le compteur de particules microscopiques Coulter.
- Photocathode
- Multiplicateur
- d'électrons
- -Pfimpli
- Contrôle platine
- Dis cri! \-^-\Compteur\
- Objectif «m Platine Condenseur
- vers discriminateurs et compteurs 2 à 5
- s—*- Condenseur
- Q Source lumineuse
- Fig. içf. — Représentation schématique du compteur de particules microscopiques Casella.
- Explications dans le texte.
- Un compteur fonctionnant sur un principe totalement différent a été mis au point par Casella Electronics (représenté en France par Labo-matériel). La figure 19 représente la disposition de l’appareil. Dans le plan F des particules dispersées sur une lame de microscope, un double condenseur forme une image d’une source lumineuse. L’objectif et l’oculaire d’un microscope forment ensuite une image de l’échantillon placé en F sur la fente de balayage qui limite le champ de vision du système. Cette image est renvoyée par une lentille et un prisme sur la cathode d’un
- 314
- p.314 - vue 314/560
-
-
-
- photomultiplicateur. Le flux lumineux qui tombe sur la cathode produit un photocourant, d’où une tension aux bornes de la résistance R. La lame de microscope est animée d’un mouvement sinusoïdal. Les variations de flux lumineux dues au passage des particules dans le champ de vision du photomultiplicateur produisent des impulsions dont l’amplitude est proportionnelle à l’aire des particules. Ces impulsions sont amplifiées et envoyées simultanément sur cinq discriminateurs d’amplitude réglés à différents seuils prédéterminés. Les impulsions de hauteurs supérieures à celles des seuils sont mises en forme et enregistrées sur cinq compteurs.
- Le déplacement de la platine du microscope est comman-
- dé par un dispositif électronique. Le mouvement sinusoïdal est obtenu par la combinaison d’un va-et-vient latéral et d’un mouvement d’avance et de recul de la platine. Celle-ci effectue ioo va-et-vient séparés par une distance de 50 microns, puis revient à son point de départ en 100 autres va-et-vient. La vitesse moyenne de balayage est de 6 mm/s, la durée de balayage d’une minute.
- La gamme des dimensions s’étend de 0,5 à zoo microns environ. La reproductibilité des comptages est de 1,5 pour 100. Comme précédemment, des particules de nature et de formes différentes peuvent être comptées, ce qui ouvre à l’instrument de multiples domaines d’application. R. R.
- Loi-programme et Fonds national de la recherche scientifique
- Le 4 mai 1961, l’Assemblée nationale a adopté une loi-programme de la recherche scientifique. Elle affecte, sous le titre de « Fonds national de la recherche », un crédit de 320 millions de nouveaux francs à des travaux réalisables en cinq ans et dont la liste a été dressée en commun par le Comité consultatif scientifique et la Délégation générale à la recherche. Quelle est la portée de cette loi ? Qu’est-on en droit d’espérer de son application ?
- Certainement pas la création d’un organisme central de la recherche qui viendrait coiffer le C. N. R. S. afin de lui donner plus d’efficacité, car le Fonds national se contente « de participer au financement des actions de recherche poursuivies par les organismes publics ou privés ». Ses interventions sont spécifiques et temporaires. En fait, il s’agit d’un investissement national dont la gestion est confiée à un organisme administratif spécialisé : un comité de techniciens pour chaque grand thème de travaux. Les membres de chaque comité sont désignés par arrêté : on remarque parmi eux une forte majorité de professeurs d’université, quelques techniciens du C. N. R. S., des spécialistes de certains instituts nationaux comme l’Institut national d’hygiène, l’Institut de la statistique, ou même le Commissariat général du plan. Ce comité dresse une liste de conventions à passer avec des organismes ou des laboratoires pour l’exécution du projet dont il a la charge. Il fixe donc l’objet de la convention, sa durée, et les crédits dont elle disposera. Le contrôle du fonctionnement est assuré par les services de la Délégation générale à la recherche scientifique.
- Que se proposent ces comités ? Quels sont les thèmes sur lesquels ils lanceront les chercheurs ?
- Le but est de coordonner les efforts de techniciens de formation ou de secteurs différents et de leur confier un même problème reconnu d’intérêt national. C’est ce que la loi-programme définit sous le nom d’ « actions concertées ». Mais les comités peuvent aussi, et c’est l’aspect plus original de la loi, stimuler la recherche individuelle
- grâce à ce texte qui appelle les actions urgentes : aider le scientifique qui a fait ses preuves à explorer un domaine ou à exploiter une idée. A cet effet, il est prévu que des crédits exceptionnels pourraient être débloqués dans de très brefs délais (deux mois au maximum) si l’intérêt de la recherche était confirmé par la délégation générale.
- Quant aux thèmes retenus, ils sont énoncés dans le premier article du projet de loi. Cinq sont consacrés aux sciences biologiques, deux aux sciences sociales, un à l’océanographie, un autre concerne la conversion des énergies et le dernier le problème de la documentation scientifique. Mentionnons enfin les recherches spatiales dont les dépenses seront couvertes par le fonds dont le programme était élaboré dès janvier 1959 et en voie d’exécution avant que ne fût conçu le projet de loi-programme.
- En cinq ans, 70 millions de nouveaux francs seront dépensés à des recherches biologiques. Cette somme est à partager entre cinq comités. Le programme proposé par le premier comité est ambitieux : il consiste à développer trois centres polyvalents de biologie moléculaire qui travailleront sur la biosynthèse des constituants cellulaires. On comprend que ces études intéressent les cancérologues ; aussi le comité de Biologie moléculaire a-t-il décidé de travailler en liaison avec le comité Cancer et Leucémie. Celui-ci disposera d’un crédit de 20 000 000 NF. Créera-t-on, comme il le propose, un laboratoire central de culture des tissus où serait possible l’étude des processus de cancérisation ? Un tel organisme permettrait aux chercheurs de travailler dans de bonnes conditions sur une thérapeutique du cancer basée soit sur la vaccination, soit sur une substance chimique s’attaquant exclusivement à la cellule atteinte. En tout état de cause, le comité a prévu des travaux de virologie, d’immunochimie, d’analyse des protéines, sur la nutrition et sur l’environnement de la cellule cancéreuse.
- Parmi les recherches biologiques, un thème s’imposait : celui de la neurophysiologie. Un hebdomadaire publiait
- 315
- p.315 - vue 315/560
-
-
-
- récemment une étude où l’on pouvait lire que la vie citadine que nous menons était responsable de l’accroissemenp du nombre des malades mentaux. Les statistiques en tout cas accusent une hausse impressionnante. Aussi le comité de Neurophysiologie et de Psychopharmacologie estime-t-il que des instituts techniques, groupant toutes les sections que requiert l’étude biologique des maladies mentales et de l’encéphale, sont aujourd’hui indispensables. Le comité pense faire porter les principaux efforts de ses chercheurs sur la biochimie en faisant travailler en collaboration des chimistes organiciens, des pharmaciens, des cliniciens sur de nouveaux médicaments chimiques des maladies mentales.
- Un problème qui préoccupe autant les économistes que les médecins est celui de la nutrition animale et humaine. Un comité s’est penché sur cette question et a décidé de réserver des chercheurs à l’étude des graisses alimentaires et des matières amylacées et surtout à la recherche de nouvelles sources d’alimentation. En attendant de les découvrir, améliorer celles que nous possédons, c’est le rôle du comité qui se propose d’appliquer les travaux de cytologie et de bromatologie à l’amélioration des cultures vivrières et des races de bétail. Là encore, la création d’un institut spécialisé serait nécessaire. Un institut de génétique est donc à l’étude.
- Les sciences biologiques ne seront pas les seules à profiter du Fonds national. Les sciences sociales en bénéficieront aussi. Un crédit de io ooo ooo NF sera affecté à l’analyse démographique, économique et sociale du monde rural français pour étudier son adaptation à la vie moderne et mettre au point des méthodes de développement régional.
- Un thème de recherche qui pourrait surprendre, et même paraître superflu aux yeux du grand public, est celui de l’océanographie. Rappelons, pour donner un élément d’appréciation, que ce thème occupe la seconde place juste après celui de l’espace dans la répartition des crédits de recherches aux États-Unis. En France, pendant cinq ans, les océanographes disposeront de 40 ooo ooo NF pour
- créer une véritable infrastructure de base des sciences de la mer : construction de navires d’exploration, aménagements de laboratoires, d’aquariums d’expérimentation, etc.
- On n’a pas omis les sciences physiques. Le problème de la conversion des énergies a été retenu. 30 ooo ooo NF sont réservés à cette question. Plus spécialement, on va s’atteler à l’étude des moyens d’exploitation de l’énergie solaire et on fera ensuite une petite place à l’électrochimie pour tâcher de sortir de l’ornière de la pile classique.
- Enfin, on a inscrit au programme le thème de la documentation scientifique. Si le « Fonds » se propose d’éviter les cloisonnements entre disciplines, la réalisation de cette bonne intention implique que soit mise à la disposition de tous les chercheurs une bonne documentation. Chaque année 25 ooo revues publient dans le monde des articles ou mémoires scientifiques originaux, 400 ooo auteurs présentent environ un million de travaux ; le recensement des sources documentaires et la traduction automatique de tous les textes représentent un minimum qu’on ne peut refuser au savant. Hélas, aucun crédit n’a pu être fourni pour ce thème. On s’est contenté d’une mesure d’attente qui consistera à acheter des machines à traduire, et à inscrire les grandes réformes en priorité aux « actions urgentes ».
- Tel est l’intéressant programme que le Fonds met en route. On peut regretter que l’on se soit peu préoccupé de la formation des chercheurs. Le problème du recrutement d’un personnel capable de mener à bien de tels travaux ne tardera pas cependant à se poser. Il faut croire qu’on l’inscrira alors en priorité aux « actions urgentes ».
- On peut aussi déplorer que le Fonds ne soit à bien y regarder qu’un « expédient » pour résoudre le problème de la recherche scientifique en France et que manque encore le grand organisme national capable de planifier les travaux et de les suivre dans leur détail.
- Charles Le Gros.
- Science et Rhétorique
- Les mémoires de physique et de chimie contiennent plus d’une fleur de rhétorique mais nous y sommes tellement habitués que nous ne les remarquons même plus et ne comprenons plus leur sens caché. Pour mettre fin à ce désastreux état de fait, la British Chemical Society vient de publier une liste explicative dont nous extrayons quelques « fleurs » pour faciliter à nos lecteurs la compréhension des textes anglo-saxons.
- — It has long been known that... : je ne me suis pas donné le mal de vérifier la source de cette information.
- — While it has not been possible to evalmte conclusively... : L’expérience ne s’est pas déroulée comme elle aurait dû, mais j’ai estimé qu’on pouvait quand même en faire une publication.
- — Three of the compounds were chosen for further experiments : Les résultats avec les autres substances n’ont aucun sens et ne seront par conséquent pas évoqués ici.
- — The reaction iras carried out in the usual manner... :
- Celui qui voudra répéter les expériences peut toujours essayer...
- — Typical results are shown : Les meilleurs résultats sont seuls donnés ici.
- — Presumably, at longer times... : Je ne me suis pas donné la peine d’essayer...
- — The results will be reported at a later date : Peut-être aurai-je un jour l’occasion de faire ces expériences.
- — It might be argued that... : Je connais une si bonne réponse à cette objection que je la fais tout de suite...
- — It is to be hoped that this paper will stimulate further work in this field : Ni cette publication, ni les autres sur le même sujet ne valent quelque chose.
- — Thanks are due to James Smith for assistance with the experiments and to John Brown for valuable discussion : Smith a fait le travail, Brown a interprété les résultats et j’ai signé la publication.
- R. R.
- 316
- p.316 - vue 316/560
-
-
-
- Le Ciel en Août 1961
- SOLEIL : du Ier août au Ier septembre (à o*) sa déclinaison décroît de + i8°8/ à + 8*27' et, la durée du jour de
- 15h3m à 13*27™ : diamètre app. le Ier (à o*) = 31 '34",I, le
- 31 (à 2411) = 31'44",9- — LUNE : Phases : D. O. le 3 à 11*48™, N. L. le 11 à 10*36™, P. Q. le 19 à 10*52™, P. L. le 26 à 3*14™ ; apogée le 11 à 17*, diamètre app. 29/24" ; périgée le 25 à 19*, diamètre app. Principales conjonctions : avec Vénus
- le 7 à 18*, à 2*32' S. ; avec Mercure le II à 4*, à 2°52' S. ; avec Uranus le 12 à 2*, à o°5i' S. ; avec Mars le 14 à 18*, à 2°i6/ N. ; avec Neptune le 18 à O*, à 3°25' N. ; avec Saturne
- le 23 à 15*, à 3°6' N. ; avec Jupiter le 23 à 23*, à 3°I2/ N.
- Principale occultation : le Ier, de 14 Baleine (mag. 5,9), émersion à 1*23™,o. — PLANÈTES : Mercure, brille encore le matin les premiers jours du mois, puis disparaît dans le rayonnement solaire ; Vénus, encore radieuse étoile du matin, se lève le 17 à 1*25™, soit 3*22™ avant le Soleil ; Mars, dans le Lion puis la Vierge devient peu visible le soir ; Jupiter, dans le Capricorne très bel astre visible presque toute la nuit, le 16, diamètre pol. app. 44",2 et mag. — 2,3 ; Saturne, précède .lupiler, le 16, diamètre pol. app. 16",4, axes de l’anneau : 41",2 et -j- 15",9, mag. 0,4; Uranus, dans le Lion n’est pas visible ; Neptune, dans la Balance peut encore se rechercher le soir, le 16, position : 14*28™ et —I2°45', diamètre app. 2",4. — ÉTOILES VARIABLES : minima de P Lyre (3™,4-4™,3) le 6 à i*,9, le 19 à 0*2, le 31 à 22*,6 ; minima de S Balance (4™,8-5™,9) le 7 à 20*,o, le 14 à 19*,6 ; maxima de 8 Céphée
- (3™,7-4™,6) le 2 à 3*,9, le 7 à 12*,6, le 12 à 21*,4, le 18 à 6*,2, le 23 à i5*,o, le 28 à 23*,8 ; maxima de 7) Aigle (3™,7-4™,4) le Ier à 2*,9, le 8 à 7*,2, le I 5 à il*,4, le 22 à 15*, 6, le 29 à 19*, 9 ; maxima de B Vierge (6™,2-12™,1) le 14, de X üphiuchus (5™,9-9™,2) le 25, de SS Vierge (6™,0-9™,6) le 31. — TEMPS SIDÉRAL : au méridien de Paris à o* (T. U.), le Ier : 20*46m48s, le 11 : 2i*26mi3s, le 21 : 22*5m39s, 1° 31 : 22*45m5s.
- Phénomènes intéressants : Surveiller la surface tachée du Soleil. — Du 5 au 9, lumière cendrée de la Lune, le matin. — Le 11, éclipse annulaire de Soleil invisible en France, commencement à 8*12™,8, maximum à 10*46™,o, fin à 13*19™,3 ; grandeur : 0,969. — Le 26, éclipse partielle de Lune, en partie visible en France, entrée de la Lune dans la pénombre à 0*87™,5, dans l’ombre à 1*35™,3, milieu de l’éclipse à 3*8™,2, sortie de la Lune de l’ombre à 4*41 ™52, de la pénombre à 5*38™,9 ; grandeur : 0,986, à Paris, coucher de la Lune à 5*5™ ; belle éclipse presque totale. — Du Ier au 17, étoiles filantes : Perséides (radiant : r\ Persce), maximum le 12, très bel essaim, le plus riche de l’année. — Par les soirées sans lune, observer la Voie lactée dans la région où elle^ est la plus intense : Scorpion, Ophiuchus, Sagittaire, Écu, Flèche, Renard, Cygne, Cassiopée.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- O U V E A U X
- LES L I V
- Initiation aux logarithmes, par M. Cantagret.,
- 1 vol. 14 X 22, 64 p., 2e édition, Dunod, Paris, 1961. Prix : 2,80 NF.
- A une époque où l’on s’efforce de diriger de plus en plus de jeunes vers les sciences, l’usage des logarithmes doit se vulgariser. La présente Initiation, qui vient d’être rééditée, ne fait appel qu’à quelques notions élémentaires de mathématiques, compréhensibles de tous.
- La face cachée de la Lune. Texte de l’Académie des Sciences de l’U. R. S. S. Trad. de l’anglais par Hugo Fournier, i vol. 21 X 27, 36 p.,
- 5 fig., 4 photos. Pergamon Press, Paris, Oxford, Londres, New York, i960. Prix, cartonné : 7,50 NF.
- Le 4 octobre 1959, une « station interplanétaire automatique » (Mas) lancée par les techniciens soviétiques contournait la Lune à une distance de quelques milliers de kilomètres et envoyait quelques images de la face inconnue de notre satellite (voir La Nature, décembre 1959, p. 513). Le présent petit ouvrage donne quelques renseignements sur le Mas, sur son orbite, sur la prise des photos et leur transmission. Trois photos de la face inconnue sont données et brièvement commentées.
- Mathématiques, magie et mystère, par M. Gardner. Trad. de l’anglais par R. Rosset.
- 1 vol. 15 X 21,5, 180 p., 86 fig. Dunod, Paris, i960. Prix : 8,80 NF.
- Un grand nombre de tours de société, qualifiés de magiques parce qu’on n’en comprend pas toujours facilement le ressort, reposent sur des propriétés mathématiques. Ayant fréquenté de nombreux « magiciens », tant amateurs que professionnels, l’auteur nous apporte une vue d’ensemble sur cette curieuse spécialité, qui sait mettre à profit toutes sortes d’instruments : cartes, dés, dominos, calendriers, montres, billets de banque, allumettes, etc. Il s’y ajoute les curiosités topologiques, les paradoxes géométriques, la magie des nombres. Certains de ces tours, fort simples, mettent bien plus en jeu un effet psychologique qu’une véritable difficulté abstraite. Occasion de s’amuser, de s’instruire quelque peu et surtout de méditer sur la nature de l’illusion.
- R E S N
- The application of Group Theory in Physics,
- par G. Ya. Lyubarskii. Traduit du russe par Stevan Dedijer. i vol. 14 X 22,5, x-380 p., 23 fig. Pergamon Press Ltd., Oxford, Londres, New York et Paris, i960. Prix, relié : 63 sh.
- On peut facilement estimer à une dizaine le nombre d’ouvrages publiés au cours des deux dernières années sur la théorie des groupes appliquée à la physique. Le présent livre est un des plus accessibles : la partie mathématique est réduite à l’essentiel et de très nombreuses applications aux différentes branches de la physique (thermodynamique, cristallographie, mécanique quantique, relativité) sont ensuite exposées. Ce dernier aspect doit intéresser le physicien qui n’est pas pur théoricien.
- Précis de Physique théorique moderne. Tome premier : Physique classique et relativiste et Théorie classique des champs, par Théo Kahan. 2 vol. 13,5 X 18,5, 687 p., 85 fig. Coll. Enclide. Presses Universitaires
- ----- A NOS LECTEURS -----------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARI$-6e
- se tient a la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- de France, Paris, i960. Prix, chaque vol. : 34 NF.
- Première partie d’un exposé de physique théorique qui n’a pas, à notre connaissance, d’équivalent dans la littérature scientifique de langue française. Ces deux volumes traitent de la physique non quantifiée et sont surtout consacrés à la mécanique, à l’électromagnétisme et à la thermodynamique statistique. L’ambition d’un tel projet se heurte évidemment à un certain nombre de difficultés. Une des plus importantes vient de la concision imposée par l’ampleur du sujet et pour lire cet ouvrage avec fruit il faut que le lecteur ait des connaissances de base très sérieuses. Mais n’est-ce pas cela qu’implique le terme de « Précis » ? Le format et la présentation de l’ouvrage le rendent agréable à consulter. — J. L.
- Théorie de l’électromagnétisme, par Julius Adams Stratton. Traduit de l’américain par J. Hebenstreit. i vol. 16 x 25, xvi-702 p., 116 fig. Dunod, Paris, 1961. Prix, relié toile sous jaquette : 98 NF.
- L’ouvrage du professeur Stratton est, depuis la date de sa parution, devenu un véritable classique en électromagnétisme. Cette édition permettra au lecteur de langue française de lui donner la place de choix qui lui revient. Partant des équations de Maxwell comme postulat, l’auteur en développe une grande partie des conséquences (électrostatique, magnéto statique, propagation des ondes, etc.). Chaque chapitre est suivi de problèmes avec référence ou solution.
- Course of Theoretical Physics. Volume 8 : Electrodynamics of Continuous Media, par
- L. D. Landau et E. M. Lipschitz. Traduit du russe par J. B. Sykes et J. S. Bell, i vol. 15,5 X 25,5, x-417 p., 46 fig. Pergamon Press, Oxford, Londres, New York et Paris, i960. Prix, relié : 84 sh.
- Les auteurs ont placé sous ce titre la plupart des sujets que nous classons sous le terme général d’ « Électricité », y compris l’optique électromagnétique des milieux isotropes et anisotropes. Toutefois, la théorie générale du champ électromagnétique dans le vide et de son interaction avec une particule isolée (électronique) a été
- 317
- p.317 - vue 317/560
-
-
-
- traitée dans le volume 2 de ce Cours (Théorie classique des champs'). L’originalité de cet ouvrage réside dans le point de vue adopté pour l’exposition, qui est caractéristique de Landau : sa description des phénomènes est globale, thermodynamique, sans effort pour relier leur interprétation à un modèle microscopique. Les effets du champ électro-magnétique sont présentés comme .une perturbation des propriétés mécaniques et thermodynamiques ordinaires de la matière ; il en résulte un exposé remarquablement clair et cohérent des multiples « effets » mixtes : thermoélectricité, piézoélectricité, galvanoélectricité, effets gyro-magnétiques, magnéto-striction... S’il est vrai que les auteurs ont traité très sommairement certains sujets classiques (ayant un aspect technique), ils ont abordé de front des points particulièrement délicats tels que la symétrie électrique et la symétrie magnétique des cristaux, la supraconductivité, la dynamique des fluides conducteurs (magnéto-hydrodynamique). Us consacrent en particulier un chapitre excellent à la notion de perméabilité diélectrique complexe dépendant de la fréquence et son application à l’étude de l’ionisation par passage d’une particule rapide dans la matière. — P. M.
- Électroacoustique, par Pierre Rouard. i vol. 11 X 16,5, 221 p., 71 fig. Collection Armand Colin, Paris, i960. Prix : 4,50 NF.
- Le développement spectaculaire de la transmission et de la reproduction toujours plus parfaites des sons a renouvelé l’intérêt de l’acoustique en tant que branche de la physique. Dans cet ouvrage l’auteur expose et utilise la notion si féconde d’impédance acoustique. La dernière partie du livre est consacrée aux microphones et haut-parleurs.
- Eléments of physical Metallurgy, par A. G. Guy.
- 2e édition, 1 vol. 15,5 X 23,5, xvi-528 p., fig. Addison-Wesley Publishing Company, Reading (Mass.), i960. Prix, relié : 10,75 dollars. Destiné aux étudiants en métallurgie, cet ouvrage doit leur permettre de se familiariser avec ce domaine des plus importants de la physique appliquée. Après l’étude des diagrammes de phases, l’auteur passe en revue les propriétés physiques (électriques, mécaniques). Le dernier chapitre est consacré aux traitements thermiques de l’acier. Excellent appendice consacré à la littérature technique et la manière de s’en servir.
- L’hydrologie, par Charles Guyot, chargé de cours à la Faculté de Médecine et de Pharmacie de Rennes. 1 vol. 11,5 X 17,5, 128 p., 3 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, i960. Prix : 2,50 NF.
- Après un court chapitre d’histoire, ce petit livre traite de la composition des eaux, des examens auxquels elles donnent lieu, des eaux souterraines, des problèmes d’approvisionnement dans nos régions, de la correction des défauts des eaux, et brièvement de l’eau dans l’organisme humain. Le problème de la pollution n’est évoqué qu’en passant.
- Biologie cellulaire, par A. Obré, F. Campan, inspecteurs généraux de l’Instruction publique, et R. Chanton, professeur agrégé au Lycée Chaptal. 2e édition complètement remaniée. 1 vol. 15 X 21, 504 p., 315 fig., 10 planches hors texte. G. Doin, Paris, i960. Prix : 48,50 NF.
- Le microscope électronique, le contraste de phase, les nouvelles méthodes de la biochimie ont apporté en ces dernières années une moisson considérable de connaissances nouvelles sur la structure de la cellule vivante et sur les processus physico-chimiques qui s’y déroulent. La 2 e édition de cet ouvrage destiné aux candidats aux grandes écoles, dont le programme comprend une importante partie biologique, s’est efforcée d’être une introduction à la biologie cellulaire dans sa forme moderne. L’exposé des méthodes d’étude y est cependant relativement succinct. De plus grands développements ont été donnés à la composition du protoplasme, à ses constituants morphologiques, à la physiologie cellulaire (échanges, métabolisme), aux modalités de la multiplication des cellules. Bibliographie sommaire.
- La chimie du vin, par Jules Carles, professeur à l’Institut catholique de Toulouse. 1 vol. 11,5 X 17,5, 128, p., 7 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, i960. Prix : 2,50 NF.
- Botaniste et biochimiste, l’auteur est un excellent vulgarisateur. Ce petit livre, bien composé, nous apprend ce qu’est le vin, ce que sont les vins, quels constituants on y trouve, comment s’en fait la synthèse dans le raisin, puis dans la préparation du vin, les sources du gaz carbonique, l’action des levures et des bactéries, etc., les facteurs du bouquet. En annexe, les méthodes officielles d’analyse.
- Kurzes Lehrbuch der Biochemie für Mediziner und Naturwissenschaftler, par le Prof. Da. P. Karlson. 1 vol. 17,5 X 26, XII-331 p., 53 fig. Georg Thieme Verlag, Stuttgart, 1961. Prix, cartonné : 29,70 DM.
- Au cours des dix dernières années, nos connaissances sur les voies du métabolisme et sur l’énergétique des réactions enzymatiques se sont développées de façon saisissante ; deux nouvelles disciplines sont nées : la biologie moléculaire qui étudie la structure et les mécanismes de synthèse ou de duplication des macromolécules (acides nucléiques, protéines), et la topochimie dont le but est de préciser quelles structures subcellulaires sont le siège des diverses réactions biochimiques. Les résultats fondamentaux sont relatés ici, pour la première fois peut-être au niveau d’un manuel élémentaire de biochimie, avec précision et avec une exceptionnelle clarté. Cet excellent ouvrage mérite une très large diffusion parmi les étudiants en sciences naturelles et en médecine ; ces derniers apprécieront particulièrement les chapitres terminaux consacrés à la régulation hormonale et à la biochimie des différents organes (muscles, reins, nerfs). — G. B.
- Médicinal Chemistry, édité par Alfred Burger, 2e édition. 1 vol. 18 x 26, xiv-i 243 p., fig. Interscience Publishers, New York et Londres. i960. Prix, relié : 37,50 dollars.
- Les progrès considérables réalisés dans la recherche chimique médicale ont rendu nécessaire une révision complète de l’ouvrage paru en 1951. Les auteurs (au nombre de 35) nous offrent un travail remarquable par son ampleur, sa documentation et sa présentation. Après quelques exposés généraux sur le développement historique de la chimie médicale, sur l’étude biologique des remèdes, sur la réaction des cellules et des tissus vis-à-vis de ceux-ci, sur les relations entre propriétés physiques ou chimiques et activité biologique, nous trouvons en une quarantaine de chapitres l’ensemble des médicaments, groupés d’après la nature de leur activité : analgésiques, anesthésiques, diurétiques, etc. ; les chapitres relatifs aux vitamines et aux hormones sont particulièrement étendus. Il s’agit donc d’un ouvrage particulièrement important pour tous ceux qui s’intéressent à la place de plus en plus grande que prend la chimie en médecine.
- Die Zellkernmorphologische Geschlechts-erkennung in Théorie und Praxis, par Hermann Adolf Hienz. 1 vol. 15,5 X 23, x~2i9 p., 40 fig. Dr. Alfred Hüthig Verlag GmbH, Heidelberg, 1959. Prix, cartonné : 30 DM.
- L’observation microscopique des noyaux quiescents de cellules somatiques révèle, chez l’Homme et chez les Vertébrés supérieurs, des différences morphologiques liées au sexe, telles que la présence ou l’absence des corpuscules de Barr. Diverses applications de cette méthode de diagnostic du sexe peuvent déjà être envisagées. Cette monographie contient, outre une partie bibliographique importante, les conclusions des recherches personnelles du docteur Hienz : essais d’identification du sexe sur des cellules fœtales, études statistiques sur le sex-ratio humain au cours des années de guerre, mise en évidence de certains types de cellules tumorales de caractères « sexuels » opposés à ceux des cellules normales du malade, analyse de divers types d’intersexualité.
- Asexual propagation and régénération, par
- M. A. Vorontsova et L. D. Liosner. Traduit du russe par P. M. Allen, i vol. 14 x 22,5, xxiv-489 p., 210 fig. Pergamon Press Ltd., Oxford, Londres, New York et Paris, i960. Prix, relié : 70 sh.
- Deux spécialistes des questions de régénération font une mise au point des travaux les plus récents. La ire partie décrit les processus de reproduction asexuée dans le règne animal. La 2e étudie la régénération physiologique dans les conditions naturelles. La 3e, la plus longue (370 p.), décrit les processus de réparation régénérative après ablation d’une partie du corps de l’animal. Les lois générales de la régénération sont énoncées, et un important chapitre étudie ce phénomène chez les Vertébrés, plus particulièrement chez les Mammifères. Par l’originalité de ses points de vue, ce livre sera fort utilement lu par les biologistes. Une bibliographie étendue, comprenant en particulier les travaux en langue russe, permettra aux spécialistes de se faire une idée des travaux exécutés en Union Soviétique sur cette question. Regrettons seulement que, afin d’abaisser le prix de revient, l’ouvrage ait été simplement photo-lithographié. La conséquence en est que certaines des illustrations sont fort mal venues. — R. D.
- Le§ Algues, par Élisabeth Naegelé, professeur d’enseignement technique, et Antoine Naegelé, botaniste à l’Institut français d’Afrique Noire. 1 vol. 11,5 X 17,5, 128 p., 10 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, 1961. Prix : 2,50 NF.
- Sous le nom d’Algues on réunit un ensemble de végétaux extrêmement divers qui sont sans doute d’origines très différentes. Comme ceux des champignons, leurs modes de reproduction sont infiniment variés. Ce vaste ensemble a encore beaucoup à nous apprendre. Voilà un thème intéressant pour les amateurs de plongée sous-marine. Ce petit livre sera une bonne introduction à cette étude.
- Les champignons extravagants. Texte de Gil-berte Graff. Dessins de Judith Bledsoe. 1 vol. 17,5 X 26, 30 p. Collection Mon Univers. Armand Colin, i960. Prix, cartonné : 2,85 NF.
- Les champignons dont il s’agit sont les levures, l’amanite tue-mouches, les pénicilliums (du camembert à la pénicilline !), le polypore soufré (représenté beaucoup trop rouge), le mérule pleureur (destructeur de charpentes), les truffes, les champignons hallucinogènes du Mexique. Pourquoi « extravagants » ? Le texte est meilleur que le titre, les illustrations un peu trop fantaisistes pour être instructives.
- Plantes utiles du monde entier, par T. Linné L et J. Arnoult. 1 vol. 12 X 18,5, 194 p., 128 planches en couleurs d’Edgar Hahnewald. Collection Nouveaux guides du naturaliste. Fernand Nathan, Paris, i960. Prix, cartonné : 9,90 NF.
- Dans ce petit livre agréablement présenté, le lecteur trouvera, figurées en couleurs et brièvement décrites, les principales espèces végétales de grande utilité, cultivées dans nos jardins et nos champs, ou à demi sauvages, avec quelques plantes exotiques dont les noms nous sont en général familiers mais dont l’aspect même nous est souvent inconnu. Cela va du Blé à l’Indigotier, en passant par le Chou et le Cédrat...
- Rapports du sol et de la végétation, sous la direction de G. Viennot-Bourgin, professeur à l’Institut national agronomique. 1 vol. 16,5 X 24, 184 p., 10 fig., nombreux tableaux. Masson, Paris, i960. Prix : 24 NF.
- Compte rendu du Ier Colloque organisé sur ce sujet en juin 1959 par la Société Botanique de France. Une première série d’exposés concerne l’influence de la végétation sur le sol, sous différents climats, zone tropicale humide et semi-humide, zone intertropicale, climat tempéré ; l’installation de la végétation sur sols dénudés par l’érosion ; la protection contre l’érosion ; l’influence sur la microflore, etc. La 2e partie concerne l’influence du sol sur la végétation et fournit un certain nombre d’exemples bien étudiés.
- 318
- p.318 - vue 318/560
-
-
-
- Plusieurs exposés sont consacrés aux plantes « indicatrices » qui peuvent révéler la composition des sols pour l’agronome et du sous-scl pour le prospecteur minéralogiste.
- Le monde animal. Sciences naturelles, classe de Première M', par Jacques Blot. Illustrations d’Aude Vasseur. ze édition revue, i vol. 15,5 x 21,5, 49° P’) planches en couleurs. Éditions de l’École, Paris, i960. Prix, cartonné : 14 NF.
- Ce livre correspond bien à l’orientation moderne de l’enseignement des sciences naturelles, qui fait une grande place aux observations personnelles, aux élevages et expériences conduites au laboratoire en même temps qu’aux excursions dans la nature. En réalité, il ne saurait s’agir que d’un compromis. Les élèves n’observeront vraisemblablement pas de Bothriocéphale et il est pourtant utile de le leur présenter. Mais ils pourront très bien observer eux-mêmes des fourmis, voire le Crabe chinois qui nous envahit. Qu’ils fassent une partie seulement des dissections et observations qui leur sont ici indiquées et qu’ils retiennent le résultat des autres, ils auront été convenablement initiés à la zoologie.
- Le monde animal ; Aperçus synoptiques, par Jacques Blot. Illustrations d’Aude Vasseur.
- 1 vol. 22 x 15,5, 108 p., nombreux dessins. Editions de l’École, Paris, i960. Prix, cartonné toile : 5,50 NF.
- L’ouvrage est essentiellement un atlas qui complète le manuel de Sciences naturelles de la classe de première C', M'. Chaque groupe animal y est présenté généralement en quatre pages : une page résumant les caractères eu groupe, un tableau de la classification, et deux pages de dessins, très bien présentés. On trouve à la fin une série de tableaux qui reprennent sous une forme visuelle les problèmes de l’adaptation chez les Vertébrés en général, plus spécialement chez les Mammifères, ainsi que les principaux problèmes d’anatomie comparée.
- La forêt et ses bêtes, par Marcelle Vérité. Illustrations de Romain Simon, i vol. 22 X 31, 94 p. Gautier-Languereau, Paris, i960. Prix, cartonné : 18,50 NF.
- Ce charmant album, orné de jolis dessins et aquarelles,' nous entraîne dans une promenade en forêt, à diverses saisons et, bien qu’il soit écrit pour les enfants, plus d’un adulte le feuillettera avec plaisir. Très classiquement poétique, il donne un nom à chacun et prête aux animaux des allures et des sentiments très humains. Cependant M. Etchecopar, zoologiste réputé, a collaboré à ce texte et il faut donc avoir confiance. En faisant aimer la nature, de tels livres peuvent aider à la faire protéger, mais il ne serait pas mauvais que les auteurs aient plus explicitement ce souci.
- Grands voyageurs du monde animal, par Otto Fehringer. Préface du docteur F. Méry. Trad. de l’allemand par André Hendrickx. 1 vol. 11,5 X 18, 154 p., dessins, 4 planches hors texte. Séquoia, Paris-Bruxelles, i960. Prix : 2,25 NF.
- Ce petit ouvrage, accessible à tous, résume et commente les connaissances acquises sut les déplacements et migrations des animaux. Les mammifères terrestres (grands herbivores, rongeurs) ne sont que de modestes voyageurs si on les compare aux poissons et aux oiseaux, et même aux sauterelles. L’auteur s’efforce de définir le sens biologique de ces migrations. L’aspect physiologique et expérimental de la question a été laissé de côté dans cet exposé élémentaire.
- Birds of Hawaii, par George C. Munro. i vol. 16 x 23, 192 p., photogr., 20 pl. h. t. en coul. Bridgeway Press (diff. Tuttle, Rutland et Tokyo), s. 1., i960. Prix, relié : 4,50 dollars. Cette réimpression d’un ouvrage paru en 1944 à Honolulu, et devenu introuvable, sera bien accueillie de l’amateur ornithophile et du spécialiste, trop souvent contraints de recourir à des travaux vieillis et incomplets. L’auteur, qui n’est pas un ornithologiste professionnel, a acquis sur le terrain, au cours de longues années, une remarquable connaissance de l’avifaune hawaïenne. Réparties en trois catégories : indigènes (marines et sylvicoles), « accidentelles », importées, les diverses espèces, dont chacune reçoit identification latine et, éventuellement, vernaculaire, font l’objet d’une description succincte et, pour la première catégorie surtout, la plus copieuse, de notations sur la distribution géographique et l’éthologie. On apprendra, non sans mélancolie, que nombre d’espèces sont éteintes ou en voie de disparition. Belle illustration figurant plus de 150 espèces, mais on regrette l’absence de toute carte. Index ; corrigenda de nomenclature.
- Où, quand, comment protéger les Oiseaux,
- par Pierre Pellerin. i vol. 13,5 X 18,5, 142 p. Crépin-Leblond, Paris, i960. Prix : 8,25 NF ; franco : 9 NF.
- Ce petit livre vulgarise des notions qu’il convient de répandre dans le public si l’on veut aboutir à une protection efficace de la nature. Se limitant aux oiseaux, il montre l’inanité de la classification habituelle (et encore officielle) en « nuisibles » et « utiles ». Tous sont utiles quand les équilibres naturels ne sont pas détruits. L’auteur expose la législation existante et celle qui serait souhaitable. Il donne ensuite quelques conseils pour aider les oiseaux à nicher ou à passer les mauvais jours : perchoirs, refuges, mangeoires...
- Les Oiseaux familiers. Texte de Jacqueline Kasarhérou, dessins de Bernard Kagane. 1 vol. 17,5 X 26, 30 p. Collection Mon Univers. Armand Colin, Paris, i960. Prix, cartonné : 2,85 NF.
- Un charmant livre qui, aux jeunes fidèles de cette collection, présente goélands argentés, hirondelles, martins-pêcheurs, chouettes effraies, coucous, rossignols, corbeaux freux. Leçon très élémentaire d’histoire naturelle bien agréablement illustrée en noir et en couleurs.
- Animaux en couleurs, par Hans Hvas et F. Petter. i vol. 12 x 18,5, 104 p., 109 illustrations en couleurs de Karl Aage Tinggaard. Collection Nouveaux guides du naturaliste. Fer-
- nand Nathan, Paris, i960. Prix, cartonné : 8,85 NF.
- Il est douteux que ce joli petit livre soit un « guide pratique » comme le dit la préface. C’est au moins une agréable leçon d’histoire naturelle élémentaire ; le jeune ou le débutant s’y familiariseront avec la silhouette d’un certain nombre d’animaux, pour la plupart de nos régions, et apprendront l’essentiel de leurs mœurs.
- Animaux et plantes du bord de la mer, par
- G. Mandahl-Barth et M.-L. Bauchot.
- 1 vol. 12 x 18,5, 104 p., 263 fig. en couleurs de Henning Anton. Collection Nouveaux guides du naturaliste. Fernand Nathan, Paris, i960. Prix, cartonné : 8,85 NF.
- Ce petit livre, dont l’édition originale est danoise comme tous ceux de cette jolie collection, contient l’essentiel des découvertes que le naturaliste amateur peut faire sur les plages du Danemark quand la tempête y a rejeté algues et animaux. Dans quelle mesure est-il utilisable en France ? Peut-être sur nos côtes de la Mer du Nord et de la Manche et, à un moindre degré, dans l’Atlantique.
- Origine et destinée des Reptiles, par J.-P. Lehman, professeur au Muséum. 1 brochure 13,5 x 18, 18 p., 9 fig. Edition du Palais de la Découverte, Paris, i960. Prix : 1,70 NF.
- Les études paléontologiques récentes semblent établir que les Reptiles ne proviennent pas des Batraciens Stégocéphales, comme on l’avait cru, mais directement des Ostéolépiformes (Poissons Crossoptérygiens) ; toutefois les intermédiaires sont inconnus. Par contre, la transformation des Reptiles Mammaliens en Mammifères est mieux connue.
- Atlas des Coléoptères de France, par Luc
- Auber. 2 vol. 13,5 X 18,5. Tome I : 250 p., 75 fig., 18 photos et 12 pl. en coul. h. t. ; tome II : 282 p., 37 fig., 12 photos et 24 pl. en coul. h. t. Édit. N. Boubée et Cie, Paris, i960. Prix, chaque vol. : 22,50 NF.
- Nouvelle édition, remaniée et augmentée, qui doit remplacer les trois anciens fascicules consacrés aux Coléoptères dans la collection des « Atlas Boubée ». Dans la ire partie l’auteur résume les aspects morphologiques et biologiques des espèces les plus caractéristiques rencontrées en France. Dans la 2e, la récolte, la mise en collection et la conservation des Coléoptères sont étudiées. La 3e aborde l’étude systématique. Le jeune entomologiste débutant en tirera le plus grand profit. Les éditions Boubée ont apporté le plus grand soin à cette publication, tirée sur beau papier, facile à consulter. Les 36 planches représentant 800 espèces sont dues au talent de Mlle Germaine Boca. Ces planches permettront la détermination facile de beaucoup d’espèces communes. Les 30 photos dues à des photographes réputés constituent de très bons documents d’histoire naturelle. Regrettons seulement que l’étude des larves, si intéressante, ait été à peu près complètement négligée. — R. D.
- VIENT DE PARAITRE
- CHEMINEMENTS
- D E
- PARTICU LES
- L’ergodicité et le monde en expansion
- PAR
- W. RIVIER
- 76 pages 12 x 18. Broché ........................ 6 NF
- DUNOD, Éditeur, 92, rue Bonaparte, Paris-6“. DAN 99-15.
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e. — ODE 54-83
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d’État. Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignemênt " à domicile "
- (Joindre timbre pour notice)
- 319
- p.319 - vue 319/560
-
-
-
- Vert Paradis, Faillie et llore en joo images, par Éric de Montmollin et Georgctte Épinev. Réalisation de F. A. Rœdelberger avec le concours de 60 photographes animaliers, i vol. 22 X 24, 216 p., 300 illustrations, 24 planches hors texte en couleurs. Hachette, Paris, i960. Prix, relié toile : 22 NF.
- Sous la direction des auteurs un' groupe de photographes a réalisé un admirable ensemble de photographies sur la faune et la flore de nos Alpes. Mammifères, oiseaux de toute espèce, insectes ont été saisis par l’objectif dans les divers aspects de leur vie, parfois touchants, souvent dramatiques, toujours d’un puissant intérêt. Beaucoup de fleurs, de belles formes végétales, des microphotographies aussi d’une parfaite réalisation. Nombre de ces tableaux n’ont rien à envier à Walt Disney. Des textes courts commentent sobrement mais utilement ces beaux documents qui, espérons-le, donneront à beaucoup le désir d’observer et de respecter la nature.
- Les déserts dans le monde, par Hilaire Cuny,
- 1 vol. 14 X 23, 294 p. Payot, Paris, 1961. Prix : 18 NF.
- L’étude des déserts est d’actualité. On espère trouver là de quoi nourrir une humanité de plus en plus nombreuse et toujours plus affamée.
- De bons esprits doutent fort qu’on y réussisse et l’auteur de ce livre leur paraîtra exagérément optimiste. Reconnaissons-lui au moins une bonne documentation, puisée à toutes les sources utiles.
- Il nous apprend comment se sont formées les zones désertiques, ce qu'est la vie dans les déserts, quels hommes y vivent et comment, et ce que sont les objectifs d’une « exploitation rationnelle ».
- Pratique anthropologique, par le Dr Georges Olivier, maître de conférences à la Faculté de Médecine de Paris, chargé de cours d’anthropologie à la Sorbonne. Préface de H. V. Vallois, directeur du Musée de l’Homme, de l’Académie de Médecine. 1 vol. 16 X 24,3, 300 p., 73 fig. Vigot frères, Paris, i960. Prix, cartonné :
- 15 NF.
- L’auteur, qui jouit d’une longue pratique acquise « sur le terrain » en Afrique, Asie et Océanie, à la fois clinicien et homme de laboratoire, a pu sélectionner les meilleures méthodes anthropologiques et dégager des notions de base. Il a conservé les techniques de l’anthropologie physique classique, fondée sur des descriptions anatomiques comparatives et sur des calculs d’indices, n’en retenant d’ailleurs que l’essentiel et le « bon gtain ». Mais il n’ignore pas pour autant ce qu’ont apporté les techniques nouvelles, en particulier l’analyse statistique et la génétique des populations.
- La ire partie est consacrée à l’anthropologie du vivant : caractères morphologiques (dimensions, poids, pigmentation, pilosité, etc.) et génétiques (groupes sanguins, sensibilité gustative, vision des couleurs, etc.) ; la 2e partie concerne le squelette, et c’est la plus développée ; elle se termine par un exposé des techniques statistiques élémentaires. Bibliographie-Index.
- Les nouveaux traitements du diabète, par
- Auguste Loubatières, professeur à la Faculté de Médecine de Montpellier. 1 brochure 13,5 X 18, 20 p. Édition du Palais de la Découverte, Paris, i960. Prix : 1,50 NF.
- Perspectives ouvertes par l’étude pharmacodynamique et clinique des sulfonamides hypoglycémiants, fondement d’un traitement simple appliqué mondialement depuis cinq ans.
- L’éducation et la rééducation graphiques, par Robert Olivaux, professeur à l’École de Psychologues praticiens, membre du Groupement des graphologues-conseils. Préface de Mme S. Borel-Maisonnï. i vol. 12 x 18,5,
- 152 p., 33 fig. Nouvelle Encyclopédie pédagogique. Presses Universitaires de France, Paris, i960. Prix : 4,80 NF.
- Ce petit ouvrage nous révèle une spécialité de »
- la psychothérapie : la « graphothérapie ». Le tempérament, le caractère, le degré de maturation ont une influence sur le graphisme. Inversement, dans une certaine mesure, la façon de former les lettres influerait sur la personnalité ; l’éducation de l’écriture devient un élément de l’éducation et un instrument aux mains du psychologue. L’auteur nous montre l’évolution « du gribouillis à l’écriture » et analyse les facteurs qui interviennent dans la formation de l’écriture. La 20 partie nous introduit à la pratique de la graphothérapie, jusque dans des « cas spéciaux » : gaucherie, bégaiement, etc. On ne doute pas du sérieux de tout cela ; sur un seul point certains resteront sceptiques : l’interprétation psychologique de certains caractères de l’écriture paraît sacrifier à un symbolisme simpliste, dont on ne nous dit pas comment on a établi sa validité.
- Géographie, par R. Clozier et R. Blanchon. Version française adaptée de T. Shabad, P. M. Stern, E. Kaden, H. Garais, W. Die-derich. Cartes et illustrations de W. et A. Eige-ner. 1 vol. 220 p. Éditions des Deux Coqs d’Or, Paris, i960. Prix : 29,51 NF.
- Adaptation française d’une publication américaine très populaire, The Golden Géographie Encyclopédies. La terre est présentée par continents ; pour chacun d’eux on trouvera un exposé d’ensemble sur la nature physique, les divisions politiques, les structures économiques ; ensuite, des cartes montrant la structure physique, les peuplements végétaux, animaux et humains, et pour ces derniers, la figuration imagée des ressources et des activités économiques ; enfin, un lexique géographique illustré de dessins et de photographies en couleurs, véritable répertoire alphabétique des régions, des villes et des ressources. Agréable album de références pour tous et excellent ouvrage d’initiation pour les enfants.
- La Géologie et l’économie moderne, par Raymond Furon, de l’Académie des Sciences d’Outre-Mer, sous-directeur au Muséum. 1 vol. 13,5 X 18,5, 112 p., 5 fig., 7 photos. Sedes, Paris, i960. Prix : 3,50 NF.
- Le géologue est devenu l’un des techniciens essentiels de la civilisation industrielle. Ce petit livre résume fort bien ses moyens et ses buts, mais sans entrer dans les descriptions techniques. Après un chapitre sur les procédés d’investigation qui sont du domaine de la géologie, on aborde l’examen succinct des principaux problèmes : l’eau, le sol, les travaux de génie civil, la recherche des matières premières, enfin la prospection des sources d’énergie.
- Une vie de panthère, par Zoom A. Préface du chevalier d’Orgeix. i vol. 21 X 27, 48 p., nombreuses photos. Plon, Paris, 1960. Prix : 9,60 NF.
- Acceptons l’aimable fiction et admettons que Zouma est la première panthère de lettres, qui a écrit elle-même les souvenirs que voici, tandis que son « papa », Jean d’Orgeix, lui tenait un peu la patte, bien sûr. Bref on apprend comment Zouma, prise toute petite dans un feu de brousse par ces curieux animaux qui marchent tout droits sur leurs pattes de derrière, fut arrachée à sa terre natale et, après bien des aventures, apprit la vie civilisée, en appartement, non sans faire un peu de casse de temps à autre. Mais elle est si gentille quand elle dort...
- Le Chien, par H. Stenfert Kroese-Croll. Trad. du néerlandais par J. Noordhoff et J. de Sau-venne. i vol. 11,5 X 18, 158 p., dessins,
- 8 planches hors texte. Séquoia, Paris-Bruxelles, i960. Prix : 2,25 NF.
- Après une introduction historique, la ire partie de l’ouvrage décrit et figure les principales races de chiens. On apprend ensuite ce qu’il faut faire avant d’acheter un chien, comment concevoir les relations de l’enfant et du chien, quels soins donner à l’animal en toutes circonstances, quelle
- activité lui réserver, etc. Liste des journaux canins sociétés et groupements divers. Répertoire alphabétique.
- Le Colin de Virginie ; mains, élevage, chasse, par G. L. Feuillet, i vol. 13,5 X 18,5, 54 p. Crépin-Leblond, Paris, i960. Prix : 4,08 NF ; franco : 4,50 NF.
- Des essais d’élevage et d’acclimatation du Colin de Virginie ont déjà été tentés en France avec succès. Quiconque voudra peupler scs terres avec ce joli oiseau, pour se donner le plaisir de le chasser, ne pourra mieux faire que de consulter ce petit ouvrage.
- Le Cerf et sa chasse, par Carlos Verlinden et Pierre de Jakti. i vol. 21,5 X 28, 240 p., nombreux dessins et photos. Crépin-Leblond, Paris, i960. Prix, cartonné : 36 NF ; franco : 38 N F.
- La irc partie de l’ouvrage, qui concerne la morphologie du Cerf et sa biologie, peut intéresser les naturalistes et les inciter à approfondir nos connaissances sur ce bel animal qui n’est qu’à moitié sauvage dans nos forêts. La 20 partie traite de la chasse à tir. La 3e est réservée à la chasse à courre, dont beaucoup s’étonnent qu’on puisse y prendre plaisir.
- Souvenirs d’un cor de chasse, par Pierre Lœvenbruck. i vol. 15 X 21,5, 196 P-> illustré de gravures. Éditions du Temps, Paris, i960. Prix : 8,95 NF.
- Un cor de chasse, né à la fabrique royale, fit ses débuts en 1750 au service de Louis XV et acheva sa carrière en 1935 au Musée de la Vénerie à Senlis. Entre temps, il a vu et entendu beaucoup de choses qu’on ne saurait résumer, sinon pour dire qu’elles ont trait, bien sûr, aux chasses de France, avec deux intermèdes d’ « émigration ».
- Le skeet, tir de grand sport, par R. L. de Riquez. Préface de P. Bérouard, i vol. 13,5 x 18,5, 176 p. Crépin-Leblond, Paris, i960. Prix : 8,25 NF ; franco : 9 NF.
- Les profanes s’étonneront qu’un ouvrage de cette dimension soit requis pour initier les tireurs au fusil, fussent-ils de grand sport. Mais inclinons-nous devant les compétences, qui assurent que ce livre sera bientôt au chevet de tous les tireurs, tant débutants que chevronnés.
- Les explorations au XXe siècle. Préface de Paul-Émile Victor, i vol. 16,5 X 23, 392 p., nombreuses cartes, figures et planches hors texte en noir et en couleurs. Larousse, Paris, i960. Prix, cartonné : 35 NF.
- Au xxe siècle, l’homme a presque achevé l’inventaire de la planète, du moins en surface. Il a conquis les pôles, pénétré dans les parties les plus reculées des forêts équatoriales, escaladé les plus hauts sommets, défriché les déserts. Il s’est enfoncé jusqu’aux plus profondes fosses océaniques ; il s’est risqué dans l’espace... et s’apprête à aller sur la Lune. Huit auteurs se sont partagé les chapitres de cette histoire : Fleuves et forêts (J. Soubrier) ; les déserts (LI. Lhote) ; les glaces (P.-E. Victor) ; les mers (J. Rouch) ; les volcans (H. Tazieff) ; les montagnes (J. Franco) ; sous la terre (N. Casteret) ; dans le ciel (C. Dollfus et LI. Beaubois). Histoire dépassée aussitôt qu’écrite !
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NT pour domiciliation aux bureaux de la revue)
- PASSEZ DE BELLES VACANCES.
- Règlements échelonnés après votre retour. Totale liberté de choix. MONAZUR, 8, boulevard des Moulins, Monte-Carlo.
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 3e trimestre 1961, n° 3787. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo5GG), LAVAL. N° 4a8G. — 7-I9G1.
- 320
- p.320 - vue 320/560
-
-
-
- \tiïfiîr^
- Au pays des glaces et du blfegçard
- La rude existence des Manchots
- F Antarctique
- Les Manchots de l’Antarctique commencent à être bien connus grâce aux nombreuses expéditions réalisées dans cette partie du monde, notamment à l’occasion de l’Année géophysique internationale. La stature des Manchots, si différente de celle des autres oiseaux en raison de leur démarche de plantigrades, leur silhouette pittoresque, leurs instincts sociaux si développés ont contribué déjà à les rendre populaires.
- Dans la classe des Oiseaux les zoologistes distinguent trois sous-classes. Celle des Carinates réunit tous les oiseaux capables de voler, c’est-à-dire l’immense majorité des espèces, caractérisées par un bréchet bien développé sur lequel s’insèrent les muscles du vol. Celle des Katites groupe les oiseaux coureurs, formes archaïques ou très dégradées, complètement dépourvues de bréchet, à ailes rudimentaires non fonctionnelles (Autruches, Casoars, Émeus). Les Manchots forment à eux seuls la troisième classe, celle des Impennes, avec une seule famille, les Sphéniscidés. Ils sont caractérisés par la transformation de l’aile en nageoire : le squelette de ce membre est du même type que chez les autres oiseaux, mais les os en sont larges et aplatis ; sa forte musculature s’insère sur un sternum et un bréchet bien développés, ce qui permet une grande puissance dans la natation et dans un mode de translation particulier, analogue à une reptation, qui n’est guère possible que sur la neige et la glace. Les pattes sont rejetées vers la partie la plus postérieure du corps et elles prennent appui aussi bien par les doigts que par les trois os du tarso-métatarse, imparfaitement soudés. C’est cette particularité anatomique qui donne aux Manchots leur attitude si spéciale (fig. i).
- D’autres caractères méritent d’être mentionnés. Chez les oiseaux bons voiliers les os sont allégés par de nombreuses lacunes (os pneumatisés) ; les os des Manchots sont très peu pneumatisés, comme chez beaucoup d’oiseaux plongeurs. Chez les Carinates, les plumes ne se développent qu’au niveau de certaines zones appelées ptérylies, en dehors desquelles la peau est nue ; chez les Manchots des plumes raidies et serrées, toutes semblables, sont réparties uniformément sur tout le corps.
- Les Manchots ont été souvent confondus avec les Pingouins, avec lesquels ils n’ont qu’une ressemblance superficielle. Le texte suivant, dû à Anatole France (préface
- par Roger Dajo%
- Fig. I. — Un Manchot Adélie en« position extatique ». Remarquer la position des pattes, très en arrière du corps.
- (Photo R. Pommier, Expéditions polaires françaises, aimablement communiquée par le Dr J. Sapin-Jaloustre).
- 321
- p.321 - vue 321/560
-
-
-
- de U Ile des 'Pingouins'), montre bien à quel point la confusion entre les deux groupes est répandue : « Nous appelons pingouin, en français, un oiseau des régions arctiques appartenant à la famille des Alcidés ; nous appelons manchots le type des Sphéniscidés, habitant les mers antarctiques. Ainsi fait, par exemple, Lecointe dans sa relation du voyage de la Belgica. Charcot affirme, au contraire, que les vrais et les seuls pingouins sont ces oiseaux de l’Antarcti-que que nous appelons manchots, et il donne pour raison qu’ils reçurent des Hollandais, parvenus en 1598 au cap Magellan, le nom de pinguinos, à cause sans doute de leur graisse. »
- Précisons donc que les Pingouins sont des Carinates appartenant à l’ordre des Alciformes. On y réunit les Pingouins vrais, les Guillemots et le curieux Macareux moine qui niche dans la réserve des Sept-Iles au large des côtes bretonnes. La plupart sont des migrateurs, surtout le long des côtes. S’ils peuvent nager et plonger avec dextérité, tout comme les Manchots, ils sont aussi capables de voler, ce que les Manchots ne peuvent pas faire. La répartition géographique des Manchots et des Pingouins est indiquée sur la figure 2.
- >11 Manchots^J
- 111 actuels y
- ManchotsTossiles^^Vn <
- • miocènes de Patagonie,
- Australie, N“Vélanite et Ile Seymour
- Pingouins actuels
- Fig. 2. — Aires de répartition des Pingouins et des Manchots.
- Hachures horizontales : Pingouins ; hachures verticales : Manchots. La flèche indique le courant froid de Humboldt. Les cercles noirs indiquent les gisements de Manchots fossiles (Patagonie, Iles Seymour, Australie, Nouvelle-Zélande).
- Les Manchots comprennent actuellement 17 espèces, réparties en 4 genres : Pygoscelis, Aptenodytes, Eudyptes et Spheniscus. Ils sont répandus sur les îles et les côtes de la zone antarctique et de la zone tempérée méridionale (Afrique australe, Australie, Tasmanie, Amérique du Sud). Ils sont donc limités à l’hémisphère austral par la barrière des eaux chaudes équatoriales. Cependant, une espèce (Spheniscus mendiculus) s’est installée dans les îles Galapagos, en pleine zone équatoriale. Sa localisation peut s’expliquer par le courant froid de Humboldt qui remonte dans cette région.
- L’origine des Manchots a fait l’objet de nombreuses recherches et hypothèses de la part des paléontologistes. La naturaliste Brehm n’hésitait pas à en faire un groupe de passage entre les poissons et les oiseaux véritables ! En réalité, les Manchots, essentiellement terrestres et marins, semblent dériver d’un type ancestral bon voilier qui se rapprocherait des Palmipèdes actuellement classés dans l’ordre des Procellariform.es (comme l’Albatros, le Pétrel, le Puffin). Les Manchots fossiles du miocène sont déjà
- très semblables aux espèces actuelles, comme l’a montré Simpson. L’adaptation à la vie que l’on peut dire terrestre par opposition à la vie aérienne est donc ancienne et les raisons en sont encore obscures. Pour certains, l’absence de Mammifères prédateurs aurait rendu possible cet habitat. Cet argument est d’ailleurs valable pour expliquer le peuplement des îles de l’hémisphère austral et du continent sud-américain. C’est ainsi que vécut, jusqu’à sa destruction par l’homme au xvne siècle, le Dronte (Kaphus cucculatus) de l’île Maurice, oiseau de la taille du cygne et incapable de voler. De même des oiseaux géants, parfois d’une taille supérieure à celle de l’homme (Phororhacos par exemple), ont habité au miocène l’Amérique du Sud alors isolée et presque dépourvue de Mammifères carnivores.
- En ce qui concerne les Manchots, on peut remarquer que leurs ennemis les plus dangereux ne sont point terrestres. Ce sont des carnivores marins, les Phoques, les Orques et le redoutable Léopard de mer (Hydrurga leptonyx). Dans l’air le prédateur principal est une mouette, le Skua (Catharacta maccormicki) qui enlève les œufs et les jeunes poussins et le Pétrel géant (Ossifraga gigantea). Mais les adultes sont fort capables de se défendre contre ces ennemis et de les mettre en fuite.
- Les espèces actuelles de Manchots sont d’autant plus grandes qu’elles affrontent des climats plus rigoureux. Le grand Manchot Empereur, qui atteint presque 1,20 m est celui qui vit le plus au sud. Le plus petit, qui ne dépasse pas 0,50 m est l’espèce des îles Galapagos. Cette loi (loi de Bergmann) semble se vérifier dans tous les groupes d’espèces voisines d’animaux homéothermes (à température fixe). En effet, la déperdition de chaleur est proportionnelle à la surface du corps, donc au carré de la taille, tandis que la production de chaleur est proportionnelle au volume, donc au cube de la taille. Le bilan calorifique est donc favorable aux espèces plus grandes. A cela s’ajoutent des différences de structure. Si l’on compare le Manchot Empereur, essentiellement antarctique, et le Manchot Royal qui vit dans les îles sub-antarctiques tempérées, on constate que le premier, pour une taille à peine plus grande, a un poids double du second. L’Empereur est donc plus compact, plus massif. Son bec, ses ailerons, ses pattes sont plus petits. Tout concourt à la réduction des pertes de chaleur.
- Le plus grand Manchot qui ait existé est une forme miocène, Pachydiptes ponderosus, qui atteignait 1,67 m. Cependant comme le fait remarquer Simpson, il ne faudrait pas en conclure à un climat encore plus rude à l’ère tertiaire que de nos jours, car la loi de Bergmann ne s’applique qu’à des animaux qui vivent à la même époque.
- Dans ce qui suit nous envisagerons les deux espèces de manchots les mieux connues, Manchot Empereur et Manchot Adélie, qui vivent toutes deux dans l’Antarctique.
- Un facteur prépondérant : le vent
- Le climat de l’Antarctique est caractérisé par une moyenne annuelle de température très basse (io° C au-dessous de la moyenne des latitudes boréales symétriques) et par des températures d’été constamment négatives, s’opposant aux étés vrais de l’hémisphère Nord. La moyenne annuelle de Port-Martin (Terre Adélie) est de — 120 C. Cependant, alors que le Manchot Empereur subit l’hiver rigoureux de la côte, le Manchot Adélie trouve à quelques centaines
- 322
- p.322 - vue 322/560
-
-
-
- de kilomètres plus au nord des conditions climatiques certainement moins dures. Les considérations qui suivent concernent principalement les conditions de vie du Manchot Adélie. On jugera par là de ce que doit supporter le Manchot Empereur, mieux défendu, il est vrai, par sa corpulence.
- A Port-Martin, le trait dominant est l’existence, pendant trois cents jours par an, de vents violents qui transportent de petites particules de glace et constituent le blizzard. La vitesse moyenne, en février et mars au moment de la mue des Manchots, est de l’ordre de 70 km/h, avec des pointes de 180 km/h. La quantité de glace transportée peut atteindre 15 tonnes, traversant en 24 h une surface de 1 m2 perpendiculaire à la direction du vent. Cette glace pénètre partout, aussi bien dans le duvet des poussins (fig. 11) que dans le plumage serré des adultes. Elle transforme parfois le nid en une coupe de glace qui emprisonne plus ou moins les œufs.
- En général la température est considérée comme le facteur thermique principal d’un climat. En Terre Adélie le vent est le facteur prépondérant. Le docteur Sapin-Jaloustre a été amené à définir le « pouvoir de refroidissement » du blizzard, c’est-à-dire la quantité de chaleur que le vent fait perdre dans l’unité de temps et par unité de surface à un corps donné, à une température donnée. Cette notion est capitale quand il s’agit d’étudier le maintien d’un animal à température constante dans un climat extrêmement rude. Parmi les exemples cités, nous retiendrons le suivant, particulièrement caractéristique. La mesure du temps nécessaire à un calorimètre contenant un litre d’eau pour perdre 20 calories en passant de -f- 400 C à -f- 200 C a été faite dans diverses conditions :
- — dans l’air à — 190 C, calme complet, sous abri : 56 minutes ;
- — dans l’air à — 190 C, vent de 60 km/h (blizzard léger) : 4 mn 44 s ;
- — dans l’air à — 190 C, vent de 133 km/h (blizzard dense) : 2 mn 10 s ;
- — dans l’eau de mer à — 20 C, courant inappréciable : 2 mn 10 s.
- On peut donc dire que, dans l’air calme, il n’y a pas, même à — 1800 C, d’ambiance équivalente à un grand blizzard de la Terre Adélie. Les conditions thermiques offertes aux animaux à température constante dans cette région sont parmi les plus rudes de tout le globe.
- Cependant les Manchots, qui vivent entre le sol et 60 cm d’altitude, bénéficient de conditions beaucoup moins défavorables. Il est vraisemblable qu’aucun être vivant ne pourrait supporter les conditions définies ci-dessus. L’étude des microclimats au voisinage du sol, dans les lieux habités par les Manchots, est donc d’un grand intérêt. Alors qu’il n’y a pratiquement pas de gradient de température au voisinage du sol par suite du brassage de l’air, la vitesse du vent est fortement diminuée et par suite le « pouvoir de refroidissement » devient notablement plus faible. Par exemple, pour un nid de Manchot, le pouvoir de refroidissement est de 2,6 cal/g/s à 25 cm du sol alors qu’il est de 7 cal/g/s dans le climat général (chiffres valables pour une température de — 20° C). Dans le cas d’un Manchot complètement enneigé dans une congère à — 20° C, le pouvoir de refroidissement sera de 0,6 cal/g/s alors qu’il atteindra 19 cal/g/s, soit 32 fois plus, dans un blizzard de 144 km/h.
- Le Manchot Empereur toujours sur la glace ou dans l’eau
- Le Manchot Empereur (Aptenodytes forsteri) adulte mesure de 100 à 115 cm de hauteur et son envergure varie de 80 à 93 cm. Le bec, long et fin, atteint 10 à 13 cm. Le poids des adultes varie de 2 5 à 40 kg environ ; le record est de 42,7 kg. Mais les variations saisonnières sont considérables. Portant sur la graisse sous-cutanée et péritonéale, elles atteignent sans doute 20 à 30 pour 100 du poids maximal, si l’on compare un oiseau en mue capturé en janvier avec un oiseau capturé en novembre. La couche de graisse sous-cutanée atteint 2 à 3 cm d’épaisseur avant la mue. Le dos du corps, des ailerons et de la queue est d’un bleu noir, le sommet de la tête, le cou et la face ventrale d’un blanc pur. Une large tache jaune-orangé s’étend sur les faces latérales du cou et de la tête. Au niveau de la ligne médiane ventrale, sur le tiers inférieur du corps, il existe dans les deux sexes une surface de peau nue de quelques centimètres de largeur qui est en contact direct avec les œufs durant l’incubation Mais cette surface est invisible quand l’oiseau ne couve pas car les plumes se recouvrent étroitement.
- Fig. 7. — Traces du Manchot Empereur en marche "normale, _debout. Sillon médian sinueux laissé par la queue ; de chaque côté, les empreintes des pattes.
- {Photo Expéditions polaires françaises).
- p.323 - vue 323/560
-
-
-
- Magnifiquement profilé « comme une torpille », le Manchot Empereur est caractérisé par un développement musculaire impressionnant. Chez un spécimen de 32 kg les masses pectorales pesaient 7,8 kg et leur épaisseur atteignait 10 cm. L’articulation « à rotule » de l’épaule, grâce à la disposition et à la puissance des ligaments, réalise un prodige de mobilité et de solidité.
- Les œufs, piriformes, mesurent jusqu’à 130 mm sur 86 mm et pèsent jusqu’à 450 g. Leur couleur est d’un blanc verdâtre, leur surface rugueuse. Les poussins ont un énorme développement abdominal qui leur donne une forme pyramidale. Leur corps est couvert d’un duvet gris argenté, le bec est gris clair ; la tête est noire avec deux taches blanches autour des yeux. A l’âge de cinq mois, le poussin perd son duvet et subit une première mue. Après un an, au cours de son deuxième été, le jeune subit une nouvelle mue et son plumage se rapproche beaucoup de celui de l’adulte. Dans son troisième été, à 29 mois environ, le Manchot Empereur est définitivement adulte. La durée de vie est estimée à 34 ans environ.
- L’Empereur, le plus antarctique de tous les oiseaux, dépasse rarement vers le nord le cercle polaire ; vers le sud il est limité par la côte du continent. Il atteint donc 78° de latitude sud le long de la barrière de Ross. Il a été observé pour la première fois par l’explorateur russe Bellingshausen le 15 décembre 1820. Il est certainement circumantarctique car on l’a retrouvé sur le pack (x) sous tous les méridiens. Mais jusqu’à présent ses lieux de reproduction (ou « rooke-ries ») connus sont peu nombreux : cap Crozier, île Haswell-Gaussberg, île Dion et Pointe Géologie (fig. 4).
- l?OrcadesduSud
- I? Shetland du Sud
- Terre
- d'Enderfei
- Terre de NgrahafT)
- Ile Diau1
- Ile Haswell Terre de la Reine Mary
- / Barrière f de Shakleton
- Pointe
- Géologii
- Fig. 4. — Carte de l’Antarctigue montrant la position des rookeries de Manchot Empereur actuellement connues.
- Ronds noirs : rookeries effectivement visitées ; cercles : points où d’importants groupes de jeunes ont été observés.
- (D’après J. Sapin-Jaloustre).
- Toute la vie de cet animal, y compris la ponte et l’incubation, se déroule, à l’inverse des autres Manchots, sur la glace ou dans l’eau. On ne le rencontre pratiquement jamais à terre. A Pointe Géologie, alors que les rochers de l’archipel sont occupés par des Adélies, les Empereurs se
- 1. Le nom de pack ou pack-ice désigne les formations glaciaires dérivantes ou soudées à la côte, d’origine marine ou continentale, qui entourent le continent antarctique.
- Fig. J. — Manchot Empereur et son jeune, âgé d’une quarantaine de jours, qui, effrayé, se réfugie la tête la première sous son parent.
- (Photo Expéditions polaires françaises).
- cantonnent uniquement sur la glace de mer, entre les îles. La position des rookeries d’Empereurs le long de la côte antarctique est déterminée par le cycle même de ce Manchot, cycle inverse de celui des autres espèces, avec reproduction hivernale sur la glace de mer. Pendant le séjour à la rookerie, donc sans doute d’avril à décembre, l’Empereur se trouve dans l’impérieuse nécessité d’aller à l’eau pour se nourrir et nourrir ses petits. Il lui faut donc s’établir en un point où il est assuré d’avoir, pendant tout l’hiver, des ouvertures permanentes dans la glace ou dans l’eau libre à courte distance. Il n’est pas impossible que les Empereurs soient capables de reconnaître le tvater-sky (c’est-à-dire la teinte sombre que prend le ciel nuageux au-dessus de l’eau libre) et de se diriger sur lui. Cela suppose une acuité visuelle excellente et une grande sensibilité de l’œil à la couleur.
- Un autre élément qui joue dans le choix de l’emplacement de la rookerie est constitué par le microclimat local. Le vent est en effet fortement atténué au voisinage du sol, et son pouvoir refroidissant moins important, comme nous l’avons vu. De plus les rookeries sont relativement abritées : par les falaises de la barrière de Ross au cap Crozier ; par le glacier Terra Nova à Pointe Géologie où, en plus, l’archipel est nettement moins froid et moins éventé que le reste de la côte.
- Le cycle annuel de l’Empereur. — Le cycle de l’Empereur est très spécial. Dès mars ou avril les oiseaux, venant souvent de loin, en longues files, s’installent dans leurs rookeries pour y pondre leurs œufs, les couver sur la
- 324
- p.324 - vue 324/560
-
-
-
- glace et élever leurs poussins. La plupart des arrivants se comportent d’une façon toujours semblable. A quelques mètres de la colonie, les files se disloquent et chaque oiseau poursuit isolément sa route. Le nouveau venu chante alors, la tête inclinée ; il recommence ainsi plusieurs fois de suite tout en se déplaçant à travers les groupes. Mâles et femelles ont un comportement identique, le dimorphisme vocal étant, semble-t-il, le principal moyen de reconnaissance des sexes. Deux individus de sexe opposé se rencontrent, s’approchent, puis restent face à face immobiles, cambrés sur leurs pattes, le cou gonflé ; quelques chants entrecoupent cette immobilité quasi totale. Les couples ne sont cependant pas formés toujours dès la première rencontre ; les partenaires peuvent ultérieurement se séparer et recommencer d’autres « face à face » mutuels avec d’autres individus. Le couple une fois formé définitivement, mâle et femelle se déplacent constamment ensemble.
- La ponte a lieu la nuit et le couple porteur d’un œuf se signale par son intense activité vocale. La femelle confie l’œuf à son partenaire 6 à i 2 heures après la ponte et quitte la colonie pour se diriger vers l’eau libre. Les mâles couvent seuls ; les femelles reviennent peu après l’éclosion et retrouvent leur partenaire après un temps plus ou moins long, grâce à des signes de reconnaissance sonores.
- L’œuf, reposant sur les pattes, est comme enveloppé par des replis de la peau (replis incubateurs). Si l’on approche un Empereur en train de couver, il essaye de fuir, en conservant l’œuf sur ses pattes. Pressé, il accélère, l’œuf échappe et aussitôt est l’enjeu d’une bousculade entre les oiseaux sans œuf qui tentent de s’en emparer. Des œufs gelés et morts, voire des morceaux de glace arrondis, sont parfois placés sur leurs pattes par des oiseaux qui les couvent consciencieusement.
- L’éclosion se fait en août, en plein hiver antarctique. La femelle qui vient de rentrer de l’eau libre, nourrit son poussin nouvellement éclos avec de la nourriture régurgitée. Cela peut durer 25 jours. A l’âge de 35 à 45 jours s’observent les premières sorties des jeunes hors des replis incubateurs (fig. 5). Ces premières promenades sont alors très courtes et le poussin est repris par les parents après 5 à 15 minutes. Quelques jours plus tard l’émancipation est totale et les parents peuvent s’absenter simultanément de la colonie. Dès lors les jeunes Empereurs se groupent, comme les adultes, en amas compacts appelés « tortues », pour résister aux rigueurs de l’hiver antarctique (fig. 6).
- Fig. 6. — Colonie de Manchots Empereurs avec les jeunes, faisant la « tortue » pour lutter contre le froid.
- Photo Expéditions polaires françaises).
- p.325 - vue 325/560
-
-
-
- Fig. 7. — Une « crèche » de Manchots Empereurs à Pointe Géologie, le 15 décembre 1952.
- Nombreux jeunes, nés en août, en compagnie de quelques adultes (Photo Expéditions polaires françaises).
- 326
- p.326 - vue 326/560
-
-
-
- Les poussins ainsi émancipés sont groupés en « crèches » communes, d’autant moins nombreuses que le temps est plus mauvais (fig. 7). Les parents continuent à nourrir leurs poussins qu’ils reconnaissent parfaitement comme de nombreux marquages l’ont montré. La croissance du jeune Manchot se ressent de l’irrégularité des nourrissages. Les poussins sous-alimentés meurent en grand nombre lors des blizzards les plus violents. Pesant en moyenne 350 g à sa naissance, le poussin atteint 15 kg au mois de décembre. C’est alors qu’il quitte son duvet pour son plumage juvénile et regagne la mer où il effectuera un séjour d’un an avant de revenir à la colonie. Alors les adultes, après une période de suralimentation, redescendent vers le sud et viennent muer sur la glace près de la côte, parfois sur des champs ‘ de glace flottante. Pendant la mue, le Manchot Empereur doit jeûner, car il ne peut pas aller à l’eau et il subit un amaigrissement considérable. La mortalité des jeunes paraît importante. Elle est estimée à 80 pour 100 entre le moment de la ponte et celui du départ de la rookerie.
- Placidité, mais force redoutable
- Ce qui frappe d’emblée dans le comportement du Manchot Empereur, c’est la « dignité », la lenteur, l’économie habituelle des gestes, contrastant avec la vivacité et la turbulence de son voisin antarctique, le Manchot Adélie. Les déplacements s’effectuent de deux manières différentes. La marche est lente ; le corps très droit, l’oiseau avance successivement chaque patte en la lançant un peu latéralement. Dès qu’il veut se hâter ou qu’il se trouve en terrain difficile, l’Empereur se met sur le ventre et avance alors en pédalant avec les pattes et en ramant avec les ailerons à une cadence plus ou moins rapide. C’est ce que les Anglais appellent le tobogganing, pratiqué aussi par le Manchot Adélie (fig. 8). Le ventre, aux plumes couchées et parfaitement lisses, glisse merveilleusement sur la neige ou sur la glace. Les impulsions données par les pattes et les ailerons permettent sans effort apparent une vitesse de 4 à 8 km/h. Mais l’oiseau atteint facilement 20 km/h quand il se sent menacé.
- Les Empereurs, souvent par couples ou par petits groupes, accomplissent ainsi sur la glace de très longs voyages. Jeunes et adultes sont retrouvés pendant l’été à des centaines et peut-être des milliers de kilomètres de leurs rookeries d’origine.
- Le Manchot Empereur passe une fraction importante de sa vie dans l’eau à la recherche de sa nourriture. Un estomac plein peut contenir plus de 1 kg d’aliments divers : poissons atteignant parfois 15 cm, Crustacés (en particulier Euphausiacés), Céphalopodes. Les nombreux cailloux que l’on trouve toujours dans l’estomac servent peut-être de lest pour aider à la plongée, car la densité de l’oiseau est plus faible que celle de l’eau de mer. Étant donné le poids de l’oiseau, sa musculature, ses conditions de vie, les repas doivent être très fréquents, sans doute quotidiens. Ici se pose un problème : comment fait cet animal pour découvrir ses proies dans l’obscurité de l’eau, sous la banquise d’hiver ?
- Le Manchot Empereur n’a jamais l’agressivité spontanée de certains Manchots Adélie. Mais, comme ce dernier, il est « curieux » et quand il aperçoit des hommes il ne manque pas de s’en approcher aussitôt. Quand on s’appro-
- che et qu’on essaie de le saisir, il se jette généralement à plat ventre et fuit en criant. Cependant il est d’une force redoutable. Voici comment des biologistes anglais racontent la capture d’un individu de 33 kg : « Cinq hommes du Baldena essayent de le maîtriser. Ils sont renversés comme des quilles, mais réussissent à passer deux ceintures de cuir autour du corps de l’oiseau... Ils reprennent alors leur respiration, l’Empereur en fait autant et les deux ceintures cassent. Puis, amené finalement à bord avec un cordage, il met knock-out le chien du bateau d’un coup d’aileron. » Vivant en société nombreuse et en contact étroit, les Empereurs utilisent des moyens d’intercommunication qui semblent essentiellement auditifs. Les adultes émettent deux groupes de sons très différents. Tout d’abord, une sorte de caquetage de puissance modérée rappelle assez le cri du canard. Le deuxième son est un véritable coup de trompette très puissant. Souvent on l’entend sur le pack, émis par des oiseaux isolés ou par de petits groupes. Il porte à 400 ou 500 mètres au moins. Le poussin émet une sorte de pépiement formé de notes aiguës et courtes, parfois un petit sifflement modulé.
- Le Manchot Adélie
- Le Manchot Adélie (Pygoscelis adeliœ) a été observé pour la première fois par Forster en 1777 au cours du voyage circumpolaire de Cook. Adulte, cet oiseau mesure 50 à 70 cm et pèse 4 à 6 kg. Une étude détaillée de ses conditions de vie et de sa biologie a été faite par le docteur Sapin-Jaloustre qui a séjourné à plusieurs reprises en Terre Adélie, comme médecin et biologiste des Expéditions polaires françaises ; nous avons beaucoup emprunté à la thèse de cet auteur (Écologie du Manchot Adélie, Actualités scientifiques et industrielles n° 1270, Hermann, Paris).
- Le Manchot Adélie fréquente trois habitats : les rochers de la côte pour la période de reproduction et de mue ; la mer pour son alimentation ; les glaces du pack au cours de ses déplacements d’été et pour sa vie hivernale. Comme tous les Manchots il ne s’aventure presque jamais à l’intérieur du continent. Un individu a cependant été rencontré une fois à 97 km à l’intérieur des terres, mais il s’agit d’un cas exceptionnel. Le Manchot Adélie est le principal habitant de toute la lisière du continent antarctique. Par sa présence il anime les glaces de ses allées et venues ; ses kaah-kaah souvent répétés jettent une note de vie qui tranche avec le souffle continu du vent.
- Fig. 8. — Déplacement des Manchots Adélies sur le pack : marche normale debout et marche sur le ventre (tobogganing).
- {Photo J. Sapin-Jaloustre, Expéditions polaires françaises).
- SMgæHs
- mmtmÊÈmÈmmÊÈëm
- '"«je -fs*
- p.327 - vue 327/560
-
-
-
- La Terre Adélie française, dans sa partie explorée, est formée par un plateau de glace descendant vers la mer où il se termine en falaises par une côte de 350 km de longueur. La totalité des surfaces rocheuses le long de cette côte ne dépasse pas quelques kilomètres carrés. Les colonies étudiées sont situées à Port-Martin, lieu d’hivernage de l’Expédition française. La roche est nue, burinée par le blizzard ; il n’y a nulle part de terre. Les très rares lichens et l’algue verte qui représentent toute la végétation terrestre n’existent que sur les rochers non colonisés par les Manchots. La colonie de Port-Martin comprend environ 5 000 oiseaux. Sur l’île aux Phoques et l’île des Manchots existent des colonies évaluées à 12 000 individus.
- Les eaux ont une température toujours basse (de — i,8° à -f- i° entre le 6 et le 24 février 1949). Cette température varie peu au cours de l’année en raison de la présence des glaces immergées. La vie marine, en opposition avec la vie terrestre, est intense devant la côte. Elle nourrit en effet directement les grands Cétacés particulièrement nombreux (Baleinoptères et Dauphins), ainsi que les phoques (Phoque crabier : Lobodon careinophagus ; Phoque de Weddel : JLeptonychotes weddelï) et la plupart des oiseaux ; indirectement quelques prédateurs (Pétrel géant, Skua, Léopard de mer, Orque). Il existe une importante flore
- Fig. 9. — La rookerie de Manchots Adélie à Port-Martin, le 10 décembre 1950, au lieu dit le « Rocher noir ».
- Quarante-neuf oiseaux sont présents, tous mâles ; les femelles sont ailées en mer pour s’alimenter. Chaque Manchot est en position d’incubation, couché sur ses œufs, contrairement au Manchot Empereur, qui couve debout.
- {Photo aimablement communiquée par le Dr J. Sapin-Jaloustre).
- de grandes algues. Le plancton est très riche en Diatomées, qui sont à la base de la « chaîne alimentaire », ainsi qu’en Invertébrés, principalement en Crustacés. Les poissons semblent peu nombreux. Le Manchot Adélie se nourrit avant tout de Crustacés Euphausiacés qui constituent la quasi-totalité des contenus d’estomac examinés.
- Le cycle annuel du Manchot Adélie. — C’est aux environs du 15 octobre que sur tout le pourtour du continent antarctique, les Manchots Adélie reviennent s’installer sur la côte. Ces oiseaux viennent du pack où ils ont passé l’hiver à une distance de plusieurs centaines de kilomètres (fig. 8).
- Par quel moyen retrouvent-ils d’année en année le groupe rocheux auquel ils restent fidèles ? Il est vraisemblable que c’est le soleil qui guide ces oiseaux dans leur orientation à grande distance. Arrivés sur le continent,
- 328
- p.328 - vue 328/560
-
-
-
- ils utilisent la mémoire visuelle, acquise lors de leurs déplacements alimentaires de Pan née précédente, pour retrouver l’endroit précis de leurs rookeries traditionnelles. Le voyage sur la banquise se fait par groupes de quelques dizaines à quelques milliers d’individus. Les Adélies se suivent à la file indienne, en marchant debout ou en glissant sur le ventre, comme les Manchots Empereurs.
- Dès les premiers jours de l’arrivée, la construction des nids commence et les couples se forment. C’est la période de préponte. De nombreux marquages ont montré que les Manchots Adélies restent remarquablement fidèles d’année en année aux mêmes emplacements de ponte dans la rookerie. En outre les couples se reforment régulièrement, bien que les conjoints arrivent séparément.
- La colonie des Adélies est une véritable « mosaïque » de territoires juxtaposés, contrairement à ce qui a lieu chez l’Empereur. La limite du territoire paraît être fixée par la distance à laquelle l’oiseau peut lancer des coups de bec sans quitter le nid et sa position de couveur, ce qui dessine un cercle de 60 à 80 cm de diamètre (fig. 9).
- La construction du nid se fait par les deux sexes. La femelle, arrivée la première, s’installe sur un tas de cailloux de l’année précédente et attend sans rien faire. Le mâle, une fois accepté, apporte les matériaux que la femelle range sans quitter le nid. Le jeûne est total pendant toute cette période ; seule de la neige est absorbée. Un amaigrissement progressif de l’ordre de 2 kg (soit 40 pour 100 du poids) a été mis en évidence par la pesée de manchots mâles. Il est remarquable que cette période de jeûne coïncide avec une période de grande activité (construction des nids, parades, batailles) et avec des conditions météorologiques fort mauvaises qui exigent une forte production calorique pour assurer la thermorégulation. Les Adélies vivent alors sur leurs réserves de graisse.
- La ponte se fait vers le milieu de novembre et s’échelonne sur une quinzaine de jours. Il y a en général deux œufs par nid, rarement trois. Après la ponte les femelles s’en
- vont tandis que les mâles assurent seuls l’incubation. Il n’y a plus alors qu’un seul oiseau sur chaque territoire, couché presque constamment sur les œufs (fig. 10). Les femelles vont s’alimenter en eau libre à une centaine de kilomètres au moins et ceci pendant plus d’un mois. Après leur retour, les mâles quittent la colonie à leur tour, mais moins longtemps car l’eau libre s’est rapprochée de la côte. Les couveurs se relaient ensuite régulièrement. Pendant l’absence des femelles la colonie semblait déserte, morte. Après leur retour l’animation reprend. Le pack est parcouru en permanence par des groupes d’oiseaux. Le repos nocturne, observé pendant la période de préponte, est supprimé vers le milieu de décembre par l’installation du jour continuel. L’aspect de la colonie est alors sensiblement le même quelle que soit l’heure.
- La période de jeûne des mâles se prolonge bien plus longtemps que celle des femelles. Elle dépasse habituellement 45 jours. Ce jeûne est conditionné par des facteurs internes : les Adélies refusent de se nourrir, même si on leur en offre la possibilité.
- L’élevage des poussins au nid va durer jusqu’au 15 janvier. Le rapprochement de l’eau libre, qui atteint maintenant la côte, raccourcit la durée des voyages alimentaires et les couples sont fréquents sur les nids. La défense des poussins est énergique mais elle ne s’exerce qu’à l’intérieur du territoire. Jamais le Manchot Adélie ne quitte son nid pour aller chercher son poussin égaré à quelque distance.
- Après le 15 janvier survient une transformation radicale de la colonie. Les parents qui ont élevé leurs poussins dispersent les cailloux qui constituaient le nid et abandonnent leurs territoires respectifs en même temps que les jeunes. Ceux-ci, comme les poussins des Empereurs, sont alors réunis en « crèches » communes (fig. 11). Suivant l’interprétation classique, tous les poussins Adélies seraient alors gardés et nourris par l’ensemble des adultes. Mais, après deux ans de marquages, les biologistes britanniques ont contesté cette interprétation. Selon J. L. Sladen,
- Fig. 10. — Période d’incubation du Manchot Adélie.
- Les nids sont inondés par l’eau de fonte des neiges. Remarquer les nids constitués de tas de cailloux et la structure « en mosaïque » de la colonie, chaque oiseau se délimite un territoire d’environ 80 cm de diamètre. L’œuf du manchot du premier plan est visible.
- {Photo aimablement communiquée par Dr J. Sapin-Jaloustrf).
- p.329 - vue 329/560
-
-
-
- Fig. il. — Une crèche de poussins d’Adélie pendant un blizzard : la neige colle au duvet des poussins.
- (.P loto aimablement communiquée par le Dr J. Sapin-Jaloustre).
- les parents retrouvent et nourrissent leurs propres poussins dans les crèches, tout comme les Empereurs ; la reconnaissance mutuelle se fait par l’aspect, les mouvements et la voix. Les adultes considérés jusqu’ici comme des « gardiens » des crèches sont en réalité des oiseaux qui n’ont pas eu de poussins, qui retrouvent en janvier un comportement territorial, construisent un nid et le défendent (fig. 12). La défense de leur propre territoire a pu être considérée comme la « garde » d’une crèche, empêchant les poussins de s’éloigner.
- Dans les derniers jours de janvier commence la mue des poussins. Comme chez tous les Manchots, c’est la nouvelle plume qui pousse l’ancienne dehors. Il en résulte
- que pendant un certain temps les deux plumages sont portés simultanément (fig. 13) et les Manchots se débarrassent de leur vieux plumage avec le bec et les pattes. Les adultes muent à leur tour vers le 15 février.
- La dislocation de la colonie ne va pas tarder. Les jeunes partent les premiers, suivis par les adultes (fig. 14). A la fin de mars la rookerie est vide pour sept mois. Il est vraisemblable que l’hivernage se passe à la limite des eaux libres, loin vers le nord. Mais la difficulté des déplacements et des observations sur le pack en cette saison n’a pas permis de préciser le mode de vie des Adélies en hiver.
- Le Manchot Adélie est un remarquable homéotherme, capable de maintenir sa température interne constante dans les conditions les plus dures. La température cloacale ne varie que de 38,4° C à 39,2° C. La température de
- Fig. 12. — Cycles de couples de Manchots Adélies.
- Résultats obtenus dans les Falkland Depen-dencies, à IIopc Bay. — A : Cycle d’un couple ayant réussi l’élevage de ses jeunes. — B : Cycle d’un couple n’ayant pas réussi ; le comportement territorial avec réoccupation du nid reprend dans la deuxième quinzaine de décembre. En hachures, les périodes de jeûne.
- (D’après W. J. L. Sladen).
- octobre novembre décembre
- M 20 7 11 26 9 13 16
- janvier
- en mer 1
- Wmk en mer
- poussins poussms
- ,A en mer
- /*zeœuf
- ie.rœuf
- au nid en crèche
- jere éclosion
- 2 5 10 19 15 15 18 2812 68
- 6 1 en mer K en mer //// Z
- 9 en mer en mer VA a': en mer ,
- \Jr2e°epf' réoccupation
- Y 1erœuf perdu perdu Uu nid
- 330
- p.330 - vue 330/560
-
-
-
- Fig. i J. — La mue du jeune Manchot Adélie.
- A droite, un poussin immédiatement avant a mue. A gauche, un poussin en fin de mue garde encore des traces de duvet sur les ailerons et sur la face ventrale^ {Photo J. Sapin-Jaloustre, Expéditions polaires françaises).
- surface dans la région abdominale, déterminée d’après la température maximale des œufs, est certainement supérieure à 3 5° C. Au contraire, les poussins de i à 7 jours se comportent comme de simples corps physiques et ils se refroidissent rapidement lorsqu’ils sont en dehors de l’abri protecteur des parents. Chez les poussins plus âgés, à partir du 10-12e jour, les premiers symptômes de régulation thermique se manifestent. Après une faible baisse de la température centrale apparaît un « frisson thermi-
- que » qui fait remonter cette température. La résistance peut durer plus de 20 heures, avec une perte de poids de 152 g chez un sujet de 649 g, ce qui montre l’importance de la régulation chimique par oxydation des réserves. Enfin la thermorégulation devient totalement efficace au 15e jour. Cet établissement précède de quelques jours l’abandon des nids, la séparation des poussins et des parents, l’affaiblissement du comportement territorial et la formation des crèches de poussins.
- Un Manchot querelleur
- On connaît particulièrement bien les différentes parades et attitudes du Manchot Adélie et des tentatives nombreuses d’interprétation en ont été faites.
- Les moyens d’intercommunication sont surtout visuels. La parade mutuelle est essentiellement un moyen de reconnaissance individuelle, aussi bien entre le mâle et la femelle lors de la formation du couple que lors du retour au nid, ou entre les parents et les poussins. Mâle et femelle se tiennent face à face, le cou tendu, le bec pointant vers le ciel. Chacun d’eux balance sa tête à droite et à gauche alternativement. Le mouvement ressemble à une succession d’accolades dans lesquelles chaque personne revient appuyer sa joue sur la joue du partenaire. Ces mouvements sont répétés 5 à 20 fois de suite. Ils s’accompagnent au début du cri kaah-kaah-kaah émis par les deux oiseaux.
- Les transports et offrandes de cailloux ou d’os sont interprétés comme des comportements territoriaux. L’apport de cailloux au conjoint ou même au nid vide aurait la valeur d’une prise de possession du territoire.
- Fig. 14. — Avant de quitter la rookerie, les Adélies adultes se rassemblent sur une banquette de glace.
- {Photo Expéditions polaires françaises
- p.331 - vue 331/560
-
-
-
- Fig. ij. — Nage « en marsouin » du Manchot Adélie.
- L’oiseau de droite est sous l’eau ; celui de gauche sort de l’eau pour accomplir une trajectoire aérienne. (Photo aimablement communiquée par le Dr J. Sapin-Jaloustre).
- Le Manchot Adélie n’a pas la placidité de l’Empereur. Il est fréquemment agité, querelleur et son agressivité se marque par un comportement typique, la parade d'intimidation. Elle est marquée par le hérissement des plumes de la tête en une sorte de crête frontale en arrière des yeux, le rejet en arrière des ailerons qui semblent prendre de l’élan pour frapper, l’émission de kaah-kaah-kaah coléreux ou d’un grondement sourd et menaçant. Les batailles sont fréquentes, à coup de bec et d’ailerons, et peuvent se prolonger plusieurs minutes. L’agressivité est essentiellement individuelle, plus marquée en général chez les mâles. Ce comportement a une triple signification : rivalité pour la possession des femelles, défense contre les prédateurs, enfin et surtout défense du territoire pendant la couvaison.
- La défense du territoire est immédiate et opiniâtre. Elle s’exerce contre tout objet, vivant ou non et en particulier contre les congénères, les œufs et les jeunes poussins étrangers (qui seront souvent acceptés une fois qu’ils sont placés dans le territoire lui-même), les chiens, les hommes, etc. Les comportements agressifs sont d’intensités différentes suivant que l’oiseau se trouve ou non sur son territoire. Dans le premier cas, la bataille est menée très énergiquement. Dans le second cas, l’oiseau se bat sans conviction. Alors qu’il protège fidèlement un œuf quand ce dernier est dans son nid, il ne s’en occupe plus ou même le casse quand il est en dehors de son territoire.
- Certaines attitudes ne semblent répondre à aucun stimulus externe. C’est le cas de la position extatique (fig. i). Pour certains cette position serait spéciale aux mâles ; elle serait en rapport avec un état de « tension nerveuse » quand les choses ne vont pas bien dans les soins donnés aux œufs ou aux poussins.
- Le comportement et le cycle des Manchots ont été étudiés
- en fonction de l’état de leurs glandes endocrines. Chez l’Empereur existe un cycle annuel très net : les glandes génitales et la thyroïde atteignent leur développement maximal juste avant le solstice d’hiver, à la fin de la période de décroissance de la durée des jours. Chez l’Adélie au contraire, le plus grand développement des glandes sexuelles a lieu un peu avant le solstice d’été. Des facteurs écologiques simples, comme la variation annuelle de la durée de l’éclairement journalier ou celle de la température, semblent incapables de rendre compte à eux seuls du déterminisme des périodes de reproduction. Le rythme interne inné et particulier à chaque espèce paraît donc prendre le pas sur les facteurs externes. Remarquons cependant que la reproduction se fait toujours à l’époque la plus favorable pour la nourriture des jeunes en fin de croissance, même quand cela impose aux adultes de commencer leurs activités nuptiales à des dates qui nous semblent hors saison. Le facteur alimentaire paraît donc jouer dans les eaux antarctiques un rôle considérable.
- Les Manchots représentent un groupe extrêmement original, profondément marqué par son adaptation à un climat très rude. Ils ont trouvé pour survivre, au pays de la glace et du vent, des solutions qui, pour le biologiste, sont souvent des problèmes. La thermorégulation, le métabolisme, le déterminisme des jeûnes périodiques, l’organisation sociale, toutes ces particularités doivent relever d’un mécanisme neuro-endocrinien à peine connu. Le problème de l’orientation dans les migrations est aussi à résoudre. Par les problèmes qu’elle pose, l’étude des Manchots dépasse largement le cadre de l’ornithologie pour atteindre celui de la biologie générale.
- Roger Dajoz,
- Agrégé de FUniversité.
- 332
- p.332 - vue 332/560
-
-
-
- Surprenante découverte :
- Un alliage aluminium-cuivre réalisé en Chine à l’époque Tsin
- Un article récent de la Revue de P Aluminium (janvier 1961), faisant suite lui-même à un article de l’archéologue Yan-Hang dans la revue chinoise Si Vao, vient bouleverser les notions courantes que nous possédions sur l’histoire de la technologie de l’aluminium.
- On sait en effet que ce métal, bien que représentant, sous forme d’oxyde ou de silicates, 8,3 pour 100 de la masse de l’écorce terrestre (contre 5,01 pour 100 pour le fer), était encore ignoré avant le début du xixe siècle. Entrevu en 1807 par Davy, il ne fut isolé en laboratoire, sous une forme impure, qu’en 1827 par Wœhler, puis obtenu en 1854, grâce à un procédé chimique, par Henri Sainte-Claire Deville. L’aluminium dès lors « existait » et c’est seulement pour mémoire que nous rappelons les procédés électrolytiques de Héroult et de Hall qui ont permis de le produire industriellement.
- En résumé, l’aluminium n’appartiendrait donc aux civilisations humaines que depuis un peu plus d’un siècle. Il nous faut réviser cette idée désormais classique, à la suite de la découverte, en 1956, d’objets métalliques dans une colline funéraire du Kouang-Sou, en Chine orientale. Ces objets contenus dans la tombe d’un général de l’époque Tsin (250 à 313 après J.-C.) sont faits de différents alliages, dont un alliage aluminium-cuivre.
- Une métallurgie empirique
- Le texte de Yan-Hang, traduit en russe, est le seul document qui soit parvenu en Occident sur cette étonnante découverte. Voici, en substance, les faits relatés dans ce texte.
- Les objets découverts dans la tombe du général sont apparemment des boucles de ceintures (fig. 1). Leurs dimensions, assez variées, s’inscrivent dans un rectangle de 8 à 10 cm sur 5 à 6 cm. Leur état de conservation est relativement bon. Ils sont recouverts cependant d’une couche de couleur gris-brun qui est sans doute un oxyde. La couche intérieure métallique est d’une épaisseur de 1 à 2 mm. Soumises à des analyses successives, chimiques et spectroscopiques, par la Faculté de Chimie de l’Université de Nankin, par l’Institut de Physique de l’Académie des Sciences de Chine et enfin par l’Institut Polytechnique Dunbaï, les pièces examinées ont donné lieu à des comptes rendus différents. Dans certains cas, on se trouvait efîecti-
- Fig. 1. — Boucles de ceinture retrouvées dans une tombe de l’époque Tsin (IIIe siècle).
- Une partie de ces objets sont en aluminium-cuivte, les autres en argent-cuivre.
- {Photos aimablement communiquées par la Revue de l’Aluminium).
- 333
- p.333 - vue 333/560
-
-
-
- vement en présence d’un alliage aluminium-cuivre. En d’autres cas l’alliage ne comportait pas d’aluminium, mais de l’argent et du cuivre.
- A la suite de vérifications ultérieures, il fut établi que les boucles de ceintures n’avaient pas une composition uniforme : sur trois échantillons examinés, deux étaient de la catégorie argent, une de la catégorie aluminium, « Etant donné, précise Yan-Hang, que l’alliage d’aluminium provenant de la colline funéraire Tsin se présente sous l’aspect de petits fragments, mêlés à des objets en alliage d’argent, on peut affirmer que les boucles en alliage d’aluminium étaient dues au hasard, sans qu’ily ait eu une intention déterminée de les produire. »
- La thèse chinoise est donc, en définitive, que la production de l’aluminium allié au cuivre est un fait accidentel, dont les métallurgistes artisanaux de l’époque n’ont évidemment pu prendre conscience. Leur science était essentiellement empirique et l’on sait par exemple que, recherchant des métaux de coulée facile, ceux de l’antiquité se sont tournés tout naturellement vers des « mariages » de minerais (sulfures de cuivre d’une part, oxyde d’étain d’autre part) qui leur ont permis de produire le bronze, sans avoir au début une idée bien nette des métaux associés dans cet alliage. On n’ignore pas que les Chinois ont été parmi les premiers peuples à explorer sous différents aspects les techniques métallurgiques. Celle du bronze a largement précédé l’an i ooo avant Jésus-Christ, celle du fer était déjà confirmée entre 480 et 22o avant Jésus-Christ. Et c’est au cours des deux siècles précédant notre ère que des moyens tels que l’utilisation du charbon et l’activation des foyers par dispositifs hydrauliques de soufflage ont fait leur apparition.
- Il est certain qu’à l’époque Tsin les recherches empiriques étaient en plein essor et pouvaient donner lieu à la réalisation de matières nouvelles, comme celle de l’aluminium-cuivre qui nous occupe aujourd’hui.
- Vérifications expérimentales
- Les Chinois contemporains ont désiré, bien entendu, étayer leur thèse sur des données expérimentales. En effet il est étonnant à première vue que, même involontairement, les artisans du début du moyen âge soient parvenus à vaincre les difficultés qu’offre la réduction de l’oxyde d’aluminium. Si l’on s’efforce d’obtenir cette réduction par voie thermique en présence de carbone (comme on le fait pour le fer), l’aluminium, dont le point d’ébullition (2 ooo0 C) est relativement bas, se vaporise et se
- Fig. 2. — Spectrogramme de l’alliage aluminium-cuivre de l’ancienne Chine.
- Deux raies de l’aluminium, marquées par des flèches, sont visibles sur la gauche du spectrogramme. Elles sont encadrées par des raies du calcium. Dans la moité inférieure du cliché .spectrogramme étalon.
- combine au carbone, en produisant du carbure d’aluminium. Mais tout change à partir du moment où un autre métal à point d’ébullition plus élevé (celui du cuivre est d’environ 2 3000 C) participe à la réduction. L’aluminium se dissout dans ce métal, dès qu’il est réduit, et un alliage se forme spontanément. Telles sont, tout au moins, les bases théoriques proposées par Yan-Hang et ses collaborateurs et qui ont guidé leur expérimentation : après avoir mélangé des oxydes d’aluminium et de cuivre dans la proportion de 75 et 25 pour 100 et chauffé ce mélange à x 6oo° C en présence de borax et de poudre de charbon, ils ont réussi à recueillir une certaine quantité d’alliage aluminium-cuivre, à 30 pour 100 d’aluminium.
- L’hypothèse se trouverait donc, en gros, vérifiée. Mais la technicité du rapport fourni par l’auteur chinois ayant paru trop sommaire aux spécialistes français de l’aluminium, ces derniers ont consulté à ce sujet deux des experts les plus éminents, M. Maurice Fréjacques, Directeur honoraire du Service des recherches de la Compagnie Pechiney, et M. Robert Gadeau, Directeur technique de l’Aluminium Français. Curieuse coïncidence, relevée par la Revue de VÆuminium : le problème posé par les boucles de ceinture de l’ancienne Chine rejoint les recherches entreprises par les grands consortiums du métal léger, en vue de mettre au point un procédé de réduction thermique directe de la bauxite (oxyde d’aluminium hydraté). On se trouve donc en pleine actualité scientifique.
- Selon M. Fréjacques, la réduction directe d’alliages de l’aluminium avec d’autres métaux n’est en aucune façon surprenante. Elle est même connue depuis longtemps. Mais il serait nécessaire de posséder des renseignements plus précis sur la teneur de l’alliage chinois, décrit comme ayant une bonne résistance à la corrosion. Ceci induirait à penser qu’il s’agit d’un bronze d’aluminium, où ce dernier métal intervient au maximum pour 10 pour 100. On peut fort bien concevoir qu’un tel alliage ait pu être produit par hasard dans les conditions évoquées plus haut. Il est plus difficile d’admettre que l’alliage soit aussi riche en aluminium qu’on le dit. La matière serait alors peu résistante à la corrosion et aurait eu toutes les chances d’être détruite en l’espace de 17 siècles. Sa préparation accidentelle serait en outre assez invraisemblable et la qualité de l’alliage, dur et cassant, se serait mal prêtée au façonnage.
- M. Gadeau fournit un avis du même ordre, bien que, selon des essais conduits par lui, il soit relativement aisé d’obtenir un alliage aluminium-cuivre à 30 ou 40 pour 100, en réduisant l’alumine en présence de charbon, de cuivre et d’oxyde de cuivre. L’opération doit être réalisée vers 1 8oo° C. C’est d’ailleurs à cette même température qu’ont été obtenus des alliages Al — Fe — Si — Ti, résultant d’une réduction directe de la bauxite et dont on s’efforce à présent d’extraire l’aluminium par raffinage.
- Il ne reste plus, pour confirmer l’hypothèse de l’alliage
- ; i
- 334
- p.334 - vue 334/560
-
-
-
- Al-Cu obtenu par hasard, qu’à savoir si les Chinois de l’époque Tsin étaient en mesure d’atteindre des températures de x 8oo° C. Interrogé sur ce point, l’Institut des Combustibles et de l’Energie a répondu affirmativement : les métallurgistes de cette époque disposaient du charbon de bois qui, actuellement encore, est le meilleur combustible connu. En outre, leur technique, si primitive qu’elle fût, pouvait fort bien avoir eu recours au préchauffage de l’air insufflé, en le faisant passer, par exemple, à travers un empilage de matériaux réfractaires. Cette sorte de chalumeau au charbon de bois (dont on a retrouvé des modèles dans certaines verreries très anciennes) permettait d’atteindre de très hautes températures, mais dans une zone étroite-
- ment limitée. Cela est parfaitement compatible avec une opération métallurgique de petite envergure, précédant la fabrication de menus objets, tels que ceux trouvés dans la colline funéraire du Kouang-Sou.
- Cette extraordinaire naissance prématurée de l’aluminium, résultat peut-être d’une erreur dans le choix des matériaux, résiste donc aux objections qui auraient pu être, au prime abord, formulées. Les métallurgistes et les chimistes souhaiteraient néanmoins connaître la teneur exacte en aluminium des boucles ciselées qui reposèrent jusqu’à nos jours auprès de la dépouille de l’anonyme général de l’époque Tsin.
- Y. M.
- Le Kornog va permettre une meilleure connaissance des côtes bretonnes
- Le Ier juin 1961 a été lancé à Camaret (Finistère) un petit bâtiment de recherche côtière, baptisé Kornog, nom qui signifie « Ouest » en breton. Ce bateau, qui mesure 13,35 m de long et 4,60 m de large, a été commandé par le Centre National de la Recherche scientifique. Il sera consacré à des recherches sur les fonds sous-marins et dans les eaux qui baignent les côtes de Bretagne et de Normandie ; il pourra également accomplir des missions occasionnelles à proximité des Iles Britanniques. Les recherches porteront essentiellement sur la topographie et l’étude des sédiments marins jusqu’à une profondeur de 180 m environ.
- Le détail des aménagements a été conçu par M. Guilcher, professeur à la Sorbonne, qui a suivi la construction du bâtiment et s’occupera de son exploitation. Ce bateau sera surtout utilisé par des géographes spécialisés dans les questions maritimes, mais pourra aussi accueillir des biologistes et des géologues. Il peut abriter trois chercheurs et, dès son lancement, des missions successives sont prévues en rade de Brest, dans les parages d’Ouessant et de Sein, et dans la baie de Saint-Brieuc. En 1962, le bateau travaillera aussi devant les côtes sud de la Bretagne jusqu’à l’embouchure de la Loire. Chaque mission durera une vingtaine de jours. Les différents secteurs explorés feront l’objet de recherches sur plusieurs années, le but final étant d’établir des cartes détaillées des fonds de ces régions, et de déterminer les conditions de formation des différents types de dépôts. Les échantillons de sédiments recueillis seront analysés dans différents laboratoires à terre. Des scaphandres autonomes permettront une exploration directe des endroits peu profonds les plus intéressants.
- Fig. 1. — Le Kornog, au cours de la phase terminale de son aménagement.
- (Photo aimablement communiquée par le C. N. R. S.
- Par son faible tonnage qui n’entraîne que des frais d’exploitation peu élevés et ses possibilités variées, le Kornog préfigure une série de petites unités qui viendront prendre place à côté des navires de haute mer tels que la Thalassa (voir L,a Nature-Science Progrès, juin 1961, p. 259) afin qu’il ne subsiste pas de hiatus entre la connaissance des côtes et celle du large.
- R. R.
- 335
- p.335 - vue 335/560
-
-
-
- Grâce au phénomène de
- la supraconductibilité
- des machines électroniques miniatures fonctionneront dans l’hélium liquide
- par Jean Ce\aire
- En 1908, le physicien hollandais Heike Kamerlingh Onnes franchissait une étape importante de la maîtrise des très basses températures en parvenant à liquéfier l’hélium, le gaz dont le point d’ébullition est le plus bas : — 269° C ou 4,2° K (x). Onnes en profita pour poursuivre ses recherches sur les propriétés de la matière au voisinage du zéro absolu (— 27 30 C) et entreprit en particulier d’étudier la variation de la résistance des métaux aux très basses températures.
- En 1911, mesurant la résistance électrique d’un filament de mercure solide aux températures de plus en plus basses à partir de — 440 C, il découvrit qu’au-dessous d’une température très voisine de l’ébullition de l’hélium, la résistance du mercure devenait nulle, s’évanouissait de façon inexplicable. La transition était extrêmement rapide, se faisant entre 4,27 et 4,22° K et Onnes comprit dès l’abord qu’il était en présence d’un nouvel « état » de la matière qu’il baptisa supraconducteur, appelant température critique la température à laquelle apparaissait le phénomène (fig. 1).
- -Supraconducteurs
- Température (°K)
- Fig. 1. — Variation de la résistance des métaux au voisinage du zéro absolu (— 273° K).
- La courbe en pointillé représente la disparition rapide de la résistance des corps supraconducteurs. La résistance des corps normaux décroît jusqu’à une valeur minimale non nulle (courbe en trait plein).
- 1. Rappelons que le zéro absolu (absence totale d’agitation thermique) se situe très près de — 273,16° C. Les températures absolues se mesurent en degrés Kelvin (symbolisés °K) qui ne diffèrent des degrés °C que par la place du zéro. On a donc sensiblement o° K = — 273° C et o° C = 273° K.
- Onnes, on s’en doute, s’empressa d’étudier le comportement d’autres métaux comme le plomb, l’étain, etc., et constata que le même phénomène se produisait à des températures quelque peu différentes (le fait que la température critique du mercure est extrêmement voisine du point d’ébullition de l’hélium n’est qu’une curieuse coïncidence). Le phénomène extraordinaire qui était ainsi découvert était propre à exciter la curiosité des physiciens et les années suivantes virent les résultats expérimentaux s’accumuler rapidement. On commença par penser à l’époque que la supraconductibilité était une propriété générale de la matière : au voisinage du zéro absolu tous les corps devaient être supraconducteurs, même ceux qui sont des isolants à la température ordinaire ; si l’on ne parvenait pas toujours à le démontrer expérimentalement, c’était, se disait-on, parce que l’on ne savait pas encore s’approcher suffisamment près du zéro absolu.
- En réalité, il n’en est rien : on admet aujourd’hui qu’une vingtaine d’éléments seulement deviennent supraconducteurs aux très basses températures ; nous en avons rassemblé quelques-uns dans le tableau I. Les températures critiques observées varient d’une fraction de degré Kelvin à 18° K pour un certain alliage de niobium et d’étain étudié par Matthias dans les laboratoires de la Bell Téléphoné Company. Bien des surprises attendaient d’ailleurs les physiciens.
- Tableau I
- Températures critiques de quelques supraconducteurs
- Technétium . 11,2° K Thorium . i,39° K
- Niobium . 8,7° I< Aluminium . I,20° K
- Plomb 7,22° K Zinc .... 0,91° K
- Vanadium 5,i° K Uranium . o,8° K
- Tantale . 4,4° K Osmium . o,7i° K
- Mercure . 4,20 K Zirconium o,70° K
- Étain .... 3 >73°K Cadmium . o, 5 6° K
- Indium . 3,37° K Titane. o,53° K
- Thallium. 2,38° K Hafnium . °,35°K
- Par exemple, les deux meilleurs conducteurs, l’argent et le cuivre, ne deviennent jamais supraconducteurs. Un alliage de sodium et de bismuth devient supraconducteur à 2,2° K, tandis que, séparément, ses deux constituants ne le deviennent jamais. Par contre, le sulfure de cuivre, qui est isolant à la température ordinaire, devient supra-
- 336
- p.336 - vue 336/560
-
-
-
- Fig. 2. — Cette plaquette minuscule comprend tout un ensemble complexe de circuits amplificateurs et basculants à cryotrons.
- (Photo C. Lacheroy, L’Air Liquide).
- conducteur à i,6° K. Nous pourrions multiplier des exemples analogues.
- Examinons maintenant les principales propriétés liées à la supraconductibilité.
- Un courant qui tourne sans jamais s’arrêter
- L’état supraconducteur est caractérisé par une résistance pratiquement nulle au courant électrique, inférieure à io-20 ohm-cm. Si on lance un courant dans un supraconducteur (par induction, par exemple), le courant tourne sans jamais s’arrêter et sans subir le moindre amortissement. Il y a quelques années, dans un laboratoire du Massachusetts Institute of Technology, on a lancé dans un tore de plomb, immergé dans un bain d’hélium liquide à 4,2° K, un courant de 40 ampères ; pendant deux ans, le courant a tourné dans l’anneau. Périodiquement, on mesurait son intensité en lui faisant induire un courant
- dans un circuit de mesure : le seul amortissement que l’on ait constaté correspondait à la quantité d’énergie prélevée au cours de la mesure.
- Influence d’un champ magnétique. — Dès 1914, Kamer-lingh Onnes découvrit que la supraconductibilité était détruite par l’application d’un champ magnétique supérieur à un certain champ critique, que ce champ soit exercé de l’extérieur ou qu’il soit produit par le « supracourant » lui-même. Comme on sait que le champ magnétique créé par un courant est proportionnel à l’intensité de ce courant, il existe donc une intensité de courant critique qui, si elle est dépassée, détruit la supraconductibilité. Cet effet a été mis en évidence de façon spectaculaire par K. Onnes. Un anneau de plomb est rendu supraconducteur dans de l’hélium liquide ; on induit alors un courant dans l’anneau. Lorsque l’intensité du courant induit dépasse celle du courant critique, la résistance réapparaît et les pertes par effet Joule sont telles que l’anneau fond bien qu’il soit dans un bain à 40 K.
- Pour chaque matériau, le champ magnétique critique varie avec la température. Il est d’autant plus élevé que la température est plus basse. Le niobium, par exemple, a une température critique de 8,7° K (— 264,3° Q- A i° K
- p.337 - vue 337/560
-
-
-
- son champ magnétique critique est de 2 400 œrsteds ; il n’est plus que de 2 000 œrsteds à 4,2° K et il tend vers zéro quand on s’approche de 8,7° K (fig. 3), ce qui veut dire qu’au voisinage immédiat de la température critique le plus faible champ magnétique suffit à supprimer la supraconductibilité.
- Le champ magnétique critique varie également avec le degré de pureté du matériau, les traitements mécaniques qu’il a subis, etc. Pour l’alliage de niobium et d’étain dont nous parlions plus haut et qui possède la plus haute température critique connue (180 K), le champ critique atteint 16 000 œrsteds à 4,2° K.
- U effet Meissner ou effet de miroir magnétique. — Les matériaux supraconducteurs possèdent une autre propriété importante : ce sont des diamagnétiques parfaits, c’est-à-dire qu’ils constituent des isolants parfaits à l’égard des champs magnétiques extérieurs (tant que ces champs ne dépassent pas la valeur critique qui fait cesser la supraconductibilité). Lorsqu’on approche un aimant d’un corps conducteur, le champ magnétique créé par l’aimant induit un courant qui s’amortit rapidement én raison de la résistance électrique du conducteur. Répétons l’expérience avec un supraconducteur. Le courant induit y circule indéfiniment puisque la résistance est nulle. Mais ce courant engendre à son tour un champ magnétique parallèle au précédent et de sens opposé. En d’autres termes, la surface du supraconducteur constitue une sorte de miroir magnétique, qui réfléchit les lignes de force du champ appliqué : aimant et supraconducteur se comportent comme deux pôles d’aimant de même nature ; ils se repoussent et la force de répulsion peut, dans certains cas, équilibrer le poids de l’aimant ; celui-ci flotte alors dans l’hélium gazeux à quelques centimètres de la surface du supraconducteur. Nous verrons plus loin l’application qu’on peut trouver à ce phénomène.
- Niobium
- Plomb
- Mercure
- Etain
- Températures (0 K )
- Fig. 7. — Variation du champ magnétique critique avec la température, pour différents supraconducteurs.
- Plus la température est basse et plus le champ magnétique nécessaire pour faire cesser la supraconductibilité doit être intense.
- (Imité de Scknlific American).
- Plus petit que le transistor : le cryotron
- Nous venons de voir les principales propriétés liées à la supraconductibilité. Pendant plus de quarante années, ce domaine est resté l’apanage du physicien pur, mais il n’en est plus de même aujourd’hui. Avec l’invention du cryotron, en 1956, par un jeune diplômé de l’Institut de Technologie du Massachusetts, Dudley A. Buck, la supraconductibilité a pénétré la technique.
- Le premier cryotron était constitué par une tige de tantale de quelques millimètres de longueur et de 0,025 mm de diamètre entourée par un bobinage de fil de niobium de 0,0075 mm de diamètre. L’ensemble était plongé dans un bain d’hélium liquide à une température de l’ordre de 4,2° K. Reportons-nous alors au tableau I qui donne les températures critiques de la plupart des corps supraconducteurs ; nous y voyons que le niobium est supraconducteur à partir de 8,7° Iv tandis que le tantale ne l’est qu’à partir de 4,4° K, c’est-à-dire à peine au-dessus de la température de l’hélium liquide. Dans ces conditions, il suffit d’un champ magnétique très faible, d’une centaine d’œrsteds seulement (fig. 3), pour faire réapparaître la résistance du tantale. Or, on peut produire un tel champ en faisant passer un courant dans le fil de niobium : on arrête ainsi le courant dans le fil de tantale, c’est-à-dire qu’on a réalisé un relais d’une grande simplicité (2).
- ^ Barreau de tantale
- ‘îf >
- Enroulement < i|ii (
- de niobium « i|i,
- (Circuit de commandeJ <ji§,
- Courant
- contrôlé
- Fig. 4. — Schéma de principe d’un cryotron.
- L’ensemble est plongé dans un bain d’hélium liquide. Le champ magnétique créé par le bobinage de niobium détruit à volonté la supraconductibilité du fil de tantale. A droite : représentation symbolique d’un cryotron. On remarquera que le sens du courant dans le fil de tantale et dans l’enroulement de: niobium est sans aucune influence sur le fonctionnement du dispositif.
- -On peut dès lors envisager des ensembles de cryotrons remplissant des fonctions complexes. Par exemple, le courant qui traverse le fil de tantale peut ensuite passer dans le bobinage de niobium d’un deuxième cryotron, de sorte qu’un cryotron peut en commander un autre et ainsi de
- 2. On pourrait évidemment obtenir le même résultat en faisant varier légèrement la température du fil de tantale, mais cette méthode ne serait pas d’application commode car elle serait lente et exigerait une dépense non négligeable d’énergie. Au contraire, le fil de niobium étant lui-même supraconducteur, l’énergie consommée est pratiquement nulle.
- 338
- p.338 - vue 338/560
-
-
-
- suite. On conçoit que l’on puisse ainsi réaliser tous les circuits logiques nécessaires à une machine arithmétique.
- D’autres schémas, aussi simples, permettent d’envisager de multiples possibilités. C’est ainsi que l’on peut faire fonctionner un cryotron en amplificateur. Supposons en effet que l’on fasse passer le courant à amplifier dans l’enroulement de niobium d’un cryotron. Les modulations de ce courant vont faire varier dans d’énormes proportions la résistance du fil de tantale. Si l’on fait passer un fort courant dans ce dernier, il sera modulé par le petit courant et le cryotron peut dès lors remplacer la triode classique ou le transistor.
- Voyons enfin comment deux cryotrons peuvent fonctionner en générateur d’oscillations électriques (fig. 5).
- Fig. J. — Montage de deux cryotrons en circuit oscillant.
- Explications dans le texte.
- Lorsque le courant parcourt le circuit I, il fait cesser la supraconductibilité du barreau de tantale Tl5 de sorte que le courant va passer par II ; il agit alors sur le fil de tantale T2. Mais, en même temps, le fil Tx n’étant plus soumis à un champ magnétique redevient supraconducteur ; le courant passe alors à nouveau par le circuit I et ainsi de suite. On a ainsi réalisé un oscillateur d’une grande simplicité.
- Nous limiterons là les exemples de circuits réalisables avec les cryotrons, mais disons toutefois que la quasitotalité des montages classiques à tubes à vide ou à transistors ont des équivalents avec les éléments supraconducteurs. Les cryotrons sont-ils cependant utilisables dans la pratique ? Pour répondre à cette question, il faut mettre en parallèle les avantages des montages à cryotrons et les inévitables complications apportées par les systèmes nécessaires à la réfrigération.
- Le principal intérêt des cryotrons réside dans leurs dimensions, infimes même si on les compare à celles des transistors. Il suffit, pour s’en convaincre, de regarder la figure 2 qui représente une plaquette sur laquelle est montée une série de circuits amplificateurs et de circuits basculants à cryotrons. Depuis quelques mois, on a fait encore mieux, semble-t-il, en déposant les matériaux supraconducteurs en film mince sur des lames de verre par évaporation sous vide. Les métaux utilisés en films minces
- Fig. 6. — Liquéfacteur mixte hydrogène-hélium.
- Cet appareil permet de préparer d’importantes quantités d’hydrogène ou d’hélium liquide, nécessaires à l’étude de la matière au voisinage du zéro absolu.
- (Photo C. Lacheroy, L’Air Liquide).
- sont généralement le plomb et l’étain. On arriverait à des taches métalliques de 0,1 micron d’épaisseur et de 1 mm de diamètre. Or, un ordinateur électronique utilise plusieurs centaines de milliers d’éléments et occupe, de ce fait, des dimensions imposantes, 300 m2 par exemple pour le Gamma 60 de la Compagnie des Machines Bull. A l’aide de montages à cryotrons il suffirait, pour reprendre le propos d’un spécialiste, d’une « boîte à chaussures pour loger les circuits d’un grand ordinateur ». Il y a là probablement une part de boutade mais l’on conçoit cependant que le maintien à basse température d’un ordinateur à cryotrons de quelques dizaines de décimètres cubes ne soit pas chose impossible. La déperdition d’hélium dans les cryostats récents n’est pas considérable, 1 pour 100 au plus par 24 heures et rien n’empêche, de toute façon, de récupérer l’hélium qui s’évapore et de le recycler.
- 339
- p.339 - vue 339/560
-
-
-
- fabriquer des bolomètres extrêmement sensibles, utilisables pour détecter le très faible rayonnement calorifique en provenance des étoiles. Sous l’effet du rayonnement, la température du supraconducteur s’élève et sa résistance augmente rapidement : la mesure de la variation de résistance permet d’en déduire l’intensité des radiations reçues.
- On peut également utiliser le phénomène de la supraconductibilité pour réaliser un véritable « robinet à chaleur » : dans l’état supraconducteur, tandis que la conductibilité électrique ne rencontre plus de résistance, la conductibilité thermique est au contraire très faible, pouvant descendre au millième de celle de l’état normal ; et naturellement la suppression de l’état supraconducteur rétablit une conduction normale de la chaleur. Au moyen d’un champ magnétique extérieur, dont l’application peut faire cesser la supraconductibilité électrique, on peut donc commander le flux de chaleur le long d’un barreau supraconducteur.
- . Citons encore l’effet de miroir magnétique qui a reçu, lui aussi, des applications pratiques ; la General Electric Company a construit un moteur fonctionnant au voisinage du zéro absolu dont le rotor « flotte » dans le champ magnétique du stator sans aucune friction, ce qui permet de réaliser un gyroscope de très haute précision puisque les frottements sont rendus pratiquement nuis. Quand on sait que la navigation spatiale implique l’utilisation de systèmes de guidages dont les gyroscopes sont les éléments essentiels, on imagine sans peine les applications que peut recevoir dans ce domaine la supraconductibilité.
- Enfin, la supraconductibilité devrait permettre de construire des aimants puissants qui ne consommeraient que peu d’énergie. A une température suffisamment basse,
- Fig. 8. — Transvasement d’hélium liquide dans un vase de Dewar dans lequel sera plongé le supraconducteur.
- Photo C. Lacheroy, L’Air Liquide).
- Fig- 7* — Afin de limiter les pertes d’hélium, le vase de Dewar qui le contient est plongé dans une enceinte remplie d’azote liquide.
- Un autre avantage des cryotrons est la faible puissance électrique nécessaire à leur fonctionnement. Un calculateur électronique de grandes dimensions exige une puissance de l’ordre de quelques centaines de kilowatts ; un calculateur à cryotrons, au contraire, ne nécessite pratiquement aucune énergie. Quant aux dispositifs de réfrigération, ils n’utilisent que quelques dizaines de kilowatts, soit au total une puissance 10 fois plus faible.
- Enfin, d’autres avantages des cryotrons ne doivent pas être négligés : disparition presque totale du bruit de fond d’une part et constante de temps très faible d’autre part, puisqu’on parle de circuits commutant en moins d’un dix-millionième de seconde.
- Autres applications des supraconducteurs. — La supraconductibilité est susceptible de recevoir bien d’autres applications. Par exemple, on utilise les supraconducteurs au voisinage immédiat de la température de transition pour
- 340
- p.340 - vue 340/560
-
-
-
- Fig. 9. —Soutirage d’azote liquide.
- (Photo C. Lacherov, L’Air Liquide).
- Fig. 10. — Les oscillations d’un circuit à cryotrons plongé dans l’hélium liquide s’inscrivent sur l’oscillographe cathodique.
- (Photo C. Lacherov, L’Air Liquide).
- p.341 - vue 341/560
-
-
-
- Fig. il. — La plaquette de la figure 2 va être plongée au bout d’une sonde dans l’hélium liquide.
- {Photo C. Lacheroy. L’Air Liquide).
- l’alliage de niobium et d’étain de formule Nb3Sn (dont la température critique est de 180 K) peut laisser passer des courants aussi élevés que ioo ooo ampères par centimètre carré sans pour cela cesser d’être supraconducteur, ce qui correspond à un champ critique supérieur à 100 000 gauss. Selon des chercheurs de la Bell Téléphoné Company, on devrait pouvoir construire des aimants ne nécessitant comme source d’énergie qu’une batterie de 6 volts et produisant des champs comparables à ceux d’aimants classiques qui occupent un vaste espace et consomment une puissance de 1,5 mégawatt.
- Nous venons de voir comment un phénomène longtemps considéré comme appartenant au domaine de la physique pure a reçu progressivement des applications pratiques toujours plus nombreuses. Les recherches actuelles s’attachent d’une part à développer une théorie cohérente de la supraconductibilité, d’autre part à découvrir les influences, favorables ou défavorables, des impuretés chimiques. Il n’est pas douteux, comme l’écrivait récemment un physicien, que la supraconductibilité ne devienne à son tour dans un avenir prochain un phénomène « utile ».
- Jean Cézaire.
- Un télescope volant, le stratoscope
- On sait que les observations astronomiques sont rendues très difficiles par la turbulence atmosphérique, c’est-à-dire par des courants aériens dus à des différences de température qui se produisent dans les basses couches de l’atmosphère et qui déforment les images des astres. Depuis longtemps on s’est efforcé de s’affranchir de ces phénomènes gênants en construisant les observatoires à l’écart des villes et, si possible, à haute altitude mais, malgré des progrès substantiels, les effets de l’agitation atmosphérique limitent considérablement les possibilités des appareils d’observation.
- On a alors cherché à éliminer complètement l’influence de la turbulence en emportant à haute altitude, au moyen d’un ballon, un télescope photographique. Un premier appareil pesant 640 kg et muni d’un miroir de 30 cm de diamètre a été lancé par des astrophysiciens américains en septembre 1957. Ce télescope resta pendant 4 h 45 mn à une altitude de 27 000 m et permit de remarquables photographies de la surface du soleil (voir L,a Nature, septembre 1958, p. 354).
- Une expérience analogue va être tentée sous peu à l’Université de Princeton aux. États-Unis. Le nouveau
- télescope dispose d’un miroir de 91 cm de diamètre ; il est en quartz, corps qui est très peu affecté par les brusques changements de température qui surviennent à très haute altitude. A la descente, le dispositif, dont le poids total est voisin de 2 000 kg, sera pris au filet par un hélicoptère de la Marine afin d’assurer un atterrissage sans heurts selon une technique qui a donné d’excellents résultats pour la récupération des capsules de satellites artificiels. L’appareil, devant s’élever dans la stratosphère, a été appelé stratoscope.
- Grâce au stratoscope, les astronomes américains espèrent mener à bien un important programme de recherches : étude de la surface de Vénus (si les nuages qui recouvrent cette planète veulent bien s’écarter quelques instants), étude des brusques variations de l’atmosphère de Jupiter et de Vénus. En associant au télescope un spectroscope, les chercheurs américains espèrent également étudier la composition des anneaux de Saturne. Le fait que l’appareil sera à haute altitude permettra en effet de s’affranchir en outre des propriétés absorbantes de l’atmosphère terrestre à l’égard des radiations.
- R. R. *
- 342
- p.342 - vue 342/560
-
-
-
- Une branche nouvelle de la psychologie sociale
- Les petits groupes de travail
- i. Le travail en groupe et les facteurs psychologiques
- par Jean-Claude Filiaux
- A. l'heure actuelle, les techniques de conduite de réunions, la formation à la participation aux réunions sont l'objet d'un apprentissage dans la plupart des centres de perfectionnement des cadres administratifs ou industriels. Des « séminaires » réunissent en petit groupe des hommes qui apprennent à mieux travailler en commun et qui, dans l'atmosphère particulière de ces réunions d'étude, prennent conscience de ce que sont les relations de groupe. Les animateurs de ces centres et séminaires se fondent sur les études scientifiques effectuées par les psychosociologues (se rattachant à la sociomètrie, à la dynamique des groupes, à la psychothérapie de groupe, etc.). Ce sont quelques-uns de ces travaux que M. Jean-Claude Filloux a commencé à exposer dans de récents articles (1). Envisageant ici l'influence des facteurs « psychologiques » dans le travail des petits groupes, il traitera dans un prochain article des facteurs « structuraux » et « instrumentaux ». Le profane jugera peut-être que tous ces efforts aboutissent parfois à des notions qui semblent aller de soi. Mais aucune science ne saurait se fier aux a priori du sens commun. Toute l'histoire des sciences est là pour prouver que, dans ce qui nous paraît évident, seule une méthode expérimentale rigoureuse peut faire le départ entre T illusion et la réalité.
- Jusqu’à présent nous avons mis essentiellement l’accent sur les facteurs de cohésion et sur l’importance des processus et réseaux de communication dans les petits groupes. Préludant aux articles qui seront consacrés aux applications pratiques (pédagogiques, industrielles, etc.) de la psychologie des groupes, nous nous intéresserons ici d’une manière plus particulière à ce qui se passe dans les petits groupes de travail dont le but est de progresser vers la solution de problèmes ou vers des décisions. Ce sont eux en effet que l’on rencontre réellement dans la vie industrielle, administrative, politique, ou que l’on parle de susciter quand on préconise, par exemple, la substitution d’une gestion plus « démocratique » à une gestion plus « autoritaire » dans les diverses organisations sociales. Il semble au premier abord que ces « groupes de travail »
- i. Voir La Nature : La psychologie des petits groupes, août, septembre i960; Le développement des petits groupes, novembre, décembre 1960, janvier 1961.
- entrent simplement dans les groupes instrumentaux, constitués d’individus dont la motivation essentielle est de parvenir à la solution de quelque question proposée par le milieu (ainsi une équipe d’ingénieurs construisant les plans d’une machine nécessaire à l’entreprise) et non pas dans la catégorie des groupes psychologiques, nés du désir même d’être en groupe, d’y trouver les satisfactions particulières que procure le sentiment sécurisant du « nous ». Il est toutefois rare que dans les groupes de travail les considérations purement « instrumentales » soient exclusives de l’intervention d’attitudes émotionnelles ou affectives ; même centrés sur une tâche, les membres d’équipes de recherches peuvent parfaitement éprouver du plaisir à être ensemble, ne pas se percevoir réciproquement comme de purs moyens, et voir dans le groupe un lieu d’interactions satisfaisantes par elles-mêmes. C’est pourquoi les processus psychologiques d’ordre affectif, les réactions entre personnes, et les impressions d’aise ou de malaise sont des facteurs de progression ou de stagnation dans la dynamique du développement d’un groupe de travail, concurremment aux procédures de décision ou d’organisation qui sont instaurées. On s’explique donc que les recherches expérimentales se soient préoccupées d’élucider les variables proprement « psychologiques » qui favorisent ou inhibent le travail en groupe, autant que de préciser les faits « structuraux » (taille du groupe, système hiérarchique, procédures) qui conditionnent également ce travail.
- Ces recherches, relativement récentes du reste, se sont développées dans le cadre de perspectives souvent différentes et qu’il convient de distinguer au départ. La différence de perspective elle-même provient de la diversité des raisons qui sont responsables du fait que, dans la réalité sociologique, des gens se trouvent travailler en groupe. Parfois, ce sont des conditions relativement contingentes qu’il faut invoquer. Lorsque des élèves font une composition dans une classe, ils pourraient tout aussi bien travailler et parvenir à leurs fins (remettre leur copie) en étant seuls. Parfois, la raison de l’organisation d’un travail collectif vient de ce qu’on considère qu’un problème donné peut plus facilement être résolu à plusieurs qu’indivi-duellement : on fait confiance à la créativité du groupe. Parfois enfin, surtout dans les organisations de caractère démocratique (syndicat) ou lorsqu’il apparaît nécessaire de faire participer ceux qui sont directement concernés
- 343
- p.343 - vue 343/560
-
-
-
- par une décision (conférence, réunion de cadres), le travail en groupe est requis en vertu de principes comme le suivant : « il convient que telle décision soit prise par tous et non par un seul. »
- Mis à part certaines recherches premières, ressortissant davantage à la psychologie individuelle, consacrées à la question de savoir si on travaille mieux seul ou « en compagnie », les travaux de psychologie sociale se sont poursuivis dans deux directions fondamentales, correspondant aux deux types de questions suivants : x° Le produit du travail en groupe est-il supérieur au produit d’un travail individuel ? Le produit « groupal » est-il spécifique ? Ou bien est-il identique à celui auquel parviendrait un individu possédant toutes les informations et hypothèses émanées de chacun ? z° Comment le groupe de travail progresse-t-il vers ses buts ? A travers quelles interactions ? Quelles lois gouvernent les relations interpersonnelles quant à la « productivité » groupale ? En tentant de répondre aux premières questions, on se préoccupe essentiellement d’évaluer les résultats du travail collectif, par comparaison avec le travail individuel. En tentant de répondre aux secondes on est amené à tenir compte de variables qui interviennent dans le développement même du groupe, dont certaines peuvent être des variables fines, comme l’existence de réseaux d’amitié ; et, partant, le niveau d’analyse est plus profond.
- Fig. I. — Une expérience de travail en petit groupe : un « jeu d’entreprise ».
- Les photographies qui illustrent cet article ont été prises au cours d’un « jeu d’entreprise » organisé par Gestion-Organisation avec le concours de la Compagnie des Machines Bull. Plusieurs groupes, travaillant séparément, étaient censés représenter une société industrielle et avaient à élaborer des décisions pour lutter contre des sociétés concurrentes. D’intéressantes conclusions ont pu en être tirées quant à la psychologie des petits groupes de travail.
- Photos aimablement communiquées par Gestion-Organisation).
- Plusieurs têtes
- valent-elles mieux qu’une seule ?
- Parmi les nombreux travaux consacrés à l’étude comparative des produits de groupe et des produits individuels, nous citerons ceux, déjà anciens et classiques, de Gurnee, Thorndike, Shaw, Timmons, qui datent des années 1930-1940, ainsi que les recherches plus récentes de Perlmutter et G. de Montmollin, qui datent de 1952. D’une façon générale, tous ces travaux concluent à la supériorité des solutions de groupe sur les solutions individuelles.
- Les tâches choisies pour être proposées, d’une part à des sujets isolés, d’autre part à des groupes de sujets, étaient nécessairement assez simples, de manière à présenter des niveaux de difficulté équivalents pour les sujets, sélectionnés d’ailleurs et homogènes ; surtout, elles devaient être susceptibles d’être effectuées aussi bien par l’individu que par le groupe, ce qui excluait les problèmes demandant une coopération, une division du travail. C’est pourquoi il s’agissait, soit d’apprendre ensemble des textes sans signification (Perlmutter et G. de Montmollin), soit de résoudre un problème de labyrinthe en votant à chaque carrefour (Gurnee), soit de résoudre des problèmes d’arithmétique, de mots croisés, ou de construction de puzzles (Thorndike), soit de répondre à des questions du genre de la suivante : « Trois femmes et leurs maris sont sur le côté d’une rivière ; tous les hommes savent ramer, mais non les femmes ; aucun homme ne veut permettre à sa femme d’être en présence d’un autre homme à moins qu’il ne soit sur le même bateau ; comment passeront-ils le plus rapidement possible de l’autre côté de la rivière, étant donné que le bateau ne peut prendre que trois personnes à la fois ? » (Shaw). Certains chercheurs proposaient également l’analyse de cas humains (Timmons).
- Peut-être le caractère relativement élémentaire des tâches ainsi proposées, ainsi que les conditions assez artificielles des procédures de « laboratoire » empêchent-ils de considérer les résultats obtenus comme absolument généralisables. Toujours est-il que tout en indiquant la supériorité du travail en groupe sur le travail individuel, aussi bien de l’individu isolé que de l’individu « en compagnie », les recherches précitées ont mis à jour quelques facteurs intéressants de cette « supériorité ».
- Etant donné qu’une solution de groupe est obtenue à partir d’un nombre de jugements ou d’opinions plus grand que ceux dont dispose un individu seul, on pourrait croire que le facteur fondamental réside précisément dans la mise en commun comme telle (pooling). C’est ce que pensait Gurnee : statistiquement, il y a plus de chances pour que la bonne solution apparaisse à dix individus qu’à un seul.
- Mais ce serait oublier l’élément interactif et admettre que la solution proposée par un individu au groupe dépend seulement, à un moment donné, de lui-même et non de la façon dont il réagit à d’autres solutions. La plupart des études faites après Gurnee montrent que le comportement groupal dans son ensemble intervient, de sorte que la solution de groupe n’est pas un résultat statistique, mais la résultante des idées, connaissances, etc., des personnes qui sont en interaction. Des études comparatives entre un ensemble pur et simple de solutions individuelles et la solution obtenue par un groupe après discussion montrent en particulier que la solution de groupe est supérieure à
- 344
- p.344 - vue 344/560
-
-
-
- Fig. 2. — Ces plusieurs têtes valaient-elles mieux qu’une seule ?
- la solution de l’individu moyen et qu’elle égale celle des meilleurs individus.
- Des facteurs d’ambiance et de contexte social doivent d’abord être invoqués. On peut reprendre ici quelques résultats de Floyd Allport faisant état d’une sorte de « facilitation sociale », les motivations, attitudes et perceptions des individus étant transformées dans le sens d’une plus grande créativité quand l’individu sait que d’autres travaillent à la même tâche, qu’ils peuvent l’aider, etc. Bos, en 1937, a mis en évidence que les sujets d’un groupe soignent davantage leurs idées, cherchent à les exprimer mieux, pour eux comme pour les autres. D’une manière générale, les personnes qui travaillent plus lentement seules sont davantage facilitées par la situation collective que celles qui travaillent rapidement dans l’isolement.
- Les études de Marjorie Shaw (de même d’ailleurs que celles de Perlmutter et de Montmollin) semblent ensuite indiquer que c’est par l’intermédiaire des processus dévaluation des solutions, ou de rejet que le groupe comme tel progresse vers la meilleure solution. Utilisant des groupes de quatre membres, attelés à la solution de problèmes analogues à celui du passage de la rivière, Shaw conclut : i° que le groupe est supérieur à l’individu quand il évalue de façon critique les contributions des membres ; 20 parce qu’il détruit des habitudes et élimine des faux départs ; 30 si les communications libres ne sont pas entravées par des procédures trop formelles.
- De son côté, Timmons, à partir de groupes d’études de problèmes de relations humaines, arrive à la conclusion que l’interaction a pour résultat d’orienter les solutions individuelles dans la direction d’un « consensus ». Cette influence se produit bien entendu par la communication des vues d’une personne à une autre et dépend alors des facteurs qui facilitent ou inhibent les communications. Qu’une solution proposée par un individu soit acceptée peut provenir, soit des propriétés intrinsèques de la solution, des arguments apportés, soit du fait qu’il est perçu comme étant compétent, ayant des ressources...
- Tout ceci donne à penser qu’une grande variété de facteurs expliquent le caractère « unique » du produit de groupe, comparé avec la moyenne des produits individuels. Tous interviennent simultanément. C’est, en gros, le fait de l’interaction et de la communication qui détermine la différence, à telles enseignes que les mêmes individus qui interagissent dans un groupe pourraient présenter des solutions différentes dans un autre groupe. On est donc obligé d’aborder le second type de question : l’incidence des variables fonctionnelles sur la dynamique même du groupe-travaillant-en-tant-que-groupe.
- L’étude de telles variables « fonctionnelles » a nécessité des travaux portant sur des situations de travail moins élémentaires que les précédentes : les problèmes posés au groupe demandant, par exemple, une coopération effective pour être résolus, la tâche elle-même consistant à élaborer
- 345
- p.345 - vue 345/560
-
-
-
- une décision collective acceptée par tous (recherche de l’unanimité), etc. Ainsi apparut l’importance, du point de vue strictement psychologique et affectif, de l’implication personnelle, des pressions émanant du groupe, des amitiés entre membres. D’autres facteurs structuraux (taille du groupe, statut des membres) ou instrumentaux (type de tâche, procédures formelles d’étude et de décision, style de leadership) se révélèrent également déterminants. Réservant d’envisager ces derniers facteurs dans le prochain article, nous dirons donc déjà quelques mots des facteurs psychologiques qui induisent la progression du groupe vers l’aboutissement de l’œuvre collective comme telle.
- Les conditions de V « implication » dans le travail collectif
- Il est d’observation courante que, lorsque des groupes sont en état de compétition avec d’autres groupes, les membres de chacun d’eux sont en général très intéressés au succès final (motivés, selon la terminologie en usage), comme s’ils s’identifiaient au groupe dont ils font partie et à son succès. Une telle identification est nécessaire dans tous les cas où le travail doit être productif, même si le but du groupe n’est pas de l’emporter sur quelque autre groupe. Mais elle n’intervient que si l’individu a le sentiment d’être en partie responsable du fonctionnement groupal, s’il désire aboutir en toute solidarité avec les autres participants, s’il se rend compte de l’interdépendance des attitudes de chacun, et enfin s’il est prêt à remettre en question certaines motivations individuelles, quand elles peuvent compromettre l’aboutissement de l’effort groupal ressenti comme fondamental. Plus Y implication individuelle des membres est grande, mieux le groupe est en situation de progresser.
- Mais cette implication personnelle est éminemment variable. D’intéressantes expériences ont tenté d’en cerner les conditions : elles la montrent étroitement liée à la prédominance d’un esprit coopératif dans le groupe, au souci de faire prédominer les motivations partagées sur les motivations égotistes et surtout à la manière dont le but commun a été déterminé, au degré de participation de l’individu dans le processus de détermination de ce but.
- En ce qui concerne l’importance de l’esprit de coopération, il faut surtout citer les travaux de Morton Deutsch (1949) sur l’« effet de la coopération et de la compétition dans les processus de groupe ». Deutsch constitua 10 groupes composés chacun de 5 étudiants, qui se réunissaient 3 heures par semaine pendant 6 semaines, pour traiter des problèmes de puzzles et de relations humaines. Dans certains groupes, des relations coopératives étaient induites : pour cela on expliquait aux membres que des récompenses seraient accordées à chacun en fonction de la réussite de tout le groupe et proportionnellement à cette réussite. Dans les autres groupes, on induisait au contraire des relations compétitives : les membres étaient prévenus que les récompenses seraient proportionnées à la contribution personnelle de chacun dans le groupe. Comparés avec les groupes ainsi rendus « compétitifs », les groupes « coopératifs » montrèrent les caractéristiques suivantes :
- Fig. — Entre deux séances de travail : le jeu de boules favorise-t-il les rapports amicaux dans le petit groupe ?
- — Motivation individuelle plus forte à accomplir la tâche commune, avec sentiment de responsabilité plus fort vis-à-vis d’autrui ;
- — Contribution individuelle meilleure, avec plus grande coordination et division du travail plus précise ;
- — Communications plus fréquentes, avec davantage de verbalisation et davantage d’attention aux idées d’autrui ;
- — Davantage de rapports amicaux dans la discussion, avec une plus grande satisfaction des activités du groupe et de ses produits.
- En résumé, là où les relations coopératives sont récompensées, on remarque une plus grande implication, ainsi que le développement de rapports affectifs plus satisfaisants ; le processus de solution des problèmes lui-même montre une spécialisation des efforts, parallèle à une coordination effective des activités séparées. Aussi, les groupes coopératifs résolvent des problèmes plus rapidement et la créativité en ce qui concerne les « cas » de relations humaines y est plus grande que dans les groupes compétitifs. Une des raisons de ce fait est probablement l’angoisse relative, la tendance aux réactions de défense suscitées par la situation compétitive. Et Deutsch suggère de limiter, dans les écoles, les situations compétitives (éducation traditionnelle) au profit de situations de groupe coopératives (méthodes actives, toute la classe participant à un travail collectif coopératif) ; suggestion qu’il nous faudra retenir lorsque nous étudierons les applications pédagogiques de la dynamique des groupes.
- D’autres travaux conduits dans une perspective similaire et que nous ne pouvons rapporter en détail (Mintz,
- 346
- p.346 - vue 346/560
-
-
-
- 1951 5 Fouriezos et Guetzkow, 1950 ; Haythorn, 1953), ont permis d’autre part d’établir que lorsqu’un but commun est solidement établi dans le groupe, les membres tendent à lui sacrifier chemin faisant telles ou telles motivations personnelles, ce qui se traduit par un surcroît d’implication. Mais à quelles conditions un but commun est-il ainsi « solidement établi » ? C’est le moment de rappeler les études « sur le terrain » de Coch et French (voir La Nature, septembre i960, p. 376) qui démontrèrent que des équipes d’ouvriers dans une usine étaient d’autant plus motivées à accepter une nouvelle façon de travailler qu’ils avaient davantage participé à la décision prise. Wille-man (1948) compara des groupes où les buts avaient été fixés d’une façon autoritaire et des groupes qui avaient eux-mêmes fixé leurs propres buts : il' constata que les membres sont bien moins motivés à atteindre des buts fixés par des agents externes au groupe, que ceux qui sont déterminés par discussion et décision dans le groupe. Tout se passe comme si Y acceptation des buts de groupe était accrue par /’existence d'une procédure de fixation des buts comportant discussion et participation de tous (ou au moins possibilité de participation). Une telle conclusion a également d’importantes applications pratiques, que nous retrouverons (domaine industriel, socio-politique).
- Pour expliquer cette relation fondamentale entre la procédure de participation et l’acceptation des buts de groupe, les auteurs (notamment Bennett, Schachter et Hall) invoquent les raisons suivantes : la procédure de
- participation accroît le sentiment que le but collectif convient aux buts individuels ; les membres connaissent mieux la valeur du but, les raisons de l’atteindre ; le but est enfin valorisé, dans la mesure où l’individu a l’impression que les autres le recherchent aussi. En somme, plus les individus se sentent responsables d’une décision et d’un travail collectifs, plus ils sont impliqués dans cette décision et dans ce travail. Peut-être nos lecteurs penseront-ils que, là encore, les expérimentateurs ont établi scientifiquement des évidences ? Nous croyons, en tous cas, que si de telles évidences étaient mieux connues et surtout si elles induisaient certains types de comportement authentiquement « démocratiques », on verrait moins d’autoritarisme dans la vie sociale.
- La pression vers l’uniformité des opinions et des attitudes
- Nous savons que le groupe exerce toujours une pression sur ses membres ; cette pression est proportionnelle à la cohésion groupale, à Y attrait éprouvé par chacun pour les buts ou la tâche et finalement à ce que Festinger a appelé, dans son ouvrage fondamental Social Pressures in Informai Groups (1950) le « pouvoir interne » du groupe, matérialisé par la « quantité de changement qu’il peut induire sur ses membres ». L’étude du fonctionnement d’un groupe de travail doit nécessairement se préoccuper des conséquences
- Tableau I. — Communications et pression vers l’uniformité dans un groupe
- Il existe un processus spontané de communication (entre « émetteurs » et « récepteurs ») durant le fonctionnement d’un groupe. La pression qui pousse un émetteur ou plusieurs émetteurs à communiquer avec un ou des récepteurs doit être mise en relation avec la pression vers l’uniformité dans le groupe : la communication est alors un moyen par lequel l’émetteur espère influencer le récepteur, créer un changement dans ses opinions et attitudes. Dans ce tableau ont été résumés les principaux facteurs qui déterminent : chez un émetteur le besoin de communiquer avec tel récepteur ; chez un récepteur l’acceptation d’un changement ; et dans le groupe le rejet d’un déviant. Ce tableau a été établi d’après un article théorique de Festinger,-intitulé Informai Social Communication (1951), qui fait lui-même partie d’un ouvrage où sont relatées les expériences scientifiques qui établissent chacune des formulations théoriques rapportées (Theory and Experiment in Social Communication, comportant notamment : Déviation, Rejet et Communication, de Schachter ; L’exercice de l’influence dans la communication sociale, de K. Back ; La communication interpersonnelle dans les petits groupes de Festinger et Thibaut).
- Déterminants chez un émetteur de la grandeur de la pression à communiquer 1 a. — Le besoin de communiquer est fonction directe du désaccord perçu avec le récepteur (individu ou groupe). ï b. — Le besoin de communiquer touchant un point X (item X) est fonction directe de l’importance de cet item pour le fonctionnement du groupe, if. — Le besoin de communiquer est fonction directe de la cohésion.
- du choix d’un récepteur 2 a. — Le besoin de communiquer avec un membre particulier est d’autant plus grand que son désaccord est plus grand. 2 b. — Le besoin de communiquer est inversement proportionnel à la non-appartenance perçue du récepteur au groupe. 2 c. — Le besoin de communiquer est fonction directe de Y efficacité prévue de la communi-tion en direction du récepteur.
- Déterminants du changement chez un récepteur 3 a. — Le changement d’opinion chez le récepteur est d’autant plus grand que la pression vers l’uniformité augmente dans le groupe. 3 b. — Les changements d’opinion sont proportionnels au degré de la force d’appartenance du récepteur au groupe. 3 c. — Les changements d’opinion sont inversement proportionnels aux résistances résultant soit de Y appartenance à d'autres groupes, soit de facteurs personnels opposés.
- Déterminants des changements dans la composition du groupe 4 a. — La tendance du groupe à modifier sa composition (par rejet) est fonction du degré de divergence des individus. 4 b. — Quand il y a non-conformité, la tendance à changer la composition du groupe est d’autant plus grande que la cohésion est plus forte et que l’importance de ce dont on parle est plus grande.
- 347
- p.347 - vue 347/560
-
-
-
- Fig. 4. — Le président de l’un des groupes commente les résultats de l’expérience devant tous les participants au « jeu d’entreprise ».
- de l’apparition d’un tel pouvoir interne, de son rôle dans la progression vers les buts, la décision et l’aboutissement. Les travaux effectués sur ce point appartiennent presque tous au courant de la « dynamique des groupes » patronné par Festinger, que nous suivrons donc ici.
- Il apparaît d’abord que le pouvoir interne du groupe se traduit par une pression vers P uniformisation des opinions et des attitudes, malgré et par les conflits qui peuvent s’élever. Festinger et ses disciples pensent avoir établi expérimentalement : d’une part que le consensus se produit d’autant plus vite que l’uniformité se trouve plus désirable, en raison, par exemple, d’un but commun important pour chacun ; d’autre part que les membres d’un groupe de discussion recherchent toujours inconsciemment un support chez autrui, surtout lorsqu’il n’y a pas de test direct de la valeur objective de leurs opinions. Le premier résultat indique que l’implication est un facteur de consensus, ce qui n’est guère pour étonner ; le second, plus intéressant peut-être, suggère que le groupe peut rapidement devenir pour l’individu le support, l’assiette de ses propres opinions, à tel point qu’il n’hésitera pas à infléchir ses opinions dans le sens d’une opinion partagée afin de l’asseoir sur une sorte de fondement social. Tout se passe comme si le groupe avait aux yeux de l’individu une « réalité » susceptible de fonder objectivement ses propres attitudes. En tous cas, sans une tendance générale à adopter des points de vue communs, jamais un groupe ne parviendrait à une décision commune.
- On s’explique donc ce phénomène, bien connu des propagandistes, qu’il existe dans tous les groupes (organisations globales, partis, petits groupes) une tendance à rejoindre l’avis de la majorité, que cet avis soit, en lui-même, bon ou mauvais. Dans un petit groupe de travail, à défaut d’une uniformité dans les positions de chacun, il naît au moins un accord sur les procédures de travail, les valeurs de base,
- ce qu’on appelle parfois les « standards groupaux ». Un phénomène remarquable, qui a donné lieu à des expériences systématiques de la part de Schachter et de Thibaut, est le phénomène dit de traitement des déviants. Lorsque dans un petit groupe de travail quelques déviants apparaissent (des irréductibles), une pression énorme se produit pour les faire revenir à la conformité, de telle sorte que le flux de communications émanant du groupe est, pendant un long moment, essentiellement dirigé vers ces déviants. D’ailleurs, d’une façon générale, il convient de relier étroitement la structure des communications à l’intensité de la pression vers l’uniformité : la première résulte pour une grande part de la seconde (voir le tableau I où nous résumons les hypothèses de Festinger à ce sujet). Lorsqu’un membre est perçu comme étant en désaccord avec le groupe, les communications seront d’autant plus dirigées vers ce membre que le pouvoir interne du groupe sera plus grand.
- Mais tous les membres ne sont pas également influençables. Question, bien entendu, de caractère. Celui-ci mis à part, il semble établi qu’un individu qui se trouve « attractif » dans le groupe a plus de pouvoir et partant peut davantage résister à la conformité requise, qu’un membre qui est peu ou n’est pas attractif. D’autre part, il faut tenir compte de la force des attitudes initiales, force elle-même liée, soit à l’expérience personnelle, soit aux standards propres à quelque groupe « étranger » auquel appartient l’individu, ou auquel il se réfère. Il va de soi que plus une attitude initiale est ancrée, moins elle a de chances de changer !
- Bien entendu, pour qu’il y ait tendance à rejoindre l’avis de la majorité, encore faut-il qu’une majorité se dessine. Des études assez récentes se sont préoccupées de mettre en rapport la progression du groupe vers le consensus avec la plus ou moins grande hétérogénéité des opinions. En effet, qu’un membre tende à changer son jugement dépend en partie de la variété des opinions auxquelles il est exposé. Ce n’est que si d’autres personnes diffèrent de lui qu’il réexaminera sa position et le cas échéant la modifiera.
- 348
- p.348 - vue 348/560
-
-
-
- En général, c’est par une suite de « reconsidérations » de cette sorte que des solutions meilleures apparaissent. Il arrive même que la difficulté qu’éprouve un groupe de parvenir à une solution soit imputable à l’extrême homogénéité initiale des opinions ! L’hétérogénéité initiale des opinions exprimées dans un groupe est déterminée, entre autres choses, par tout facteur qui affecte le désir de l’individu d’annoncer son opinion et en particulier, par la plus ou moins grande'inhibition à la participation. C’est pourquoi, comme nous le verrons dans les articles que nous consacrerons à la conduite des réunions-discussions, il convient, dès le début d’une discussion de groupe, que le « conducteur » utilise des techniques qui permettent d’exprimer au maximum l’hétérogénéité des positions, car, étant donné ensuite la tendance à la conformité, il s’agit là d’une garantie de parvenir plus rapidement à une solution correcte.
- Certes, de l’hétérogénéité peut naître le conflit. Mais, il ne faut pas penser que le conflit est contradictoire avec cette pression à l’uniformisation spécifique de tout groupe qui progresse vers une solution ou une décision finale : le conflit d’opinions n’est pas en lui-même destructeur du fonctionnement groupal ; il est même souvent le moteur de la locomotion vers les buts, une étape vers le consensus. Guetzkow et Gyr ont étudié en 1954 les « conflits dans des groupes de décision », en observant sur le terrain une centaine de petits groupes de cadres dans des entreprises. Distinguant les conflits « instrumentaux » (relatifs aux problèmes) et les conflits « affectifs » (interpersonnels), ils remarquèrent que les uns et les autres pouvaient déboucher sur l’unanimité, si tant est que, dans le premier cas, les éléments d’unité arrivaient à être progressivement dégagés et que, dans le second, les attitudes négatives parvenaient à être inhibées.
- Enfin, l’étendue des pressions exercées sur l’individu est plus ou moins vaste selon la vérité perçue des opinions que le groupe tente de faire partager aux membres. D’une façon générale, l’efficacité du travail en groupe et des solutions dépend d’une dialectique entre le besoin d’uniformité et ce qu’on peut appeler un besoin de vérité. C’est pourquoi une variable supplémentaire doit intervenir ici, étudiée par Baies, la perception des ressources des « autres » :
- Pneus supersoniques
- Les fabricants de pneus se trouvent en présence d’un problème nouveau, du fait des températures très élevées atteintes pendant les vols supersoniques. On se demande en effet si les pneus du train d’atterrissage supporteront ces températures qui risquent de dépasser 150°. Des essais pratiqués à l’Établissement Aéronautique de Toulouse ont apporté une conclusion négative. Placés dans un four chauffé à 120°, refroidis pendant un quart d’heure et mis en contact d’un volant qui simule l’atterrissage à 250 km/h, les pneus n’ont pas supporté 10 « atterrissages » successifs, la bande de roulement s'arrachant de là carcasse du pneu. Parmi les solutions proposées, on note k remplacement de l’armature textile par une armature métallique et l’emploi d’élastomères ayant une bonne résistance aux températures élevées.
- plus ils sont perçus comme « compétents », « utiles », plus leurs avis tendent à prédominer et à devenir la base d’une structuration du pouvoir groupal.
- L’influence des relations d’amitié
- Nous terminerons ce résumé de quelques travaux effectués dans la perspective d’une analyse des facteurs psychologiques qui interviennent dans le travail en groupe par de rapides considérations sur le rôle de Yamitié entre les membres. Il semble qu’il y ait deux possibilités principales. D’une part, l’amitié peut conduire à de meilleures communications, à une plus grande participation dans le groupe. Mais on peut s’attendre à ce que ce fait même ait une grande variété d’effets : il peut mener à une expression plus complète des solutions individuelles et à une participation plus large à la solution de groupe ; d’un autre côté, il peut se faire que l’amitié crée des interactions affectives telles que la tâche finale soit oubliée, comme Homans l’a montré. Les travaux expérimentaux, en tout cas, ont établi que l’existence de rapports d’amitié exerce des effets sur la communication, l’influence et la sécurité. En ce qui concerne les effets sur l’influence, il ressort d’un article de Horowitz, Lyons et Perlmutter (1951) qu’on a plus volontiers tendance à agréer l’assertion de quelqu’un qu’on aime bien que celle d’un individu antipathique. Selon Back, les gens sympathiques nous poussent plus facilement à changer d’opinion. Considérera-t-on encore là que ce sont des notions évidentes ? Nous jugeons au contraire qu’il faudrait des études sociométriques sérieuses pour établir solidement ce point, études qui, à notre connaissance, n’ont pas été effectuées, du moins dans cette optique.
- De toute façon, les facteurs affectifs ne sont pas les variables principales dans les processus de solutions de problèmes ou de décisions ; ils introduisent seulement des énergies dynamiques ou de retardement, à moins que le groupe de travail ne se transforme en groupe « psychologique », ou ne soit qu’un paravent derrière lequel s’affrontent ou se retrouvent des spontanéités.
- (à suivre). Jean-Claude Filloux,
- Agrégé de l’Université.
- Annonce sonore des essaims d’abeilles
- La méthode courante pour prévoir l’essaimage d’une ruche est d’inspecter cette dernière tous les dix jours, du 15 avril au 15 juillet, afin de connaître l’activité des cellules royales. Un biologiste anglais, E. F. Woods, préconise une autre méthode, fondée sur les sons émis par la ruche.
- Ces sons, dans les conditions normales, oscillent entre les fréquences de 100 à 600 c/s. Lorsqu’on observe un bourdonnement de 225 à 285 c/s, avec une chute d’environ 10 dB dans l’intensité du son, c’est le signe annonciateur d’un essaimage qui se produira dans un délai de 10 à 15 jours. M. Woods a construit et fait breveter un dispositif électronique, baptisé « Apidictor », qui enregistre les variations du son en fréquence et en intensité et permet ainsi de prédire la formation d’un essaim.
- 349
- p.349 - vue 349/560
-
-
-
- Les mammouths retrouvés congelés en Sibérie
- ne sont pas morts de froid
- Depuis 1692, date de la première découverte de ce genre, un certain nombre de cadavres de mammouth ont été trouvés en Sibérie, conservés presque intacts par le froid. Sous couvert d’information scientifique, des périodiques américains ont récemment développé, sous une forme dramatisée, le thème des « géants gelés » : une brutale baisse de la température, véritable cataclysme climatique, se serait produite, entraînant en quelques heures la mort des mammouths par congélation.
- Une mise au point de M. William R. Farrand, dans la revue Science (17 mars 1961), résume toute une série d’études qui infirment cette interprétation.
- Le premier argument que cet auteur oppose à la thèse de la congélation brusquée est l’excellente adaptation du mammouth aux basses températures : outre les poils grossiers dont il était recouvert, son épiderme portait une épaisse et courte fourrure qui lui a valu le nom de « mammouth laineux ». Sous la peau se trouvait une couche de graisse, atteignant 9 cm d’épaisseur. On a également sou-
- Fîg. 1. — Mammouth peint
- du grand plafond de la grotte de Rouffignac (Dordogne).
- Les admirables figures préhistoriques de Rouffignac ont été découvertes en juin 1956 par MM. Louis-René Nougier et Romain Robert- Beaucoup, comme celle-ci, sont partiellement oblitérées par des inscriptions modernes au noir de fumée. La silhouette du mammouth est ici présentée avec une exactitude frappante ; noter les îarres poils très forts, qui ornent le poitrail.
- Photo Nougif.r-Robert).
- ligné le fait que les mammouths sibériens étaient sensiblement moins grands et de formes plus ramassées que leurs congénères de la même espèce, Elephas primigenius (x), qui vivaient à la même époque en Europe. Les pachydermes sibériens en effet ne dépassaient pas 2,80 m à la hauteur des épaules, alors que les spécimens européens pouvaient atteindre entre 3,20 et 3,90 m. L’épaisseur de l’émail des défenses (plus forte que chez les éléphants actuels) peut aussi être comptée parmi les caractères d’adaptation aux grands froids. Enfin la forme élargie de la partie terminale de la patte démontre que le mammouth était capable de se déplacer avec une aisance relative sur les terrains du grand Nord, enneigés en hiver, détrempés en été. Nous verrons plus loin que cette dernière adaptation ne pouvait être aussi bonne que chez des mammifères d’un moindre « tonnage ».
- Deuxième argument : les mammouths sibériens vivaient dans une zone où la végétation assurait largement leur subsistance. Il est peu vraisemblable que cette condition écologique ait pu être modifiée du jour au lendemain. Mais comment M. Farrand est-il en mesure de prouver que l’habitat des mammouths (sur le pourtour de l’Océan glacial, entre l’estuaire de l’Ob et la Kolyma) offrait une telle abondance en nourriture ? On doit noter tout d’abord l’excellente condition physique où se trouvaient les animaux dont les cadavres ont été conservés. L’autre indice, encore plus probant, est le contenu stomacal : Tolmachoff, Osborn et Heintz ont fait l’inventaire des nombreux éléments végétaux retrouvés dans l’estomac des mammouths. On y compte des lichens, des mousses et de très nombreuses plantes herbacées, graminées, cypéracées, caryophyllacées, crucifères, légumineuses, renonculacées, ombellifères, etc., ainsi que des rameaux tendres de quelques arbres et buissons, parmi lesquels aune, bouleau, saule, pin. Tous ces éléments sont les témoins d’une flore plus riche que celle de l’actuelle toundra et cela indique que, dans une certaine mesure, la Sibérie septentrionale jouissait d’un climat moins froid et sans doute plus humide qu’à présent.
- Cette conclusion, difficile à contester, n’a pu être parfaitement conciliée avec les diverses datations au radio-carbone qui ont été tentées, non plus qu’avec la succession classiquement connue des périodes glaciaires et interglaciaires. La plupart des cadavres de mammouth reposaient au-dessus des sédiments marins postérieurs à la transgression de l’Océan glacial qui s’est produite en Sibérie
- 1. Le nom scientifique Elephas primigenius fut fort mal choisi, car on ne tarda pas à découvrir des éléphants plus anciens. Ce fait illustre le danger qu’il y a à conférer à une espèce fossile un nom qui préjuge la place qu’elle doit occuper dans l’histoire du monde vivant.
- 350
- p.350 - vue 350/560
-
-
-
- avant la dernière glaciation, dite de Würm en Europe. L’un des cadavres aurait été daté au radiocarbone à plus de 30 000 ans, ce qui le repousserait jusqu’au pléistocène moyen. Il y a tout lieu de penser que cette datation est erronée et que les mammouths ont vécu, il y a xo 000 ans environ, à l’étage nommé Karginsky par les géologues russes, étage qui correspond à un réchauffement, comme il s’en est également produit en Europe au sein de la dernière période glaciaire. Paradoxalement, avant que n’y fût achevée la dernière glaciation, le climat de la Sibérie du Nord aurait été plus doux qu’il n’est à présent.
- Ce point de chronologie n’étant pas pleinement élucidé, quelques autres faits achèvent d’établir que la mort des mammouths, du moins de ceux dont on a retrouvé les cadavres intacts, ne fut pas due à une poussée cataclysmique du froid. Si en effet il en était ainsi, l’extermination se serait étendue, en même temps, à tous les êtres vivants de ces régions. Or, on a pu se rendre compte que la plupart des cadavres avaient été mutilés par des carnassiers, avant d’être congelés. C’est dire que la faune régionale était restée intacte. A cela on doit ajouter que la chair des mammouths avait subi, également avant congélation, un début de putréfaction. La preuve en est fournie par l’intolérable puanteur que dégageait, lorsqu’il fut découvert, un des spécimens les plus connus (celui de Berezovka) : la putréfaction ne pouvait s’expliquer par un dégel survenu après coup, car l’odeur cadavérique avait imprégné tout le terrain gelé alentour, dans un assez large rayon.
- Enfin, dernier argument à l’encontre du cataclysme, cette explication ne serait valable que si toute la population des mammouths avait succombé d’un seul coup. Il est démontré statistiquement que cette hypothèse est fausse. Un dénombrement approximatif a permis d’évaluer à plus de 50 000 le nombre des mammouths qui ont vécu en Sibérie pendant le pléistocène supérieur. Même en divisant ce nombre par celui des générations successives, la population à une date déterminée était certainement très supérieure à la quantité de cadavres gelés découverts au cours des trois
- derniers siècles. On n’en connaît en effet que 39, dont 4 seulement étaient restés intacts.
- La thèse de la mort par congélation étant écartée, comment peut-on reconstituer les circonstances dans lesquelles les pachydermes ont succombé ?
- Plusieurs d’entre eux ont certainement péri par asphyxie, soit à la suite d’une noyade, soit ensevelis vivants dans la neige, la vase ou les sables mouvants. L’un des mammouths présentait un signe très net de mort par asphyxie (pénis en érection). Un autre signe d’asphyxie a été relevé sur le cadavre d’un rhinocéros, contemporain des mammouths et qui, ainsi que deux de ses congénères, semble avoir péri à la même époque : les vaisseaux sanguins de la tête étaient encore remplis de sang rouge coagulé.
- L’hypothèse générale de la noyade ou de l’ensevelissement n’a pu être étayée de manière définitive par l’étude des terrains où reposent les cadavres. La plupart, à vrai dire, se trouvent dans des vallées ou sont associés à des sédiments fluviatiles. Mais les modifications ultérieures de ces terrains ne permettent pas de plus amples précisions sur le déroulement du « drame ».
- Un auteur, Digby, insiste sur le grand nombre de ravins pleins de neige molle qui ont pu constituer des « pièges à mammouths ». Vollosovich, de son côté, a été lui-même victime d’un fleuve de boue épaisse où il aurait été certainement enlisé, s’il n’avait été secouru par ses guides : cet incident lui a inspiré le tableau d’un mammouth pris au piège de même manière, tombant sur le côté et formant barrage au fleuve de boue qui l’aurait lentement recouvert.
- En tout état de cause, les massifs pachydermes, bien adaptés thermiquement au climat sibérien, étaient par contre malhabiles à se dépêtrer de certaines situations critiques, occasionnées par la fonte des neiges, la débâcle des rivières, les glissements de terrain, etc. Cela expliquerait pourquoi quelques-uns d’entre eux ont été accidentés et par la suite conservés, en plus ou moins bon état, par le froid.
- G. C.
- Le lawrencium, élément chimique n° 103
- Les chercheurs du Laboratoire Lawrence de l’Université de Californie ont obtenu récemment un nouvel élément chimique, le plus lourd qui soit actuellement connu puisqu’il occupe la case n° 103 du tableau de Mendeleiev, portant à 11 le nombre des éléments transuraniens créés artificiellement. Ils ont proposé de l’appeler lawrencium.
- Rappelons à cette occasion que l’uranium (numéro atomique 92) était l’élément le plus lourd qui fût connu avant l’avènement de l’ère atomique. Par l’absorption d’un neutron et émission d’un électron négatif, il donne naissance au neptunium (n° 93), découvert par MM. McMillan et Abelson en 1940 à l’Université de Californie ; par une émission semblable, le neptunium donne naissance au plutonium (n° 94), qu’isolèrent MM. Seaborg, McMillan, Wahl et Kennedy, de la même université. L’américium (n° 95) et le curium (n° 96) furent créés par MM. Seaborg, James, Morgan et Ghiorso au Laboratoire de métallurgie de l’Université de Chicago. Revenant au Laboratoire des radiations de l’Université de Californie, M. Seaborg et ses collaborateurs
- créèrent successivement le berkélium (n° 97), le californium (n° 98), l’einsteinium (n° 99), le fermium (n° 100) et le mendélévium (n° 101). Ces découvertes valurent à M. Seaborg le prix Nobel de Chimie en 1951.
- En 1957, à l’Institut Nobel de Stockholm, des physiciens américains, britanniques et suédois obtinrent quelques atomes (une cinquantaine) de l’élément n° 102, baptisé nobélium, en bombardant une cible de curium (n° 96) avec des noyaux de carbone 13.
- L’élément nouvellement créé, le lawrencium (n° 103), a été obtenu par MM. Ghiorso, Torbjorn, Sijkeland, Larsh et Lati-mer, en bombardant 3 micromilligrammes de californium (n° 98) avec des noyaux de bore 10 et de bore 11 d’une énergie de 70 MeV. L’élément n° 103 a été identifié par les particules a de 8,6 MeV qu’il émet. Sa période est d’environ 8 secondes et son nombre de masse serait 257 ; le nuclide obtenu contiendrait donc 103 protons et 154 neutrons.
- H. G.
- 351
- p.351 - vue 351/560
-
-
-
- L’évolution technique de l’Aéronautique à travers le 24e Salon
- par Jacques Spincourt
- COMME toutes les années impaires, le Salon de l’Aéronautique a eu lieu cette année au Bourget, du 25 mai au 4 juin. A ce 24e Salon, seize nations ont participé et le nombre des exposants a atteint un chiffre exceptionnellement élevé. Nous allons examiner brièvement les principales réalisations qui ont été présentées dans le domaine des avions, des moteurs et des engins ; nous ne reviendrons pas en détail sur certaines des techniques nouvelles qui ont déjà été exposées dans ces colonnes.
- F g. 1. — Le G. A. M. Dassault « Mirage IV ».
- (Pbcto J. Havard).
- Les avions
- Peu de nouveautés depuis deux ans dans le domaine des avions militaires d’interception, ce qui était prévisible puisque ce matériel est maintenant largement dépassé par les engins. Par contre, dans le domaine des bombardiers, on note, malgré la concurrer.ce des engins balistiques, quelques appareils nouveaux.
- En France, quelques détails ont été révélés sur la version de série du Mirage IV (fig. 1). Son poids total devrait être de l’ordre de 34 tonnes contre 30 tonnes pour le prototype actuel et sa propulsion sera assurée par deux turboréacteurs supersoniques S. N. E. C. M. A. Atar 9 de 7 500 kg de poussée avec post-combustion, qui font un large appel pour leur réalisation à l’acier et au titane. Rappelons que le
- Mirage IV est destiné à transporter à une vitesse de Mach 2 une bombe atomique sur une distance qui pour le moment apparaît un peu courte et que cinquante exemplaires en ont été commandés, les premiers devant sortir en 1964.
- Le B. 58 « Hustler » de Convair (fig. 2) est également un bombardier moyen, mais beaucoup plus lourd que le Mirage IV puisqu’il atteint 72 tonnes. Avec ses quatre réacteurs de 7 100 kg de poussée suspendus sous sa voilure en delta, il doit dépasser Mach 2.
- F g. 2. — Le B. 58 « Hustler », premier bombardier volant à une vitesse double de celle du son.
- Cet appareil s’est écrasé au sol lors de la présentation en vol ; les causes de l’accident n’ont pas encore été déterminées.
- L’aviation commerciale, par contre, disposait d’une très large représentation, comportant en particulier quelques avions légers à réaction, dits « avions d’affaires ». Les constructeurs français étaient représentés par le Morane « Paris II » et par le Potez C. M. 191, tous deux équipés de deux Marboré VI de 480 kg de poussée chacun, qui permettent d’atteindre une vitesse de 650 km/h avec quatre passagers. En outre, la S. F. E. R. M. A. présentait le « Marquis », dérivé d’un avion Beechcraft par remplacement des deux moteurs à piston par deux turbopropulseurs Turboméca « Astazou » de 440 ch. Mais si l’on en juge par le nombre de projets présentés et correspondant à des appareils en cours d’étude et de réalisation, on peut prévoir que la concurrence sera très vive dans ce domaine au cours des prochaines années.
- 352
- p.352 - vue 352/560
-
-
-
- Fig. 3' — Le Potez 840, équipé de quatre turbopropulseurs Astazou.
- Dans la gamme de tonnages supérieure (lignes intérieures, lignes d’apport), l’attention se portait surtout sur le quadri-turbopropulseur Pptez 840 (fig. 3) équipé d’Astazous et qui peut transporter de seize à vingt-quatre passagers sur des étapes de 1 500 km à une vitesse de 500 km/h. Vingt-cinq options de cet appareil ont déjà été prises par des compagnies américaines, ce qui, après le succès remporté à l’étranger par la « Caravelle », traduit bien la vitalité de l’industrie aéronautique française.
- Sud-Aviation, justement, présentait la dernière version de son biréacteur, la Caravelle VII, équipée de réacteurs
- à double flux General Electric C. J. 805 de 7 300 kg de poussée (fig. 4), ce qui lui permet d’accroître son rayon d’action de 20 pour 100 : par rapport à la première version de série, le fuselage est allongé d’un mètre. Enfin, le dernier développement en cours serait la Caravelle X équipée de réacteurs Pratt et Whitney JT 8D, également à double flux, et qui seraient alors construits sous licence par la S. N. E. C. M. A. Ces nouvelles versions, aux performances
- Fig. 4. — La Caravelle VII.
- Remarquer l’accroissement du diamètre de la section arrière des turboréacteurs à double flux C. J. 805 de la General Electric. Cet accroissement est dû à une soufflante qui entoure la turbine du réacteur.
- p.353 - vue 353/560
-
-
-
- assez fortement améliorées par rapport à celles de la version livrée actuellement, permettront de mieux affronter la concurrence qui ne va pas manquer de s’ouvrir avec le triréacteur américain B.oeing 727 (à ne pas confondre avec le long-courrier Boeing 707)-et certains appareils anglais qui malheureusement n’ont pas été présentés à ce Salon.
- Enfin, le Bréguet « Intégral » (fig. 5) à décollage court, dont le prototype avait été présenté il y a deux ans, existait sous ses deux versions 941 et 942 pour le transport des passagers et du fret. Rappelons qu’ils sont tous deux propulsés par quatre turbines à gaz Turboméca Turmo III D de 1 250 ch de puissance chacune qui entraînent des hélices
- Fig. /• — Le Btéguet 941.
- On notera le grand diamètre des hélices.
- de grand diamètre. Le souffle de ces hélices est alors dévié vers le bas suivant une direction presque verticale par les volets de bord de fuite de l’aile ; c’est cet effet de souffle qui vient augmenter la portance et permet de raccourcir considérablement les distances de décollage et d’atterrissage. La vitesse maximale de croisière serait de 435 km/h et les distances de décollage et d’atterrissage respectivement de 300 et 220 m au poids maximal. La charge payante est, dans les deux cas, de 6 tonnes.
- Nous avons déjà traité dans un article récent (La Nature-Science Progrès, juillet 1961, p. 291-294) la question des avions à décollage vertical ou court. Aussi n’y reviendrons-nous pas, sinon pour signaler un projet de la firme britannique Boulton-Paul concernant un avion de transport pour quarante-six passagers ; il comporte dix-huit réacteurs verticaux donnant chacun une poussée de 2 tonnes répartis en quatre nacelles montées aux extrémités de deux voilures, l’une à l’avant, l’autre à l’arrière. La propulsion est assurée, comme pour la Caravelle, par deux moteurs à double flux disposés de part et d’autre à barrière du fuselage.
- Les moteurs
- Les avions militaires volant à Mach 2 nécessitent des moteurs aux performances assez poussées. Pour les Mirages III et IV, la S. N. E. C. M. A. a mis au point l’Atar 9 de 6 150 kg de poussée avec post-combustion ; il comporte un compresseur axial à neuf étages dont les disques sont en titane, une chambre de combustion annulaire alimentée par vingt brûleurs et une turbine à deux étages. La tuyère d’éjection est à section variable, la variation de section étant obtenue par des volets mécaniques actionnés par des vérins hydrauliques.
- Dans la gamme de poussées supérieure, citons les Pratt et Whitney J. 75 et J. 58 de respectivement n 300 et 13 600 kg de poussée avec post-combustion et le General Electric J. 79 développant 7 160 kg. Ce dernier (fig. 6) possède un compresseur de dix-sept étages, ce qui constitue un record pour un turboréacteur.
- Enfin, signalons que l’on annonce un développement du réacteur britannique « Olympus » qui serait capable de fournir jusqu’à ij tonnes de poussée à une vitesse de l’ordre de Mach 3 ; ce moteur doit équiper un prototype d’avion d’attaque supersonique, le T. S. R. 2.
- De nombreux moteurs à double flux étaient également représentés, mais nous n’y insisterons pas non plus puisqu’il en a déjà été question dans cette revue (février 1961, p. 80-81). Cette formule du double flux gagne maintenant le domaine des faibles puissances, comme le montre le General Electric CF. 700 de 1 800 kg de poussée ; un tel moteur est destiné à concurrencer les turbopropulseurs pour les avions d’affaires.
- Du côté de ces turbopropulseurs, cependant, la construction française était dignement représentée avec l’Astazou et le Bastan de 560 et 870 ch respectivement. Ils peuvent être délivrés sous deux formes : celle du turbopropulseur classique entraînant une hélice et celle du générateur de gaz pour la propulsion des hélicoptères, ces gaz pouvant être envoyés soit aux extrémités des pales du rotor, soit à travers une turbine libre qui entraîne mécaniquement le rotor.
- Enfin, il faut constater la place de plus en plus importante prise par les fusées au Salon, place qui est due au développement de l’industrie des engins. Depuis deux ans, les poussées ont considérablement augmenté. C’est ainsi que la S. E. P. R. présentait deux moteurs-fusées à poudre de n et 23 tonnes respectivement, la durée de fonctionnement n’étant que d’un peu plus de quatre secondes. On notait également le moteur à propergols liquides de l’avion de recherches supersonique X-15 ; ce moteur, qui utilise de l’ammoniac anhydre et de l’oxygène liquide, peut fournir une poussée variant entre 11 300 et 26 500 kg.
- Les engins
- Dans le domaine des engins balistiques à longue portée, la grande nouveauté technique est due aux propergols solides qui viennent concurrencer les propergols liquides. Le « Minuteman », la plus récente réalisation américaine, utilise une poudre à base de polyuréthane et d’un per-chlorate alcalin ; de même le Polaris, engin emporté par sous-marin et qui est tiré alors que le navire est en plongée. Les portées des grands engins intercontinentaux se sont
- 354
- p.354 - vue 354/560
-
-
-
- accrues dans de notables proportions : elles sont de 18 500 km pour l’Atlas, de 21 000 km pour le Titan. Tous ces engins disposent de systèmes de guidage à inertie et ont déjà participé à de nombreux lancements de fusées spatiales.
- Pour les faibles portées, les engins tendent de plus en plus à se substituer à l’artillerie et l’on notait plusieurs ensembles de tir montés sur chenilles et pouvant se déplacer sur n’importe quel terrain à des vitesses voisines de 60 km/h. Tels sont le « Pershing » américain et le « Blue Steel » britannique.
- Dans le domaine des engins sol-air, de grands progrès sont également en cours avec la mise au point d’engins capables d’intercepter les engins balistiques. Le Nike « Zeus » en sera le premier représentant ; il comporte deux étages à propergols solides, dont le premier développe 204 tonnes de poussée.
- Enfin, les engins lancés d’avion, soit vers le sol, soit vers d’autres avions, se distinguent surtout par la diversité de leurs systèmes de guidage. Les plus précis pour les tirs contre avions semblent être ceux à tête chercheuse à infrarouge, qui se guident sur les rayonnements calorifiques émis par les tuyères des réacteurs de la cible ; tel est le cas du De Havilland « Red Top », dont l’allure générale fait penser à un gros crayon (fig. 7). D’autres font du « homing », c’est-à-dire qu’ils s’orientent de façon à
- Fig. 7. — L’engin air-air De Havilland « Red Top ».
- recevoir au maximum les ondes radar émises par l’avion lanceur et réfléchies par l’objectif. Certains sont même guidés à vue ; ils possèdent alors à l’arrière de petites fusées de pistage que le pilote de l’avion lanceur peut suivre tout au long de la trajectoire et les ordres correctifs sont transmis par radio.
- Fig. 6. — Le turboréacteur J. 79 de la General Electric.
- Jacques Spincourt.
- p.355 - vue 355/560
-
-
-
- Le premier satellite alimenté en énergie
- d’origine nucléaire par Nicolas Vichney
- L’expérience de lancement de satellites réalisée par les Américains le 29 juin dernier constitue une « première » des plus remarquables : c’est la première fois que l’on associait aux possibilités offertes par les fusées spatiales celles de l’énergie nucléaire, non plus dans le domaine de la fabrication des bombes mais dans celui de la production d’électricité. Fait jusqu’alors sans précédent tant aux États-Unis qu’en U. R. S. S., on annonçait qu’un engin spatial était alimenté en énergie par un générateur nucléaire.
- C’est un satellite de navigation du type Transit qui se trouvait muni, le premier, d’un tel équipement. Lancé à l’aide d’une fusée à deux étages Thor Able-Star, il pesait quelque 87 kg ; la « batterie nucléaire » qu’il emportait n’avait, elle, qu’un poids légèrement supérieur à 2 kg (4,7 livres). Elle était à même, selon ses constructeurs de la Martin Company, de fournir une puissance de 2,7 watts durant une période au moins égale à cinq ans. Ces chiffres prouvent sa supériorité sur les générateurs déjà en usage dans les engins spatiaux. Toujours d’après les constructeurs, il aurait fallu, pour disposer durant une période de temps aussi longue d’une puissance équivalente, installer dans l’engin un générateur chimique dont le poids aurait été de plusieurs tonnes. Le générateur nucléaire supporte aussi bien la comparaison avec les batteries solaires dont il est maintenant d’usage de munir les engins spatiaux : non seulement l’alimentation en énergie électrique ne dépend plus de l’ensoleillement dont bénéficie l’engin, mais il y a tout lieu de penser qu’elle pourra se prolonger sensiblement plus longtemps, car bien souvent l’expérience a montré que la « durée de vie » des batteries solaires était limitée. Faut-il imputer leur déficience, comme certains spécialistes américains le pensent, à une action des radiations ou à l’impact de micrométéorites ? La question est actuellement à l’étude.
- Ce générateur nucléaire est le plus simple d’une série d’appareils auxquels conjointement l’Administration pour l’Aéronautique et l’Espace (N. A. S. A.) et la Commission de l’Énergie atomique (A. E. C.) prêtent une attention soutenue : les Snap (System for Nuclear Auxiliary Power). Le 22 janvier 1959, le président Eisenhower révélait lui-même que les techniciens américains travaillaient à mettre au point des générateurs d’électricité transportables et d’un faible poids dont le fonctionnement reposerait sur une utilisation de l’énergie recélée par la matière. Dans le même temps, le président des États-Unis faisait savoir qu’un premier modèle avait été réalisé, qui déjà donnait satisfaction.
- L’appareil monté à bord du dernier satellite Transit est identique, dans son principe, à celui qui avait été présenté
- au président Eisenhower. La chaleur dégagée par une substance radioactive est transformée, grâce à des thermocouples, en énergie électrique ; l’appareil fonctionne donc tant que F « activité » de la substance est suffisamment grande. Mais il s’en fallait, à l’époque, que ce type de générateur fût « opérationnel », en raison notamment du prix prohibitif de la substance radioactive employée. Cette fois, c’est au plutonium 238 qu’il a été fait appel.
- Il s’en faut que ce modèle d’appareil ait été le seul auquel les techniciens américains aient travaillé : il existe aujourd’hui toute une famille de Snaps et la puissance électrique fournie par les modèles les plus élaborés peut atteindre 70 kilowatts : il s’agit alors de réacteurs nucléaires miniatures couplés à un petit turbo-alternateur. Le Snap 2 peut en principe offrir 3 kilowatts pour un poids un peu supérieur à 100 kg, et la puissance disponible peut être portée à 6 kW. Des études en cours permettraient de porter la puissance à quelque 300 kW. Tous ces engins sont conçus tant pour équiper les engins spatiaux que pour alimenter en énergie des installations mobiles au sol, offrant dans tous les cas l’avantage d’une grande maniabilité et d’un poids réduit.
- Plusieurs satellites pour une fusée
- C’est, semble-t-il, cette dernière caractéristique qui a permis aux techniciens américains de tenter, lors du lancement de ce satellite Transit, une intéressante expérience : il a été demandé à la fusée porteuse de lancer trois satellites à la fois. Déjà l’expérience avait été réalisée avec succès de lancer à l’aide d’une seule fusée deux satellites : la mission avait été également confiée à une Thor Able-Star et celui des deux satellites qui était le plus lourd était aussi un Transit.
- Les deux satellites qui devaient, cette fois, être projetés dans l’espace en même temps que le Transit étaient exclusivement destinés à des observations scientifiques. Le premier, « G. R. E. B. », d’un poids de 27,5 kg, était muni d’un équipement spécialisé dans l’observation des rayons X émis par le Soleil. Le second, « Injun », d’un poids de 20 kg, devait servir à mesurer des intensités de radiations, notamment celles que l’on observe dans les ceintures de Van Allen, et à déterminer les éventuelles répercussions des divers phénomènes, telles les aurores boréales, sur la transmission des signaux radio. Il avait été mis au point par le laboratoire du Dr Van Allen.
- Compte tenu du poids du satellite Transit (87,5 kg), le total de la charge satellitisée par la fusée Thor Able-Star devait donc être de 13 5 kg environ, soit à peu de chose près l’équivalent de la charge satellitisée par la précédente
- 356
- p.356 - vue 356/560
-
-
-
- Thor Able-Star, mais sous la forme de deux engins seulement. D’une expérience à l’autre, le poids des satellites « mis en orbite » en même temps que le Transit n’a guère changé tandis que, au contraire, celui du satellite de navigation diminuait ; le gain de poids, en gros, était égal au poids d’un petit engin. Il semble donc que cette diminution de poids obtenue par l’emploi d’une batterie nucléaire a permis, pour tirer pleinement profit de la poussée développée par la fusée porteuse, de lancer un troisième engin. Ce serait donc le recours à l’énergie nucléaire pour alimenter les dispositifs placés à bord du Transit qui aurait permis, sans modifier le véhicule lanceur, de lancer un satellite de plus.
- L’expérience, malheureusement, n’a pas été couronnée d’un succès complet : le Transit s’est bien mis à décrire une orbite voisine de celle qui avait été prévue (il devait
- parcourir une orbite circulaire située à environ 900 km du sol ; en fait son orbite présente une certaine excentricité) ; par contre, les deux autres engins ne se sont pas séparés et gravitent ensemble autour de la Terre sur une orbite dont les caractéristiques n’ont pas été communiquées.
- L’idée d’utiliser une seule fusée pour lancer plusieurs satellites n’en fera pas moins son chemin. Permettant une économie substantielle sur le prix de l’opération, elle a déjà retenu l’attention des firmes privées américaines intéressées à la mise en place d’un réseau de satellites de communication et il faut s’attendre que, dans les temps à venir, des essais analogues seront poursuivis pour mettre au point une méthode qui, en dépit d’un premier échec, semble être prometteuse.
- N. V.
- Un satellite artificiel atteint par un orage solaire
- Un des satellites américains lancés au cours des derniers mois, le Discoverer XVII, présente un intérêt tout particulier. Il a pu en effet être recueilli après avoir été exposé, le 12 novembre i960, à ce que les spécialistes de la recherche spatiale appellent un « événement à protons ». Cet événement coïncide avec une violente éruption solaire qui projette à travers l’espace des particules douées d’une très grande énergie, moindre cependant que celle des rayons cosmiques, mais en un flux d’une impressionnante densité.
- C’est là un des dangers majeurs du voyage spatial, car jusqu’à présent les orages solaires n’ont pu être prévus avec toute
- Chaînes en matière plastique
- La fabrication en série de chaînes en matière plastique renforcée de fibre de verre a pu être entreprise après de nombreux essais en Allemagne fédérale. Ces chaînes, bien qu’elles ne prétendent pas remplacer systématiquement les chaînes en acier et présentent certains inconvénients inhérents à la matière utilisée, possèdent néanmoins certaines qualités : résistance absolue à la corrosion, insensibilité aux effets de l’eau de mer et du magnétisme, économie de poids et d’entretien, qui permettent d’envisager avec succès leur emploi dans divers domaines : industries galvanotechnique et chimique, entreprises agricoles, signalisation des voies fluviales. Ces nouvelles chaînes pèsent 1,8 kg/dm3 et ont une résistance de 31 kg/mm2.
- Phosphore à 99,999 pour 100
- Selon une information communiquée par la L. Light and Company Limited, cette société produirait le phosphore le plus pur qui ait jamais été fabriqué jusqu’à nos jours. La pureté minimale atteindrait 99,999 pour 100. O11 sait que le phosphore est utilisé pour « doper » les semi-conducteurs, silicium et germanium. Ce phosphore ultra-pur trouve également un emploi dans la fabrication des semi-conducteurs fonctionnant à température élevée comme les phosphures d’indium et de gallium.
- la précision désirable. Le Discoverer XVII, heureusement inhabité, en a été victime. Son enveloppe a donc été débitée pour être soumise à l’examen de plusieurs laboratoires. Le Dr Hermann Yagoda, qui appartient à l’un de ces laboratoires, a présenté le résultat de ses recherches, lors d’une séance de la Société américaine de Physique : le Discoverer, a-t-il déclaré, avait été criblé de noyaux de carbone, d’oxygène, de magnésium et de fer, mais la découverte la plus significative fut celle de noyaux de tritium. C’est la première fois que la production bien connue de cet isotope de l’hydrogène par le soleil est « matériellement » transmise à notre planète.
- Sur l’ancien aéroport de Croydon
- Une partie du terrain de l’ancien aéroport de Croydon fait actuellement l’objet d’un ambitieux projet. On a l’intention, en effet, d’y construire, sur une superficie d’environ 163 hectares, un centre commercial pour automobilistes. Ces derniers pourront y faire leurs emplettes sans quitter leur voiture. Le centre comprendra 87 magasins, dont le plus grand « libre service » du monde, un débit de boissons, un poste à essence, un restaurant classique et un restaurant libre service, deux banques et un millier de maisons résidentielles. Si le projet est approuvé par le Ministère du Logement, il pourra être exécuté en trois ans. Coût approximatif : 7 millions de livres, soit environ 100 millions de NF.
- Contrôle des carrefours par radar
- Tous les automobilistes connaissent l’irritante attente devant un feu rouge, à un croisement, alors qu’aucune autre voiture n’est en vue. Un nouveau dispositif devrait permettre de mettre fin à cette situation. Un radar envoie des ondes radio à haute fréquence qui se réfléchissent sur les voitures qui approchent du croisement. Le nombre des impulsions renvoyées au radar permet de calculer le nombre des voitures et de faire passer en conséquence les feux au rouge ou au vert (Information U. S. I. S.).
- 357
- p.357 - vue 357/560
-
-
-
- Le Ciel en Septembre 1961
- SOLEIL : du Ier septembre au Ier octobre (à 0h) sa déclinaison décroît de + 8°27/ à — 3°o/ et la durée du jour de I3h24m à nh42m; diamètre app. le Ier (à oh) = 3i/45",o, le 30 (à 2431) — 32/o",3. — LUNE: Phases : D. Q. le Ier à 23h6rn, N. L. le 10 à 2h50m, P. Q. le 17 à 20h24m, P. L. le 24 à nh34m ; apogée le 7 à 20h, diamètre app. 29'25" ; périgée le 23 à 4V, diamètre app. 33A3". Principales conjonctions : avec Vénus le 7 à oh, à i°39/ S ; avec Uranus le 8 à 1 ih, à o°42' S ; avec Mercure le 11 à 2211, à 4°3S' N ; avec Mars le 12 à iih, à 3°55' N ; avec Neptune le 14 à 7h, à 3°24' N ; avec Saturne le 19 à 22h, à 3°8'N ; avec Jupiter le 20 à 5h, à 3°i6' N.Principales occultations : le 1er, de 89 Taureau (mag. 5,8), émersion à 23h25m,7 ; le 21, de 42 Capricorne (mag. 5,3), immersion à 2lh48m,9 et de 44 Capricorne (mag. 6,0), immersion à 22h22m,i; le 26, de v Poissons (mag. 4,7), émersion à 3h36m,9 et de i;2 Baleine (mag. 4,3), immersion à 2lh26m,4 et émersion à 22hi5m,4; le 28, de 5 Taureau (mag. 4,3), immersion à ill54m,7 et émersion à 2h48m,4 et de y Taureau (mag. 3,9), immersion à 2211440m, et émersion 23^45™,5 ; le 29, de 0 Taureau (mag. 4,0), immersion à 3h49m,7 et émersion à 4h49m,3 et d’Aldébaran (mag. 1,1), immersion à 8h4m,3 et émersion à 9hom,3. — PLANÈTES : Mercure, noyée dans la lumière solaire est invisible ; Vénus, très belle étoile du matin, se lève le 10 à 2hl4m, soit 3h7m avant le Soleil ; Mars, se perd dans les lueurs du couchant ; Jupiter, dans le Sagittaire brille au-delà de minuit, se rapproche de Saturne, le 16, diamètre pol. app. 41",3 ; Saturne, dans le Sagittaire, précède Jupiter de 17 minutes, le 16, diamètre pol. app. 15",8 et axes de l’anneau : 39",7 et -f- 15",6 ; Uranus, près de Régulus réapparaît le matin, se lève le 22 à 2ll47nh soit 211511X1 avant le Soleil ; Neptune, dans la Balance devient peu visible dans le crépuscule. — ÉTOILES VARIABLES : minima observables d’Algol (2m,2-3m,5) le 13 à 3h,6, le 16 à oh,5, le 18 à 2ih,4; minima de (} Lyre (3Iïl,4-4rri,3) le 13 à
- 20h,9, le 26 à 19^,2 ; maxima de 8 Céphée (3m,7-4m,6) le 3
- à 811,6, le 8 à I7h,4, le 14 à 2h,2, le 19 à lih,o, le 24 à I9h,7,
- le 30 à 4h,5 ; maxima de Y) Aigle (3m,7~4m,4) le 6 à oh,I, le
- 13 à 4h,4, le 20 à 8h,6, le 27 à I2h,9 ; maxima de S Vierge (6m,3~ 13m,2) le 6, de RR Scorpion (5m,o-i2m,4) le 27. — TEMPS
- SIDÉRAL : au méridien de Paris à oh (T. U.) : le Ier : 22h49mis, le 11 : 23h28m27s, le 21 : oh7m52s, le Ier octobre : oh47mi8s.
- Phénomènes intéressants : Observer la surface tachée du Soleil. — Équinoxe d’Automne le a3 à 6h43m. — Lumière cendrée de la Lune, le matin, du 3 au 8. — On remarquera les nombreuses occultations de la fin du mois, en particulier celle d’Aldébaran le 29, qu’on pourra suivre en plein jour, dans une petite lunette. — Le 22, Vénus en conj. avec Régulus à 23h, à o°23' N, suivre ce beau rapprochement dans l’aube du 23. — I ^es planètes Jupiter et Saturne sont commodément observables le soir, le petit axe de l’anneau de Saturne devient inférieur au globe de la planète. — A la jumelle, examiner les riches champs stellaires de la Voie lactée dans le Scorpion, Ophiuchus, Sagittaire, Écu, Aigle, Cygne, Cassiopée.
- II eures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- l'ondée en 1887 par C. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à voire disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc.
- Demandez les programmes au Siège Social de la
- Société Astronomique de France, 28, rue Serpente, Paris-6* Permanence, tous les jours non fériés de 14 à 17 h
- Cotisations : Région Parisienne, 25 NF ; France, 20 NF ; Étranger, 30 NF ; Étudiants, 3 NF ; Droits d’inscription pour tous, 2 NF.
- Spécimen gratuit de la revue sur demande.
- Demandez « Splendeur de l’Astronomie », les plus belles photographies astronomiques : 16 pages 13,5x20,5, tirage néogravure bleu nuit. 0,65 NF franco. — Compte Ch. post. Paris 1733.
- L ES LIVRES NOUVEAUX
- Analytical quadrics, par Barry Spain. x vol. 14 X 22,5, x-135 p., 23 fig. Pergamon Press, Oxford, Londres, New York et Paris, i960. Prix, relié : 30 sh.
- Il s’agit en réalité d’une introduction à la géométrie analytique dans l’espace à trois dimensions puisque sont traités aussi bien les quadriques proprement dites que le plan, la droite, le cône et le cylindre. Le niveau est celui des classes préparatoires aux grandes écoles. Les déterminants sont largement utilisés, ce qui confère à l’ouvrage une homogénéité certaine jointe à une concision souvent remarquable. Nombreux problèmes avec solutions. Recommandé sans réserve aux élèves de « spéciale ». — R. R.
- Analogue computers, par I. I. Eterman. Trad. du russe par G. Segal. i vol. 14,5 X 22, 264 p., 115 fig. Pergamon Press, Oxford, Londres, New York et Paris, i960. Prix, relié : 50 sh.
- Exposé à un niveau élevé du calcul analogique et des machines qui en dérivent. La théorie mathématique de cette méthode de calcul fait l’objet d’un soin particulier, de même que la manière d’utiliser les machines tout en satisfaisant aux conditions particulières des problèmes traités. Un chapitre est consacré au contrôle de la précision des solutions obtenues. On ne peut que féliciter Pergamon de son effort pour rendre accessible aux chercheurs occidentaux les travaux les plus remarquables des savants soviétiques. — R. R.
- Signification de la Relativité ; compléments,
- par Albert Einstein. Trad. de l’anglais par Maurice Solovine et M.-A. Tonnelat. i vol.
- 16.5 X 24, 60 p. Gauthier-Villars, Paris, i960. Prix : 15 NF.
- Ces textes de l’illustre auteur de la théorie de la Relativité forment un appendice à la cinquième édition de The Meaning of Relativity (décembre 1954). Ils comprennent deux mémoires : I. Sur le problème cosmologique ; IL Théorie relativiste du champ non symétrique.
- Les Mondes du ciel, par Pierre Gauroy. i vol.
- 14.5 X,i6,5, 304 p. Arthème Fayard, Paris, i960. Prix : 12 NF.
- Bientôt, nous irons sur la Lune, sur Mars et sans doute plus loin. Y trouverons-nous la vie ? L’auteur a tenté de répondre à cette question en résumant toutes les données acquises aujourd’hui et les hypothèses avancées. Dans le système solaire, il n’y a de vie possible que sur la Terre et sur Mars, peut-être sur Vénus. Dans les profondeurs du ciel, il doit y avoir des astres qui recèlent des vivants, au milieu d’un bien plus grand nombre d’astres inhabitables. Comment naquit la vie ? Naîtra-t-elle dans nos éprouvettes ?
- A la découverte de l’Univers, par Tj. De Vries. Trad. du néerlandais par André Hendrickx. 1 vol. 11,5 x 18, 155 p., 39 fig., 8 photos. Séquoia, Paris-Bruxelles, i960. Prix : 3 NF.
- Exposé élémentaire sur l’univers astronomique, les cosmogonies passées et présentes, la vie dans l’univers, les perspectives et les possibilités de la navigation spatiale, non sans quelque « science-fiction » pour terminer.
- A Compendium of spherical Astronomy, par
- S. Newcomb. i vol. 13,5 X 20,5 xvm-444 p.,
- 36 fig. Dover Publications, New York, i960.
- Prix, cartonné : 2,25 dollars.
- Parmi les nombreuses rééditions d’ouvrages classiques d’astronomie réalisées par Dover Publications, il faut signaler tout spécialement ce livre, écrit en 1906 par le grand astronome américain Simon Newcomb. Il expose de façon simple, commode et complète un certain nombre de calculs d’astronomie pratique, en particulier ceux de la réduction des étoiles. On ne voit rien à reprocher à cet ouvrage, qui comporte en particulier de nombreux exemples numériques et n’a guère vieilli car les matières qu’il enseigne n’ont subi que peu de changements. A signaler tout particulièrement le chapitre consacré à la méthode des moindres carrés, qui a rarement été exposée d’une façon aussi claire. Ce livre figurera avec avantage sur la table de travail de l’étudiant et de l’observateur professionnel. — /. L.
- An Introductory treatise on Dynamical
- Astronomy, par H.-C. Plummer, i vol.
- 13,5 X 20,5, xx-343 p., 8 fig. Dover Publi-
- p.358 - vue 358/560
-
-
-
- cations, New York, i960. Prix, cartonné : 2,35 dollars.
- L’objet de l’astronomie dynamique est essentiellement l’étude des applications de la loi de Newton : c’est dire s’il s’agit d’une vaste matière. Le traité de Plummer, qui est un classique datant de 1918, se restreint à l’étude des orbites elliptiques et paraboliques, puis aborde la théorie des planètes et de leurs perturbations, la théorie de la Lune, la précession, la mutation et la libration lunaire. Œuvre de mathématicien qui tient à rester clair, concis et rigoureux. — J. L.
- An Introductory Treatise on the Lunar Theory, par E.-W. Brown, i vol. 13,5 X 20,5, xvi-292 p., 11 fig. Dover Publications, New York, i960. Prix, cartonné : 2 dollars.
- La théorie de la Lune est un des problèmes les plus difficiles de la mécanique céleste, et depuis Clairault, d’Alembert et Euler, de nombreux mathématiciens ont passé une grande partie de leur vie à tenter de le résoudre. E.-W. Brown est un des plus récents et c’est lui qui a donné des coefficients des nombreuses inégalités du mouvement de la Lune (il en a étudié environ 1 500) des valeurs qui paraissent définitives. L’intérêt de la théorie lunaire n’est pas seulement lié à sa difficulté ; il est de la plus haute importance pratique de savoir calculer exactement le mouvement de la Lune qui nous sert d’horloge naturelle (définition du Temps des Éphémérides) depuis que l’on sait que la rotation de la Terre présente des inégalités qui la rendent inutilisable. Le livre de Brown est essentiellement un exposé de cinq importantes méthodes de traitement du problème de la Lune : celle de Laplace, de Pontécoulant, de Hansen, de Delaunay et de Hill. Il est indispensable à qui veut approfondir ses connaissances en mécanique céleste. •— J. L.
- Traité d’optique instrumentale, Tome 2 : Diffraction, structure des images, par
- A. Maréchal èt M. Françon. i vol. 16 x 24, vin-204 p., fig. Éditions de la Revue d’Optique, Paris, i960. Prix, broché : 32 NF.
- L’introduction de la transformée de Fourier en optique, qui est due principalement à P. M. Duf-
- fieux et aux chercheurs de l’Institut d’Optique, est sans doute le principal progrès qui ait été accompli dans cette science ces dernières années. A. Maréchal et M. Françon, qui sont parmi les promoteurs, étaient donc les mieux placés pour écrire un ouvrage d’optique physique dans un esprit très moderne : il n’a que peu de choses en commun, d’ailleurs, avec les traités classiques (Bruhat, etc.). Dès le premier chapitre, la transformation de Fourier s’introduit comme conséquence logique du principe de Huygens. Puis on établit le théorème fondamental de l’optique en éclairage incohérent : la transformée de Fourier de l’image est le produit de la transformée de Fourier de l’objet par la courbe de réponse en fréquences spatiales de l’instrument. Le problème rebutant en apparence de la cohérence ne prend pas une forme moins simple ni moins immédiate à saisir. Plusieurs chapitres sont ensuite consacrés au développement de ces notions de base : calcul du contraste des images, contraste de phase, problèmes de cohérence partielle. L’influence des aberrations sur la tache de
- ----- A NOS LECTEURS --------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- diffraction fait l’objet de deux chapitres importants, car c’est là tout le problème de l’optique instrumentale. Après un court chapitre sur l’information en optique (malheureusement un peu sommaire), on trouve rassemblées un certain nombre d’applications qui montrent comment une manipulation judicieuse des fréquences spatiales permet d’aboutir à de remarquables résultats : apodisation, amélioration des images photographiques par filtrage de fréquences spatiales, etc. Sous un volume relativement restreint, ce livre qui n’a guère d’équivalent apportera au lecteur un enrichissement considérable et une compréhension vraiment profonde de l’optique physique. Nous ne saurions trop en recommander l’usage constant aux étudiants et aux chercheurs, qui ne pourront manquer d’être séduits par la nouveauté et la clarté de son exposé : il est certain que c’est là l’optique de demain, et nous formulons le vœu qu’elle soit enseignée bientôt dans toutes les facultés. — J. L.
- Introduction à la théorie quantique des champs, par N. N. Bogolioubov et D. V. Chirkov. Traduit du russe par A. Bloch. Collection Travaux et Recherches mathématiques. 1 vol. 16 x 25, 616 p., 60 fig. Dunod, Paris, i960. Prix, relié toile sous jaquette : 69 NF.
- Introduction à l’électrodynamique quantique,
- par Daniel Kastler. Collection Travaux et Recherches mathématiques. 1 vol. 16 X 25, 368 p. Dunod, Paris, 1961. Prix, relié toile sous jaquette : 68 NF.
- Ces deux ouvrages sont consacrés à l’application du formalisme de la mécanique quantique à la théorie des champs. Le premier est la traduction d’un ouvrage désormais classique et présente l’ensemble de la théorie quantique des champs de son point de départ jusqu’à ses développements les plus récents. Le second essaie de donner une base axio-matique et mathématique et, plutôt que de présenter l’ensemble de la théorie, tente de justifier mathématiquement un certain nombre de techniques utilisées.
- Les rayons X et leurs applications, par G. L. Clark, professeur de Chimie analytique
- L’ORGANISATION MONDIALE DE LA SANTÉ met au concours un poste de
- TRADUCTEUR MÉDICAL OU TECHNIQUE
- de langue maternelle française
- TITRES REQUIS : doctorat en médecine ou titre universitaire équivalent en biologie, physique, chimie ou toute discipline paramédicale.
- LANGUES : langue maternelle française. Connaissance approfondie de l’anglais et, si possible, d’une ou plusieurs autres langues.
- FONCTIONS : traduire rapidement d’anglais et, le cas échéant, d’une ou plusieurs autres langues des textes le plus souvent techniques portant sur des questions de médecine, de biologie, de physique ou chimie, etc.
- RÉMUNÉRATION : US $ 6 000 par an (traitement exempt d’impôt).
- ' Augmentations annuelles jusqu’à concurrence d’un traitement de ; US $ 8 000. Indemnités de cherté de vie, de charges de famille et de ; frais d’études des enfants dans les conditions définies par le Règlement
- ! du Personnel. Prime de fin de service ; retraite assurée par une Caisse
- des Pensions ; prestations en cas de maladie ou d’accident ; congés annuels et congés dans les foyers.
- \ AFFECTATION : Contrat initial de deux ans. Lieu d’affectation : Genève (Suisse).
- E -------------
- ) Les candidats sont priés d’adresser leur demande, avec curriculum vitce, à :
- ORGANISATION MONDIALE DE LA SANTÉ Chef du Service du Personnel
- U
- à Palais des Nations
- | GENÈVE (Suisse)
- I dans les quinze jours qui suivront la publication du présent avis, en l inscrivant sur l’enveloppe la mention « VN.665 ».
- j Seuls les candidats susceptibles d’être retenus recevront une réponse de .] l’Organisation.
- -- VIENT DE PARAITRE --------------
- INITIATION
- A LA
- THÉORIE DES ENSEMBLES
- PAR
- J. BREUER
- TRADUIT DE L’ALLEMAND PAR
- A. GLODEN
- vt-124 pages 14 x 22, avec 31 figures. Broché . 8,80 NF
- En vente dans toutes tes bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6*. DAN 99-15.
- 359
- p.359 - vue 359/560
-
-
-
- à l’Université de Flllinois. Trad. par M. Jorand, agrégé de l’Université, i vol. 16x25, 1 104 p., nombr. fig. Dunod, Paris, 1960. Prix, relié toile : 145 NF. '
- Depuis que l’auteur donnait en 1927 la première édition de ce livre, dont voici la quatrième, traduite en français, les applications des rayons X se sont étendues à tous les domaines de la science et de la technique. Le bétatron permet d’obtenir des rayons X d’une énergie jusqu’alors inconnue, et d’autre part le perfectionnement des instruments permet d’étudier les détails les plus fins des raies, source précieuse de renseignements sur les niveaux électroniques, principalement dans les solides. La ire partie, après l’historique et les généralités, étudie les tubes à rayons X, l’appareillage haute tension, la mesure de l’intensité et de la longueur d’onde, le spectre X en rapport avec la structure atomique, l’application à l’analyse chimique, l’absorption et la diffusion, la rœntgénographie (médicale, industrielle, etc.), la microradiographie, les effets chimiques et biologiques des rayons X. La 2e partie traite de l’analyse de la structure fine des substances : cristallographie et diffraction, analyse cristalline, interprétation des spectres, chimie cristalline, alliages, composés organiques, substances colloïdales et amorphes, métaux, macromolécules.
- Traité de lyophilisation, par Louis Rey, ancien élève de l’Ecole normale supérieure, docteur ès sciences. Préface de P. Hauduroy, professeur aux Facultés de Médecine de Lausanne et de Paris. 1 vol. 18 X 25, 416 p., 207 fig. en noir et en couleurs. Hermann, Paris, i960. Prix, cartonné toile : 90 NF.
- La lyophilisation est une technique de congélation rapide, suivie de dessiccation, qui permet de conserver intactes les substances labiles, susceptibles de s’altérer rapidement sous l’effet des divers agents physiques et chimiques. C’est dire que ses applications intéressent de nombreux domaines : industrie, alimentation, médecine, pharmacie, biologie, etc. M. Louis Rey, connu pour ses travaux sur la conservation de la vie aux très basses températures, a dirigé à Lyon, en 1958, une série de cours de lyophilisation auxquels ont participé des spécialistes de plusieurs pays, MM. And jus, Barone, Collins, Coudert, Goret, Greaves, Flau-duroy, Hénaff, Hyatt, Lépine, Mérieux, Morand, Neumann, Rieutord, Rowe, Wagner. Cet ouvrage, qui développe cet enseignement, est le premier Traité de lyophilisation qui ait vu le jour. La ire partie traite du vide et des systèmes « frigo-rigènes » (théorie et réalisations pratiques) ; la 2e décrit les applications en bactériologie, parasitologie, médecine, alimentation. La 3e envisage les perspectives d’avenir, notamment pour la conservation des tissus vivants et des organismes supérieurs.
- Klinische Physiologie (Aktmllc Problème in Uebersichten), publié sous la direction de W. A. Muller. Tome I, en deux fascicules.
- Une erreur s’est glissée dans le compte rendu paru dans notre numéro de mai 1961 (p. 223). L’éditeur de l’ouvrage est bien Georg Thieme Verlag, mais à Stuttgart (et non à Leipzig, comme nous l’avons indiqué). Nous prions l’éditeur de nous excuser et nos lecteurs de noter la rectification.
- Guides Nagel : Grèce, publié sous la direction de Paul Wagret, avec la collaboration de MM. Merlier, Bon, Marcadé, Pouilloux, Matton, Platon. Préface de Jacques de Lacre-telle. 1 vol. 11 X 16, xx-944 p., 47 p. de plans en noir, 5 plans et cartes en couleurs, 1 grande carte en dépliant en couleurs. Nagel, Paris et Genève, 1961. Prix : 36 NF.
- Ce qui rend des plus attrayants ce guide, c’est sa lisibilité. Il faut savoir gré aux éditions Nagel du soin mis à la composition et à la typographie grâce à quoi la consultation cesse d’être cette entreprise lassante et vite abandonnée qu’elle est trop souvent. Trois grandes parties : une introduction très documentée, la partie descriptive proprement dite et près de cent pages de documentation pratique. Un tel guide est, sans hyperbole, un modèle du genre.
- Pologne, par Dominique Seine, i vol. 22,5 X 28, photos de Claude Sauvageot. — Italie du Sud, Mezzogiorno, par Elisabeth Chevallier. 1 xml. 22,5 x 28,5, photos de Raymond Chevallier, texte français et anglais. Ides et Calendes, Neuchâtel, i960 ; diffusé par l’Inter, Paris. Prix, relié : 33 NF chaque volume.
- Ces deux magnifiques volumes font partie d’une collection luxueuse éditée en Suisse et dont il faut signaler l’exceptionnel intérêt. Il ne s’agit point de recueils touristiques au sens ordinaire du terme, mais de tentatives originales pour dégager le caractère d’un pays ou d’une région. Ici la Pologne, là le Sud italien sont présentés sans apprêt, tels sans doute qu’ils sont, avec leurs œuvres d’art, mais aussi leur misère, leur peuple, leurs visages d’enfants ou de vieillards, leurs mille aspects quotidiens... Le texte procède d’une longue connaissance du sujet : rien de comparable aux lignes insipides trop souvent destinées à accompagner des recueils de photographies, mais une notion profonde des choses et des hommes : tel exposé du rôle du catholicisme en Pologne, illustré par cette communiante en pleurs ou cette foule en pèlerinage à Czestochowa en dit plus long qu’un gros livre. Présentation excellente. — P. W.
- Le tracteur agricole, par François de Chabert, ingénieur civil du Génie rural, chef de travaux à l’E. N. A. de Montpellier. 1 vol. "13,5 X 18, 176 p., illustr. Eyrolles, Paris, i960. Prix : 9 NF.
- Un petit manuel pratique dans lequel les agriculteurs trouveront, après une description des différents organes du tracteur, tous renseignements utiles sur son utilisation, ainsi que sur les réglages et les réparations courantes.
- L’Industrie chimique en Europe. 1958-1959.
- 1 vol. 15,5 X 24, 241 p., 21 graphiques, nombreux tableaux. Publications de l’O. E. C. E., Paris, 1959. Prix : 10 NF.
- Situation de l’industrie chimique dans les pays membres de l’O. E. C. E. durant 1958 et évolution durant les six premiers mois de 1959. Vue d’ensemble sur cette industrie dans les divers pays membres ; situation dans chaque pays : chiffre d’affaires, main-d’œuvre, investissements, prix et évolution du commerce extérieur. On étudie plus en détail les principaux secteurs de l’industrie chimique.
- Morale et métier : la recherche scientifique,
- par François Prevet. i vol. 15,5 X 24, 536 p. Librairie Sirey, Paris, i960. Prix : 45 NF.
- Dans de précédents ouvrages, l’auteur s’est préoccupé des rapports de la morale avec l’activité économique, avec l’évolution des idées, enfin il a étudié la « moralité professionnelle » des origines à nos jours. Dans ce nouveau livre, il a voulu brosser un tableau des conceptions que les savants eux-mêmes se sont faites, au cours des âges, de la morale de leur profession. Les nombreuses citations qu’il a ainsi réunies sont sans doute éloquentes et lui permettent de mettre en lumière l’apport de l’esprit scientifique à la constitution et au maintien de la loi morale. Mais la moisson est peut-être trop abondante et un procédé plus synthétique eût peut-être été souhaitable. Le livre se termine par des biographies de nombreux savants de toutes époques.
- Ces inconnus ont fait le siècle, par Pierre Rousseau (Hachette, Paris), dont nous avons rendu compte récemment, a reçu le Prix de l’Aventure industrielle et scientifique (Fondation Christian Wolf), d’un montant de 5 000 NF.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- En vue de l’ouverture de la licence en sciences chimiques et de la licence en sciences mathématiques, I’Université Lovanium désire engager en octobre 1961 un docteur en sciences chimiques et un docteur en sciences mathématiques. Les candidatures, accompagnées d’un curriculum vitee détaillé et de la liste des publications, doivent être adressées au Recteur de l’Université Lovanium, B. P. 121, Léopold-ville XI (République du Congo).
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l’État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e. — ODE 54-83
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles, — Préparation aux diplômes d’État. Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour —- Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- VIENT DE PARAITRE
- BIBLIOTHÈQUE TECHNIQUE PHILIPS
- LA VISION DES COULEURS
- PAR
- J. BERGMANS
- Ingénicur-docleur
- 96 pages 14 x 22, avec 23 figures el 2 hors-texte couleurs. Carlonné sous couverture illustrée .. 9,50 NF
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6'. DAN 99-15.
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 3e trimestre 1961, n° 3737. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. {3lOÔ66), LAVAL, N° 4297. — 8-1961.
- 360
- p.360 - vue 360/560
-
-
-
- L’agriculture italienne poursuit ses conquêtes
- sur une nature ingrate par Paul Wagret
- Au défi que leur jetait une nature ingrate, les Italiens ont répondu par un intense travail humain. Leur économie connaît actuellement un rythme d’expansion remarquable en particulier dans le domaine agricole, où de profondes réformes sont en train de modifier la structure du pays.
- 300 000 km2, la moitié de la France, dont les deux tiers sont utilisables. Sur ce territoire vivent 50 millions de personnes, soit 166 au kilomètre carré ; un tiers de cette population vit de l’agriculture, proportion nettement supérieure à celle des pays d’Europe occidentale.
- Et pourtant cette agriculture ne fournit pas le quart du revenu national, en raison des conditions naturelles défavorables qu’elle rencontre : relief, sols, climat.
- Le relief est généralement hostile, les plaines couvrant moins de 20 pour 100 de la superficie du pays. A l’exception de la Padanie, il s’agit de plaines étroites (Ombrie, Campanie) ou de plateaux (Pouilles). Les relations sont malaisées de l’une à l’autre, illustrant le mot de J. Sion : « le pays du discontinu ».
- Les sols de plaine, qu’ils soient alluviaux (plaine du Pô,
- marais Pontins, Tavoliere) ou volcaniques (Catane, Campanie) sont généralement fertiles. Mais leurs possibilités n’ont pu toujours être exploitées au cours de l’histoire : mal remblayées et mal drainées, la plupart des plaines côtières ont constitué longtemps des zones malsaines et répulsives.
- Quant au climat, il conditionne la mise en valeur par la répartition de l’eau nourricière. Or, les précipitations sont très irrégulières et peu profitables, bien que leur total annuel puisse paraître considérable (le pluviomètre enregistre près de 1 m d’eau à Palerme, presque le double de Marseille). Irrégularité d’une année à l’autre (Cagliari : 934 mm en 1898, mais 133 mm en 1913) ; irrégularité selon les saisons (la sécheresse d’été est très accusée dans le Centre et le Sud) ; irrégularité enfin selon les régions. L’aridité est maximale dans l’Italie péninsulaire et dans les îles, où saison chaude et saison humide ne coïncident pas ; cette « fâcheuse dissociation des éléments indispensables au développement des plantes » (Birot) ne permet guère sans irrigation que la culture semi-extensive des céréales, des oliviers, de la vigne.
- Fig. I. — Rigoles de drainage et d’irrigation dans une zone bonifiée du delta du Pô (Valli Pega, Rillo et Zavalea).
- (Photo Ente del Delta padano).
- p.361 - vue 361/560
-
-
-
- Fig. 2. — Collines des Pouilles entièrement dénudées par le déboisement et les ravages des troupeaux transhumants.
- La « bonification » a entrepris la restauration de ces sols dégradés. Là où les cultures sont possibles, les labours se font selon les courbes de niveau pour éviter l’érosion. Au premier plan, des « plantations-témoins ».
- {Photo Ente Riforma fondiaria, Bari).
- Relief, nature du sol, climat conjuguent leurs effets pour aviver l’œuvre de l’érosion : averses violentes, crues torrentielles, glissements de terrain (frane) entraînent une action mécanique intense sur des roches mal protégées par la végétation. La mise en valeur agricole est donc aléatoire, limitée, et souvent associée à un élevage extensif transhumant. C’est le but de la bonification que d’améliorer ces conditions naturelles médiocres (fig. 2).
- Mais le côté humain n’est pas absent de cette préoccupation : il ne saurait l’être d’ailleurs dans un pays soumis à une telle pression démographique.
- Le « manteau d’Arlequin » qu’a constitué l’unification politique de l’Italie en 1860, cette juxtaposition d’états disparates n’a fait qu’accentuer l’opposition entre régions favorisées et régions négligées. Le Nord accroissait ses rendements agricoles et participait au progrès économique de l’Europe ; le Sud, dépendance semi-coloniale, sec et montagneux, sans capitaux ni aide de l’État, s’enfonça
- dans une misère que des millions de personnes fuirent par l’émigration.
- Cependant la population augmentait sans cesse : 17 millions d’Italiens en 1860, 50 aujourd’hui, dont les deux tiers dans le Centre et le Midi. Chaque année 300 000 jeunes affluent sur le marché du travail et vont grossir les rangs des chômeurs, ces disoccupati que R. Vailland décrit dans La Loi « debout le long des murs, les bras au corps, immobiles, muets, attendant que passe un métayer ou un régisseur qui ait besoin de quelqu’un... ». La misère des campagnes siciliennes est frappante, la sous-alimentation y est la règle. De là (jadis) le banditisme, la mendicité, la prolifération des « petits métiers », l’exode rural qui entasse des milliers de déracinés dans les bas quartiers des villes, ces villes factices du Sud « surgies de la détresse des campagnes à latifundia plus que des progrès de l’économie proprement dite » (George).
- Ces latifundia, ces grands domaines dont Pline disait déjà qu’ils perdaient l’Italie, ont de tout temps été le fléau des campagnes italiennes. Dès l’Antiquité, les grandes propriétés s’étendaient aux portes de Rome, Yager publicus confisqué par la conquête et partagé entre les sénateurs restant exploité de façon extensive, du moment que la Ville importait facilement des grains d’Afrique ou d’Orient.
- 362
- p.362 - vue 362/560
-
-
-
- En 1950 encore, 500 propriétaires régnaient sur un million d'hectares. Certains domaines couvraient 40 000 ha en Maremme (prince Torlonia). Sur ces fiefs, négligés par leurs propriétaires non-résidants, aucun travail intensif n’était possible : l’abondance de la main-d’œuvre à bas prix interdisait tout effort pour sortir de la stagnation.
- D’autres latifundia, non plus féodaux, mais bourgeois et capitalistes ceux-ci, occupaient la basse plaine du Pô bonifiée vers 1880 (fig. 1) ; ils employaient une main-d'œuvre également misérable et surabondante de journaliers, de braccianti, que l’extension de la mécanisation condamnait à un sous-emploi aggravé.
- Quant à la petite propriété paysanne, elle ne couvre pas le tiers de la surface utile, bien que totalisant l’immense majorité des domaines (tableau I). De plus, il s’agit fréquemment de trop petites parcelles, comme en Campanie où vivent 2 000 personnes sur un kilomètre carré ; la misère accompagne ces microfundia comme les latifundia.
- Tableau I
- Répartition de la propriété foncière en Italie (D’après le Pr G. Medici).
- Catégorie Nombre des propriétés Superficie productive totale
- Moins de 5 ha 93.3 P- 100 31p. 100
- De 5 à 25 ha 5 .5 P- 100 24 p.100
- De 25 à 100 ha 1 p. 100 19 p.100
- Plus de 100 ha 0,2 p. 100 26 p. 100
- D’où la nécessité d’une action des pouvoirs publics en vue de corriger, au moins en partie, une situation génératrice de conflits sociaux en même temps que de productivité insuffisante. Bonification et réforme agraire, jusque-là séparées dans leurs intentions comme dans la réalisation, devaient marcher de pair.
- Pendant longtemps en effet, la conception libérale de l’économie avait proscrit toute politique cohérente de la part de l’État. Les tentatives de réforme agraire dans le Midi et de vente par petits lots des biens d’Église sécularisés, dans les années 1861-1877, n’aboutirent qu’à la spéculation et à l’échec, mis à part la création de quelques coopératives d’exploitation (Ravenne, 1883).
- Quant à la conquête agricole des terrains improductifs, elle se limita jusqu’à l’époque fasciste aux réalisations jugées « rentables » en économie libérale traditionnelle. Aussi n’eut-elle lieu que dans les régions pourvues de capitaux et d’une tradition progressiste : Toscane, Vénétie, Émilie, Lombardie-Piémont. Là se développa l’irrigation et s’affirma l’assainissement des bas terrains (Ferrare) ; entreprise de nature strictement privée et capitaliste (des banques londoniennes y investirent des capitaux), l’État se contentant de lutter contre le paludisme (loi Baccarini, 1882).
- Le régime fasciste, autarcique et dirigiste, désireux de gagner la « bataille du blé », élargit considérablement la notion de bonification qui devint « intégrale ». La bonifica prit le sens de valorisation maximale d’un espace peu productif : aménagement des sols certes, mais aussi travaux
- de viabilité, construction de villages, adductions d’eau potable, drainage systématique... L’État prenait à son compte les travaux, ou accordait une aide financière des trois quarts aux associations de propriétaires ; un secrétaire d’État à la bonification coordonna l’action d’ensemble.
- Mais il n’y eut point, en dépit des intentions (loi Ser-pieri, 1933), de réforme agraire profonde : quelques expropriations spectaculaires furent effectuées au profit d’anciens combattants (marais Pontins, delta du Tibre, Alberese près de Grosseto). Le succès mussolinien était avant tout économique et politique : 1 000 000 ha avaient été conquis de 1860 à 1922, 1 500 000 le furent de 1922 à 1940.
- Mais le programme fasciste en prévoyait 8 millions. Tout restait à faire en Maremme, au Tavoliere, en Calabre, dans les îles ; régions de structure archaïque et féodale, ruinées par l’érosion, supportant le poids d’une surpopulation sans cesse accrue. Là comme en basse Padanie, la « faim de terres » du prolétariat rural s’aggravait, causant des troubles sérieux (Sicile 1893, Emilie 1920, Calabre 1943). L’urgence de mesures énergiques s’imposait : devoir d’aide à l’égard de concitoyens déshérités (devoir d’ « honnêteté », disait Cavour), devoir de justice sociale en même temps que souci de l’intérêt économique national. De là l’exécution d’une réforme agraire étroitement associée à la bonification proprement dite.
- La réforme agraire. — Due aux démocrates-chrétiens Segni et Medici, la réforme édictée en 1950 a décidé la transformation sociale et économique d’un certain nombre de secteurs particulièrement importants. La loi intéressant la Sila (12 mai 1950) a été suivie de la « loi-règlement » (stralcio) du 21 octobre 1950 et de la « loi sicilienne » du 27 décembre 1950. Se trouvèrent alors compris dans la zone soumise à réforme les secteurs suivants : delta du Pô, Maremme toscane et latiale, lac Fucin, région Volturne-Sélé, une large portion des Pouilles-Lucanie-Molise, la
- Fig. 3. — La Maremme bonifiée, près de Grosseto.
- [Photo P .Wagret).
- 363
- p.363 - vue 363/560
-
-
-
- Calabre, la Sicile, la Sardaigne ; en tout 8 140 000 ha, couvrant 40 pour 100 de la superficie agricole de FItalie (%• 4)-
- Au-dessus d’une certaine surface (300 ha en Sila, 200 en Sicile), ou bien au-dessous d’un revenu minimal à l’hectare (30 000 lires), les latifundia mal gérés furent expropriés et leurs propriétaires indemnisés en bons du Trésor. Les 800 000 ha confisqués furent répartis entre 125 000 familles paysannes qui rembourseraient l’État en trente ans, à raison de modestes annuités de l’ordre de 30 000 lires par hectare ; l’État se chargeait également de financer à 60 pour 100 la construction des habitations réparties sur les lots de terre, et il avançait les fonds destinés à l’achat de mobilier, semences, matériel, bétail. C’était encore l’État qui réalisait l’aménagement foncier (défrichement, drainage, travaux de viabilité, adduction d’eau, électrification) et qui édifia, à raison d’un pour 1 000 ha, les « centres de service » groupant écoles, magasins, silos, dispensaires, église, bâtiments administratifs (fig. 5).
- Cette réforme va donc plus loin qu’une simple redistribution des terres. Elle vise certes à créer une classe de
- petits propriétaires attachés au sol et, pour cela, elle favorise la coopération tout en interdisant la revente des terrains avant trente ans. Mais surtout elle modifie radicalement l’infrastructure économique en vue d’élever le niveau de vie des populations. C’est en cela qu’elle se double de l’œuvre de bonification proprement dite, car abandonner les nouveaux propriétaires à eux-mêmes équivalait à provoquer l’échec certain de l’opération.
- Voilà pourquoi l’application de la réforme a été confiée dans chaque secteur à un organisme unique, indépendant de l’administration ordinaire. Ces organismes ou Enti jouissent de l’autonomie : Ente deldeltapadano, Ente Maremma dont s’est détaché en 1954 Y Ente Fucino, Ente Puglia-Eucania-Molise, Ente Sila, Ente Fi forma Agraria Siciliana (ER A S), Ente per la Trasformafione Fondiaria ed Agraria délia Sardegna (ËTFAS) ; on y ajoute en Sardaigne le secteur de Flumendosa confié à une société particulière, et les secteurs Volturne (Caserta)-Sélé (Salerne) gérés par l’Opera Nazionale Combattenti.
- Sur l’ensemble des îles, sur 81 pour 100 du Basilicate, 52 pour 100 de la Calabre, 54 pour 100 des Pouilles, 65 pour
- MO VCT \
- rsf
- 1 i Ente Delta padano
- 2 Ente Maremma
- 2a Fucino
- 3 Pouilles Lucanie Molise
- 4 Volturne Sélé
- 5 Sila
- 6 Sicile
- 7 Sardaigne (a Flumendosa )
- + + + limite du domaine d'action de la Cassa per il Mezzogiorno
- 100 200 km
- Fig. 4, — Les zones de réforme agraire en Italie.
- 364
- p.364 - vue 364/560
-
-
-
- Fig. j. — « Centre de service » de Sandiano (Pouilles).
- (Photo Ente Riforma fondiaria, Bari).
- ïoo de l’Émilie, etc., s’étend aujourd’hui l’œuvre de promotion sociale et d’essor agricole ; grâce au développement du crédit rural, à la vulgarisation accrue, à l’effort de coopération, un progrès considérable est en cours.
- La transformation des bas terrains. — L’essentiel de l’œuvre concerne les terres basses qu’il a fallu, comme en Hollande, « conquérir à la force du poignet », selon l’expression de René Dumont, et qui constituent maintenant un des terroirs les plus riches d’Italie.
- Les Maremmes de Toscane et du Latium s’étendent de Livourne aux portes de Rome, entre la mer Tyrrhénienne et les collines pré-apennines. Jadis colonisées par les Étrusques, maîtres en hydraulique, les basses plaines étaient redevenues marécageuses, inondées chaque hiver par les eaux descendues des montagnes ; la malaria régnait dans cette « Maremme mortelle » que dépeignait le Dante, et dont les immensités stériles frappèrent Chateaubriand et Stendhal. De vastes terrains de chasse, la moitié des latifundia d’Italie, se trouvaient ici : en plein xxe siècle, 800 propriétaires s’y partageaient 735 000 ha.
- Fondé en 1950, Y Ente Maremma a exproprié 200 000 ha
- sur 995 000, qu’il a répartis d’une part en lots de complément attribués à des « micropropriétaires » qui n’avaient pas de quoi vivre, et d’autre part en fonds (poderi) de 10 à 15 ha accordés à d’anciens journaliers, métayers ou fermiers. 200 000 personnes ont été fixées en dix ans (1950-1960). La terre drainée, défrichée, amendée, a triplé ses rendements : le blé atteint 30 q/ha autour de Grosseto, contre une dizaine avant la réforme. Des aqueducs amènent l’eau des réservoirs des collines et du mont Amiata ; des plantations brise-vent stoppent l’érosion éolienne due au sauvage vent de mer, le libeccio ; 400 000 oliviers et 2 millions de pieds de vigne ont été plantés, les primeurs alimentent les marchés de Rome, tandis que les vaches laitières des races de Chiana et hollando-frisonne remplacent les bœufs étiques d’hier.
- Au Sud du Tibre, les marais Fontins ont constitué la plus spectaculaire réussite du fascisme en matière économique ; ils furent la première illustration de la doctrine de la « bonification intégrale ». Entre 1926 et 1940, la population passa de 3 000 à 30 000 âmes, des villes sortirent des marais, Latina, Sabaudia, et la riche terre noire fournit depuis trente ans de splendides récoltes de blé, de riz, de betterave sucrière, voire de coton.
- Le Fucino, ancien fond de lac asséché au cœur des Abruzzes, formait un unique domaine de 14 000 ha appar-
- 365
- p.365 - vue 365/560
-
-
-
- tenant à la famille Torlonia, et où travaillaient une dizaine de milliers de tenanciers et braccianti groupés à Avezzano. Entièrement remembrée, cette conque fertile a vu le nombre de ses parcelles ramené de 29 000 à 9 900, chacune attribuée à un petit propriétaire-exploitant. Cinq bourgades ont été édifiées au cœur du bassin, où le blé donne maintenant 40 q/ha et la betterave 350.
- Quant aux plaines littorales de Sardaigne, jadis grenier à blé de Carthage, puis de Rome, elles ont commencé à renaître elles aussi. La malaria a été éliminée en 1945, les fleuves ont été domestiqués (Tirso, Flumendosa) ; les marais asséchés se sont peuplés de bourgades (Arborea, Terralba, Fertilia), et le Campidano jadis fiévreux porte aujourd’hui champs de céréales, cultures industrielles et prairies artificielles. Coopératives, cercles culturels, écoles, dispensaires, bureaux agronomiques sont au service de quelque 12 000 familles. Après des millénaires de silence, l’île des nouraghes sort de son archaïsme (sur les nouraghes, voir l’article de J. C. Valle, La Nature, septembre 1958).
- La bonification des montagnes et des collines. — 31 pour 100 des exploitations agricoles sont situées en montagne et 45 pour 100 dans les collines, régions auxquelles les méthodes convenables en plaine n’étaient pas applicables.
- Les lois sur la montagne de 1952-1957 ont engagé des
- travaux hydrauliques et forestiers de grande envergure dans les Alpes, les Apennins, la Sila notamment (reboisement, barrages, réseau routier) ; l’irrigation s’accroît dans les bassins (le Basilicate ne compte encore que 10 000 ha irrigués), l’électrification rurale gagne du terrain, les procédés agricoles se modernisent peu à peu, le tourisme est encouragé ; un statut de protection a même été prévu en faveur des communes de montagne. Au total l’État aura dépensé 130 milliards de lires (1 100000000 NF) à ce titre entre 1952 et 1962.
- Un aspect particulier est fourni par la lutte contre l’érosion qui ronge les collines, du Montferrat piémontais au Basilicate et à la Sicile intérieure. Les terres tendres (argiles, marnes) y sont ravinées par les averses, l’été y est trop aride pour une culture intensive, les transhumants détruisent la végétation. On a commencé ici une œuvre de longue haleine : l’édification de milliers de petits réservoirs retenus par des digues en terre. Ainsi sera limitée l’érosion en même temps que seront irrigués les versants et les bassins. 300 000 ha sont intéressés par ce plan, qui a débuté en 1953, et grâce auquel on verra bientôt naître, selon G. Medici, « une nouvelle plaine du Pô au cœur des arides collines d’Italie ».
- Fig. 7. — Jeunes oliviers à Sinosa Marina (Tarente).
- (.Photo Ente Riforma fondiaria)
- p.366 - vue 366/560
-
-
-
- Problèmes d’avenir. — L’État italien a dépensé quelque i 300 milliards de lires (11 milliards de NF) en dix ans (1950-1960) en vue de la réforme agraire et de la bonification ; il a construit 30 000 maisons, 210 écoles, 112 centres professionnels, 600 coopératives groupant 50 000 associés, et 7 000 km de routes ; 120 millions de plants ont été distribués, et 500 000 t de semences et d’engrais. Sur les terres soumises à la réforme, la valeur de la production brute par hectare était passée dès 1956 à 95 000 lires, contre 71 000 en 1953.
- Cet effort ne se ralentit pas et va de pair avec la modernisation générale de l’agriculture prévue par le plan Vanoni d’ici 1964 : création de stations d’études (Acireale pour les agrumes), sélection des races (une vache laitière sur cinq est aujourd’hui de race hollandaise), mécanisation (les 200 000 tracteurs actuels sont cinq fois plus nombreux qu’en 1939), développement de la production de viande, produits laitiers et fruits (la consommation annuelle de viande par habitant doit passer de 18 kg en 1954 à 26 kg en 1964, celle de produits laitiers de 54 à 73). L’élévation du niveau de vie se traduira également par une épargne accrue et un autofinancement plus aisé de la part des agriculteurs.
- Certes les problèmes ne manquent pas, en dépit des résultats acquis : il subsiste des friches et des terres susceptibles à’amélioration. L’État, qui accorde déjà de nombreux prêts (Fonds de rotation) et des subventions aux propriétaires soucieux de modernisation, se propose d’obliger les propriétaires négligents à agir de même sous peine d’expropriation.
- Deuxième problème : accroître la productivité, souvent limitée à cause des conditions naturelles. Un effort continu est entrepris en vue de développer l’assistance technique et la formation professionnelle.
- Troisième point : la « pulvérisation » des exploitations conduit à une rentabilité affaiblie, limitant la mécanisation
- (l’Italie tout entière ne compte qu’un tracteur pour 91 ha utiles, contre 1 pour 48 en France, 1 pour 20 en Allemagne). Certes, l’État a encouragé la coopération, mais celle-ci a encore beaucoup à apprendre, surtout dans le Sud ; il a également favorisé l’agrandissement des trop petits domaines, et par exemple, entre 1948 et 1958, il a aidé 500 000 familles à acheter plus de 800 000 ha à cet effet. On pense maintenant à des mesures législatives touchant le remembrement autoritaire, à des exonérations fiscales, ou à des dispositions successorales qui empêcheraient l’émiettement des domaines déjà réduits à l’état de microfundia.
- Quatrième effort enfin, le plus délicat : Y allégement du poids démographique qui frappe l’agriculture. Le plan Vanoni aura reclassé en dix ans un million de personnes dans l’industrie ou le secteur tertiaire. Mais le surplus annuel atteint 100 000 au moins pour la seule population agricole. Que pèsent dans ces conditions après dix ans les 130 000 familles recasées par la réforme agraire ? Des mesures radicales s’imposeront sans doute pour résorber la main-d’œuvre excédentaire, cette plaie de l’agriculture italienne : industrialisation accélérée du Midi, transferts de population vers le Nord, émigration...
- *
- * *
- Ainsi la bonification intégrale liée à la réforme agraire se définit comme une sorte d’aménagement rationnel de l’espace agricole. Elle réalise une synthèse entre divers éléments : géologie, pédologie, climatologie, hydraulique, sylviculture, agronomie, sociologie, géographie, économie, éducation, hygiène... Cette entreprise aux multiples aspects complémentaires n’a pourtant qu’un but : par delà le succès de la technique, procurer le mieux-être à des populations déshéritées qui, sans aide de la collectivité, seraient incapables de sortir de leur misère.
- Paul Wagret,
- Agrégé de l’Université.
- Le trafic des grands canaux : Suez, Panama, Kiel
- Les travaux actuellement en cours sur le canal de Suez doivent permettre de porter la profondeur de 3 5 à 37 pieds (11,25 m), et ainsi d’autoriser le transit à pleine charge des pétroliers de 50 000 t de port en lourd. Un second programme, prévu pour 197°, prévoit d’accroître la profondeur à 45 pieds (13,70 m).
- En 1959, le trafic du canal de Suez a été de 163 386 000 t (jauge des navires), soit une augmentation de 9 000 000 t sur 1958 et de 49 000 000 t sur 1955, dernière année avant la nationalisation. Près de 70 pour 100 du tonnage sont composés de pétroliers. C’est le pavillon britannique qui se classe en tête des utilisateurs (21,6 p. 100), suivi du Libéria (15,4), de la Norvège (13,7), de la France (9,5), de l’Italie (7,6). Sur les 148 millions de tonnes de marchandises, 121 ont transité du sud vers le nord (pour 85 p. 100 il s’agit de pétrole).
- Le trafic du canal de Panama, administré par les seuls États-Unis, est bien inférieur à celui de Suez : 51 153 000 t de marchandises, contre 148, soit environ le tiers. Le trafic est assez équilibré dans les deux sens : 28 708 000 t dans le sens Atlan-
- tique-Pacifique, 22 445 000 dans l’autre sens. L’accroissement est lent, mais constant, puisque les chiffres de 1948 étaient à peu près égaux à la moitié des chiffres de 1959 ; il est dû en grande partie à l’augmentation des transports de pétrole et de produits pétroliers raffinés de Los Angeles vers les régions orientales des États-Unis.
- Les États-Unis envisagent un programme d’amélioration du canal, puisqu’ils tablent sur un trafic de 100 millions de tonnes en 1970. Le pavillon américain se place naturellement en tête parmi les usagers du canal de Panama, avec un navire sur cinq et un trafic de 12 187 000 t. Suivent le Libéria, la Grande-Bretagne, le Japon, la Norvège, etc.
- Quant au canal de Kiel, il enregistre un mouvement comparable à Panama, avec près de 50 000 000 t de marchandises. Mais 76 000 bateaux y ont transité, contre quelque 9 000 : on remarque la différence de tonnage unitaire des navires dans l’un et l’autre cas.
- P. W.
- 367
- p.367 - vue 367/560
-
-
-
- Les Blattes et leurs parasites sont un danger pour l’Homme
- par Lucien
- Chopard
- Les Blattes, dont les espèces commensales de l’Homme sont connues de tous sous les noms détestés de cafards et de cancrelats, peuvent être citées parmi les animaux qui ont traversé plusieurs ères géologiques sans subir de profondes modifications. Au Carbonifère supérieur, il y a environ 200 millions d’années, des insectes qui ne différaient des Blattes actuelles par aucun caractère important couraient sur les bords des marais houillers. Une si grande ancienneté n’a pas affaibli la vitalité de ce groupe. Tout en conservant ses caractères archaïques, il s’est adapté aux climats et aux milieux les plus divers et quand l’Homme est apparu, offrant un habitat de choix, avec vivres et couvert, à des foules de parasites, plusieurs espèces de Blattes n’ont eu garde de négliger une pareille aubaine. Elles ont peuplé maisons, entrepôts et navires, adoptant comme beaucoup d’autres des habitudes nocturnes, se terrant pendant le jour, et échappant ainsi, autant que possible, à l’attention. Comme c’est le cas pour beaucoup de parasites, elles ne sont pas seulement gênantes et
- nuisibles par la dîme, dans l’ensemble assez modeste, qu’elles prélèvent sur nos provisions ; elles sont surtout redoutables comme vecteurs de germes. Leur biologie et leurs mœurs méritaient donc de retenir spécialement l’attention des zoologistes et des hygiénistes.
- Les zoologistes classent les Blattes dans les Dictyoptères, en compagnie des Mantes, d’un aspect pourtant bien différent, au voisinage des Isoptères ou Termites. Comme les Sauterelles et quelques autres, ce sont des insectes sans métamorphoses complètes, dont les jeunes ressemblent fort aux adultes et mènent la même vie ; ils n’en diffèrent guère que par la taille, l’absence des ailes et l’état rudimentaire des organes génitaux. Au moment de la ponte, les œufs sont réunis dans une « oothèque », sorte de boîte plus ou moins cylindrique qui s’ouvre au moment de l’éclosion des jeunes.
- C’est sans doute à l’ancienneté des Blattes qu’est dû le nombre extrêmement élevé d’associations et de relations de toute nature qui existent entre ces insectes et toutes
- Fig. 1. — Un fâcheux commensal de l’Homme : la Blatte orientale.
- A gauche, mâle ; à droite, femelle ; on voit que les ailes de la femelle sont rudimentaires. Le mâle lui-même ne vole que rarement, mais tons deux marchent et sautent avec agilité. Longueur du corps :
- 24 mm pour le mâle.
- Fig. 2. — Un cafard tout aussi indésirable : la Blatte germanique.
- On voit ici un individu femelle. L’animal est deux fois plus petit que la Blatte orientale ; longueur du corps : 12 mm.
- 3ô8
- p.368 - vue 368/560
-
-
-
- sortes d’autres organismes. Vaste sujet, qui a donné lieu à un important travail de MM. Louis M. Roth et Edwin R. Willis, de la Division de Recherches de l’Armée américaine (1). Ces auteurs l’ont envisagé à un point de vue extrêmement large ; ils considèrent les Blattes non seulement comme porteurs de commensaux et de parasites mais aussi comme proies d’un grand nombre d’animaux, rôle important car c’est par là que ces insectes peuvent être vecteurs de germes pathogènes redoutables. Ces différents aspects de la biologie des Blattes ont été examinés tant dans les conditions naturelles que dans celles des recherches expérimentales en laboratoire. Ainsi des blattes ont été offertes à des animaux qui n’ont pas l’occasion de les rencontrer dans la nature afin de déterminer dans quelle mesure tel ou tel prédateur pouvait les accepter comme nourriture et servir éventuellement d’auxiliaire dans la « lutte biologique » contre elles.
- Mais c’est surtout le rôle des Blattes comme porteurs et, occasionnellement, vecteurs de parasites qui est envisagé. Quelques chiffres donneront une idée de l’importance de ce rôle. Chez deux des blattes les plus communes dans le monde entier, vivant dans les habitations humaines, la Blatte orientale (Blatta orientalis) (fig. i) et la Blatte américaine (Periplaneta ame-ricana) (fig. 3), on compte une centaine de parasites ; chez la première
- 49 bactéries, 9 'champignons, 26 protozoaires, x 1 helminthes (vers parasites) ; chez la seconde
- 50 bactéries, 13 champignons, 29 protozoaires, 17 helminthes. Parmi ces organismes un grand nombre peuvent être pathogènes pour l’homme ou les animaux domestiques, ce qui montre tout l’intérêt qui s’attache à la publication du travail de Roth et Willis.
- Fig. 7. — La Blatte américaine la plus commune dans les installations humaines : Periplaneta americana.
- Individu mâle ; longueur du corps : 30 mm.
- Adaptation à tous les milieux
- Avant d’entrer dans le vif de leur sujet, les auteurs montrent la place que tiennent les Blattes dans le monde animal et ils précisent leurs rapports avec les différents milieux où elles peuvent se rencontrer. La plupart des gens ne connaissent ces insectes que par quelques espèces qui vivent dans
- 1. The biotic Associations of Cockroaches, par Louis M. Roth et Edwin R. Willis. i vol. 16 X 23,5, 470 p., 37 planches. Smithsonian Miscellaneous Collections vol. 141, Washington, i960.
- Fig. 4. — Groupes d’adultes et de larves d’une Blatte américaine de grande taille (Blabera fnsea) au vivarium du Muséum de Paris.
- Cette Blatte, dont le corps mesure 5 cm, colonise les habitations en Amérique centrale.
- (Photo Le Charles).
- les maisons et particulièrement dans les magasins de comestibles où ils sont considérés comme des hôtes indésirables. C’est insuffisant pour avoir une idée de la diversité d’un groupe dont 3 500 espèces environ sont actuellement connues et qui présente une remarquable faculté d’adaptation à tous les milieux. D’une façon générale, les blattes sont fortement hygrophiles et la forêt dense équatoriale constitue le milieu de choix pour un grand nombre d’entre elles. On ne doit pas s’étonner en voyant que certaines espèces ont pénétré dans la profondeur des grottes où elles se sont établies soit dans les fentes des parois, soit sur les amas de guano déposés par les chauves-souris. D’autres mènent une vie presque aquatique au bord des rivières, plongeant volontiers dans l’eau et se montrant capables de rester sur le fond pendant un temps assez long (fig. 5). Plus extraordinaire est le fait que certaines
- Fig. /. — Une blatte aquatique : Rhicnoda natatrix.
- 369
- p.369 - vue 369/560
-
-
-
- Fig. 6. — Blattes cavernicoles vivant sur le guano des Chauves-souris.
- En haut, de gauche à droite : Dyscologamia piloscr (longueur : 18 mm), Gyna ka^ungulana (25 mm). En bas : Pycnoscellus striatus (20 mm) et sa larve (20 mm).
- Blattes ont au contraire colonisé les régions désertiques où elles sont d’ailleurs obligées de devenir fouisseuses et de pénétrer assez profondément dans le sable pour éviter la dessiccation. Ces espèces, qui se signalent par leur habitat spécial, montrent parfois de remarquables caractères d’adaptation ; ainsi, les blattes les mieux adaptées à la vie cavernicole montrent les caractères des véritables « tro-globies » ; elles sont aveugles, complètement décolorées et elles présentent des antennes et des pattes allongées à l’excès (fig. 7). Les espèces désertiques au contraire montrent, chez les femelles surtout, des téguments épais et des pattes courtes armées d’ongles puissants qui leur permettent de fouir rapidement dans le sable (fig. 8). Mais beaucoup de Blattes, vivant dans des milieux moins spécialisés, montrent pour certains microhabitats des préférences dont l’étude exige une analyse écologique minutieuse. Les auteurs ont cherché à réunir le plus grand nombre des observations connues sur ce sujet et les entomologistes trouveront là une quantité de documents sur les mœurs des Blattes.
- Cette étude consacrée à la biologie générale ne constitue qu’une introduction au sujet principal du travail de Roth et Willis, les rapports des Blattes avec les autres organismes.
- Fig. 7. — Une Blatte cavernicole de Madagascar : Nocticola decaryi.
- Naturellement les espèces qui ont été le mieux étudiées à ce point de vue sont celles qui vivent plus ou moins exclusivement dans les habitations humaines. On compte dans le monde entier au moins une trentaine de ces formes anthropophiles ; mais la plupart des détails connus sur les associations sont fournis par quelques espèces cosmopolites. Celles qu’on trouve le plus souvent citées sont des espèces extrêmement communes, en particulier la Blatte germanique (Plattella germanica) (fig. 2), la Blatte orientale (flatta orientait s) (fig. 1), la Blatte américaine (Periplaneta americana) (fig. 5), la Blatte de Madère (Leucophœa maderœ).
- 370
- p.370 - vue 370/560
-
-
-
- Fig. 8. — Une Blatte du désert : Anisogamia tamerlana.
- Longueur du corps : 22,5 mm.
- Bactéries, Protozoaires, Vers, symbiotes ou non, pullulent
- L’étude des associations débute par les bactéroïdes, ces particules unicellulaires qui ressemblent à des bactéries et qui se trouvent surtout dans le corps gras et les ovaires des Blattes. Ces corps ont été reconnus dans 25 espèces et il est probable qu’ils existent chez la plupart sinon chez toutes les espèces. Les bactéroïdes ne sont pas des parasites et ils sont considérés par la plupart des auteurs comme des « symbiotes », c’est-à-dire comme des organismes qui entretiennent avec leur hôte des relations à bénéfices réciproques. La culture de ces bactéroïdes sur milieux artificiels n’a pu être réalisée et des essais de transplantation chez d’autres insectes comme les vers de farine et la chenille d’un papillon (Ephestia) n’ont conduit qu’à des échecs. On a réussi à détruire les bactéroïdes par la chaleur ou l’action de certains antibiotiques (voir Ea Nature, juin 1956, p. 47) ; il en est toujours résulté des troubles de la croissance, de la reproduction ou même la mort des blattes traitées, mais sans qu’on puisse préciser si ces résultats sont dus à l’absence des symbiotes ou à l’effet du traitement auquel elles ont été soumises.
- En ce qui concerne les véritables bactéries, qui se trouvent très nombreuses dans l’intestin des Blattes, aucune preuve décisive n’a pu être apportée de leur contribution
- à la nutrition de leur hôte ; cependant des Periplaneta americana et Blattella germanica élevées aseptiquement montrent un retard de la croissance, ce qui suggère que certaines bactéries apportent un constituant nécessaire à leur régime. Ce fait est à rapprocher des constatations faites dans l’élevage de lapins et cobayes sans germes (voir Ea Nature-Science Progrès, mai 1961, p. 185-191).
- D’autre part, il est évident que certaines bactéries provoquent chez leur hôte des maladies très graves. Ainsi des blattes orientales infestées par du Micrococcus pyogenes var. albus perdent l’appétit, deviennent lentes dans tous leurs mouvements pour arriver à la paralysie ; les insectes meurent avec les pattes contractées sous un corps fortement arqué. La contamination semble se faire par ingestion de bactéries provenant de blattes mortes ou par contact, surtout chez les blattes qui viennent de muer. Enfin, il est important d’indiquer que les Blattes sont capables de véhiculer plus de 40 bactéries pathogènes pour l’homme.
- Les champignons associés aux Blattes sont assez nombreux ; ce sont surtout les moisissures de l’ordre des Mucorales et des Entomophtorales qui se trouvent dans le tube digestif où elles ne semblent guère gêner leur hôte. Plus encore que les Entomophtorales, les Laboulbéniales sont des Champignons spéciaux aux insectes ; on en rencontre souvent fixées sur les téguments des Blattes, en particulier sur les antennes ; elles ne paraissent avoir aucune influence sur la vie et sur les réactions de leur hôte. Le champignon qui pourrait nous débarrasser des Blattes est encore à trouver.
- Le cas des Protozoaires est très comparable à celui des Bactéries. Ils sont nombreux dans le tube digestif des Blattes, surtout les Grégarines dont on compte une vingtaine d’espèces ; une des plus communes est la Gregarina blattarum qui se rencontre chez presque toutes les blattes examinées, sans que celles-ci semblent en être incommodées. Certains Protozoaires présentent avec les Blattes un cas d’association particulièrement intéressant. Il s’agit de très curieux Flagellés du groupe des Trichonymphines ; bien que certains d’entre eux se trouvent chez différentes espèces de Blattes, c’est surtout chez le Cryptocercus punctu-latus (fig. 10) que ces Flagellés (fig. 11) ont été étudiés par L. R. Cleveland, qui en a reconnu 13 genres et environ 2 5 espèces, dont le Trichonympha grandis qui atteint 200 g, taille très grande pour un Protiste. Le fait intéressant est que le Cryptocercus présente des conditions d’existence presque uniques parmi les Blattides. Ces insectes vivent en effet dans l’aubier mort des troncs d’arbres ; ils y creusent des galeries et se tiennent dans les parties les plus humides,
- Fig. çf. — Coupe transversale du corps gras d’une Blatte orientale.
- c. g., cellules graisseuses ; c. b., cellules à bactéroïdes.
- 371
- p.371 - vue 371/560
-
-
-
- formant des colonies d’une vingtaine d’individus composées d’un couple d’adultes et de leur progéniture. Ils se nourrissent, comme les Termites, de bois plus ou moins pourri. Or, leurs commensaux intestinaux sont très voisins de ceux qui sont bien connus chez les Termites et il n’est pas douteux qu’ils permettent, comme chez ces derniers, la digestion de la cellulose.
- Fig. io. — Une Blatte mangeuse de bois pourri : Cryptocercus punctulatus.
- Si l’on examine maintenant les rapports des Blattes avec les Métazoaires, on constate que le groupe le plus important à ce point de vue est celui des Vers ou Helminthes. Ce sont surtout les Nématodes, qui peuvent se présenter, soit comme hôtes primaires, accomplissant toutes les phases de leur développement dans le corps de l’insecte, soit comme parasites secondaires, qui ne se trouvent qu’à l’état larvaire chez les Blattes, l’hôte définitif étant souvent un Vertébré, l’Homme parfois. Enfin un certain nombre de Vers peuvent être absorbés à l’état d’œuf provenant de détritus souillés consommés par la blatte ; ils passent dans le tube digestif comme des corps étrangers et, éliminés avec les déchets de la digestion, ils peuvent se trouver répandus sur des substances alimentaires dans les cuisines fréquentées par les blattes.
- Ceux qui mangent des Blattes par occasion ou par vocation
- Les relations des Blattes avec les Arthropodes, avec les autres insectes en particulier, se bornent à des rapports entre proies et prédateurs. Les Araignées, les Scorpions, les Myriapodes se nourrissent souvent de Blattes ; il en est de même de quelques insectes comme les Mantes et les Réduves. Mais, en aucun cas, ces prédateurs ne font des
- blattes leur régime exclusif ou même principal ; aussi leur rôle est-il à peu près négligeable dans la lutte contre ces insectes.
- Le cas des insectes (à la fois prédateurs et parasites) est plus important à ce point de vue et aussi plus intéressant pour l’étude biologique. Les insectes qui attaquent les Blattes le font non pour leur propre consommation mais pour assurer l’évolution de leurs larves qui, elles, sont parasites ; ils appartiennent à deux groupes très différents, d’abord une très curieuse famille de petits Coléoptères, les Rhipiphorides, puis un certain nombre de petits Hyménoptères.
- Les Rhipiphorides sont des insectes d’assez petite taille, io mm en moyenne, dont les mâles ont des élytres courts et de longues ailes comme les Staphylins, mais des ailes qui ne se replient jamais sous les élytres ; les femelles sont larvi-formes. Ce sont tous des parasites, mais parmi eux les Khipidius s’attaquent uniquement aux Blattes. Des œufs pondus au hasard sortent de petites larves primaires du type appelé triongulin, très agiles, dont le rôle est de rechercher l’hôte sur lequel doit s’effectuer le développement. Naturellement, dans cette recherche un très grand nombre de triongulins se perdent ou vont échouer sur un hôte qui n’est pas favorable. Quand, au contraire, l’un d’eux rencontre une Blatte, il grimpe rapidement sur son corps et y pénètre en traversant la membrane qui unit le thorax et l’abdomen ; il subit alors une mue et prend la forme habituelle des larves parasites. Il est intéressant de noter qu’une des meilleures études sur les Khipidius a pu être réalisée par
- Fig. il. — Un des nombreux Protozoaires qui vivent dans le tube digestif des Blattes.
- Il s’agit d’un Barbulanympba vivant sur la Blatte Cryptocercus punctulatus.
- Grossissement : X 700.
- (D’après L. R. Cleveland).
- 372
- p.372 - vue 372/560
-
-
-
- Fig. 12. — Une Blatte américaine (Parcoblatta virginiana) attaquée par l’Hyménoptète Ampulex cana-liculata.
- La Guêpe, qui a saisi sous ses mandibules le bas du thorax de la Blatte, recourbe son abdomen pour introduire sa tarière sous le thorax et y pondre son œuf.
- (Imité de F. X. Williams).
- J. Barbier, commissaire sur le croiseur Duguay-Trouin ; les Blattes sont en effet une peste sur tous les navires où elles trouvent des conditions très favorables à leur pullula- „ tion. Barbier pense que le parasitisme par les ~Khipidius peut s’étendre dans les ports, d’un navire à l’autre, par transport de Blattes parasitées dans des sacs de provisions ou d’autres matériaux échangés.
- Des Hyménoptères parasites (Guêpes, au sens large de ce terme) s’attaquent aux œufs des Blattes ou aux Blattes elles-mêmes. Dans le premier cas, ce sont de très petits insectes du groupe des Chalcidiens (Anastatus, Tetrastichus) et surtout des Ichneumons de la famille des Evaniides. Les uns comme les autres viennent pondre dans les oothè-ques qui pourtant semblent bien protéger les œufs des blattes. Ces parasites savent fort bien trouver les points où ils peuvent faire pénétrer leur tarière pour déposer leurs propres œufs dans l’abri où leurs larves, rapidement écloses, dévoreront les œufs de la Blatte. Dans certains pays les Evaniides sont tellement nombreux dans les maisons envahies par les blattes que les propriétaires se plaignent de leur abondance alors que les blattes dissimulées pendant le jour leur passent à peu près inaperçues ; ils cherchent à les détruire sans se douter qu’ils perdent en eux des auxiliaires précieux.
- Les Guêpes qui attaquent les Blattes à l’état de larves ou d’adultes sont les Ampulex, voisins des Sphex, dont Fabre nous a longuement décrit comment ils pondent leurs œufs sur le corps des sauterelles. Comme le Sphex, les Ampulex paralysent leur proie par une piqûre et ils pondent sur elle un seul œuf. La larve qui en sort se nourrit d’abord du corps gras, puis des muscles et des organes essentiels de la Blatte qui ne meurt que lorsque son parasite a terminé son évolution. Le parasitisme des Ampulex sur les Blattes était déjà connu de Réaumur ; il cite sous le nom de Guêpe Ichneumon (Mémoires, vol. VI, p. 280) un insecte observé par un M. Cossigni qui attaque dans les maisons, à l’île Maurice, les Blattes et les immobilise d’une piqûre. De nombreuses observations ont été publiées depuis sur ce sujet, en particulier par Bordage à la Réunion, en 1912, et, plus récemment, par F. X. Williams, à Hawaii. Ce dernier a pu observer avec soin le comportement de l’Hymé-noptère qui saisit la Blatte par le bord du thorax et la pique dans la région thoracique (fig. 12) ; il l’entraîne ensuite par une antenne vers une fente ou une galerie dans le sol, sans creuser de terrier ; il l’y introduit, parfois en coupant les pattes pour plus de facilité, puis dépose son œuf à
- la base d’une patte. Le développement de la larve ne demande que quelques jours ; elle file alors un cocon dans le corps vidé de la Blatte et y termine sa métamorphoseLL’action des Ampulex est si efficace qu’on a introduit ces parasites à Hawaii pour lutter, avec succès semble-t-il, contre la Blatte américaine.
- Les rapports des Blattes avec les Vertébrés sont encore moins étroits qu’avec les Arthropodes. Lézards, Crapauds, Mammifères insectivores capturent volontiers les Blattes qui passent à leur portée, mais aucun d’entre eux ne les recherche spécialement. Dans certains pays cependant les Crapauds et surtout les Geckos sont acceptés dans les maisons qu’ils débarrassent de nombreux insectes, dont les Blattes.
- La contamination pat les Blattes
- Mais les rapports que les Blattes entretiennent, régulièrement ou épisodiquement, avec d’autres espèces vivantes doivent être envisagés surtout dans leurs conséquences néfastes, en premier lieu pour la santé de l’Homme et des animaux domestiques. Il faut d’abord se rendre compte que les conditions d’existence et surtout d’habitat dans les pays tempérés ne donnent aucune idée de l’importance des Blattes dans les pays tropicaux. Comme ils fuient toujours la lumière, ces insectes passent à peu près inaperçus pendant le jour, restant cachés dans tous les trous des murs, dans les fentes des parquets, derrière les meubles et dans les moindres abris. Mais, à la tombée du jour, on est surpris de les voir apparaître en quantité incroyable, surtout dans les endroits où ils trouvent quelques substances à consommer. Les Blattes se montrent d’ailleurs tout à fait omnivores, et dans le plus mauvais sens du terme, car elles s’attaquent aussi bien aux ordures les plus répugnantes qu’aux aliments qu’elles peuvent rencontrer pendant leurs courses nocturnes. On les voit, comme les mouches, passer des égouts et des latrines aux cuisines les plus propres. Le résultat est qu’elles peuvent ainsi véhiculer mécaniquement, sur leur corps et sur leurs pattes, une quarantaine d’espèce de Bactéries, dont certaines peuvent compter parmi les agents des plus terribles maladies, sans parler de quelques Protozoaires presque aussi dangereux, comme Balantidium coli, Entamœba histolytica, Giardia intestinales.
- On sait aussi que certains microbes peuvent passer
- 373
- p.373 - vue 373/560
-
-
-
- dans leur tube digestif, gardant toute leur virulence, et venir contaminer des aliments lorsque les Blattes les souillent de leurs déjections. On a ainsi obtenu des cultures de bacille d’Eberth avec du pain et du fromage qui avaient été contaminés par des Blattes pendant une épidémie de typhoïde. On a montré aussi, par des expériences d’infestation de Blattes avec des déjections de cholérique, que des vibrions très virulents pour le cochon d’Inde se trouvent 24 heures après dans les excréments et les régurgitations de ces Blattes. Des résultats analogues ont été obtenus avec le bacille de Koch ; des Blattes nourries de pomme de terre à laquelle on a mélangé des cultures de bacilles montrent, deux jours après, ces bacilles dans leurs excréments, et les cochons d’Inde auxquels on les injecte meurent tuberculeux en moins de deux mois.
- La contamination peut aussi se faire de façon plus directe par les blattes qui, la nuit, viennent sur la figure des dormeurs, surtout des enfants, pour y chercher des traces de liquides, de lait, ou autres débris de nourriture. Un exemple typique de ce mode de contamination est fourni par l’épidémie de salmonellose qui a sévi en 1950 à la clinique pédiatrique de l’Hôpital Universitaire de Bruxelles, et qui fut facilement enrayée dès qu’une infirmière eut signalé que, la nuit, des Blattes germaniques se voyaient sur les couvertures, les vêtements et le corps des bébés. Si une épidémie peut éclater de cette façon dans un hôpital moderne, on peut penser ce qu’il en est dans les pays où les conditions d’hygiène sont souvent déplorables.
- Pour en terminer avec les méfaits des Blattes, il faut considérer les rapports de ces insectes avec les plantes, en particulier les plantes cultivées. C’est un sujet qui a été très peu approfondi. On a bien reconnu que certaines Blattes se rencontrent de préférence sur les végétaux sans avoir toutefois établi l’existence d’un certain parasitisme spécifique. Il est curieux de rappeler à ce sujet que la présence de 70 espèces de Blattes a été relevée dans les régimes
- de bananes qui arrivent en Europe ; il est possible que certaines de ces espèces présentent des rapports plus ou moins étroits avec la plante dans son pays d’origine.
- En ce qui concerne les dégâts commis dans les cultures, bien que les Blattes ne soient jamais considérées comme des dévastateurs de première importance, on se plaint de leurs déprédations dans la plupart des pays tropicaux. Des dégâts sérieux ont été constatés, aussi bien en Malaisie qu’aux Antilles, dans les plantations de coton, de tabac et, un peu partout, on a signalé des récoltes de fruits, mangues, papayes, oranges, endommagées par les Blattes. Mais c’est sans doute dans les serres chaudes des pays tempérés que ces insectes se montrent le plus nuisibles. Ils y trouvent en effet dans les canalisations de chauffage, et avec l’atmosphère chaude et humide qui y règne, d’excellentes conditions pour leur reproduction. Comme toujours, les Blattes s’y trouvent en nombre considérablement supérieur à ce qu’une inspection superficielle laisse supposer. On a ainsi constaté, dans des serres à Philadelphie, que des plants ,de rosiers, dont 30 à 35 000 furent considérés comme perdus, dépérissaient de façon assez inexplicable. Il a fallu une inspection nocturne pour qu’on s’aperçoive que les serres étaient envahies par un nombre énorme de Blattes qui étaient responsables des dégâts. Un grand nombre d’autres plantes de serre peuvent être attaquées mais c’est surtout dans les serres à Orchidées que les Blattes se montrent nuisibles. Elles s’attaquent aux bulbes et à l’extrémité des racines aériennes, aussi bien qu’aux boutons floraux et aux fleurs elles-mêmes, causant des dégâts considérables en raison de la valeur de ces fleurs.
- On peut penser qu’une connaissance approfondie de leur biologie va ouvrir la voie à une lutte plus efficace contre ces « cafards » à tous égards indésirables.
- Lucien Chopard,
- Professeur honoraire au Muséum.
- Détection des corps cancérigènes par action sur une bactérie
- La méthode classique pour détecter les propriétés carcinogènes d’un corps consiste en tests biologiques pratiqués sur l’animal, soit par application sur la peau, soit en incorporant ce corps à la nourriture. Cette méthode exige tout d’abord une quantité appréciable de produit (20 milligrammes au minimum) ; en outre les résultats du test ne sont connus qu’au bout d’une période prolongée, parfois jusqu’à six mois.
- C’est en vue de pouvoir utiliser des quantités beaucoup plus réduites et d’obtenir une information rapide qu’une nouvelle technique a été élaborée à l’Université de Californie par le Dr William D. Wou. Le principe est de mettre en contact une culture bactérienne avec l’agent supposé cancérigène. Plusieurs espèces ont été tour à tour essayées avant que le choix ne se porte sur une bactérie particulièrement sensible, Bacillus mégathérium. Sous l’influence des corps cancérigènes, cette bactérie présente des changements caractéristiques : formation de cellules géantes, de cellules granuleuses et accroissement de la teneur en acides gras. Des signes secondaires sont également observés, tels que l’accroissement de l’activité enzymatique et la production
- d’acide lactique, mais ils sont moins significatifs car ils apparaissent également, bien qu’à un moindre degré, sous l’action de certains corps non cancérigènes. Il est à noter que l’ensemble des modifications qui viennent d’être énumérées ont des analogies avec les phénomènes observés dans les tumeurs malignes des animaux supérieurs.
- Pour vérifier l’efficacité de la nouvelle méthode, les expérimentateurs ont commencé par utiliser des hydrocarbures déjà connus pour leurs propriétés cancérigènes, d’autres pour leur innocuité. Mais par la suite, ils comptent pousser leur exploration parmi une centaine de corps qui ont déjà pu être isolés dans les polluants de l’atmosphère, mais à des doses de l’ordre du microgramme. Ces doses seraient suffisantes pour que le test par Bacillus mégathérium puisse être pratiqué. L’examen ne demanderait qu’un délai de deux jours. S’il se révélait positif, on s’efforcerait de recueillir de plus grandes quantités d’hydrocarbures cancérigènes et de confirmer le test par la méthode classique.
- G. C.
- 374
- p.374 - vue 374/560
-
-
-
- Une branche nouvelle de la psychologie sociale
- Les petits groupes de travail
- 2. Structure du groupe, méthodes, leadership
- par Jean-Claude Filloux
- Lorsque des gens se réunissent pour le pur plaisir d’être ensemble, de vivre en groupe, la fonction du groupe est d’ordre psychologique, et l’on peut parler de « groupe psychologique » (psychegroupe de Jennings). Lorsque des gens se réunissent parce que c’est, pour eux, une condition sine qua non de parvenir à un but, la fonction du groupe est d’ordre instrumental, en ce sens que le groupe a une tâche à remplir, qu’il est l’instrument nécessaire pour obtenir certains résultats : ainsi en est-il des « réunions-discussions » destinées à résoudre un problème en commun, à préparer une décision, ou à prendre une décision, et, d’une façon générale, des groupes de travail.
- Comment fonctionne un groupe de travail ? Telle est la question que nous avons posée (x). Et nous l’avons posée parce que, de toute évidence, l’étude expérimentale des lois du fonctionnement d’un groupe confronté avec une tâche peut seule permettre l’élaboration de règles pratiques utilisables par les membres ou par les conducteurs de groupes désireux de parvenir à un fonctionnement optimal, c’est-à-dire à la meilleure efficacité possible dans le travail collectif. Nous avons vu que le fonctionnement d’un petit groupe de travail dépend de la façon dont certaines fonctions internes sont remplies, ce qui nous a conduit à énumérer diverses « variables fonctionnelles » dont les unes sont d’ordre psychologique ou expressif, les autres d’ordre structural et instrumental, variables dont la présence, l’absence ou le degré contribuent à favoriser ou à inhiber la progression du groupe vers ses buts. Si un groupe est bien un lieu d’interactions, fait d’éléments interdépendants, et si sa dynamique implique une série de moments d’équilibre successifs correspondant à ce que nous avons appelé « régulation », les variables précitées doivent être analysées en référence à ces trois dimensions majeures de la définition du groupe que sont l’interdépendance, les interactions, la régulation. Laissons maintenant de côté les variables psychologiques, déjà étudiées dans le précédent article, pour nous en tenir aux variables structurales et instrumentales : les variables structurales, comme la taille du groupe, le statut de ses membres, déterminent le type d’interdépendance qui existe entre les membres ; les variables instrumentales, telles que la nature de la tâche, les procédures d’études et de décisions, le style de leadership, déterminent du point de vue des interactions les diverses opérations qui se produiront (demander un avis, donner un ordre, etc.)
- i. Voir : Les petits groupes de travail ; i. Le travail en groupe et les facteurs psychologiques. La Nature-Science Progrès, août 1961, p. 343.
- et, du point de vue de la régulation, la manière dont des accords progressifs se réaliseront. Que sait-on de l’influence de ces variables ?
- Taille optimale du groupe :
- 8 à 10 personnes
- Envisageons d’abord le problème de la taille optimale du groupe de travail. Il est clair que pour travailler efficacement à plusieurs, il faut n’être ni trop, ni trop peu. Qu’il s’agisse de résoudre collectivement un problème un peu compliqué, de préparer ou de prendre une décision, plus il y aura de membres, plus on a de chances d’y avoir des interactions et, partant, des suggestions nombreuses ; cependant, un trop grand nombre de participants risque de restreindre les communications possibles, d’augmenter, par exemple, le nombre des muets. D’après Baies et Strod-beck (1951), le passage d’un groupe de 3 personnes à un groupe de 7 personnes se traduit par une différenciation de plus en plus nette entre membres les plus actifs (hauts-contributeurs) et membres les moins actifs (sous-contributeurs) dont la proportion augmente donc régulièrement. A partir de 7 personnes, cette dernière proportion se stabilise. Mais cela ne veut pas dire qu’il soit préférable de discuter à trois qu’à sept. En effet, ce qu’on peut appeler la « productivité » du groupe dépend non seulement du nombre des contributions individuelles, mais de l’utilisation qui en est faite par le groupe dans le cadre des interactions. Il résulte d’investigations très soigneuses effectuées par Hare (1952) que le modèle d’interactions diffère dans différents groupes, et que ce modèle est fonction de la taille du groupe. Voici quelques conclusions de Hare :
- — L’accord dans une discussion de groupe se fait de plus en plus difficilement en passant de 5 à 12 personnes, c’est-à-dire que l’on a d’autant plus tendance à modifier ses opinions qu’on se trouve en présence d’un nombre de personnes plus restreint ;
- — Un groupe de 5 a l’impression d’avoir davantage de temps pour résoudre un problème que ne l’a un groupe de 12 ;
- — Lorsque le groupe passe de 5 à 12, les membres qui participent le moins se montrent de plus en plus mécontents ;
- — Des membres qui participent facilement au travail commun dans des groupes de 5 y participent souvent beaucoup plus difficilement dans des groupes de 12,
- 375
- p.375 - vue 375/560
-
-
-
- parce qu’ils pensent alors que la taille du groupe rend leur contribution moins opérante.
- D’après Hare, le maximum de participation et d’accord se réalise donc pour le groupe de 5 personnes. Mais, n’oublions pas que participation relative et accord ne constituent qu’un des éléments de la productivité du groupe. Comme Gibb l’établissait expérimentalement la même année, l’augmentation de la taille provoque un accroissement de Y hétérogénéité des opinions, qui contrebalance l’effet d’une productivité individuelle relative en diminution. Or, une telle hétérogénéité est un facteur important de découverte ou d’invention d’hypothèses ou de solutions nouvelles pertinentes relativement à la tâche.
- Finalement, il semble bien que la taille idéale d’un groupe de travail se situe entre S et 10 personnes. Dans un tel groupe en effet, un équilibre s’établit entre la possibilité pour chacun de participer et de contribuer à la tâche, et la probabilité d’apparition de suggestions pertinentes.
- La nature de la tâche
- La nature de la tâche affecte notamment la façon dont sont combinées les contributions individuelles. Si, par exemple, le groupe doit résoudre un problème dont la solution demande une division des contributions, il se trouve que, d’une part, le groupe est très dépendant de telle ou telle contribution et que, d’autre part, le mode d’organisation du travail est un facteur prépondérant de réussite. Il ressort de travaux classiques effectués sur ce point par McCurdy et Lambert (1952) que « la division du travail est avantageuse dans un groupe de solution de problèmes si les éléments en lesquels la tâche est divisée peuvent être simplifiés de telle sorte que chaque membre puisse y réussir ; si les parties sont si difficiles qu’une proportion importante des membres ne parviennent pas à réussir, les progrès du groupe sont arrêtés jusqu’à ce qu’un arrangement intervienne pour placer les membres plus capables sur la brèche et compléter ainsi les résultats ». Autrement dit, l’organisation en présence d’une tâche doit être fonction des compétences individuelles connues ou prévues.
- L’étude de Deutsch sur les différences entre groupes « coopératifs » et groupes « compétitifs » (étude que nous avons déjà citée) apporte de son côté des éléments intéressants. Ces deux types de groupes avaient à résoudre, rappelons-le, d’une part des problèmes de punies, avec solution-type et, d’autre part, des problèmes de relations humaines (cas humains) ne comportant aucune solution objective. Il est évident que les problèmes humains demandent un plus grand volume d’interactions, une attention plus grande aussi aux contributions individuelles, la solution dépendant d’un accord. On ne s’étonnera donc pas que les groupes compétitifs, dans lesquels les individus sont récompensés par définition en fonction de l’importance de leur contribution personnelle, réussissent mieux dans ces problèmes humains, alors que les groupes coopératifs, dans lesquels l’individu est moins impliqué individuellement, réussissent mieux dans les puzzles. Cela montre bien que le processus social par lequel les contributions individuelles sont modifiées, publiées et synthétisées en décision de groupe est affecté à la fois par le type de tâche et par le type de relations qui s’établit parmi les membres en fonction de la nature du but à atteindre. Plus la tâche
- paraît pouvoir se réaliser par des voies nombreuses, plus des relations compétitives, avec oppositions, heurt d’opinions hétérogènes, etc., sont utiles, à condition, bien entendu, que la régulation s’effectue convenablement ; par le biais, par exemple, d’une influence intégrative efficace du conducteur de groupe.
- Les différences de « statut » entre les membres du groupe
- En psychologie sociale, on appelle « statut » la position de l’individu au sein des différents systèmes hiérarchiques propres à une société. Ainsi le statut d’un médecin est plus élevé que celui d’un plombier et, parmi les médecins, le statut d’un professeur agrégé plus élevé que celui d’un médecin de quartier. Lorsque les participants d’un groupe rejoignent le groupe, ils apportent en général avec eux leur « statut social » qui peut être considéré comme « exogène » au groupe lui-même. Mais il s’établit également au sein même du groupe une sorte de hiérarchie basée sur les compétences, le pouvoir interpersonnel, de sorte qu’on peut parler de « statuts endogènes » (d’origine interne). Il est certain que les différences de statut, soit exogènes, soit endogènes, induisent des variations dans le fonctionnement groupal, ne serait-ce qu’en raison du fait gue les individus tendent à jouer les « rôles » concomitants à leur statut dans quelque situation qu’ils se trouvent. Bien entendu, les statuts élevés sont en général valorisés. Cela se traduit, dans le cas des statuts exogènes, par le prestige qu’apporte l’individu avec lui et, dans le cas des statuts endogènes, par le désir des membres de parvenir à occuper dans le groupe un statut élevé.
- En ce qui concerne l’existence de différences de statut dues à la position des individus en dehors du groupe, il faut citer les expériences de Hurwitz, Zander et Hymo-vitch d’une part (1933), de Thibaut (1950) et de Kelley (195 x) d’autre part. Les premiers de ces auteurs faisaient étudier des problèmes d’hygiène à des gens travaillant à divers titres dans ce domaine (médecins, fonctionnaires, infirmiers, etc,). Il leur apparut que les personnes de statut élevé étaient toujours préférées, et ne préféraient jamais les personnes de bas statut (résultat obtenu par des tests sociométriques) ; que les premières recevaient toujours plus de communications que les secondes. C’est que le statut représente un certain « pouvoir » : les personnes de bas statut sont en état de malaise, et elles réduisent leur anxiété en exprimant de l’amitié pour les personnes de haut statut, en leur parlant plus qu’aux autres, etc. Certains de ces résultats avaient déjà été obtenus par Thibaut, qui suggérait que le souci de considérer les personnes « prestigieuses » comme des amis était une compensation au fait de ne pouvoir occuper leur position. Quant à Kelley, qui étudia plus particulièrement 1’ « influence de la hiérarchie sur les communications », il pensait que le désir de communiquer « vers le haut » était un véritable succédané d’une accession à un statut qui était perçue comme impossible. Les interprétations sont, on le voit, convergentes. Une autre observation de Kelley est intéressante à plus d’un titre : les sentiments d’amitié entre les membres du groupe tendent à décliner, d’une part quand des membres ont une position qu’ils risquent de perdre, d’autre part quand des membres sont perpé-
- 376
- p.376 - vue 376/560
-
-
-
- tuellement restreints à occuper des positions peu désirables. Les différences de statut peuvent donc produire des détériorations dans les relations d’amitié et, partant, interférer avec l’efficacité des communications dans un groupe de travail.
- Avec cette dernière observation, nous passons à l’influence des différences de statut internes au groupe. A l’intérieur du groupe, le statut de leader est souvent recherché, ou encore celui de conseilleur, de spécialiste. Les individus qui, dans ces domaines, se révèlent avoir le plus d'influence sur autrui (pouvoir) ont alors un statut élevé, quoique « informel », c’est-à-dire non défini par un titre de caractère officiel. Cela ne va pas sans frustrations pour les autres (Lipitt et Polansky, 1950), et peut être cause de tensions. Mais, de toute manière, les groupes où les statuts internes sont clairement organisés tendent
- Fig. 1. — Au Centre d’Études du Bréau-sans-Nappe (S.-et-O.).
- Sous la direction d’un « conducteur de groupe », des cadres supérieurs de l’Électricité de France et de Gaz de France s’initient aux méthodes de discussion en groupe.
- (.Photos extraites de la brochure
- Le Centre d’Études du Bréau-sans-Nappe, éditée par Sodel).
- à mieux fonctionner (Heinicke et Baies, 1953) : ici encore, le fonctionnement optimal semble naître d’exigences contradictoires.
- Les procédures de décision : le vote et la décision collective
- Le travail en groupe est directement conditionné par les procédures formelles ou informelles (c’est-à-dire arrêtées explicitement ou non) qui concernent la manière dont les décisions sont prises. En effet, la « décision » est un moment fondamental, une phase intégrale du processus de solution d’un problème dans son ensemble. C’est le moment d’indiquer que tout groupe placé devant une tâche doit nécessairement prendre des décisions. Les unes seront prises à la fin du processus total : décision quant à la solution proposée, quant au document qui sera remis à une instance supérieure, ou encore quant à l’action commune qui sortira de la réunion ; les autres seront des décisions intermédiaires, intervenant au fur et à mesure de la progression du groupe vers la décision finale, en fonction de la méthode
- p.377 - vue 377/560
-
-
-
- de travail adoptée ; enfin, des décisions importantes interviendront précisément pour déterminer la méthode de travail elle-même. Tout groupe de travail est normalement amené à décider de sa façon de traiter « son problème », à décider des conclusions intermédiaires, à décider d’une réponse d’ensemble.
- Il est évident que le groupe fonctionnera plus ou moins bien selo'n le mode de prise de décision qui intervient à tel ou tel moment de son évolution. Les procédures traditionnelles utilisées dans le travail en groupe ne comportent pas toujours des modes de décision satisfaisants, en ce sens qu’ils ne permettent pas toujours, d’une part une participation constructive de tous les membres, d’autre part une invention suffisante par la dialectique des suggestions et des critiques, et enfin un accord réel et non point seulement formel de la majorité ou de la totalité des membres. Laissons de côté ici le cas des réunions « à stratégie », dans lesquelles les jeux sont faits d’avance : lorsque celui qui dirige la réunion a déjà sa solution et veut seulement la faire accepter par le groupe, lorsque tout le monde sait que de toute manière les objections à quelque « thèse » préétablie ne seront pas prises en considération (ce qui se produit bien souvent dans des réunions d’entreprises, comme dans des réunions syndicales ou politiques).
- Supposons donc que nous nous trouvons en présence de groupes désirant réellement une solution commune et pertinente du problème posé. Dans ce cas, on peut se demander si la procédure généralement adoptée, laquelle consiste à nommer un président qui donne la parole à tour de rôle, puis à voter sur des « motions » successives, est une procédure efficace. D’abord, le « président » (choisi souvent
- Fig. 2. — Discussion en groupe au Bréau-sans-Nappe.
- en fonction de son statut externe) tend souvent à orienter la discussion dans une direction qui lui convient, à exercer une influence contraignante sur la progression de manière à faire adopter ses idées ; selon l’expression de Bovard, il centre son activité de leader sur lui-même et non pas sur le groupe, en ce sens que loin d’essayer d’être un instrument du groupe, il considère plus ou moins consciemment le groupe comme un instrument utilisé à ses propres fins. Une telle attitude est d’observation courante, même si elle n’est pas générale. Ensuite, le procédé qui consiste à prendre un « tour de parole » est défavorable à l’existence d’interactions véritables et, partant, à la dialectique mentionnée plus haut des suggestions et des critiques. Si les membres s’inscrivent pour parler, il est évident qu’après l’intervention d’un membre, celui qui désirerait apporter une réponse à cette intervention ne peut le faire avant les interventions des membres déjà inscrits, de sorte que lorsqu’il peut proposer son point de vue, celui-ci est devenu plus ou moins anachronique.
- Comme nous l’avons maintes fois souligné au cours de cette série d’articles, la progression d’un groupe vers ses buts est inséparable de transformations plus ou moins profondes des opinions des membres, transformations qui ne peuvent s’effectuer que si les critiques sont convenablement perçues, critiquées elles-mêmes, etc. : ce qui suppose un dialogue collectif perpétuel. Enfin, la méthode qui consiste à traiter successivement des points sur lesquels un vote est demandé implique souvent qu’un temps limité est déterminé à l’avance pour le traitement de chacun de ces points. Il s’ensuit une sorte d’impatience générale, le désir d’aboutir coûte que coûte à une décision dans le temps imparti, ce qui conduit d’une part à des analyses superficielles, d’autre part à des décisions qui risquent d’être remises plus tard en question. De nombreuses observations « sur le terrain » ont montré que la plupart
- p.378 - vue 378/560
-
-
-
- des procédures traditionnelles de travail en groupe ne mènent, ni à des solutions réellement collectives, ni à des solutions suffisantes et solides relativement à la tâche devant laquelle se trouve le groupe. Inversement, des expériences de laboratoire ont permis de déterminer des procédures plus efficaces qui permettent précisément au groupe d’être productif et d’être véritablement le lieu de ses propres décisions.
- En ce qui concerne le mode de prise de décision, les expériences précitées montrent que le vote n’est un procédé efficace que dans des limites étroites : lorsque, par exemple, il est impossible de progresser autrement par suite de quelque opposition irréductible de tel ou tel membre. Gordon explique dans son ouvrage fondamental Group Centered Leadership (1955) que, dans le cadre d’une conduite centrée sur le groupe, c’est-à-dire d’une conduite où le leader tâche de faciliter au maximum le travail collectif comme tel, le vote a plus d’inconvénients que d’avantages. Il peut certes indiquer qui n’est pas d’accord à un moment donné : mais le problème est souvent moins de connaître les désaccords que de les réduire par la poursuite de la discussion, la découverte de nouvelles perspectives, la mise à jour des substrats et des systèmes de référence qui sont à la racine des oppositions. Le vote peut hâter des décisions, mais au détriment de leur pertinence, ou de la profondeur des analyses qui les ont suscitées. Selon Gordon, une bonne décision de groupe est toujours un processus qui demande du temps : il faut se méfier des décisions rapides. Souvent, après de longs échanges conduits d’une manière non directive, il apparaît qu’un consensus unanime est possible, alors qu’un vote prématuré aurait fait apparaître des divergences profondes. C’est qu’un accord n’est jamais le fruit de la précipitation, mais d’une patience commune, d’essais répétés de compréhension des points de vue respectifs.
- Le rôle du conducteur de groupe (du « président » si on veut) est donc de faciliter des prises de décision par accord spontané du groupe, et de n’envisager le vote que lorsque l’unanimité du consensus se révèle impossible. Même, dans de tels cas, Gordon suggère qu’au lieu de prendre des décisions rigides, le groupe se borne à prendre acte de certains désaccords, de manière à permettre des changements d’opinion subséquents, lors de la poursuite de la discussion. De telles méthodes ont en particulier l’avantage d’impliquer vraiment la personnalité des membres dans le travail en groupe, d’éviter, comme cela arrive souvent (Festinger, 1947) que, lors d’une prise de décision, vote public et vote secret ne coïncident pas !
- L’attitude du « leader » compte plus que sa personnalité
- Il résulte de ce qui précède que les attitudes de celui qui conduit le groupe (conducteur, leader, etc.) ont des effets importants sur l’aptitude du groupe à produire, à progresser, bref, à fonctionner d’une manière optimale. Nous avons déjà dit un mot du problème général posé par le leadership dans un article traitant des variables fondamentales qui interviennent dans le développement des petits groupes (La Nature, novembre i960, p. 467-468) ; d’autre part, nous étudierons prochainement les techniques de conduite des réunions. Aussi nous bornerons-nous
- ici à indiquer l’intérêt de la conduite centrée sur le groupe (que nous venons d’évoquer en citant Bovard puis Gordon) après avoir dit quelques mots de la perspective dans laquelle on aborde à l’heure actuelle le rôle du leader dans les groupes.
- On l’aborde, bien entendu, d’une façon expérimentale. Ainsi, on organisera des groupes sans leaders, et l’on cherchera à déterminer comment « émergent » les leaders, comment ils cèdent la place à d’autres leaders, etc., en fonction de la situation dans laquelle se trouve le groupe, de la tâche qu’il a à effectuer, du moment particulier de son développement (Bass, 1954). Ou bien encore on comparera le fonctionnement de tels groupes sans leader avec des groupes-témoins dirigés d’une façon démocratique ou autoritaire (c’est le sens des fameuses expériences de Lewin, Lipitt et White dont nous avons déjà parlé). Ou bien encore on comparera, comme Bovard, les performances de groupes où le leader propose procédures et décisions, et de groupes où le leader se borne à faciliter les interactions et les prises de décisions collectives. Une des conclusions essentielles de toutes les études sur le leadership effectuées par la psychologie sociale est qu’il n’y a pas de « chef » né (les caractéristiques de personnalité étant moins importantes que les attitudes choisies par le conducteur comme pertinentes dans une situation de groupe singulière). De plus, la fonction de leader peut être partagée, distribuée entre plusieurs membres d’un groupe, soit à des moments successifs du développement du groupe, soit à un moment donné. Enfin, un conducteur de groupe peut très bien adopter des attitudes très différentes dans des situations différentes, de sorte qu’il est vain de parler par exemple d’un « rôle de leader » invariable dans ses modalités. La psychologie sociale a établi également l’existence de leaders « informels » ayant le cas échéant une influence sur la vie du groupe sans que le statut formel de leader leur soit reconnu. Bref, la définition du leader n’est pas psychologique (« avoir une personnalité de chef »), mais plutôt sociologique (« influence exercée sur le groupe dans le sens de la réalisation d’une progression vers ses buts »). Le leader, dans cette optique, est celui qui, à un moment ou à un autre, aide le groupe à fonctionner, c’est-à-dire à accomplir les fonctions internes qui lui permettent de fonctionner.
- Par opposition à la « conduite centrée sur le leader », la conduite « centrée sur le groupe » consiste à établir une atmosphère informelle et libérale, à faciliter les interactions entre membres, à encourager tout ce qui vient du groupe. D’après les travaux de Bovard (1951), la conduite centrée sur le groupe a notamment l’avantage de permettre à tous les membres de s’exprimer ; elle crée donc les conditions à la fois d’une implication personnelle plus grande et d’une production d’idées ou de suggestions plus importante. A la suite de Bovard, Maier et Solem firent, en 1952, des études sur les résultats provoqués par l’entraînement de leaders à des techniques de conduite centrée sur le groupe : il apparut que les discussions étaient plus longues dans les groupes dirigés par ces leaders que dans les groupes-témoins dirigés « traditionnellement », mais que les changements d’opinion et les accords réels apparaissaient plus aisément. Enfin, dans son ouvrage déjà cité, Gordon analyse notamment les résultats obtenus lors de deux expériences de conduite de groupe centrée sur le groupe : l’une dans une session de formation de
- 379
- p.379 - vue 379/560
-
-
-
- cadres, l’autre en milieu industriel. Comme Gordon est à l’origine de la plupart des techniques nouvelles utilisées depuis lors dans le domaine de la conduite des réunions, nous résumerons d’abord la définition qu’il nous donne des attitudes et des fonctions du conducteur de groupe centré sur le groupe.
- i° Le conducteur de groupe a une philosophie qui consiste en me conception optimiste de la nature fondamentale de l’homme. Cela veut dire qu’à ses yeux, un groupe existe pour la réalisation des buts de ses membres et non pour la réalisation des buts du conducteur. Il croit qu’il est du domaine de la responsabilité du groupe d’établir ses codes de conduite et les règles de son fonctionnement. Il croit à la valeur de chaque personne.
- z° Il écoute de façon compréhensive. Il s’agit pour lui d’épouser la façon de voir de celui qui parle. Cela requiert une volonté de comprendre et implique qu’il se soit libéré du besoin d’influencer ou d’orienter la discussion. Cette attitude de compréhension constitue pour les membres du groupe une invite à se mieux comprendre, à laisser tomber les réflexes de défense, à s’exprimer plus clairement, à défendre avec moins d’obstination un point de vue personnel : le groupe éprouve la satisfaction d’être écouté et compris.
- 3° Il crée dans le groupe un climat d’acceptation. L’un des obstacles les plus importants pour chacun à s’exprimer dans sa singularité est l’atmosphère de menace, la peur d’être jugé, évalué, manipulé, rejeté. L’un des rôles du conducteur consiste donc à créer une atmosphère exempte de ce type d’anxiété, en évitant les interventions qui transmettent directement au groupe l’impression qu’on le manipule (commander, persuader, défendre), celles qui transmettent de façon indirecte l’impression d’être manipulé (juger, évaluer, rassurer, louer), celles qui sont interprétatives.
- 4° Il fait la liaison entre les différents courants de pensée convergents. Il, s’agit, en effet, de mettre en lumière les points de contact entre déclarations différentes concourant au même but et qui n’ont pas été relevés par le groupe.
- Des questionnaires remplis par les participants des deux expériences effectuées sous la direction de Gordon lui ont permis de noter un certain nombre de résultats, dont voici les plus intéressants :
- — Une telle conduite du groupe apprend aux membres à mieux écouter et à mieux respecter les opinions des autres ;
- — L’aptitude à communiquer dans le groupe est améliorée ;
- — Il se produit une réduction des tensions, ainsi qu’une libération de l’énergie créatrice des individus ;
- — Certaines fonctions de leadership se distribuent à
- l’intérieur du groupe, par une sorte d’auto-régulation.
- Ces résultats concordant avec ceux des auteurs précédents, il semble donc bien que par des méthodes assez différentes des méthodes traditionnelles, on puisse obtenir une progression plus satisfaisante et finalement une efficacité plus grande dans les groupes de travail. Notons cependant que de telles méthodes peuvent induire chez ceux qui ne sont pas habitués à ce type de travail en groupe des sentiments d’insatisfaction, lorsque par exemple la discussion traîne apparemment en longueur et que l’on semble s’éloigner du but ; ou encore dans la mesure où la tutelle d’un leader autoritaire, décidant des méthodes de travail, réglementant l’ordre des interventions, est inconsciemment désirée.
- *
- * *
- Peut-être nos lecteurs trouveront-ils un peu disparates les résultats obtenus par la multitude de chercheurs qui ont essayé de déterminer les variables fondamentales qui président ensemble (conjuguant ou opposant leurs effets) au fonctionnement des groupes de travail, que ces groupes soient attelés à la solution de problèmes, à la prise ou à la préparation de décisions. Comme nous l’avons dit dès les premiers articles que nous avons consacré à l’étude des petits groupes, une des difficultés que rencontre celui qui tente de synthétiser l’apport des chercheurs en ce domaine est la diversité des perspectives, des concepts de base, des théories ou des postulats admis plus ou moins explicitement. Nous avons utilisé, dans le cadre de ces deux articles consacrés aux petits groupes de travail, des études conduites par des sociométristes, des « lewi-niens », des empiristes. A notre sens, il serait nécessaire de constituer un « paradigme » général permettant d’interpréter le fonctionnement de tous les types de petits groupes en référence à des dimensions et à des concepts qui connotent ceux qui sont employés par les psychologues des diverses écoles. Rien ne serait plus « pratique », en ce domaine, qu’une bonne « théorie ». Malgré l’absence — à l’heure actuelle — d’un tel paradigme, ou d’une telle théorie synthétique, la psychologie des petits groupes a permis des applications en divers domaines : non seulement dans le perfectionnement des relations humaines (apprentissage de la participation et de la conduite des réunions) mais 'dans le domaine pédagogique, industriel. C’est à ces applications que nous consacrerons ultérieurement d’autres études.
- Jean-Claude Filloux,
- Agrégé de l’Université.
- Brouette sans roue
- Un entrepreneur britannique a eu l’idée d’adapter à la brouette le principe des aéro-glisseurs ou véhicules « à effet de sol » qui se soutiennent à quelque distance du sol par projection d’air comprimé (voir La Nature-Science Progrès, janvier 1961, p. 7-10). Il s’agissait, pour lui et ses équipes, de pouvoir lutter contre la boue, plaie bien connue des chantiers de construction. L’appa-
- reil se compose d’un plateau sous lequel tourne un ventilateur à six pales, couplé à un petit moteur à essence. Ce dispositif assure la sustentation, mais n’intervient pas dans la propulsion. Le conducteur de la « brouette sans roue » la déplace facilement alors qu’elle repose sur son coussin d’air. La charge peut, atteindre 135 kg.
- 380
- p.380 - vue 380/560
-
-
-
- Les météorites astéroïdes égarés et leurs cratères
- par Roman Karpoff
- Il y a peu de temps encore tout cratère important, c’est-à-dire toute excavation circulaire de dimensions un peu grandes observée à la surface de la Terre, était en général classé d’office parmi les reliefs d’origine volcanique. Cette interprétation était parfois remplacée par d’autres : dissolution des roches souterraines avec formation de puits naturels obstrués par des éboulis, ou encore extrusion de sels solubles dissous à leur arrivée en surface, etc. Mais on sait aujourd’hui que certaines dépressions circulaires à bords plus ou moins abrupts, de dimensions très variables, sont dues à l’impact de météorites, corps tombés du ciel et assez gros pour ne s’être pas entièrement volatilisés durant leur traversée de l’atmosphère.
- Allant plus loin, et sans doute trop loin, on a voulu voir dans tous les cratères de la Lune les traces du bombardement de notre satellite par des météorites souvent gigantesques. L’absence d’atmosphère, donc d’érosion et de sédimentation, aurait permis la conservation des dépressions et des reliefs formés par la chute de ces nombreux corps célestes au cours des temps. La théorie opposée, celle d’une origine volcanique des cratères lunaires, a cependant trouvé de nombreux défenseurs ; un savant soviétique, N. A. Kozyrev, a même signalé la présence temporaire d’une fumée ou d’une vapeur dans le cratère Alphonse, en novembre 1958. On voit d’ailleurs mal comment des dépressions de 228 km de diamètre (cratère Calorius) auraient pu se former autrement que par un effondrement du sol dans une cavité vidée de sa lave (« calderas » du type Krakatau). La vérité est peut-être complexe et les cratères lunaires pourraient avoir l’une et l’autre origine, selon les cas.
- Les météorites sont donc des corps d’origine extra-terrrestre qui, après avoir pénétré dans l’atmosphère, atteignent la surface de notre globe. Le nom de météore est réservé à celles qui se consument avant d’atteindre le sol.
- Quelle idée plus précise peut-on avoir de l’origine de ces corps ? Nous ne mentionnerons que pour mémoire l’hypothèse selon laquelle les météorites se seraient constituées par concentration de poussières cosmiques ou de gaz, tels qu’il en existe sur d’immenses étendues dans les espaces interstellaires. Les calculs de V. G. Fessenkov ont montré qu’une telle concentration n’a aucune chance de se produire.
- C’est en déterminant l’orbite parcourue par les météorites que leur origine a pu être établie avec une très grande vraisemblance. On avait d’abord cru discerner une orbite hyperbolique. Mais les observations photographiques de
- Porter semblent démontrer qu’elle est elliptique. S’il en est bien ainsi, les météorites sont liées au système solaire et elles ne seraient que des astéroïdes de petites dimensions. On sait que les astéroïdes forment un groupe de près de 60 000 corps planétaires dont les plus brillants évoluent entre les orbites de Mars et de Jupiter ; leurs diamètres s’échelonnent entre 785 km pour le plus grand, Cérès, et 1 km pour Adonis ; bien d’autres, plus petits encore, sont mal discernables avec les télescopes actuels ; beaucoup, sans doute, n’ont pas été aperçus, et il en est certainement d’innombrables que leur petite taille rend absolument invisibles. On a imaginé que tous ces corps pouvaient être les débris d’une planète ayant existé entre Mars et Jupiter. Les plus lourds se maintiendraient alors dans le voisinage de l’orbite primitive ; les plus légers sont plus facilement déviés par l’attraction des planètes et leur grande dispersion actuelle n’aurait rien d’étonnant. Cette théorie, fort séduisante, n’a pas encore reçu de preuve définitive.
- Les météorites qui rencontrent l’atmosphère terrestre et amorcent une chute sur notre planète peuvent donc être de poids fort divers, de moins d’un gramme à des milliers de tonnes ; mais les plus lourdes sont extrêmement rares : la probabilité de leur chute sur terre serait, à peu près, inversement proportionnelle à leur grosseur. L’abondance de la matière cosmique qui atteint ainsi régulièrement la Terre a donné lieu à des évaluations très divergentes. Selon Wylie, il tomberait quotidiennement près de 5 tonnes de matière météoritique. D’autres auteurs parlent de
- I 000 t et de 10 000 t par jour. Récemment H. Petters-son (Endeavour, i960) a signalé l’abondance des « sphéru-les cosmiques » riches en nickel dans les sédiments océaniques profonds ramenés par des sondages sous-marins ; il tomberait annuellement 1 000 à 5 000 t de ces corpuscules.
- II faut y ajouter des poussières cosmiques dont le tonnage annuel atteindrait près de 5 millions de tonnes.
- La traversée de l’atmosphère et l’arrivée au sol
- Lorsqu’elles pénètrent dans notre atmosphère, les météorites se heurtent vers 100 à 150 km d’altitude aux premières molécules d’air ; elles sont alors rapidement portées à l’incandescence et elles commencent à se liquéfier en surface puis à se vaporiser tout en se coiffant d’un « coussin » d’air comprimé de plus en plus chaud. La production de lumière est alors intense, puisque des
- 381
- p.381 - vue 381/560
-
-
-
- Fig. i. — Le cratère Chubb vu d’avion à 6500 m.
- Le paysage, désolé, parsemé de lacs gelés, est celui de l’extrême Nord.’du Canada.
- (Photo Royal Canada Air Force).
- p.382 - vue 382/560
-
-
-
- corps ne pesant que quelques dizaines de grammes forment des traînées ou « étoiles filantes », bien visibles à l’œil nu. Les plus petites, qui sont les plus nombreuses, se vaporisent entièrement et, la nuit, on voit leur trace lumineuse s’interrompre en plein ciel. Les météorites de taille moyenne qui peuvent atteindre le sol sont toutefois vite freinées dans les couches plus denses de l’atmosphère ; elles perdent leur « vitesse cosmique » dans une « zone de freinage », entre 20 km et 4 km d’altitude ; elles tombent ensuite en chute libre, après avoir été amputées d’une partie de leur masse par vaporisation à haute température, accompagnée de la formation de fines poussières ; il est amusant de noter que des fragments de moins d’un kilogramme tombant sur une épaisse couche de neige n’arrivent pas à la percer en totalité. Par contre, les plus grosses météorites ont conservé, en arrivant au sol, une part de leur vitesse cosmique ; il se forme alors au point d’impact des cratères plus ou moins larges et profonds, dont il sera question plus loin. Un peu avant d’atteindre le sol, la plupart des météorites se scindent en plusieurs fragments ; leur trajectoire étant oblique, on retrouve ces débris dans des secteurs de forme elliptique, constituant un indice précieux sur la direction de la chute.
- Dans les anciens temps, les chutes de grosses météorites inspiraient souvent la terreur. Elles sont, avec les aurores boréales, à l’origine des nombreuses légendes où il est question de dragons crachant feu et flammes et parcourant le ciel, de serpents lumineux, etc. C’est que la chute de ces gros objets s’accompagne d’une lumière éblouissante visible sur des centaines de kilomètres ou du passage d’une boule lumineuse ; de jour, on aperçoit un grand éclat ou un nuage plus ou moins sinueux. Quelques instants après ces manifestations optiques, des explosions sourdes font trembler le sol. Dans les lieux habités environnants,
- les portes et les fenêtres s’ouvrent et les vitres volent en éclats. Il se produit en plus grand le même phénomène que lorsqu’un avion dépasse le « mur du son » et provoque localement bruit et dégâts. Enfin, on croit entendre des roulements de tonnerre longuement répercutés par le sol. Le phénomène prend fin ; quelque part dans la région, des débris d’origine cosmique sont tombés et attendent qu’on les découvre...
- Il est rare que des météorites tombent sur des bâtiments ; on en connaît une trentaine de cas, sans que jamais il y ait eu mort d’être humain, la probabilité d’un tel accident étant pratiquement nulle. Des blessures ont cependant été causées à une Américaine en 1954 lorsqu’une météorite traversa sa maison.
- Minéralogie des météorites
- Les météorites (retrouvées telles ou sous forme de fragments) sont anguleuses ou irrégulièrement arrondies ; leur surface, burinée par des dépressions appelées piézo-glyptes, est recouverte d’une mince croûte (rarement plus d’un millimètre d’épaisseur) noire ou brune, parfois très lisse, formée par échauffement et fusion lors du passage dans l’atmosphère.
- On trouve dans les météorites du fer natif toujours associé au nickel et au cobalt, des sulfures, des oxydes, des carbonates, des phosphates, des silicates complexes comme les péridots, les pyroxènes et les feldspaths, et même du diamant et du graphite. Il existe également des gaz et des éléments volatils comme l’hydrogène, l’azote, l’oxygène, le chlore, le soufre, c’est-à-dire presque tous les composants principaux des émissions volcaniques. Mais on y trouve aussi des minéraux qui n’ont jamais été observés
- Fig. 2. — Les géologues canadiens V. Ben Meen et I. W. Jones au bord du cratère Chubb (Nord du Labrador).
- Ce cratère a été découvert en 1946 par le prospecteur J. M. Chubb, qui survolait la région en avion. D’un diamètre de 3 300 m, d’une profondeur de 400 m, son talus surplombe de 130 m la région environnante, gelée la plus grande partie de l’année et presque dépourvue de végétation. L’origine météoritique est probable.
- {Photo National Géographie Society, Canada).
- IHHÉ
- p.383 - vue 383/560
-
-
-
- De//ys Bougie
- ALGER
- *Bou Saoda
- Bistro
- • Laghouat
- CRATÈRE DE TALEMZANE
- Tougaourt
- 200 km
- Ghardoi'a 0
- Fig. 4. — Situation géographique du cratère de Talemzane.
- à l’état naturel à la surface de la Terre et qui n’ont été produits que dans des-conditions artificielles, au laboratoire : citons la moissanite ou carbure de silicium SiC, l’osbor-nite ou nitrure de titane TiN, l’oldhamite CaS, la dau-bréélite Fe2Cr2S4, la schreibersite (Fe, Ni, Co)3P et enfin des alliages de fer et de nickel comme la kamacite, très riche en fer (sa composition varie de Fe18Ni à Fe14Ni) et la taénite, plus riche en nickel (Fe7Ni à FeNi).
- On classe généralement les météorites dans les grandes catégories suivantes d’après leur composition minéralogique :
- — les sidérites, constituées principalement de fer nickéli-fère, dont l’étendue des figures de corrosion permet de conclure qu’il s’agit d’association de kamacite et de taénite ;
- — les sidérolithes, qui sont des fers nickélifères accompagnés de silicates ;
- — les météorites pierreuses ou aérolithes, comparables à certaines roches basiques de la croûte terrestre ; la plupart sont des chondrites, caractérisées par la présence de globules
- Fig. J. — Le cratère de Talemzane (Sahara septentrional).
- Vue panoramique, prise d’un col situé au sud du cratère. Le fond alluvial est recouvert d’herbes et de jujubiers ; les bords sont calcaires.
- 384
- de dimensions variables, formés de silicates entièrement ou partiellement cristallisés, appelés chondres ; les autres, d’une structure cristalline et dénuées de chondres, sont appelées achondrites.
- Il existe de nombreuses autres classifications des météorites ; c’est une simple question d’accolade.
- Les densités movennes des principales météorites varient du simple au double depuis les aérolithes les plus légères (densité 3,54) jusqu’aux sidérites (7,72) ; les sidérolithes ont une densité intermédiaire (5,60).
- Il est impossible de se prononcer sur le pourcentage exact des differentes variétés de météorites qui tombent sur la Terre. La plupart tombent dans les océans et les mers ou dans les zones polaires, les déserts et d’autres régions inhabitées ; d’autres se cachent à la vue en s’enterrant dans le sol ; enfin, les météorites pierreuses sont fréquemment confondues avec des roches banales et échappent ainsi à l’attention.
- La variété de la composition minéralogique a été invoquée en faveur de l’hvpothèse qui fait des météorites les
- Fig. 4. — Le cratère de Wolff Creek, en Australie occidentale. Découvert en 1947 par MM. Reeves et Chalmers au cours d’une prospection aérienne dans la brousse désertique du Nord-Ouest. Diamètre, 850 m ; profondeur, 51m. On y a relevé des particules métalliques riches en nickel ; l’origine météoritique est certaine et remonterait au Pléistocène.
- {Photo Bureau of minerai resources, Canberra).
- débris d’une ancienne planète. Les fragments les plus lourds proviendraient des parties profondes de l’astre éclaté ; les plus légères seraient des débris de ses parties superficielles.
- Les grosses météorites et leurs chutes spectaculaires
- La plupart des grosses météorites se fragmentant à leur arrivée, les blocs de grandes dimensions que l’on a pu retrouver sont très rares. A part la très problématique météorite de Chinguetti en Mauritanie, vue une fois,
- p.dbl.384 - vue 384/560
-
-
-
- jamais retrouvée depuis 1916 et qui aurait pu peser près d’un million de tonnes, avec ses 100 m de côté, le record pour les sidérites va au Hoba, trouvé vers 1920 dans le Sud-Ouest africain. C’est une « ataxite » à 16 pour 100 de nickel, mesurant 3 mX3 mxi m environ ; le poids actuel est de 60 t mais était anciennement de près de 90 t. L’échantillon a perdu 30 t par suite d’une très forte oxydation à l’air libre. La plus grosse sidérolithe pèse 2 t et a été trouvée en 1937 à Houkita en Australie. La plus grosse météorite pierreuse, de 564 kg, était celle trouvée en 1891 à Long ïsland, mais en 1948, après une pluie d’aérolithes, tombée à Norton-Furnas (E.-U.), on trouva un spécimen d’achondrite de 587 kg.
- Rappelons quelques chutes spectaculaires, et d’abord la plus célèbre, celle qui eut lieu le 30 juin 1908 en Sibérie, dans le bassin de la rivière Toungousska. Le bruit de l’explosion fut entendu à une distance de 1 200 km et l’onde de
- Fig. 6. — Vue aérienne du cratère de Talemzane.
- choc fit deux fois le tour de la terre pendant que persistait une étrange lueur. Sur des dizaines de kilomètres autour du point de chute présumé, les arbres de la taïga furent couchés radialement et un troupeau de rennes fut décimé. Aucun débris n’a encore été recueilli ; ce fait peut être dû à une vaporisation presque totale de la matière, ou à un enfoncement des fragments dans l’épaisse couverture de mousses et d’eau de la région. Récemment, une hypothèse curieuse proposait une origine artificielle pour cet objet, qui aurait été un vaisseau cosmique, porteur d’une bombe atomique !
- Il est plus raisonnable de penser à la chute d’une tête de comète. Les orbites de ces astres sont en effet plus tendues que celles des météorites normales. La météorite de la Toungousska, qui aurait pesé près d’un million de tonnes, serait arrivée, d’après V. G. Fessenkov, d’une direction opposée à celle du mouvement de la Terre autour du Soleil (sur les recherches que cette météorite a suscitées récemment, voir ~La Nature, août i960, p. 337-338, et octobre 1960, p. 443).
- La plus grande pluie de météorites pierreuses qui se soit produite de mémoire d’homme eut lieu le 12 février 1947 dans la taïga des Monts Sikhoté-Aline occidentaux. Un « bolide » très lumineux traversa le ciel, avec dégagement de fumée, séparation en plusieurs morceaux, bruits variés rappelant des explosions, tremblement du sol, etc. Plusieurs expéditions trouvèrent par la suite nombre d’arbres déracinés ou cassés autour de plus de 100 cratères dont les diamètres variaient de 1 à 28 m sur une superficie de près de 20 km2. Plus de 25 t de fragments de sidé-rite à structure spéciale furent ramassés ou déterrés ; le plus grand atteignait un poids de 500 kg et le poids total de la météorite avant son explosion en vol devait avoisiner 70 t.
- Orloff s’est risqué à calculer la probabilité d’arrivée d’une météorite selon sa taille : il estime que la chute d’une météorite d’un rayon de 560 m doit se produire en moyenne tous les 6 x 107 ans ; de 26 m, tous les 6 X io3 ans ; de 1,2 m tous les 220 jours.
- Quelques grands cratères
- Les météorites qui malgré leur vaporisation partielle dans l’atmosphère ont conservé en arrivant au sol un poids supérieur à quelques kilogrammes et une part importante de leur vitesse cosmique creusent un trou plus ou moins profond. Leur vitesse peut être alors de quelques kilomètres à 70 km par seconde, suivant leur direction par rapport à la marche de la Terre qui, rappelons-le, voyage sur son orbite à près de 29 km/s. Nous verrons un peu plus loin comment peuvent s’expliquer les formes et les dimensions des cratères observés.
- Rappelons d’abord quels sont les plus notables de ceux que l’on connaît actuellement. Leur nombre va croissant depuis que se sont ouvertes à l’investigation scientifique des étendues jadis mal explorées. Parfois, on récolte des débris de météorites autour ou à l’intérieur de ces dépressions, toujours parfaitement circulaires ; très souvent on ne trouve rien, l’oxydation avant détruit les vestiges qui pourraient être probants et ce sont des considérations géologiques qui permettent de conclure à une origine météoritique très probable.
- 386
- p.386 - vue 385/560
-
-
-
- Fig. 7. — Le cratère Barringer ou Meteor Crater (Arizona).
- Découvert en 1909, c’est le plus anciennement connu des grands cratères que l’on peut attribuer à la chute d’une météorite. Diamètre, 1 207 m ; profondeur, 174 m ; le talus qui le borde s’élève à 45 m au-dessus de la plaine.
- Il s’agit de 7 dépressions circulaires, la plus grande mesurant 110 m de diamètre et 16 m de profondeur. Reinwald a fini par y trouver en 1937 de petits fragments de météorite dans une poudre et une brèche dolomitiques provenant des bords, redressés, des cratères.
- Le premier cratère de grandes dimensions reconnu comme étant dû à une météorite est celui de Barringer ou Meteor Crater, découvert en 1909, dans l’Arizona (fig. 7). Son diamètre est de 1 207 m et sa profondeur de 174 m ; d’innombrables fragments de sidérite ont été trouvés sur son pourtour et sous terre. Les bords sont redressés et couverts de débris de roche. Son propriétaire, Daniel Moreau Barringer, dut batailler durant de longues années pour faire admettre son origine réelle. Relativement récent (50 000 ans peut-être), il est d’une remarquable fraîcheur.
- De nombreux autres cratères, de toutes dimensions, ont été découverts depuis lors. Cinq d’entre eux, dont l’origine météoritique est extrêmement probable mais non rigoureusement démontrée, sont plus grands que le Meteor Crater. Le tableau I indique les dimensions des dix cratères les plus grands qui aient été reconnus jusqu’en 1957. Nous donnerons quelques précisions sur quelques cratères d’Europe, de France en particulier, et du Sahara.
- Les premiers cratères reconnus en Europe sont ceux de Kaalijarv dans l’île de Saarema (Oesel) en Esthonie.
- Tableau I. — Dimensions des dix plus grands cratères
- DE MÉTÉORITE ACTUELLEMENT CONNUS
- Nom et localisation Diamètre Profondeur
- 1. Deep Bay, Saskatchewan, Canada 18 300 m 85 m
- 2. Ungava (Chubb), Canada. 3 300 400
- 3 . Brent, Ontario, Canada .... 3 200 ?
- 4. Holleford, Ontario, Canada . 2 000 30
- 5. Talemzane, Sahara I 5 CO 67
- 6 . Meteor Crater (Barringer), Arizona. I 207 04
- 7. Wolf Creek, Australie 850 51
- 8. Aouelloul, Mauritanie 250 30
- 9. Cabrerolles, France 220 5°
- 10. Henbury, Australie 200 X IIO 19
- L’origine météoritique des cinq premiers, de même que celle du cratère de Cabrerolles, est considérée seulement comme très probable. Les renseignements sur le Canada sont dus à G. E. Forster.
- 387
- p.387 - vue 386/560
-
-
-
- Charge d'explosif
- Détonateur
- \
- Cône creux
- à revêtement métallique
- Axe du jet à grande vitesse
- Fig. 8. — Représentation schématique d’une charge creuse. Aussitôt après la mise à feu, une onde d’explosion se propage de gauche à droite, comprimant puis accélérant le métal du cône de revêtement creux (hachuré, à droite) qui devient fluide et est animé d’une énorme vitesse. Celle-ci est beaucoup plus grande que la vitesse de détonation de l’explosif. Elle atteint plusieurs milliers de mètres à la seconde.
- En France, des dépressions circulaires d’origine peut-être météoritique sont celles découvertes par B. Gèze dans la Montagne Noire, à Cabrerolles et à Faugères ; celle de Cabrerolles, la plus grande, a un diamètre de 200 à 220 m à son ouverture. Le substratum schisto-gréseux de certaines de ces dépressions semble exclure la possibilité d’une origine par dissolution.
- En Afrique, le plus grand cratère, d’origine météoritique probable, est celui de Talemzane, à 400 km au sud-sud-est d’Alger et à 120 km à l’est-sud-est de Laghouat, reconnu seulement en 1951. Il a un diamètre de près de 1 500 m pour une profondeur assez faible, due à un remplissage alluvial lacustre important (fig. 4, 5 et 6). Ce cratère peut dater du Pliocène, c’est-à-dire de plus d’un million d’années ; des silex taillés de cachet néolithique et même paléolithique jonchent ses bords, fortement redressés vers l’extérieur et couverts de débris, alors que les bancs calcaires crétacés environnants sont pratiquement horizontaux.
- Au Sahara occidental, à 50 km au sud-est d’Atar (Mauritanie), le cratère d’Aouelloul, large de 250 m, recoupe des grès. Th. Monod y a découvert des fragments de verre de silice noirâtres ; cette silice, proche du « verre de Darwin » de Tasmanie, renferme des traces de nickel (0,022 pour 100) et serait d’origine extra-terrestre.
- A part celui de Henbury (Australie), sans doute formé par deux dépressions chevauchantes, tous les grands cratères sont parfaitement circulaires. Ce fait serait dû à la transformation, au moment de l’impact contre le sol, de l’énergie cinétique en énergie calorifique très élevée. D’où vaporisation au moins partielle des très grandes météorites et formation de cratères circulaires d’explosion.
- La formation des cratères : expériences et calculs
- Des calculs fondés sur diverses expériences de tir et d’autre part sur les résultats d’explosions atomiques souterraines ont conduit à des évaluations, d’ailleurs très divergentes, de l’importance des météorites qui seraient à l’origine des grands cratères.
- On sait le rôle important qu’ont joué les « charges creuses » durant la guerre, dans la lutte des engins explosifs contre l’épaisseur des blindages. Une charge creuse utilise la fluidification que subissent les solides soumis à un choc
- à de très grandes vitesses (fig. 8). On a pu photographier les jets de métal fondu du cône creux, qui atteignent parfois 10 km/s. On a constaté l’apparition d’une très forte lumière à l’extrémité du jet vaporisé ; celui-ci, en outre, est plus continu avec des métaux ductiles qu’avec des métaux cassants. Des calculs par approximations hydrodynamiques peuvent alors conduire par comparaison à l’estimation de la masse et de la vitesse des météorites (E. Ôpik). Pour le Meteor Crater, on trouverait ainsi une masse de 7,8 X io6 tonnes et une vitesse de 20 km/s. Mais d’autres auteurs donnent des évaluations beaucoup plus modestes.
- Des expériences de tirs variés ont été réalisées aux Ames Research Center avec des billes en carbure de tungstène, en acier, etc. On a pu ainsi constater qu’aux très grandes vitesses (celles-ci ont atteint 7 000 m/s et des films ont été pris à 1 200 000 images par seconde), les cratères d’impact tendent à devenir hémisphériques ; les forces mises en jeu sont beaucoup plus grandes que les limites de cohésion du projectile ou de la cible et les matériaux se comportent comme des fluides. Les cratères, si la cible est ductile, acquièrent des bords relevés et même un peu retournés (fig. 9), exactement comme c’est le cas
- Fig. g. — Cratère expérimental.
- Ce cratère est obtenu par le tir d’une bille d’acier (diamètre, 3 mm) sur une cible en cuivre. On remarque la forme hémisphérique du cratère ainsi que les-bords relevés et même retournés vers l’extérieur.
- {D’après J. L. Summers et A. C. Charters).
- pour les cratères de météorites. Enfin, les expériences ont montré le jeu complexe des ondes de choc, des ondes de tension, des éjections de particules, de la luminosité, etc.
- Au 21e Congrès géologique international de Copenhague, en i960, E. M. Shoemaker a présenté des comparaisons très intéressantes entre d’une part les effets de deux explosions atomiques souterraines, à Teapot Ess et à Jangle U, au Nevada, et d’autre part les cratères de météorites,
- 388
- p.388 - vue 387/560
-
-
-
- N.W.
- S.E.
- 100 m
- O 50 100m
- I-------------------1------------------1
- W.
- 100
- 200m
- W.
- brèche
- E.
- brèche
- Fig. io. — Comparaison entre quelques cratères artificiels (bombes atomiques souterraines) et naturels (attribués à des météorites). Les croix marquent les points d’explosion ; les pointillés représentent la masse des débris et alluvions. A, explosion atomique de Teapot Ess, avec charge à 20 m sous terre. B, explosion atomique de Jangle U, à 5,5 m sous terre. On remarque l’analogie de A avec C (Meteor Crater) ; les cratères d’Aouelloul (D) et de Talemzane (E) ont une forme plus étalée, rappelant celle du cratère artificiel B.
- (D’après Shoemaker, Monod et Karpoff).
- ou présumés tels ; les analogies sont frappantes (fig. io). Il se forme, soit des lambeaux très caractéristiques de terrains retournés sur les bords des cratères lorsque l’explosion est relativement profonde (20 m de profondeur pour l’explosion atomique de Teapot Ess, dont le cratère est analogue en petit au Meteor Crater), soit des bourrelets anticlinaux, c’est-à-dire à convexité tournée vers le haut, pour une explosion moins « enterrée » (5,50 m au cratère artificiel de Jangle U, analogue à celui d’Aouelloul et à celui d’Odessa, Texas). Le Teapot Ess, formé dans des alluvions par une explosion de 1,2 kilotonne, renferme des roches fondues à haute température ; il en est de même au Meteor Crater, où on trouve de la lechateliérite et une nouvelle forme dense de silice, à des profondeurs allant de 30 m à plus de 100 m sous le fond. D’autres cratères, comme Aouelloul, creusé dans des grès, renferment également du verre de silice.
- Les météorites qui ont conservé une bonne part de leur vitesse cosmique donnent lieu dans le sol à des phénomènes complexes. Shoemaker distingue trois processus, simultanés ou non :
- i° Compression des roches et de la météorite par le choc ; les roches fondent.
- 20 Pénétration par écoulement hydrodynamique. Précédée par un liséré de roches fondues, la météorite s’enfonce en formant une poche rapidement croissante, qui deviendra un cratère après l’explosion finale (30 ci-dessous).
- 30 Dispersion du matériel météoritique par l’onde de choc, suivie de la formation du cratère définitif.
- Une comparaison entre le cratère atomique de Teapot Ess et le Meteor Crater a donné à Shoemaker les chiffres suivants pour ce dernier (la vitesse d’arrivée étant supposée de 15 km/s) : masse de la météorite, 63 000 t, soit une sphère d’un diamètre de 24,8 m pour une densité de 7,85, l’énergie explosive ayant sans doute atteint le chiffre de 1,7 mégatonne ! On est loin de certaines prévisions plus optimistes sur l’importance de la météorite (voir plus haut) que l’on pensait pouvoir exploiter pour le fer et le nickel. L’incertitude ne pourra être définitivement levée que lorsque des organismes scientifiques nationaux ou internationaux se décideront à faire des sondages profonds à l’intérieur et autour des principaux cratères météoritiques du monde.
- Roman Karpoff,
- Docteur ès Sciences, Géologue à la Société Lyonnaise des Eaux.
- Les tectites seraient des roches terrestres fondues et projetées sous Vimpact de grosses météorites
- UN récent article de ha Nature-Science Progrès (février 1961, p. 90-92) traitait de l’origine, encore énigmatique, des « tectites », ces fragments de roche d’aspect vitreux qui donnent l’impression d’avoir été liquéfiées et d’avoir subi ensuite une solidification rapide. La plupart des auteurs croient à leur origine cosmique : ce seraient des météorites d’une espèce particulière. Certaines d’entre
- elles semblent avoir pris une forme plus ou moins aérodynamique, comme si elles avaient été modelées en traversant l’atmosphère à l’état visqueux (voir les figures 1 et 5 de l’article cité).
- L’idée a été émise aussi que les tectites étaient des débris du sol lunaire, projetés jusque sur la Terre par l’impact de grosses météorites qui auraient frappé notre satellite.
- 389
- p.389 - vue 388/560
-
-
-
- Mais après tout, pourquoi de tels impacts, se produisant sur notre propre globe, ne créeraient-ils pas des tectites ? C’est l’hypothèse qui a été présentée récemment dans un colloque de l’American Geophysiçal Union à Washington, et rapportée par Scientific American.
- J. H. Reynolds et J. Zahringer ont effectué le dosage du potassium 40 (radioactif, de période 1,3 X io3 ans) que contient le potassium des tectites et qui permet de déterminer leur âge. Les résultats diffèrent dans des régions du globe éloignées l’une de l’autre, mais il est remarquable que dans une même aire on trouve des âges égaux. Les tectites de la Géorgie et du Texas seraient vieilles de 30 millions d’années ; celles de Tchécoslovaquie auraient 8 à 10 millions d’années, tandis que dans une vaste région, qui s’allonge du Laos à l’Australie, elles semblent ne remonter qu’à 600 000 ans.
- Suivant A. J. Cohen, du Mellon Institute, chacun de ces groupes de tectites d’âge égal aurait pour origine l’impact d’une météorite géante sur le sol terrestre. Un véritable éclaboussement de matériaux en fusion se serait produit jusqu’à des altitudes élevées, les retombées s’éparpillant ensuite sur de grandes surfaces. Pendant leur traversée de l’atmosphère, les tectites se seraient refroidies progressivement, prenant un aspect vitreux et des formes dues à leur vitesse et au frottement des molécules de l’air. Cependant les tectites recueillies en Australie paraissent avoir refondu et s’être solidifiées deux fois. Les éléments rocheux de ce groupe, que l’on retrouve sur une si grande étendue, auraient été projetés si haut qu’ils se seraient solidifiés une première fois au-dessus des limites de l’atmosphère terrestre, réchauffement dû au frottement ayant cessé dans le vide. Mais en retombant, leur rentrée dans l’atmosphère les aurait ramenés à l’état de fusion, comme il en est des météorites ou des satellites artificiels qui ne possèdent pas de rétrofusées. Ces gouttes rocheuses auraient finalement repris au sol l’état solide.
- Si telle est l’origine des tectites, on doit pouvoir retrouver des traces de l’impact qui a été la cause initiale de leur formation, du moins s’il ne s’agit pas d’un événement trop ancien. Ce serait bien le cas pour les tectites de Tchécoslovaquie. Il existe en Allemagne du Sud, près de Nordlingen, un cratère de 25 km de diamètre, le Ries Kessel, qui avait été considéré jusqu’à l’année dernière comme ayant une origine volcanique. Des recherches récentes d’Edward
- Route moderne vers l’Amazonie
- La B. I. R. D. et le gouvernement américain ont récemment accordé un prêt de 10 millions de dollars (50 millions NF) au Pérou en vue de l’amélioration du réseau routier de ce pays. Notamment il est envisagé de construire une route moderne, entièrement asphaltée et large de 6 m en moyenne, reliant l’Amazonie péruvienne à Lima et à la côte ; -cette route serait utilisable en toute saison (la saison des pluies dure ici de 3 à 6 mois), et permettrait l’exportation de produits forestiers tels que le bois d’acajou, le caoutchouc naturel, les bois d’œuvre. On évalue à 165 000 000 m3 le cubage de bois susceptible d’être ainsi transporté vers la côte aux alentours des années 1970 (au lieu de xoo actuellement). L’achèvement de la route est prévu pour 1966.
- T. C. Chao, de FU. S. Geological Survey, montrent qu’il contient une forme spéciale de silice due à de hautes pressions, la coésite, dont la présence indiquerait clairement que le cratère provient de l’impact d’une météorite. D’autre part, les tectites de Tchécoslovaquie sont répandues dans une bande étroite qui commence à 240 km à l’est du cratère et s’en éloigne ensuite jusqu’à une distance de 400 km. Cette bande s’élargit suivant un angle de 10 degrés centré sur le Ries Kessel. D’après les recherches d’A. J. Cohen, la forme aérodynamique et la composition chimique des tectites varient à mesure qu’augmente leur distance du cratère, en allant vers l’est. Ceci s’accorderait avec le fait que les tectites les plus éloignées du centre d’impact ont dû être projetées à plus grande vitesse et monter plus haut dans l’atmosphère. De plus, l’âge de ces tectites (9 millions d’années) semble être le même que celui du cratère dont l’étude géologique indique qu’il remonterait à l’époque miocène, vers le milieu de l’époque tertiaire.
- Un autre champ de tectites, d’âge encore inconnu, s’étend au long de la Côte-d’Ivoire sur une distance de 240 km. Il s’élargit suivant un angle de 12 degrés centré sur un lac situé au Ghana. Il semble que ce lac soit un ancien cratère de météorite, maintenant rempli par les eaux. Les tectites du Texas auraient pour origine un cratère noyé dans le Golfe du Saint-Laurent, tandis que les tectites d’Australie proviendraient d’un cratère du Sud de la Chine. Il faudrait admettre que celui-ci était énorme.
- Des recherches par avion seraient susceptibles de le délimiter, s’il existe. On sait que les photographies aériennes font souvent découvrir des structures que l’érosion ou les apports de terrain cachent complètement à un observateur placé au sol.
- Si les tectites étaient d’origine lunaire, elles devraient toujours paraître avoir subi une double fusion : d’abord quand elles auraient été arrachées à la Lune, ensuite à leur traversée de l’atmosphère terrestre. Comme, en dehors des tectites d’Australie, une fusion simple paraît la règle générale, il ne reste en présence que l’hypothèse de nuages de météorites, de provenance cométaire ou planétaire, et l’hypothèse de l’origine terrestre développée par Cohen. Celle-ci a l’avantage de rendre compte à la fois d’une fusion simple et d’une fusion double, selon la hauteur à laquelle les matériaux ont été projetés.
- J. F.
- Régions diamantifères en U. R. S. S.
- La Nature (septembre 1958, p. 374) a déjà parlé d’une vaste province diamantifère existant en Sibérie. La revue soviétique Priroda signale que de nouvelles régions diamantifères viennent d’être découvertes et prospectées sur le territoire de l’Union Soviétique. Il s’agit notamment de la partie centrale de l’Oural, du Caucase du Nord, de la presqu’île de Kola et, surtout, de l’Ukraine occidentale. Dans cette dernière région, où l’on rapporte que des diamants furent trouvés déjà dans l’antiquité, les prospections récentes semblent confirmer l’existence de filons de kimberlite, particulièrement dans le bassin du Dniepr, du Dniestr et du Boug du Sud (la kimberlite est la roche qui forme l’essentiel des célèbres cheminées diamantifères de l’Afrique du Sud).
- 390
- p.390 - vue 389/560
-
-
-
- Les « tables vibrantes » expliquent-elles les « nappes de charriage » ?
- Le premier semestre de i960 a été marqué par une série de tremblements de terre qui ont fait beaucoup de victimes et l’on s’est demandé si l’on assistait à une recrudescence de l’activité séismique de l’ensemble du globe. En fait, le nombre des victimes a été dû surtout à un concours de circonstances malheureuses, au fait que des secousses se sont produites à proximité de villes populeuses et où les constructions étaient très fragiles et défectueuses. Seuls les séismes qui se sont produits en mai et juin au Chili peuvent être comparés aux plus grandes secousses notées dans le passé. D’après les inscriptions de ses séismographes, M. Rothé, directeur de l’Institut géophysique de Strasbourg, a pu montrer que les six secousses qui se sont échelonnées, au Chili, entre le 21 mai et le 20 juin i960 ont développé une énergie totale qui a été 13 000 fois plus grande que celle du séisme d’Agadir qui, le 29 février précédent, avait fait plus de 10 000 victimes (voir La Nature, septembre i960, p. 378-387).
- Le Chili est une région particulièrement instable où deux dizaines de volcans régulièrement échelonnés sur le versant occidental de la Cordillère des Andes sont encore en activité. Ces volcans font partie du fameux cercle de feu du Pacifique. Ils se placent tous à cent kilomètres environ de la côte et, très près de cette côte, le fond de l’Océan est sillonné de fosses très profondes. C’est un compartiment de la Terre qui est en voie de remaniement et qui pour cette raison intéresse particulièrement les géologues, les géophysiciens, les vulcanologues.
- On ne s’étonnera donc pas que M. Haroun Tazieff, professeur à l’Université de Bruxelles, célèbre spécialiste de l’étude des volcans, se soit rendu au Chili à la suite des récents séismes, car l’activité volcanique et la séismicité ne sont évidemment que deux aspects d’un même problème. M. Tazieff a fait à cette occasion des constatations qui sont extrêmement intéressantes au point de vue de la tectonique, c’est-à-dire de cette partie de la géologie qui tente de reconstituer la genèse des mouvements de l’écorce terrestre. Dans une note à l’Académie des Sciences de Paris (t. 251, n° 20) et dans le Bulletin de la Société belge de Géologie (t. LXIX, fasc. 3) l’éminent géologue et vulcanologue a montré que des glissements de terrain d’une ampleur considérable pouvaient se produire lors d’un violent tremblement de terre comme celui du Chili et que ces glissements se faisaient probablement selon un processus qui n’avait pas été soupçonné.
- Pour comprendre la portée de cette observation, il est indispensable de se rappeler l’importance que les géologues ont attribuée, depuis le début de ce siècle, à ce qu’on appelle les nappes de charriage. Cette notion a surtout été développée par le géologue français Marcel Bertrand pour expliquer la position de certains terrains dans la structure très compliquée que nous présentent les Alpes. En résumant très grossièrement le phénomène, on peut dire qu’une chaîne de montagnes est formée par un soulèvement
- d’un compartiment de l’écorce tandis que, sous l’effet de compressions latérales, les terrains qui le composent sont énergiquement plissés. Lorsqu’un pli est très soulevé en même temps que serré, il peut se coucher et même se rompre, de sorte que la partie soulevée peut se détendre alors, un peu comme un arc, et aller s’étendre sur le pli voisin. On peut ainsi retrouver superposées deux tranches des mêmes terrains qui auparavant se faisaient suite horizontalement. Des portions considérables de terrains peuvent ainsi se trouver déportées de plusieurs kilomètres et même davantage.
- Les géologues qui ont dû reconnaître ce fait n’en ont pourtant pas complètement expliqué les causes. On constate qu’une portion de terrain s’est déplacée, souvent très loin, mais l’énergie des plissements ne peut à elle seule en rendre compte. Les nappes de charriage ont d’abord été attribuées à l’effet de poussées latérales. Plus récemment, on a imaginé qu’une nappe de charriage, au moins dans nombre de cas, devait avoir glissé sous l’effet de la pesanteur. La chose est vraisemblable si les terrains présentaient une certaine pente et si la surface de glissement était faite de matériaux d’une certaine fluidité, comme par exemple une couche d’argile. Mais dans beaucoup de cas ces conditions étaient bien douteuses. Pourtant la généralité du phénomène des grandes nappes de charriage ne peut faire aucun doute.
- Les déplacements de terrain du séisme chilien de i960
- C’est ici précisément qu’intervient l’observation faite au Chili par M. Haroun Tazieff.
- A 200 kilomètres environ de l’épicentre sous-marin du séisme chilien du 22 mai i960, de nombreuses avalanches, arrachements et glissements de terrains se sont produits dans une vaste région, dans les contreforts de la Cordillère, entre les parallèles 39030' et 41030' approximativement. Certaines avalanches sont descendues sur plusieurs centaines de mètres de dénivellation et ont acquis de ce fait une force vive susceptible d’entraîner ces masses très loin sur la surface presque horizontale du fond de la vallée. C’est là un phénomène assez ordinaire. Mais M. Tazieff a constaté aussi que des arrachements de terrain, affectant des masses qui pouvaient aller jusqu’à plusieurs millions de mètres cubes chacune, étaient survenus à des hauteurs très faibles au-dessus du fond d’une vallée, 100 m ou même 40 m à peine, et pourtant ces masses énormes de terrain ont continué leur déplacement sur une grande longueur, et sur fond horizontal.
- M. Tazieff a comparé ces faits à ceux que l’on peut observer dans un éboulement normal d’une falaise. Dans ce dernier cas, on constate que les éboulis peuvent s’étendre à une distance qui représente d’une fois et demie à près de
- 391
- p.391 - vue 390/560
-
-
-
- deux fois la hauteur de chute. Si le terrain est en pente, cette proportion peut naturellement être plus forte. Ainsi une avalanche de séracs sur le glacier des Bossons, se faisant sur une pente de 16 degrés, a été notée s’étendre à deux fois et demie la hauteur de chute ; et ici les matériaux étaient particulièrement propres pour un glissement facile. Or les glissements de terrains constatés au Chili, sur des fonds presque parfaitement horizontaux, ont atteint couramment cinq fois et dix fois la hauteur d’où provenaient ces terrains. M. Tazieff a noté en outre que les sols ainsi arrachés et déportés au loin étaient à l’origine cohérents et parfaitement secs, donc nullement lubrifiés par des eaux d’infiltration.
- Choc initial et vibrations
- Quel mécanisme peut avoir présidé à de tels déplacements qui atteignent jusqu’à i ooo m à l’horizontale pour une chute de ioo m au maximum ? M. Haroun Tazieff envisage « d’une part, la composante horizontale du choc séismique et, d’autre part, un effet de vibration prolongé susceptible d’entretenir le mouvement amorcé par le choc ». Le phénomène s’apparente donc à celui des déplacements d’objets qui s’observent sur des « tables vibrantes ».
- Les ondes séismiques comprennent des ondes de compression, des ondes de cisaillement et des ondes superficielles. Les premières ne peuvent avoir qu’une faible composante horizontale. Ondes de cisaillement et ondes superficielles ont pu au contraire provoquer une oscillation tangentielle de grande violence, et on peut calculer que l’accélération a été suffisante en la circonstance pour provoquer de grands arrachements de terrain. Mais, eût-elle été dix fois plus forte, elle ne saurait avoir propulsé à plusieurs centaines de mètres les terrains arrachés.
- Premier enregistrement direct d’une secousse sismique sous-marine
- Il faut alors faire intervenir la durée de la secousse. La violente impulsion horizontale ou oblique a été accompagnée de vibrations intenses pendant plus de 200 secondes et ce sont ces vibrations qui ont fourni le surcroît d’énergie nécessaire à la translation. « L’arrivée successive et ininterrompue de trains d’ondes de forte amplitude et de courte période (ondes directes, réfractées et réfléchies) pendant plus de 3 minutes, aura provoqué un effet de « table vibrante » à grande échelle, et ceci explique fort bien le mécanisme et l’importance des translations horizontales constatées. »
- Les constatations faites au Chili sont d’autant plus instructives que les conditions qui régnaient dans la région n’étaient pas des plus favorables à de grands glissements de terrains : « la distance à l’épicentre était de plus de 200 km, les roches étaient sèches, la surface de réception des avalanches était horizontale ».
- Supposons au contraire que les couches impliquées dans un tel phénomène soient très lubrifiées, comme ce serait le cas dans un milieu marin, que le séisme soit plus intense et plus durable encore et qu’il affecte des sédiments reposant sur la pente d’une fosse ou d’un canyon sous-marin ; il faut bien admettre que dans ces conditions les terrains seraient charriés à des distances considérablement plus grandes. Or il n’est pas invraisemblable que ces conditions se soient fréquemment rencontrées au cours de la surrec-tion des Alpes. Les nappes de charriage de xo kilomètres et davantage seraient ainsi expliquées.
- M. Haroun Tazieff annonçait que des expériences seraient entreprises à ce sujet au laboratoire. On verrait alors si les propriétés des tables vibrantes sont telles que l’ingénieuse hypothèse puisse être définitivement retenue.
- J. G.
- Le sucre
- poison violent pour les Nématodes
- Une information du Centre culturel américain nous apprend qu’en immergeant au large des Bermudes, à 5 600 m de profondeur, un sismographe à l’intérieur d’un caisson étanche, des géologues américains sont parvenus à enregistrer directement pour la première fois une secousse sismique sous-marine.
- Cette technique devrait ouvrir de nouvelles perspectives à la recherche océanographique et à la séismologie. En effet!, de nombreuses secousses sismiques enregistrées par les stations installées dans les îles n’atteignent pas les stations continentales ; on peut penser qu’il en est d’autres qui ne parviennent même pas jusqu’aux îles et passent donc inaperçues.
- L’emploi généralisé des sismographes immergés permettra, semble-t-il, de déceler en plus grand nombre les secousses qui prennent naissance au fond des océans et de déterminer s’il existe une véritable barrière qui s’oppose au passage des ondes sismiques des parties océaniques aux parties terrestres du globe. S’il en était ainsi, ce serait une nouvelle preuve de la division de la croûte terrestre en masses continentales et océaniques bien distinctes.
- Selon une information communiquée par le Centre culturel américain, un spécialiste en pathologie végétale du Laboratoire d’horticulture d’Orlando (Floride), W. A. Feder, vient de découvrir que le sucre constituait un poison violent pour les vers ronds, ou nématodes, qui vivent en parasites sur les plantes et les arbres et font le plus grand tort aux cultures.
- M. Feder avait ajouté du sucre de canne à un sol afin de savoir si les nématodes s’en nourrissaient. Dès le lendemain, il s’aperçut qu’un grand nombre de ces vers avaient disparu. Une série d’expériences destinées à élucider cette mystérieuse disparition permit de constater que si les vers se nourrissaient, sans dommage pour eux, d’une solution à faible teneur en sucre, une solution plus concentrée les tuait en les déshydratant et en les réduisant littéralement en poussière, au point qu’il était impossible d’en trouver trace au microscope après qu’ils eurent été aspergés d’eau sucrée. La concentration en sucre varie en fonction du degré d’humidité du sol. Il est ensuite possible, par des lavages, de débarrasser le sol du sucre qu’il contient lorsque sa présence risque de nuire aux cultures qui y sont pratiquées.
- 392
- p.392 - vue 391/560
-
-
-
- Le gisement de la Gravette
- qu on pouvait croire épuisé
- recélait les vestiges
- de trois civilisations paléolithiques
- Les recherches de préhistoire ont fait dans les dernières années des progrès substantiels. On le doit essentiellement au fait que des méthodes rigoureuses ont été adoptées dans la pratique des fouilles et à la collaboration étroite que les préhistoriens ont instaurée avec différents spécialistes, géologues, zoologistes, botanistes.
- Malheureusement de nombreuses stations où vécurent les hommes de la préhistoire ont été pillées plutôt qu’exploitées jusqu’à des temps encore récents. Ceux qui les fouillaient, sans précautions suffisantes, se sont parfois préoccupés davantage de monnayer leurs trouvailles que de faire avancer la science. Ce fut le cas par exemple pour la station de la Gravette, une des nombreuses stations proches de la vallée de la Dordogne qui font partie de ce riche ensemble que les préhistoriens ont nommé la « province des Eyzies ».
- Entre 1880 et le début du xxe siècle, des fouilles sans méthode y furent pratiquées et on pouvait croire que le gisement était épuisé. Cependant, un préhistorien auquel on devait déjà quelques travaux remarquables, M. Fernand Lacorre, s’était persuadé que l’abri sous roche de la Gravette et ses abords immédiats devaient encore contenir d’intéressants documents.
- Au prix de mille difficultés, il y entreprit en 1930 de nouvelles fouilles qui devaient s’échelonner sur 15 ans. L’important ouvrage que M. Lacorre a récemment publié (1) apporte une moisson de données nouvelles qui justifient largement cet effort. La Gravette apparaît comme un lieu de séjour intermittent où plusieurs races préhistoriques se
- 1. La Gravette, le Gravêtien et le Bayacieti, par Fernand Lacorre, ouvrage publié avec le concours du C. N. R. S., i960. 1 vol. 22,5 X 28, 370 p., 26 fig., 89 planches de dessins. Chez l’Auteur, Les Eyzies, Dordogne.
- sont succédé, laissant les traces révélatrices d’autant de civilisations nettement différentes et révélant, selon l’auteur, des aspects inconnus jusqu’ici des migrations humaines dans la première période du Paléolithique supérieur.
- L’abri sous roche de la Gravette se trouve sur la rive droite de la petite vallée de la Couze, affluent de la Dordogne. Petite vallée étroite et sinueuse, bordée de falaises et riche en sources, dans laquelle plusieurs habitats préhistoriques ont été décelés. M. Lacorre montre que le confluent de la Dordogne et de la Couze a dû être le point d’aboutissement d’une grande voie de migrations durant le Paléolithique.
- On sait que l’Homme de Neandertal est l’auteur de l’industrie moustérienne qui forme le Paléolithique moyen. A cette industrie succède la série des industries bien plus perfectionnées du Paléolithique supérieur, qui sont le fait de YHomo sapiens, c’est-à-dire de notre espèce. Trois grandes civilisations se succèdent au Paléolithique supérieur : Aurignacien, Solutréen, Magdalénien. Cependant sous le nom d’Aurignacien on réunit ainsi deux types de civilisation distincts qu’il est pourtant nécessaire de bien séparer : il y a l’Aurignacien typique, le vrai Aurignacien, et il y a le Périgordien. A ces deux industries correspondent deux populations et peut-être même deux races qui ne se sont pas mélangées quoique sans doute elles aient coexisté il y a 30 à 40 000 ans dans nos régions. En beaucoup d’endroits, comme à la Gravette, on les voit occupant le terrain successivement sans avoir eu apparemment aucun contact. Dans l’ensemble du territoire, les Périgordiens sont arrivés les premiers. Ce sont les hommes de Combe-Capelle, sans doute les premiers Homo sapiens qui soient parvenus dans nos régions, venant probablement d’Asie. L’industrie qui les caractérise au
- Fig. 1. — Grattoirs auri-gnaciens de la Gravette. Les grattoirs et racloirs « carénés » sont typiques de l’Aurignacien classique. Ces outils de silex ont été trouvés par M. Lacorre dans le niveau le plus inférieur, donc le plus ancien, du site de la Gravette. X 875/1 OOO.
- (Dessins de J. Bouyssonie),
- 393
- p.393 - vue 392/560
-
-
-
- Fig. 2. — Fléchettes du Bayacien de la Gravette, à base et pointe retouchées.
- Ces fléchettes très délicates, montées sur tige ou roseau, ne pouvaient servir que pour abattre des oiseaux ou de petits animaux. X 875/1 000.
- (Dessins de J. Bocyssonie).
- début évoque encore le Moustérien des Hommes de Neandertal, mais ils ont apporté avec eux une technique nouvelle, celle des gros éclats de silex abattus au sommet en retouches abruptes et façonnés de manière à donner une espèce de couteau.
- Une deuxième phase du Périgordien est marquée par l’industrie trouvée à Châtelperron dans l’Ailier. Les lames de silex sont moins larges et leur dos est abattu, c’est-à-dire que la lame est coupante d’un seul côté, l’autre ayant été l’objet de retouches perpendiculaires qui suppriment le tranchant.
- Enfin, dans une troisième phase on voit la technique s’affiner encore et le dos abattu de la lame devenir rectiligne. C’est le Périgordien de la Gravette, l’industrie pour laquelle M. Lacorre propose le nom de Gravétien.
- Mais entre temps, d’autres hommes ont séjourné dans ces mêmes régions et ce sont les auteurs de l’Aurignacien classique. Cette industrie diffère beaucoup du Périgordien qui l’a précédée comme de celui qui l’a suivie. Les outils de silex sont d’un type tout à fait différent et ils s’accompagnent d’un très riche outillage en os. Enfin ces hommes étaient des artistes qui nous ont laissé de leur art de nom-
- breux vestiges, tandis que les Périgordiens, avant comme après, ne satisfaisaient leur souci esthétique que dans la perfection de leurs outils.
- On connaissait donc, tiré de l’abri de la Gravette, un Périgordien évolué, dit Périgordien IV, et on n’y avait trouvé rien d’autre. Au cours de ses fouilles, M. Fernand Lacorre a retrouvé de cette industrie une collection beaucoup plus riche et même vraisemblablement complète.
- Mais il a étendu ses recherches dans les strates sous-jacentes et il a mis au jour deux niveaux qui y étaient inconnus jusqu’ici. Entre chacun de ces niveaux existaient des couches stériles (c’est-à-dire sans aucun vestige humain) qui témoignent du fait que les occupations du site se sont produites à de grands intervalles de temps. Au-dessous de ce qu’on appelait le Périgordien IV et qu’il appelle le Gravétien, il a trouvé une industrie tout à fait originale à laquelle il a donné le nom de Bayacien, du nom de la commune de Bayac où se trouve le site de la Gravette. Et au-dessous encore, il a trouvé un niveau aurignacien, livrant le type d’industrie le plus évolué de l’Aurignacien classique.
- Maintenant il faut replacer ces vestiges, comme le fait
- Fig. 3. — L’outil catactéristique du Gravétien : la lame de silex à bord abattu rectiligne.
- De cette sorte de couteau dont un côté a gardé son bord tranchant et dont l’autre a été abattu par des retouches abruptes (perpendiculaires au bord) l’artisan pouvait faire la pointe d’une lance, d’un javelot ou d’une grande flèche. Il en existe de plus grands modèles. X 875/1000.
- (Dessins de J. Bouyssonie).
- 394
- p.394 - vue 393/560
-
-
-
- M. Lacorre, dans le cadre très bien précisé du climat et de l’environnement biologique. Toutes ces occupations humaines du site de la Gravette se situent pendant une période relativement courte (quelques millénaires) de la dernière glaciation, la glaciation de Wiirm, et pendant une période où le climat, d’abord momentanément réchauffé, n’a cessé de devenir plus froid.
- Au temps des derniers Aurignaciens véritables dont M. Lacorre a retrouvé les outils dans le niveau inférieur, le climat est celui de la steppe ; avec de nombreuses graminées on voit dominer l’Aune et le Noisetier au milieu d’une végétation dont l’analyse des pollens nous révèle la composition. Pour faire leurs outils, les hommes aurignaciens, qui appartiennent à la race de Cro-Magnon, emploient le silex qu’ils trouvent sous leurs pieds mêmes, ce que M. Lacorre appelle le silex local, qui n’est pas d’ailleurs de la première qualité. Puis ces hommes ont disparu, du moins de cette station.
- Des siècles se sont écoulés et le climat s’est beaucoup rafraîchi. Au milieu des graminées, le bouleau et le noisetier dominent, le pin se répand. Les chevaux se font plus rares tandis que le renne commence à prédominer ; on trouve trace de mammouth. Alors arrivent, toujours de l’est, des hommes dont la race nous est inconnue. Ils ne sont restés là que quelques années et sont allés on ne sait où. Ils ont apporté avec eux et laissé derrière eux une industrie qui offre apparemment une contradiction étrange. D’une part ce sont des fléchettes, des pointes de flèche, évidemment destinées à être fixées sur des roseaux ou des tiges et qui sont travaillées avec un soin extraordinaire. Pour cela ces hommes ne se sont pas contentés du silex local ; ils sont allés chercher un peu plus loin un silex de meilleure qualité. Et d’autre part le reste de leur industrie de pierre, quoique très varié et témoignant d’une grande ingéniosité, frappe par son aspect quelque peu négligé. Les fléchettes de cette industrie avaient déjà été trouvées en plusieurs autres stations mais nulle part accompagnées des autres outils. L’ensemble méritait l’attribution d’un
- nom spécial et M. Lacorre l’a nommé Bayacien. Depuis lors cet ensemble a été retrouvé dans une seule station, à Unter-Wistowitz, en Moravie. M. Lacorre voit dans cette industrie certaines affinités avec le Périgordien de Châtel-perron, mais leur origine commune se situe certainement hors de France et probablement loin dans l’Est. La nouveauté capitale est la flèche, qui implique l’invention de l’arc. La fragilité de cette flèche indique qu’elle ne devait servir que pour abattre les oiseaux. Les Bayaciens se nourrissaient aussi de gros animaux, cheval et surtout renne, dont on retrouve les vestiges dans leur habitat ; mais l’absence d’armes puissantes dans leur industrie doit faire supposer qu’ils s’en emparaient dans des pièges.
- Trois ou quatre années ont passé et la Gravette est de nouveau inoccupée, pour des siècles encore sans doute. Le climat devient encore plus froid, mais le froid n’est ni assez rude ni assez constant pour détruire toutes les essences tempérées : saules, aunes, charmes, tilleuls subsistent à côté des arbres du Nord, bouleau, pin, noisetier. Il en est de même pour la petite faune ; mais le renne domine désormais parmi les gros herbivores. Il est représenté à la fois par le renne de la toundra et celui de la forêt : le renne de toundra, qui en été émigrait plus au nord, devait être chassé d’octobre à avril ; le renne de forêt le remplaçait de mai à septembre.
- Les hommes qui alors ont occupé la Gravette, pour une trentaine d’années peut-être, il y a environ 25 000 ans, apportaient une industrie à la fois robuste et fine, où figurent des modèles extrêmement variés d’outils de silex pour le travail du bois et du cuir, l’attaque des grands animaux, le découpage de la viande, avec quantité d’objets de parure en coquillages, des pierres gravées ou creusées pour faire des lampes, des os coupés, raclés, percés, gravés, taillés pour faire des bâtons, des supports de flèche, des hameçons, enfin des bois et dents de renne également travaillés de façons diverses. L’outil le plus caractéristique est la grande lame à dos rectiligne, abattu par des retouches abruptes,
- Fig. 4. — Grattoirs-tranchets gravétiens.
- Ce type de large et beau grattoir à bord tranchant, qui pouvait servir, entre autres usages, à couper la viande et à gratter le cuir, est, comme la lame de la figure 3, un •outil caractéristique du Gravétien. L’outillage de silex comprenait cependant bien d’autres instruments : coutelas, ra-cloirs, perçoirs, burins, pointes à cran, poignards, épieux, x 875/1 000. Dessins de J. Bouyssonie).
- 395
- p.395 - vue 394/560
-
-
-
- qui représente un perfectionnement du couteau de Châtel-perron. C’est donc un stade très évolué du Périgordien mais l’ensemble méritait, selon M. Lacorre, de recevoir une dénomination spéciale et il l’a appelé Gravétien. Il a retrouvé toute cette industrie dans le Sud tunisien, à Aïn Meterchem, associée à un squelette humain que ses caractères rapprochent de l’Homme de Combe-Capelle.
- Ainsi, au début du Paléolithique supérieur, deux populations au moins d’Homo sapiens, toutes deux venues de l’Orient, auraient occupé nos régions : celle de Combe-Capelle qui, dans ses migrations successives, a apporté des nouveautés techniques dans le cadre général des industries de type périgordien (Bayacien et Gravétien s’y rattachent) et celle deCro-Magnon, qui a introduit et perfectionné sur place la remarquable civilisation aurignacienne et qui plus tard introduira d’autres nouveautés, notamment l’industrie et l’art magdaléniens.
- Les dénominations spéciales de Bayacien et de Gravétien conférées par M. Fernand Lacorre aux deux plus récents
- niveaux du site de la Gravette semblent se justifier, non seulement par l’originalité de leurs apports techniques, mais aussi par le particularisme que l’on peut prêter à ces petits groupes humains, qui, tout au moins dans nos régions et quoique ayant de lointaines origines communes, semblent avoir gardé un isolement étroit et refusé de se mélanger à tout autre.
- En les replaçant dans leur cadre, en reconstituant leurs mœurs par les détails caractéristiques de leur industrie, il les a fait revivre pour nous.
- Mais le consciencieux préhistorien a fait mieux encore. Devenu propriétaire d’une grande partie du site de la Gravette, classé monument historique, il l’a légué au Musée des Antiquités nationales avec ses collections et il a réservé une partie du gisement qui ne devra être exploitée que dans cinquante ans, dans la pensée que ses successeurs bénéficieront de progrès scientifiques qui permettront alors d’en tirer un parti encore meilleur.
- Paul Ostoya.
- Le Dyna-Soar
- véhicule piloté intermédiaire
- Le véhicule le plus rapide dans lequel un homme ait jamais pris place est actuellement l’avion-fusée expérimental North-American X-15 qui a atteint 4 600 km/h à très haute altitude. Mais les progrès de l’astronautique permettent maintenant d’envisager de soustraire un homme à la pesanteur terrestre. Deux types de projets s’affrontent alors : les projets du type Mercury, concernant un satellite de grande dimension emportant un passager, et le projet de véhicule orbital piloté qui planera dans les hautes couches de l’atmosphère.
- Alors que les Russes, d’après les informations que l’on possède, semblent avoir axé tous leurs efforts sur le projet de satellite, avec leurs différents vaisseaux cosmiques, les Américains, parallèlement au projet Mercury, ont mis à l’étude le « Dyna-Soar » qui prolongera en quelque sorte l’aviation classique, et qui pourra jouer le rôle de bombardier, capable de porter une bombe atomique en n’importe quel point du globe, après avoir gravité sur une orbite terrestre. L’appareil doit être lancé dans l’espace par un engin balistique intercontinental Titan ; après quoi ses évolutions pourront être commandées par le pilote.
- Les premières études effectuées à la soufflerie Ames du N. A. S. A., organisme de recherches aéronautiques et spatiales américain, avaient montré que les ailes d’un planeur hypersonique devraient avoir un bord d’attaque arrondi à forte flèche, afin de réduire réchauffement. La forme adoptée en définitive pour l’aile est un delta de faible allongement (l’allongement est le rapport du carré de
- entre Vavion et le satellite
- l’envergure à la surface). Cette aile est surmontée d’un fuselage assez court de section rectangulaire, et lui aussi à nez arrondi. Les gouvernes se réduisent à des élevons montés en arrière de l’aile, qui peuvent jouer à la fois le rôle d’ailerons ou de gouvernes de profondeur, et deux gouvernails montés sur des dérives de bouts d’aile ; elles servent pour le vol dans la basse atmosphère.
- Revenons sur les problèmes d’échauffement qui constituent évidemment les plus délicats auxquels aient à faire face les techniciens chargés de l’étude. Les calculs ont en effet montré que le Dyna-Soar traverserait les zones d’échauffement maximal à des vitesses comprises entre 19 000 et 24 000 km/h. On voit par l’énoncé de ces simples chiffres quel progrès cela suppose par rapport à l’avion-fusée North-American X-15, qui a atteint 4600 km/h à très haute altitude. Rappelons aussi que la vitesse orbitale, c’est-à-dire la vitesse à laquelle la force centrifuge équilibre le poids d’un engin de telle sorte qu’il décrive une orbite autour de la Terre, est de 28 000 km/h.
- La rentrée dans l’atmosphère pourrait alors s’effectuer suivant l’une des deux méthodes suivantes :
- — Soit garder toujours la même altitude de vol, le pilote ne touchant absolument pas aux commandes ; dans ce cas, l’avion tombe jusqu’à ce que l’atmosphère soit assez dense pour le porter, et il rebondit ensuite suivant en quelque sorte une trajectoire en ricochets, analogue à celle d’une pierre plate jetée au ras de l’eau.
- — Soit régler la vitesse et l’altitude de vol au moyen des gouvernes, de telle sorte que la portance aérodyna-
- 396
- p.396 - vue 395/560
-
-
-
- mique s’ajoute à la force centrifuge pour équilibrer le poids ; dans ce cas, le planeur peut suivre une trajectoire rectiligne sans ondulations.
- Durant les quelques minutes où le planeur hypersonique traversera l’atmosphère, la quantité d’énergie calorifique dégagée atteindra 35 millions de kilocalories, ce qui serait évidemment suffisant pour vaporiser entièrement l’appareil. Fort heureusement une faible partie seulement de cette énergie sera transmise à la structure, la majeure partie étant dissipée à travers l’atmosphère dans des ondes de choc. Toutefois, cet échauffement sera plus grand que pour les satellites rentrant directement dans l’atmosphère, et comme pour ces derniers il faudra prévoir des revêtements spéciaux ayant un pouvoir réflecteur maximal. Dans le cas du Dyna-Soar, les zones d’échauffement maximal seront le nez du fuselage, les bords d’attaque des ailes et des dérives verticales. En ces points, même les super-alliages réfractaires ne pourront supporter les températures atteintes, et il faudra avoir recours aux techniques &ablation qui consistent, rappelons-le, à utiliser une masse importante de matériaux à chaleur de fusion élevée et à absorber la chaleur due au frottement de l’air au moyen de la fusion d’une partie de ces matériaux. Il semble que le matériau « ablatif » adopté sera le graphite qui présente l’avantage de se sublimer au lieu de fondre, c’est-à-dire de passer directement de l’état solide à l’état de vapeur ; la chaleur absorbée par unité de poids est alors beaucoup plus grande que dans une simple fusion.
- Pour les parties les moins chaudes de la structure, on s’oriente vers des alliages de niobium et de molybdène, mais ces alliages se détériorent lorsqu’ils sont soumis à un jet de plasma chaud, conditions qui seront réalisées lors de la rentrée dans l’atmosphère (le plasma étant constitué par les molécules d’air heurtées à grande vitesse). Il faut alors recouvrir ces matériaux de revêtements qui résistent à ces conditions, et ceux qui se sont montrés les meilleurs sont à base de silicones ; leur épaisseur varie de o,z à 0,3 mm et ils peuvent supporter des températures de 1 700° C pendant 2 heures ou de 1 900° C pendant 15 minutes.
- D’autres problèmes délicats devront être résolus avant que le Dyna-Soar puisse voler avec toutes les assurances de sécurité nécessaires. Parmi les plus importants, signalons le conditionnement d’air dans la cabine d’un avion porté à des températures aussi élevées, et la mise au point du moteur auxiliaire qui doit fournir l’énergie hydraulique et l’énergie électrique nécessaires aux commandes et aux divers équipements. D’après les derniers renseignements, ce moteur consisterait en une turbine mue par les gaz issus de la réaction entre de l’oxygène et de l’hydrogène liquides, ces gaz pouvant encore servir après leur sortie de la turbine à gouverner l’appareil, par éjection à travers des orifices percés en bouts d’aile, ainsi qu’au nez et à la queue du fuselage.
- Les essais actuels qui se déroulent au Cap Canaveral portent sur des lancements de maquettes au moyen de fusées porteuses. Les premiers largages à partir d’un avion B-52 devraient intervenir dans le courant de 1962 ; ils serviraient à étudier la stabilité de l’appareil aux basses vitesses. Puis un petit moteur-fusée sera ajouté pour l’étude du vol aux vitesses supersoniques, avant de passer aux premiers essais avec engin porteur Titan. Les premiers se feront sans pilote ; les premiers vols pilotés interviendront
- Fig. 1. — Dessin d’anticipation montrant le Dyna-Soar au moment de son futur lancement au sommet d’une fusée Titan.
- (Dessin de F. E. Fahdt, photo Martin Company).
- vraisemblablement vers 1964. Le principal intérêt du Dyna-Soar consistera, après avoir effectué sa rentrée dans l’atmosphère, à pouvoir voler comme un avion ordinaire et choisir son point d’atterrissage ou son objectif de bombardement dans le cas d’applications militaires. Parmi des applications moins immédiates, signalons le transport entre la Terre et des stations spatiales situées sur des orbites circumterrestres.
- Enfin, il est question d’améliorer les performances de l’ensemble Titan-Dyna-Soar en le larguant à une altitude d’environ 20 000 mètres à partir d’un bombardier B-70 « Valkyrie », lorsque ce dernier sera entré en service.
- Jacques Spincourt.
- 397
- p.397 - vue 396/560
-
-
-
- L’ACTUALITÉ INSTRUMENTALE
- Mesucora et la 58e Exposition de la Société française de Physique (suite)
- par Robert Rosset
- Le calculateur analogique « Analac »
- Les temps ont bien changé depuis l’époque où l’ingénieur ne disposait comme auxiliaires de sa connaissance des mathématiques que de la règle à calcul et de la table de logarithmes. Aujourd’hui, deux types bien distincts de machines à calculer lui apportent une aide puissante : les machines arithmétiques et les machines analogiques. Il n’est peut-être pas inutile de rappeler les principes très différents sur lesquels opèrent ces deux instruments.
- Les calculatrices numériques constituent en quelque sorte des versions mécanisées d’un bureau de calcul, capables d’effectuer automatiquement la totalité d’un calcul numérique. Elles accomplissent conformément à un programme pré-établi, introduit et mis en mémoire dans la machine,
- 1. Une première série de comptes rendus de cette exposition a été donnée dans notre numéro de juillet (p. 306-315).
- des séquences de calculs qui ramènent l’exécution de toutes les opérations mathématiques à des suites d’additions et de décisions logiques. Ainsi, les équations différentielles sont remplacées par des équations aux différences finies, les intégrales par des sommes finies, etc. Par suite, ces machines peuvent résoudre n’importe quel problème du moment qu’il est arithmétisable. Quant à la précision, elle est pratiquement infinie puisqu’elle n’est limitée que par le nombre de chiffres significatifs des nombres traités.
- Les calculateurs analogiques opèrent suivant un principe totalement différent. Ils constituent des modèles, des systèmes physiques étudiés. Les variables mathématiques y sont représentées par des grandeurs physiques, telles que des tensions électriques qui leur sont proportionnelles. Les opérations mathématiques élémentaires, addition, intégration, différentiation, etc., y sont effectuées
- p.398 - vue 397/560
-
-
-
- Fig. 2. — Le calculateur analogique Analac.
- On distingue à l’arrière-plan les différents blocs fonctionnels qui constituent le calculateur. Au premier plan, le traceur XY permet l’enregistrement des courbes et leur exploitation immédiate.
- {Photo René Bouillot, C. S. F.).
- par des organes électriques plus ou moins spécialisés. Il suffit alors pour résoudre un système d’équations donné de connecter entre eux les organes convenables de manière à réaliser un système qui soit précisément régi par ces équations. Ils se prêtent donc facilement en cours de calcul à un changement des données (par modification des affichages) et permettent de répéter autant de fois qu’on le veut l’expérience pour parvenir à la solution optimale. On peut ainsi « simuler » en laboratoire des essais dont la réalisation pratique serait longue et onéreuse. Par contre, la précision est limitée à des valeurs de l’ordre du pour-cent par celle des organes de calcul qui constituent le calculateur.
- Le calculateur Analac ioi de la C. S. F. possède évidemment ces propriétés générales mais il présente, de plus, un certain nombre de caractéristiques originales : en effet, chaque terme, chaque facteur des équations à résoudre est représenté par un bloc mobile ; la composition du
- matériel destiné à résoudre un problème se fait simplement en associant ces blocs comme sont écrits sur le papier les termes et les facteurs du système d’équations du problème. Cette structure en blocs fonctionnels permet aux utilisateurs de réaliser des ensembles exactement adaptés à leurs besoins. L’emploi de courant haute fréquence avec des cellules de calcul constituées uniquement par des éléments passifs et conduisant à l’absence presque totale de tubes et de semi-conducteurs assure une grande stabilité de fonctionnement. Les tensions d’erreur ou tensions de commande des variables asservies sont réparties automatiquement grâce à la réversibilité des circuits.
- Enfin, dans le cas où une solution rigoureuse est mathématiquement impossible (cas, par exemple, d’un nombre d’équations supérieur au nombre d’inconnues), le calculateur fournit la solution de compromis la plus probable.
- Trois démonstrations montraient le fonctionnement et les possibilités du calculateur Analac : l’étude de la suspension d’un véhicule automobile ; celle de la trajectoire d’un satellite gravitant autour d’un astre fixe et la modification de cette trajectoire sous l’effet d’une légère perturbation ; enfin l’étude de l’intersection de surfaces définies par des équations implicites.
- 399
- p.399 - vue 398/560
-
-
-
- Chromatographe en phase gazeuse pour préparations chimiques
- La chromatographie en phase gazeuse connaît depuis plusieurs années un succès considérable auprès des chimistes. C’est en effet une méthode analytique de choix qui a permis de résoudre des problèmes d’une grande complexité, comme l’analyse des mélanges d’hydrocarbures, des corps gras, des parfums, etc.
- Rappelons que l’échantillon à analyser est introduit en bout d’une colonne contenant soit un adsorbant solide, soit un liquide imprégnant un support inerte. Un gaz porteur, tel l’hélium ou l’hydrogène, l’entraîne dans la colonne. Les différents constituants du mélange progressent plus ou moins vite suivant leur affinité pour la phase fixe ; ils sont ainsi séparés et émergent de la colonne à des temps différents. Jusqu’alors les appareils qui existaient sur le marché français (x) étaient essentiellement des appareils analytiques qui ne permettaient de traiter que de petits échantillons (0,1 à x cm3 pour les gaz, sous la pression atmosphérique). Certes, la plupart de ces appareils comportent des pièges grâce auxquels il est possible de recueillir les différents constituants du mélange au moment où ils sortent de la colonne, mais les quantités obtenues sont très faibles et cette opération est avant tout destinée à l’identification des composés par une méthode annexe comme la spectrophotométrie infrarouge ou la spectrométrie de masse lorsqu’on a quelque doute sur leur nature.
- Il était d’un grand intérêt de pouvoir appliquer la chromatographie en phase vapeur à la séparation en grande quantité et dans un état de pureté élevé des constituants de mélanges complexes, en particulier pour leur utilisation ultérieure. C’est dans ce but que la firme Beckman (repré-
- i. Voir : La chromatographie en phase gazeuse, La Nature, mai i960 p. 222.
- t v T 1 i
- l U * ‘
- Fig. jf. — Schéma du chromatographe préparatoire Beckman, modèle G. C. xoo.
- 1, Raccord sur bouteille de gaz vecteur ; 2, Réservoir de gaz vecteur ; 3, Pompe compresseur de recyclage ; 4, Indicateur de pression de sortie ; 5, Colonne de charbon activé ; 6, Pièges de purification du gaz vecteur ; 7, Détendeur de sortie du gaz ; 8, Sortie du gaz ; 9, Indicateur de pression d’entrée ; 10, Détendeur d’entrée du gaz ; ii, Vanne de régulation de débit ; 12, Introduction de l’échantillon ; 13, Conduit de gaz porteur (référence) ; 14, Colonnes parallèles ; 15, Référence ; 16, Détecteur ; 17, Mesure ; 18, Collecteur de fraction.
- Fig. 4. — Le chromatographe préparatoire Beckman, modèle G. C. xoo.
- sentée en France par Promesur) a réalisé un chromatographe réellement « préparatoire » puisqu’il peut traiter en une seule fois jusqu’à 20 g d’échantillon.
- L’appareil comprend d’abord une réserve de gaz porteur grâce auquel les différentes substances présentes dans l’échantillon initial vont être véhiculées dans l’appareil (fig. 3). Cette réserve est suivie d’un manodétendeur qui permet d’obtenir un réglage fin de la pression amont. On rencontre ensuite la colonne et ses accessoires, c’est-à-dire dans l’ordre : un manomètre pour mesurer la pression d’entrée, une vanne de régulation du débit, la chambre d’introduction de l’échantillon, puis les colonnes avec un dispositif qui permet d’avoir différentes combinaisons, depuis 8 colonnes de 1,83 m en parallèles jusqu’à une seule colonne de 14,64 m. Ces colonnes sont portées à une température définie et maintenue soigneusement constante par un thermostat de précision. Les constituants séparés sont recueillis dans un collecteur généralement refroidi à basse température. Une très faible partie du gaz qui sort des colonnes passe dans un détecteur qui mesure les concentrations instantanées de chaque constituant du mélange, à leur sortie des colonnes, et les enregistre en fonction du temps. Il s’agit ici de « catharomètres » c’est-à-dire de cellules de conductivité thermique fondées sur les propriétés des fils chauds : la température d’équilibre prise par un fil fin parcouru par un courant électrique dépend de la composition du gaz qui entoure le fil. Si celle-ci varie, la température du fil, donc sa résistance, varie. Un montage en pont de Wheatstone permet d’enregistrer le phénomène. Enfin, une fois les constituants recueillis dans le collecteur,
- 400
- p.400 - vue 399/560
-
-
-
- le gaz porteur est recyclé, ce qui est particulièrement important lorsqu’on utilise de l’hélium, en raison de son prix très élevé.
- Les applications de cet appareil sont extrêmement nombreuses ; nous en citerons quelques-unes :
- — Recherches spectrophotométriques : on peut ainsi préparer des quantités pondérales de produits chromato-graphiquement purs pour servir ensuite au tracé de spectres dans l’infrarouge ou l’ultraviolet ;
- — Chimie organique : purification de produits en vue de leur analyse ultérieure ; purification des corps marqués par des isotopes radioactifs ;
- — Chimie des parfums : la séparation des constituants purs permet de connaître leur action dans les mélanges et d’en composer de nouveaux ;
- — Médecine et biochimie : préparation de quantités suffisantes de corps purs à partir de mélanges biochimiques complexes, pour leur étude sur des animaux de laboratoire, etc.
- Applications industrielles du bombardement électronique
- Les recherches effectuées par les physiciens et les métallurgistes au cours des dernières années ont montré que la fusion sous vide était une des rares techniques qui permette d’obtenir à un très haut degré de pureté les métaux ou les éléments qu’exigent les applications, toujours plus nombreuses, de la métallurgie spéciale comme le molybdène, le tantale, le titane, le tungstène, le zirconium, etc. La pureté de ces métaux, généralement très réfractaires, conditionne en effet la stabilité de leurs performances mécaniques ou physico-chimiques, principalement aux températures élevées auxquelles ils sont le plus souvent amenés à servir.
- Certes, la mise en œuvre des procédés classiques comme le chauffage par induction à haute fréquence ou le chauffage par résistance, associée à un vide poussé, a souvent permis de réaliser de grands progrès quant à la qualité des produits élaborés, mais les possibilités de ces moyens demeurent limitées et il est difficile de dépasser, dans de bonnes conditions de rendement, des températures supérieures à i 8oo° C.
- Par suite, le chauffage par bombardement électronique est apparu comme un complément heureux et souvent indispensable des procédés traditionnels. Un faisceau d’électrons fortement accélérés présente en effet des particularités intéressantes : l’énergie transportée par les électrons est amenée uniquement et directement sur la surface utile à chauffer ; il en résulte une forte concentration de puissance qui peut atteindre jusqu’à ioo kW/cm2, d’où la possibilité d’atteindre localement et rapidement des températures très élevées, autorisant ainsi la fusion des métaux ou des alliages les plus réfractaires, surtout dans la gamme de i 5 00 à 3 ooo° C.
- Par ailleurs, le vide que nécessite par principe l’obtention des métaux purs n’est plus une servitude puisque l’usage
- Fig. J. — Appareil de bombardement électronique.
- {Photo René Bouillot, C. S. F.).
- 401
- p.401 - vue 400/560
-
-
-
- Appareils d’essais des PEINTURES « * MATÉRIAUX
- C. BRAIVE
- VIEILLISSEMENT ACCÉLÉRÉ DES PEINTURES
- ESSAIS DE CORROSION APPAREILS D’ABRASION et de LAVABILITÉ CARACTÉRISTIQUES PHYSIQUES :
- Dureté Élasticité Viscosité
- PROPRIÉTÉS MÉCANIQUES :
- Adhérence Résistance aux chocs
- MESURE D’ÉPAISSEUR
- REPRÉSENTANT EXCLUSIF :
- SCIENTIFIQUE & INDUSTRIEL
- 145, rue de Javel PARIS XVe LEC 92-00
- MICROSCOPE DE POCHE
- COOKE-Mc ARTHUR
- Toutes les possibilités d’un bon microscope normal
- Immersion — Fond noir — Éclairage incorporé
- Ag. excl. : Ets F, C* DANNATT, S. A.
- 198, rue Saint-Jacques, Paris 5e
- --- VIENT DE PARAITRE------------------
- TABLES NUMÉRIQUES
- DE
- FONCTIONS ÉLÉMENTAIRES
- Puissances, racines, exponentielles, logarithmes, fonctions hyperboliques et trigonométriques avec indication des différences tabulaires
- PAR
- J. LABORDE
- PRÉFACE DE J. KUNTZMANN
- xx-150 pages 18x22, avec 2 figures. Broché : 12 KF ; Cartonné : 13,60 KF
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6°. DAN 99-15.
- 402
- p.402 - vue 401/560
-
-
-
- du bombardement électronique implique directement l’existence d’un vide poussé, généralement compris entre io~6 et io~7 mm Hg.
- Enfin, le chauffage par bombardement électronique s’accompagne d’un excellent rendement puisque la totalité de la puissance fournie aux électrons se retrouve pratiquement d’une manière intégrale dans le matériau.
- La C. S. F. présentait un ensemble destiné à la mise en oeuvre de cette technique dont les principales caractéristiques sont les suivantes : on peut y adapter quatre canons à électrons de puissance allant de i à 30 kW ; le volume de la chambre de travail atteint 100 dm3 ; le pompage est assuré par une pompe primaire de 28 m3/h et une pompe secondaire de x 500 1/s. La durée de la mise en dépression depuis la pression atmosphérique jusqu’à io~5 mm Hg demande 5 minutes. Un dispositif améliore notablement la rapidité de chargement et la vie du canon à électrons : en effet, à chaque ouverture de la porte de la chambre de travail, ce canon rentre dans un logement étanche et sous vide de sorte que la cathode ne subit aucune contamination ou oxydation par contact avec l’atmosphère.
- Les utilisations du bombardement électronique sont très nombreuses ; nous en citerons deux :
- R,affinage des métaux par fusion de %one. — On sait que cette méthode consiste à déplacer, le long du corps à traiter, une zone fondue obtenue par un chauffage localisé. Les impuretés présentes sont, en général, plus solubles dans la phase liquide que dans la phase solide. Elles sont donc entraînées lors du déplacement de la zone fondue et se rassemblent à l’extrémité du barreau en cours de raffinage. La même opération peut être répétée un grand nombre de fois, conduisant ainsi à des substances de plus en plus pures. Le bombardement électronique est très utile dans la mise en œuvre de cette technique car il permet de l’appliquer à des métaux à point de fusion situé au-dessus de 1 5000 C et, par ailleurs, réalise une localisation très poussée de la zone fondue.
- Soudage des métaux ou des éléments les plus divers. — L’oxydation obtenue lors de la fusion localisée des lèvres de la soudure est pratiquement inexistante et l’usage du bombardement électronique permet d’obtenir une soudure parfaitement étanche et de très haute pureté.
- Appareil de vieillissement accéléré
- La nécessité d’améliorer sans cesse la qualité de leurs produits peut amener les industriels à effectuer dans certains cas des essais de « vieillissement » accéléré. Ces essais permettent par exemple de connaître dans un temps très court la résistance qu’offrent aux agents atmosphériques des matières premières telles que des alliages, des textiles, des matières plastiques, des bois, etc. On peut aussi de cette manière étudier l’efficacité de revêtements protecteurs tels que peintures, vernis, dépôts électrolytiques.
- Afin de rendre aussi commode que possible l’exécution de ces essais un constructeur belge, Ch. Braive (représenté en France par la Société O. S. I.), a mis au point un appareil, baptisé Weather-o-matic, au moyen duquel on peut reproduire des conditions atmosphériques variables à l’infini. Par exemple, une rampe d’aspersion d’eau permet de reproduire l’action de la pluie ; des lampes à mercure font intervenir l’action des rayons ultraviolets ; on peut aussi étudier l’action des infrarouges, celle des brouillards salins, chargés d’éléments agressifs au choix de l’utilisateur, l’influence de la température, réglable de 20 à 700 C, et enfin l’action du froid par l’adjonction d’un groupe frigorifique.
- Tous ces éléments sont commandés automatiquement par un émetteur à programme par cartes perforées. Le programme est ainsi réglable au gré de l’opérateur sans pour autant avoir à utiliser des cames très coûteuses. Chaque variable peut être réglée indépendamment. Le cycle d’action peut faire intervenir tous les éléments agressifs ou seulement certains d’entre eux. L’appareil étant mis en route, le cycle se reproduit indéfiniment ;
- Fig. 6. — Appareil de vieillissement accéléré.
- C’est une cuve calorifugée de 1,2 m de diamètre, avec couvercle hermétique à cinq ouvertures. Le couvercle peut être levé à l’aide d’un treuil incorporé à l’appareil. On trouve à l’intérieur les différents dispositifs : rampe d’aspersion d’eau, lampes à ultraviolets, etc.
- 403
- p.403 - vue 402/560
-
-
-
- l’essai peut donc durer des semaines ou des mois sans intervention extérieure. Cet appareil est également susceptible d’intéresser les microbiologistes car il permet d’étudier
- les modalités de développement des microorganismes en. fonction de diverses conditions : température, humidité, etc.
- Amplificateur pour faibles tensions
- La Société Sexta présentait un amplificateur de tensions continues ou alternatives d’amplitude comprise entre i mV et x V (fig. 7). La tension à amplifier est décomposée par un vibreur électronique à la fréquence de 4 000 Hz, amplifiée puis démodulée en synchronisme avec le découpage et enfin filtrée. Le gain est réglable en continu de 1 000 à 1 au moyen d’un atténuateur étalonné. L’impédance d’entrée est de 3 000 ohms ; la bande passante s’étend de o à 1 000 Hz. Un effort particulier a été accompli pour limiter au maximum la dérive du zéro : les fluctuations sont
- en effet inférieures à 20 micro volts (ramenés à l’entrée). Fig. 7. — Ampiifica-Le défaut de linéarité est inférieur à 1 pour 100 de l’étendue t?ur pour falbles ten*
- i T „ , . . * , , , sions type 4310 de la
- de mesure. L influence des variations de la température Société Sexta.
- ou de la tension d’alimentation a été rendue très faible.
- Les domaines d’utilisation de cet appareil sont très variés ; citons, par exemple, les mesures de températures au moyen de thermocouples, les mesures de faibles variations de résistances (mesure des contraintes par jauges à fil résistant, des températures par sondes à variations de résistance) et, d’une manière générale, les déterminations de toutes les grandeurs physiques susceptibles d’être traduites en tensions continues : déplacements, forces, accélérations, etc.
- R. Rosset.
- L’essence d’orange, bon carburant mais peu économique
- Une voiture, une Rover 3L conduite intérieure, a récemment circulé dans New York et parcouru un bon nombre de kilomètres, alimentée avec un distillât d’écorce d’orange. C’est ce qu’annonce la Société Esso dont les chimistes avaient spécialement préparé une vingtaine de litres de cet appétissant carburant en traitant 20 000 oranges de Californie.
- La voiture n’avait été l’objet d’aucun réglage particulier. On l’avait simplement dotée de réservoirs et de tuyauteries permettant d’alimenter le moteur soit avec du distillât d’orange, soit avec de l’essence classique. L’essai comparatif fut effectué
- entre Barclay Street et le Palais des Nations Unies. A l’aller la consommation d’essence d’orange fut de 15,8 litres aux 100 km dans l’agglomération et de 10,8 l/ioo km sur l’autoroute d’East River. Au retour, la Rover consomma seulement 12,6 l/ioo km de supercarburant dans la ville et 8,4 l/ioo km sur l’autoroute.
- Du point de vue énergétique, le distillât d’orange se comporte donc honorablement, mais son prix de revient, qui atteint 11,80 NF le litre, est encore trop élevé pour envisager son utilisation à grande échelle.
- Pour le drainage des polders
- Pour les travaux de drainage des polders actuellement en cours d’aménagement dans l’ancien Zuiderzee, on utilise maintenant des tuyaux d’un type nouveau : il s’agit de tuyaux en matière plastique beaucoup plus légers que les tuyaux traditionnels en terre cuite (140 kg/km au lieu de 4 t) et en même temps plus résistants. On cherche mieux encore : une méthode rendant inutile le creusement préalable de tranchées. On songe à une machine qui, avec un corps fouilleur, creuserait une galerie tout en tirant en même temps une bande de plastique dans le sol, bande ensuite transformée en tuyau (D’après Non-velles de Hollande).
- Drosophiles de race à volonté
- On sait que la petite mouche du vinaigre (Drosopbila mela-nogaster) est particulièrement sujette aux mutations spontanées qui en ont fait un objet de choix pour les études de génétique. D’innombrables générations de ces mouches ont été élevées et étudiées dans le monde entier depuis les travaux de l’Américain Th. H. Morgan qui les ont popularisées. L’Institut du Cancer de Philadelphie vient d’entreprendre la construction d’un centre où seront élevées et conservées quelque 2 500 races de Drosophiles provenant de mutations diverses. Outre leur utilisation sur place, elles seront expédiées à travers le monde à tous les chercheurs qui en' feront la demande.
- 404
- p.404 - vue 403/560
-
-
-
- Le Ciel en Octobre 1961
- SOLEIL : du Ier octobre au Ier novembre (à oh) sa déclinaison décroît de —3°c/ à —14017^ et la durée du jour de nh38m à 9h54m ; diamètre app. le Ier (à oh) = 32/o",3, le 31 (à 2411) = 32/i7",o. —LUNE : Phases : D. O. le Ier à i4hiom, N. L. le 9 à i8h53m, P. Q. le 17 à 4h35m, P. L. le 23 à 2iù3im, D. Q. le 31 à 8h59m ; apogée le 5 à 811, diamètre app. 2g'2g" ; périgée le 21 à Jh, diamètre app. 32/47". Principales conjonctions : avec Uranus le 5 à 2ih, à o°3o'S ; avec Vénus le 7 à 8h, à o°3c/N; avec Mars le 11 à 6h à 5°i'N; avec Mercure le 11 à 711, à 8°39'N ; avec Neptune le 11 à I5h, à 3°2o' N ; avec Saturne le 17 à 5h, à 2°58' N ; avec Jupiter le 17 à I4h, à 3°l' N. Principales occultations : le 7, de Vénus (mag. — 3,4), immersion à 6h36m,2 et émersion à 8h7m,6 ; le 27, de 318 B. Taureau (mag. 5,7), émersion à 2h37m,i. — PLANÈTES : Mercure, se montre étoile du matin dans les derniers jours du mois, se lève le 28 à 5h29m, soit lh3m avant le Soleil; Vénus, belle étoile du matin, se lève le 16 à 3h52m, soit 2h2lm avant le Soleil ; Mars, est invisible ; Jupiter, dans le Sagittaire bien visible le soir en s’éloignant de Saturne, le 16, diamètre pol. app. 37",6 ; Saturne, dans le Sagittaire précède Jupiter d’une vingtaine de minutes, le 16, diamètre pol. app. 15",O et axes de l’anneau : 37",8 et + 14",8 ; Uranus, très près de Régulus est bien visible le matin, se lève le 16 à Ihi9m. soit 4h54m avant le Soleil ; Neptune, noyée dans le rayonnement solaire est invisible ; Cérès, à l’est de E, Taureau, mag. 7,7, positions, le Ier : 3h46m et -f io°2l/, le 11 : 3h43m et -f- io°9', le 21 : 3h37m et -f 9055', le 31 : 3H29311 et + 9°4i' ; Vesta, à l’est de v Taureau suit Cérès, mag. 7,2, positions le Ier :
- 4hi6m et + I2°47', le 11 : 4hi4m et + i2°28', le 21 : 4h9m et
- + I2°5', le 31 : 4h3met + 1 i^P. — ÉTOILES VARIABLES : minima observables d'Algol (2m,2~3m,5) le 3 à 5h,5, le 6 à 2h,3, le 8 à 23h,o, le ir à 19A9 ; minima de (3 Lyre (3m,4-4m,3) le 9 à I7h,6, le 22 à iôh,o ; maxima de 8 Céphée (3m,7-4m,6) le 5 à I3h,3, le 10 à 22h,i, le 16 à 6h,9, le 21 à 15h,7, le 27 à oh,5 ; maxima de 7) Aigle (3m,7-4m,4) le 4 à I7h,i, le 11 à 2ih,3, le 19 à ih,6, le 26 à 5h,8 ; maximum de v Licorne (6m,o-i3m,7) le 15. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.) : le Ier : o1147mi8s, le 11 : ih26m43s, le 21 : 2h6m9s, le 31 : 2h45m34s.
- Phénomènes intéressants : Surveiller les groupes de taches à la surface du Soleil. — Du 3 au 8, lumière cendrée de la Lune, le matin. — Les planètes Jupiter et Saturne sont encore bien visibles le soir. — Le 7, ne pas manquer l’observation de l’occultation de Vénus. — Le 11, Uranus en conj. avec Régulus à 23h, à o°i6/ N, profiter de ce rapprochement pour repérer la lointaine planète. — Dans une petite lunette, suivre les déplacements des petites planètes Cérès et Vesta, dans le Taureau, aux positions indiquées ci-dessus. — Étoiles filantes : Le 9, Draconides, radiant E, Dragon; du 16 au 22, Orionides (maximum le 19), radiant v Orion. — Au début de la nuit on peut encore observer les riches régions de la Voie lactée du Sagittaire au Cygne.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Le manganèse sous-marin du Pacifique
- En de nombreux endroits, le fond de l’Océan Pacifique est parsemé de concrétions métalliques où dominent le manganèse (39,6 pour 100) et le fer (20,8 pour xoo) accompagnés, à moindres doses, de cobalt (0,92 pour 100), de nickel (1,43 pour 100) et de cuivre (1,81 pour 100). De récentes explorations océanographiques soviétiques (campagnes du Vitia% et de YOb) et américaines ont permis de dresser une carte approximative de ces concrétions.
- Selon un article paru dans la revue soviétique Priroda, elles se trouvent en plus grand nombre dans les zones où le fond est recouvert d’argile rouge et de vases composées de carbonates. En outre leurs gisements ont été plus souvent observés au voisinage des reliefs sous-marins. Ceci ne permet pas encore de se prononcer sur l’origine de ces concrétions, bien que le manganèse soit présumé provenir, en partie du moins, de la décomposition de roches volcaniques.
- La carte des concrétions a été établie d’après une série de
- photographies du fond de l’Océan, prises notamment par le navire VitiatSur 24 photos, les concrétions de manganèse sont particulièrement abondantes. Elles apparaissent dans des zones où la profondeur varie entre 3 680 m et 5 718 m et qu’encadrent les parallèles Nord i7°38' et 24°55/ et les méridiens i5 3°54/ Est et 113057' Ouest. Les concrétions occupent de 26 à 52 pour 100 des surfaces photographiées, mais cette proportion peut s’élever jusqu’à 90 pour 100, en certains points des chaînes sous-marines.
- Le tonnage des concrétions a été évalué en moyenne à 8 600 t/km2 et par extrapolation les océanographes soviétiques ont estimé que la « mine sous-marine » du Pacifique pourrait représenter une réserve de 90 milliards de tonnes. Chiffre minimal, ajoutent-ils, car les évaluations qui précèdent ne concernent que les concrétions visibles sur le fond et ne tiennent pas compte de celles vraisemblablement enfouies dans les sédiments argileux et vaseux.
- Sécurité routière par vibrations
- On procède actuellement sur un tronçon de 1 600 m d’une route de Californie (U. S. A.) aux essais d’un nouveau système destiné à avertir les automobilistes de l’approche d’un passage dangereux. Il s’agit de « bandes de résonance » constituées de pierres et de blocs de matière plastique encastrés alternativement dans la route à quelque distance des points dangereux. Lorsqu’une voiture franchit une de ces bandes à trop grande vitesse, sa carrosserie se met à vibrer d’une manière sensible propre à inquiéter le conducteur et à l’amener à ralentir. Toutefois, les inventeurs de ce système ne sont pas tout à fait cer-
- tains de son efficacité et des expériences sont en cours pour déterminer sur quelle distance la carrosserie doit vibrer pour que le conducteur ralentisse à coup sûr !
- Rappelons que dans beaucoup d’agglomérations françaises, les municipalités semblent avoir trouvé, depuis longtemps, un procédé plus simple pour obtenir le même résultat : il consiste à ne pas entretenir la chaussée (de préférence pavée) et à la laisser dans un tel état que nul ne s’aviserait d’y faire de la vitesse. Moyen diversement apprécié, mais certainement efficace, et combien économique !
- 405
- p.405 - vue 404/560
-
-
-
- LES L I V
- Dynamics of rigid bodies, par W. D. MacMillan. i vol. 13,5 X 20,5, xiv-478 p., 82 fig. Dover Publications, New York, i960. Prix, cartonné : 2 dollars.
- Dynamics of a System of rigid bodies ; E!e-mentarypart, par E. J. Routh. i vol. 13,5 X 20,5, xvi-443 p., 55 fig. Dover Publications, New York, i960. Prix, cartonné : 2,35 dollars.
- Ces deux ouvrages constituent l’essentiel d’un cours de mécanique générale, très progressif et d’abord agréable, et fort complet. D’aspect classique, il est illustré d’une quantité de problèmes et pourra être fort utile aux étudiants, quoique certaines parties dépassent notablement le niveau de la licence.
- A Manual of spherical and practical Astro-nomy, par W. Chauvenet. 2 vol. 13,5 x 20,5 708 et 632 p., 62 et 63 fig., 15 pl. hors texte. Dover Publications, New York, i960. Prix, cartonné : 2,75 dollars chaque volume.
- L’ouvrage de W. Chauvenet est un peu plus ancien que celui de Newcomb, mais il est beaucoup plus complet et plus détaillé. On y trouve par exemple, outre tous les calculs relatifs à la détermination des coordonnées sur terre et en mer, et autres calculs classiques, ceux qui sc rapportent aux éclipses de Soleil et de Lune, et aux occultations. Le second volume, qui contient une étude détaillée des principaux instruments de l’astronomie de position, est encore fort utile aujourd’hui, bien qu’il ait un peu vieilli sur certains points. C’est aussi une source inépuisable de problèmes d’astronomie pratique. —J. L.
- Principles of Stellar Dynamics, par S. Chan-
- DRASEKHAR. I Vol. 13,5 X 20,5, X-313 P-,
- 50 fig. Dover Publications, New York, i960, Prix, cartonné : 2 dollars.
- Sa première édition ne datant que de 1942, cet ouvrage est tout à fait actuel, et le sujet qu’il traite voit son importance croître de jour en jour, puisqu’il s’agit somme toute de l’évolution des amas d’étoiles et des galaxies. Voir ces problèmes traités par Chandrasekhar, digne continuateur de J. Jeans, est un très grand plaisir. Après une description purement cinématique des mouvements dans les systèmes stellaires, on aborde le problème du temps de relaxation des amas. Les autres chapitres traitent de la dynamique galactique et de la dynamique générale des systèmes stellaires, qui sont des conséquences du théorème de Liou-ville, et enfin la dynamique des amas. La contribution personnelle de l’auteur à chacun de ces sujets est considérable. Deux articles originaux sur des problèmes voisins sont reproduits en fin de volume. Il paraît inutile de recommander ce livre aux astrophysiciens qui le connaissent tous, mais plus d’un physicien non-spécialiste y trouvera aussi son profit. — J. L.
- Éléments de physique statistique, par C. Kit-tel. Traduit de l’américain par A. Després. 1 vol. 16 X 25, 250 p., 28 fig. Dunod, Paris, 1961. Prix, relié toile sous jaquette : 32 NF.
- La mécanique statistique est une méthode qui permet d’étudier le comportement des ensembles comprenant un grand nombre de particules. Le livre est divisé en trois parties : principes de la mécanique statistique, thermodynamique des phénomènes irréversibles, méthodes cinétiques et théorie des transferts. L’auteur, parmi les meilleurs physiciens de notre temps, fournit un excellent ouvrage d’initiation à de très nombreuses questions et ce livre devrait rencontrer un grand succès parmi les étudiants et les jeunes chercheurs.
- Introduction to quantum méchantes, par
- R. H. Dicke et J. P. Wittke. x vol. 15,5 X 23,5, xii-369 p., fig. Addison-Wesley Publishing Company, Reading (Mass.), i960. Prix, relié : 8,75 dollars.
- R E S NO
- Quantum mechanics, par John L. Powell et Bernd Crasemann. i vol. 15,5 X 23,5, x-495 p., fig. Addison-Wesley Publishing Company, Reading (Mass.), 1961. Prix, relié : 9,75 dollars.
- Ptoblems in quantum mechanics, par
- L I. Gol’dman et V. D. Krivchenkov. Traduit du russe par E. Marquit et E. Lepa. Édité par le professeur B. T. Geilikman. Édition révisée. 1 vol. 16 X 25, vm-275 p. Pergamon Press, Oxford, Londres, New York et Paris, 1961. Prix, relié : 50 sh.
- Voici trois livres consacrés à la mécanique quantique. Les deux premiers se présentent comme des traités désormais classiques d’introduction à la mécanique quantique ; écrits dans le même esprit, ils ne diffèrent que sur la présentation. Pour le premier, chaque chapitre se termine par un résumé qui fait le point des questions qui viennent d’être traitées. Excellente initiative qui permet au lecteur de se dégager un peu des calculs. Le troisième livre, traduit du russe, est un recueil de problèmes et de solutions destinés aux élèves qui veulent se familiariser avec la mécanique quantique. L’importance des problèmes et exercices pour la compréhension d’un cours n’est plus à souligner et ce livre est certainement destiné à rendre de nombreux services aux étudiants en sciences, d’autant plus que les solutions ne sont pas seulement esquissées, mais traitées relativement dans le détail. Complément pratiquement indispensable à tout cours de mécanique quantique.
- Initiation à l’électronique, par R. Faure, i vol. 16 x 22, 376 p., 160 fig. Dunod, Paris, 1961. Prix : 29 NF.
- L’électronique, aux applications spectaculaires, radar, télévision par exemple, intervient en fait dans toutes les techniques : pour l’enregistrement des phénomènes les plus divers, pour la régulation de tel ou tel appareil, pour la mécanisation de tel procédé, et en dehors des jeunes qui naturellement se tournent vers cette science, ingénieurs ou techniciens d’un certain âge éprouvent le besoin de s’initier à ses secrets... Le présent ouvrage rendra service aux uns et aux autres, comme un préambule à des études postérieures plus étendues, en leur donnant déjà les éléments nécessaires pour comprendre les principales applications de l’électronique.
- Les récepteurs de télévision, par W. T. Cocking. Traduit de l’anglais par H. Piraux. Tome IL 1 vol. 14 X 22, 316 p., nomb. fig. Dunod, Paris, 1961. Prix, relié : 35 NF.
- Nous avons salué en son temps la parution du Ier tome de cet ouvrage, dont on peut louer les qualités de grande clarté et la présentation. Ce 2e tome est principalement consacré aux amplificateurs, aux antennes, aux alimentations
- ------ A NOS LECTEURS --------------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- U V E A U X
- et à des problèmes plus particuliers : télévision par projection, convertisseurs de bande, etc.
- Les diélectriques et leurs applications, rédigé sous la direction de Arthur R. von FIippel. Traduit de l’américain par M. Sauzade. i vol. 21 X 27, 452 p., 312 fig., 132 abaques. Dunod, Paris, 1961. Prix, relié toile sous jaquette : 94 NF.
- Le professeur von Hippel s’est entouré de 21 auteurs pour exposer les principes et les applications des diélectriques (isolants). Comme l’indique l’auteur dans sa préface : « Nous espérons établir un lien entre chercheurs, ingénieurs d’étude ou d’application, industriels et usagers de matériaux non métalliques. » Livre relativement facile à lire et agréable à consulter.
- The technique of Photomicrography, par
- Douglas F. Lawson, i vol. 14,5 x 23, xvi-256 p., 114 fig., 71 pl. hors texte en noir, 4 pl. microphotographies en couleurs, 1 frontispice en noir. George Newnes Ltd., Londres, i960. Prix, relié : 55 sh.
- Cet ouvrage nourri d’une longue expérience rend compte des plus récents développements de la technique microphotographique. Llormis le domaine de la microscopie électronique, tous les modes de production d’images microscopiques sont envisagés, tant en lumières visible, naturelle et polarisée, qu’en lumières infrarouge, ultraviolette ou X. Les aspects d’interférences ou de fluorescence sont également examinés. Bref, une encyclopédie très attachante, agréablement illustrée. Bibliographie. Index.
- Proceedings of the Fourth Conférence on Carbon. 1 vol. 17,5 X 26, xn-778 p., fig. Pergamon Press Ltd., Oxford, Londres, New York et Paris, i960. Prix, relié : 150 sh.
- La 4e Conférence sur le Carbone, organisée par l’Université de Buffalo du 15 au 19 juin 1959, a vu la discussion de plus de quatre-vingts mémoires qui sont réunis dans le présent volume. Cinq chapitres principaux : propriétés de surface et réactivité du carbone ; propriétés électroniques ; carbonisation des divers carbones et graphitation ; propriétés mécaniques et thermiques ; technologie et usages du carbone.
- Theoretische Grundlagen der Gaschromato-graphie, par Géza Schay. Vol. 3 de Physika-lich-chemische Trenti- tmd Messmetboden. 1 vol. 17 X 23,5, vm-267 p., fig. Deutscher Verlag Wissenschaften, Berlin, i960. Relié.
- On connaît l’importance et le développement pris par la chromatographie durant ces dernières années ; ils expliquent les publications de plus en plus nombreuses sur ce sujet. Dans le présent volume, axé, comme son titre l’indique, sur les bases théoriques de la chromatographie, l’auteur consacre pourtant un tiers de son texte à la technique de la chromatographie en insistant notamment sur les modes de détection, en décrivant divers exemples de problèmes résolus grâce à cette méthode d’analyse, notamment sur la chromatographie opérée à haute température (2700), mise au point pour l’analyse des produits de l’industrie du pétrole.
- Les opérations de la synthèse organique, par J. Lenoir. 2e édition. 1 vol. 13,5 X 21, 354 p. Les Presses Documentaires, Paris, i960. Prix : 35 NF.
- L’auteur, qui professe au Centre technique d’Enseignement ouvrier, a jugé nécessaire de remettre à jour la première édition de cet ouvrage, parue il y a dix ans. Faisant suite à un cours de première année où ont été décrites les matières premières de l’industrie organique, l’auteur passe en revue les diverses opérations de la chimie organique qui permettent de transformer celles-ci en matières intermédiaires ou en produits finis. Il traite ainsi successivement les opérations de substitution : halogénation, sulfonation, nitration,
- 406
- p.406 - vue 405/560
-
-
-
- alcoylation, oxydation, réduction, etc. ; les opérations d’addition : hydrogénation, oxosynthèse, vinylation ; et les opérations soustractives : déshydrogénation ; en indiquant leur principe et leur technique, puis leur intérêt industriel et les précautions qu’elles exigent, et en donnant toujours divers exemples.
- The chemistry and technology of fertilizers,
- édité par Vincent Sauchelli. i vol. 15,5 X 23,5, x-692 p., fig. Reinhold Publishing Corporation, New York, i960. Prix, relié : 18 dollars.
- Vingt-quatre chapitres couvrent l’ensemble des questions que posent la chimie et l’industrie des engrais. Sans traiter l’industrie de l’ammoniac, les auteurs examinent la transformation de l’ammoniac en engrais ; par contre, l’extraction des phosphates et leur transformation par voie thermique ou par voie humide sont exposées en détail ; les procédés d’obtention de la « potasse » sont traités plus succinctement. Le problème de la prise en masse des engrais est examiné avec soin, de même que l’emploi des engrais liquides et notamment la nitrojection basée sur l’épandage d’ammoniac liquide, qui connaissent une grande vogue aux Etats-Unis. On n’a pas négligé, d’autre part, les problèmes de corrosion, de manutention ou d’hj'giène qui se posent dans cette industrie.
- Japanese Potassium Symposium. 2e Congrès, Tokyo, içjS. 1 vol. 14,5 X 21, 110 p., fig. Institut International de la Potasse, Berne, i960.
- Encouragé par les résultats d’un premier Congrès réuni en 1957, un deuxième Symposium sur la potasse s’est tenu en 1958 : sept communications concernant la nutrition des plantes et plus spécialement relatives au riz et aux arbres fruitiers ont été présentées.
- Cermets, édité par J. R. Tinklepaugh et W. B. Crandall. 1 vol. 15,5 X 23,5, vi-239 p., fig. Reinhold Publishing Corporation, New-York, 1960. Prix, relié : 9,50 dollars.
- On peut définir les cermets comme des combinaisons hétérogènes d’un métal ou d’un alliage avec un produit « céramique », disons un oxyde réfractaire tel que l’alumine ou un carbure comme celui de titane... Si, depuis la fin de la seconde guerre mondiale, de très nombreuses publications traitent de ces produits dont l’importance est considérable dans tous les domaines où s’impose la nécessité de matériaux réfractaires, aviation, astronautique, énergie nucléaire, il est difficile de trouver une monographie sur ce sujet. Le présent ouvrage, à la rédaction duquel ont participé vingt-deux spécialistes, comble cette lacune. Après une étude de base sur les problèmes physicochimiques que pose l’obtention des cermets, des exposés intéressants concernent la préparation des matières premières : oxydes et carbures (notamment celle du carbure de titane au four électrique), fabrication des cermets, techniques de fabrication des cermets, méthodes d’essais et applications, tandis que l’on fournit des développement étendus sur les cermets alumine-carbure de titane. Documentation très étendue. — H. G.
- VIENT DE PARAITRE
- Céramique générale. Notions de Physicochimie, par C. A. Jouenne. 2 vol. 16 X 25 ; tome I : 398 p., 270 fig. ; tome II : 408 p., 183 fig. Gauthier-Villars, Paris, i960. Prix, cartonné : 43 NF (t. 1), 45 NF (t. II).
- L’ouvrage rassemble l’ensemble des connaissances physico-chimiques indispensables avant d’aborder l’étude des techniques particulières à une industrie très ancienne, en pleine évolution. Dans le Ier tome, l’auteur, après avoir rappelé les propriétés des divers états de la matière et le mécanisme des changements d’état, étudie les diagrammes de phases en insistant sur leur représentation graphique. Il explique également les types de liaison avant d’aborder l’examen de la structure des silicates et l’étude des moyens d’investigation permettant d’établir celle-ci. Le 2e tome est plus spécialement consacré à l’étude des textures des matières premières et des produits finis : granulométrie, surfaces spécifiques, rhéologie des pâtes, état colloïdal, etc. Particulièrement intéressant pour tous ceux qui se préoccupent des questions de céramique, cet ouvrage dépasse largement le cadre de cette industrie par son caractère général. — H. G.
- Histochimie et Cytochimie animales. Principes et méthodes, par L. Lison, professeur à la Faculté de Médecine de Ribeirao Preto (Brésil), professeur associé à l’Université de Bruxelles. 3e édition. Volume II. 1 vol. 15,5 X 21, 448 p., 5 fig. Gauthier-Villars, Paris, i960. Prix : 45 NF (9,50 dollars).
- Voici le 2e volume de l’ouvrage classique de M. Lison, entièrement refondu, dont nous avons déjà présenté le Ier volume (janvier 1961, p. 46). On trouvera ici la suite des « réactions spéciales » concernant : glucides, glucoprotéines et muco-protéines ; lipides et lipoprotéines ; enzymes ; pigments ; produits organiques divers ; éléments minéraux. L’ouvrage se termine par un appendice de 60 pages offrant une sélection des méthodes les plus courantes ou les plus utiles en histochimie et constituant une sorte de formulaire pratique pour le laboratoire ; il renvoie cependant aux pages de l’ouvrage auxquelles il faut se reporter pour l’étude critique des procédés, ou pour la description de techniques moins courantes. Table des auteurs ; table alphabétique et analytique des matières. Bibliographie très étendue, par chapitre.
- Morphologie et physiologie du système nerveux, par Paul Glees, Laboratoire de Physiologie de l’Université d’Oxford, chargé de conférences à l’Institut national de la Santé de Bethesda, Maryland. Trad. de l’édition allemande par le Dr P. A. Chatagnon et E. M. Cas-TAGNOL. I vol. 15,5 X 24, 583 p., 149 fig. G. Doin, Paris, i960. Prix : 60 NF.
- L’auteur, qui a acquis une connaissance approfondie du sujet dans les laboratoires allemands, néerlandais, britanniques et américains, s’est efforcé de présenter une synthèse des connaissances acquises en neurophysiologie et en neurobiologie. Le livre s’ouvre par un exposé des méthodes de travail : méthodes anatomiques (lésions opérées sur
- l’animal par différents procédés), neurophysiologiques (appareils d’excitation, narcotiques, etc.), psycho-physiologiques (étude du comportement, dressage, etc.). On aborde ensuite les aspects biochimiques de la neurologie expérimentale et clinique, l’étude des récepteurs, de la conduction nerveuse, du rôle des synapses, des réflexes spinaux. Ensuite sont étudiés le thalamus, l’écorce sensorielle, l’écorce motrice et les voies pyramidales, le cervelet, le striopallidum et les ganglions de la base, l’hypothalamus et l’hypophyse comme emplacements centraux des fonctions vitales et du système autonome. Les derniers chapitres sont consacrés au.système réticulaire du tronc cérébral, à l’activité électrique, aux systèmes de l’audition et de la vision, enfin à une représentation générale du développement des hémisphères. Bibliographie par chapitre. Index.
- Phosphorus metabolism of brain, par
- P. J. Heald. 1 vol., 14 X 22, vm-195 p., 19 fig. Pergamon Press Ltd., Oxford, Londres, New York et Paris, i960. Prix, relié : 42 sh.
- Synthèse des connaissances actuelles sur le sujet, en particulier sur les modalités pathologiques qui peuvent survenir dans le métabolisme cérébral des dérivés phosphorés. Deux parties envisagent successivement les données qui ont pu être obtenues à l’aide des expériences effectuées in vivo et in vitro. Enfin, les méthodes de dosage des divers dérivés phosphorés dans les tissus sont étudiées d’une manière critique. Importante bibliographie.
- Les Mekhadma. Etude sur l'évolution d'un groupe humain dans le Sahara moderne, effectuée par le Centre d’études et d’informations des problèmes humains dans les zones arides (Prohuza). 1 vol. 21 X 27, 224 p., 60 graphiques et dessins. 3 cartes, 36 photos. Larose, Paris, i960. Prix : 35 NF ; frais d’envoi : 2,10 NF.
- L’ouvrage fournit les résultats d’une enquête, réalisée en équipe, auprès d’une tribu nomade du Sahara, en voie de sédentarisation. Se trouvant dans la région de Ouargla, à proximité des installations pétrolières de Hassi-Messaoud, les Mekhadma ont fourni de la main-d’œuvre et leur évolution s’est trouvée accélérée. On fait d’abord connaissance avec la tribu, on étudie son histoire, sa structure sociale, ses caractères anthropologiques et médicaux, puis l’évolution des métiers exercés, les aspirations professionnelles, les « motivations » à l’embauche et à l’abandon de l’emploi, l’émigration. Deux chapitres sont consacrés aux tests psychotechniques et à l’influence des facteurs sociologiques. Enfin, on étudie l’évolution et les besoins de la tribu. Des situations critiques sont examinées, des solutions proposées.
- Vision des couleurs, par Yves Le Grand, professeur au Muséum, président du Centre d’information de la couleur. 1 brochure 13,5 X 18,5, 6 fig. Palais de la Découverte, Paris, 1961.
- L’auteur est un vulgarisateur de grand talent. Excellente conférence faite au Palais de la Découverte.
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e. — ODE 54-83
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d’État. Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile ''
- (Joindre timbre pour notice)
- CHEMINEMENTS
- D E
- PARTICULES
- L’ergodicité et le monde en expansion
- PAR
- W. RIVIER
- ! 76 pages 12 x 18. Broché . 6 NF
- ! DUNOD, Éditeur, 92, rue Bonaparte, Paris-6”. DAN 99-15.
- 407
- p.407 - vue 406/560
-
-
-
- Aimables sauvages, par Francis Huxley. Traduit de l’anglais par Monique Lévi-Strauss. Collection Terre humaine, dirigée par J. Malaurie. i vol. 14,5 X 20,5, vm-267 p., 40 illustrations et 1 carte. Plon, Paris, i960. Prix : 16,96 NF.
- Après la découverte du Brésil et l’installation des Blancs, les Indiens Tupinamba disparurent peu à peu par massacres, esclavage ou dispersion dans la forêt. L’ethnologue anglais Francis Huxley a retrouvé au Nord du Brésil, aux confins de la selva amazonienne, une tribu indienne de langue tupi, les Urubu, et a pu séjourner dans leur intimité un certain nombre de mois. Il en a rapporté cet ouvrage très direct, passionnant d’expérience vécue au milieu d’un peuple pratiquement inconnu avant lui. Ouvrage s’inscrivant dans la grande lignée de Malaurie et de Lévi-Strauss, ne sacrifiant pas la vie à la science ni le sérieux au pittoresque superficiel. — P. W.
- Les bijoux, par Hélène Puiseux. Dessins de Judith Bledsoe. 1 vol. 17,5 X 26, 32 p. Collection Mon Univers. Armand Colin, Paris, i960. Prix, cartonné : 2,85 NF.
- Petite leçon d’histoire et d’archéologie pour les enfants : bijoux mexicains ; boucles d’oreilles du Pérou ; masque africain ; bracelet hindou ; colliers de fleurs tahitiens ; diadème des Pharaons ; fibules étrusques ; diadème grec ; le talisman de Charlemagne ; le collier de la Toison d’or ; collier allemand du xvie siècle ; couronne du Trésor britannique ; quelques bijoux modernes.
- Le poison et les empoisonneurs célèbres, par Roland Villeneuve, i vol. 320 p. La Palatine, Paris, i960. Prix ; 9,85 NF.
- M. Villeneuve est un historien de valeur à qui l’on doit plusieurs essais justement remarqués ; c’est aussi un pénétrant psychologue, habile à rapporter les événements aux passions et aux
- superstitions trop souvent passées sous silence. Son savoir scientifique est plus contestable, mais il a le don de noter les contradictions des doctrines et de pressentir avec un flair rare les limites des procédés scientifiques. A propos d’affaires récentes, il a le mérite de faire sentir la précarité de certaines méthodes toxicologiques, mais on lui reprochera de manquer un peu de sérénité. L’auteur a beaucoup lu ; il a consulté les sources ; la très riche bibliographie qu’il donne en fin d’ouvrage sera consultée avec profit par les chercheurs.
- Les effets incendiaires de l’arme nucléaire, par le chef de bataillon Pierre Besson. Préface du général Buchalet. i vol. 13 X 21, 96 p., 14 fig., nombreuses photographies. Berger-Levrault, Paris, i960. Prix : 7 NF.
- Une bombe atomique dégage un tiers de son énergie totale sous forme de chaleur ; c’est dire l’importance des effets thermiques des explosions nucléaires. Pourtant, si les effets de souffle peuvent être définis selon des lois physiques rigoureuses, si les effets du rayonnement et même ceux des retombées radioactives peuvent être prévus avec une certaine précision, il n’en est pas de même pour les effets thermiques. Ces derniers dépendent en effet du matériau atteint par l’éclair, ainsi que des conditions géographiques, topographiques, météorologiques. Us sont absolument différents, toutes choses égales d’ailleurs, selon qu’il s’agit d’objectifs isolés ou d’une agglomération. Les principaux chapitres traitent du rayon d’action et des effets incendiaires de l’éclair, des effets incendiaires du souffle, de la prévision des effets réels, enfin de la prévention et de la lutte contre l’incendie dans le cas d’une explosion nucléaire. On regrettera de ne trouver aucun renseignement sur les résultats des explosions nucléaires françaises.
- Le problème du broyage et son évolution,
- par Roger Guillot. i vol. 1 6 X 25, 186 p.,
- 40 fig. Eyrolles, Paris ; Gauthier-Villars, Paris, i960. Prix, relié : 28 NF.
- Le broyage, opération très grosse consommatrice d’énergie dans de nombreuses industries, est très mal connu malgré de nombreuses recherches. Aussi, à la demande de l’Association nationale de la Recherche technique, l’auteur fait-il le point des théories présentées jusqu’ici et des résultats expérimentaux. Il conclut que les concepts admis jusqu’ici sont insuffisants pour traiter le problème du broyage dans sa généralité et qu’il convient de faire appel aux nouvelles théories concernant l’état solide de la matière.
- Les engrais. Production, consommation, prix et commerce en Europe et aux États-Unis. 9e étude, 1957-1960. 1 vol. 15,5 X 24, ni p. Publications de l’O. E. C. E., Paris, i960. Prix : 5 NF.
- Statistiques relatives à la production, aux échanges et aux consommations des engrais azotés, phosphatés et potassiques ; renseignements sur les prix de ces divers produits. Indications sur les modalités de la formation du prix des engrais dans les divers pays de l’O. E. C. E. ; subventions accordées.
- Sangliers et Cervidés, par J. Nard, i vol. 13,5 x 18,5, 120 p., 15 fig, Crépin-Leblond, Paris, i960. Prix : 7,26 NF ; franco : 8 NF.
- Quelques renseignements sur le sanglier et toutes les façons de le chasser. Id. sur le cerf et le chevreuil et quelques mots sur le daim.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- MASSON et C‘\ éditeurs
- TRAITÉ DE PALÉONTOLOGIE
- publié sous la direction de
- Jean PIVETEAU
- Membre de l’Institut, Professeur à la Sorbonne
- Tome VI
- (en deux volumes)
- L’origine des mammifères et les aspects fondamentaux de leur évolution
- Volume I
- MAMMIFÈRES
- ORIGINE REPTILIENNE — ÉVOLUTION
- Un volume de 1 138 pages, avec 970 figures et 1 planche (17 x 25) . Broché : 240 NF
- Cartonné toile : 254 NF
- Le gérant F. Dunod. — du von, éditeur, paris. — dépôt légal : 3e trimestre 1961, n° 3737. •— Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 43o3. — 9-1961.
- 408
- p.408 - vue 407/560
-
-
-
- L’ultra-centrifugeuse balance de précision
- des grosses molécules par Jean Pelmont
- et
- biochimiste
- Les centrifugeuses sont depuis longtemps des accessoires courants de maint laboratoire. Des particules placées en suspension dans un liquide de densité différente sédimentent ou surnagent aisément si on peut les soumettre à des forces radiales assez intenses pour que l’opération occupe un temps relativement court. Il faut vaincre à la fois les forces de frottement considérables nées du choc des molécules du liquide sur les corps en mouvement et les effets de l’agitation thermique continuelle qui règne au niveau des molécules. Nous savons en effet que l’immobilité d’un liquide n’est qu’une apparence trompeuse dissimulant un brassage continuel, phénomène que nous pouvons déceler au microscope grâce au mouvement brownien des plus petites particules visibles. Cela nous fait penser au brouillard, dont les fines gouttelettes sont dispersées en tous sens par le moindre courant d’air et ne peuvent atteindre le sol, tout en étant constamment sollicitées par la pesanteur. Utiliser la force centrifuge, c’est mettre à profit une force analogue à la pesanteur mais bien plus considérable, capable d’opérer le tri de particules très légères et dont la densité diffère peu du milieu qui les contient. Nous n’aurons en vue, dans cet article, que l’utilisation des centrifugeuses en biochimie, pour la séparation des molécules organiques et pour l’évaluation de leur masse moléculaire.
- Pour des particules très petites comme le sont par exemple des molécules de protéine en solution dans l’eau, les frottements et le brassage thermique contrarient considérablement la séparation. Supposons que l’on veuille faire sédi-menter de l’albumine avec une centrifugeuse ordinaire qui, tournant à quelques milliers de tours par minute, développe déjà 3 000 fois l’accélération de la pesanteur. L’opération est théoriquement réalisable puisque la densité des molécules d’albumine est de l’ordre de 1,35, donc nettement supérieure à celle de l’eau qui les contient. Eh bien, il ne faudrait pas moins de dix jours pour que le déplacement moyen des molécules d’albumine soit de 1 centimètre ! En fait nous trouverons toujours une concentration quasi uniforme dans la solution, car sur de telles durées l’agitation thermique a le temps d’opérer : il en résulte une diffusion continuelle de l’albumine des parties les plus concentrées vers les régions les moins concentrées ; nous ne pourrions jamais observer un véritable dépôt d’albumine sur le fond du récipient. Une telle expérience
- doit donc jouer sur l’antagonisme de deux phénomènes : un mouvement radial d’ensemble des particules qui tendent à sédimenter ou à surnager ; un brassage, source de diffusion, qui a pour effet de tout « brouiller ». Il s’agit d’une sorte de course de vitesse : rendre l’opération suffisamment brève pour que la diffusion n’ait pas le temps de nous gêner, donc réaliser des centrifugeuses tournant beaucoup plus vite, produisant des champs d’accélération très élevés. Au delà de 15 000 tours/minute on pourra parler d’« ultra-centrifugeuse ».
- i 000 tours par seconde
- On imagine les difficultés techniques à surmonter : réalisation de pièces capables de tourner sans rupture à plusieurs dizaines de milliers de tours par minute, systèmes d’entraînement pouvant atteindre sans échauffement, ni usure excessive des vitesses aussi élevées. En outre, un procédé d’observation convenable doit permettre la surveillance du produit à analyser au cours de la rotation.
- La première ultra-centrifugeuse analytique fut construite en 1923 par le Suédois Svedberg ; l’entraînement se faisait par turbine à huile sous pression. La réalisation d’un rotor (pièce en rotation) d’assez grandes dimensions et capable de résister à des vitesses supérieures à 40 000 tours/minute posait un problème technique difficile. Le rotor ne peut cependant être trop petit. On doit y disposer d’un logement suffisant pour la « cellule » qui contient l’échantillon à analyser et permettre son observation continue. En outre, la force centrifuge est proportionnelle à la distance à l’axe ; trop près de l’axe, sa variation serait trop grande d’un point à l’autre de l’échantillon, et elle nuirait à la précision des mesures au cours de la sédimentation. Svedberg et son équipe ont triomphé les premiers de ces difficultés. Dans les appareils modernes le centre de la cellule qui contient le produit à étudier se trouve à un peu plus de 6 centimètres de l’axe. Le rotor est en alliage léger, possédant à la fois une grande résistance à la rupture et une certaine malléabilité, qui évite l’apparition de lignes de cassure. Son profil est lui-même l’objet d’une étude approfondie ; avec les rotors actuellement utilisés, la vitesse peut atteindre 60 000 tours/minute en gardant une marge de sécurité convenable (fig. 1).
- 409
- p.409 - vue 408/560
-
-
-
- Fig. I. — Rotor de l’ultra-centrifugeuse Spinco.
- Cette pièce, conçue pour tourner à une vitesse maximale de 60 ooo tours par minute, est suspendue à un axe flexible par l’écrou de fixation visible à la partie supérieure. On voit sur la droite la cellule amovible destinée à contenir la solution à centrifuger ; quand elle est placée dans son logement, son centre se trouve à 6,5 cm de l’axe de rotor. Un logement situé symétriquement est destiné à recevoir un contrepoids qui équilibre le rotor.
- (Service des Virus de l’Institut Pasteur).
- Le rotor est en général suspendu librement à une tige flexible, ce qui lui permet d’adopter au cours de la rotation une position par rapport à l’axe telle que tout déséquilibre accidentel soit supprimé. Ce dispositif est particulièrement efficace : non seulement toute vibration se trouve éliminée mais la tolérance atteint même des valeurs élevées ; pour le rotor de la figure i la différence de poids tolérée entre la cellule amovible et son contrepoids est d’un demi-gramme, chiffre énorme si l’on songe qu’il est multiplié par la valeur de l’accélération, environ 250 000 fois celle de la pesanteur quand l’appareil tourne à pleine vitesse ! La vitesse linéaire
- acquise par les parties périphériques du rotor est alors supérieure à 400 mètres par seconde. Pour éviter la résistance de l’air, réchauffement et même la formation d’une onde de choc, le rotor doit être placé dans une enceinte où règne un vide poussé, de l’ordre de 1 micron de mercure. L’échauffement est alors si faible que les variations de température proviennent essentiellement des échanges par rayonnement et par conduction le long de l’axe. Cette enceinte est elle-même fortement blindée, afin de protéger le personnel contre l’éventualité d’un accident.
- Les centrifugeuses Henriot-Huguenard utilisent une solution élégante, qui fait du rotor l’élément principal d’une turbine, porté sur un coussin d’air comprimé (fig. 2) : l’air est projeté violemment au-dessous avec une incidence oblique, ce qui engendre à la fois sustentation et rotation et a l’avantage d’éviter les frottements mécaniques et les vibrations (fig. 3) ; un refroidissement permanent est assuré par l’air comprimé. Ce principe a permis de faire tourner des rotors de petit diamètre à des vitesses incroyablement élevées, se chiffrant par plusieurs centaines de milliers de tours par minute. Malheureusement ces appareils ne sont pas facilement utilisables dans les recherches courantes ; en conservant le mode d’entraînement à l’air comprimé, mais en lui joignant un rotor de type classique tournant dans le vide et suspendu à l’élément de turbine par un axe flexible, on obtient un ensemble indépendant dépourvu de tout frottement mécanique. Cet excellent dispositif est mis à profit dans les appareils du type Beams-Pickel et le modèle construit en Allemagne par Phywe.
- Fig. 3. — Sustentation et entrainement par l’air comprimé
- Le schéma correspond à un rotor tel que celui de la figure z ; les flèches indiquent le sens des jets d’air comprimé.
- Dans l’appareil américain de la firme Beckmann (Spinco E) (fig. 4), le rotor est également suspendu à une tige flexible ; l’entraînement s’effectue par un moteur électrique muni d’une boîte de démultiplication d’un rapport de 6,4 et de roulements spéciaux. Un système automatique agissant sur l’intensité du courant livré au moteur permet de régler la vitesse du rotor à une valeur constante, en la comparant à la vitesse d’un moteur synchrone par l’intermédiaire d’un rapport d’engrenage choisi. Les Spinco ont l’avantage d’avoir une simplicité d’emploi, ce qui permet de limiter au maximum toutes les servitudes, et une robustesse remarquable. C’est actuellement le modèle le plus répandu dans le monde : plus de 500 exemplaires, dont six étaient en service en France au début de 1961 ; la station centrale d’ultra-centrifugation du C. N. R. S.,
- Fig. 2. — Rotor d’une ultra-centrifugeuse Henriot-Huguenard.
- Ce rotor, d’un diamètre de 8 cm environ, n’est pas suspendu mécaniquement. Il est à la fois soutenu et entraîné par des jets d’air comprimé (voir la figure 3). Les échancrures de la partie inférieure donnent prise à l’air comprimé. Un tel rotor est dit « préparatif », car il ne permet pas l’observation du produit au cours de la centrifugation.
- 410
- p.410 - vue 409/560
-
-
-
- Fig. 4. — Ultra-centrifugeuse analytique Spinco (Beckmann).
- Les parties essentielles, moteur, chambre de rotation et source lumineuse se trouvent dans la partie gauche. Au centre sont placés les divers systèmes de réglage et le groupe de pompage. A droite : caméra automatique, fenêtre d’observation (flèche), réfrigération et compartiment de stockage des accessoires.
- L’opérateur s’apprête à placer le rotor dans la chambre de rotation.
- Fig. J. — Rotor en place dans la chambre de rotation.
- La chambre de rotation est montrée ouverte ; ses parois latérales sont constituées par le cylindre visible au bas de la photographie ; la paroi est blindée et réfrigérée. La fermeture s’opère par la mise en rotation des trois colonnes à vis qui soulèvent le cylindre jusqu’à ce que le joint étanche de son pourtour vienne presser sur le plafond. Le suintement de l’huile qui assure l’étanchéité autour de l’axe est dévié par le tube et sa chaînette. Le rotor présenté ici n’est pas muni du système de contrôle de la température.
- p.411 - vue 410/560
-
-
-
- 13, rue Pierre-Curie à Paris, en possède deux et travaille sur commande pour de nombreux laboratoires.
- Le déroulement des phénomènes observés en cours de centrifugation
- Imaginons un peu moins d’un centimètre cube de liquide enfermé dans une petite cellule telle que celle de la figure 6, munie de ses deux fenêtres en quartz et logée dans un rotor tournant à près de mille tours par seconde : ce sont des conditions très communes d’utilisation. On suit très facilement dans ce dispositif la sédimentation de molécules dont le poids moléculaire n’est pas supérieur à xo ooo.
- Un faisceau lumineux traverse verticalement la chambre de rotation. Une fois par tour la cellule de la figure 6 est traversée par ce faisceau, ce qui permet, grâce aux fenêtres de quartz, l’observation du liquide qu’elle contient. On comprend facilement que, sous l’effet de la force centrifuge, la surface du liquide est devenue verticale et qu’elle a la forme d’une portion de cylindre dont l’axe est l’axe de rotation du rotor. A l’intérieur du liquide observé, tous les points situés à la même distance de l’axe de rotation sont des points d’égale concentration de la solution et les surfaces de séparation des zones de densités différentes sont des portions de cylindres concentriques. Chaque portion
- Fig. 6. —• Schéma de la cellule amovible permettant l’observation de l’échantillon pendant la centrifugation. La pièce centrale P, munie d’une cavité en secteur que l’on remplit par l’orifice S, est serrée entre deux fenêtres en quartz. La flèche symbolise la direction des rayons lumineux. Explications dans le texte.
- Fig. 7- — Sédimentation d’une protéine suivie en lumière ultraviolette (2 530 A) pendant la centrifugation.
- Au cours de la sédimentation la frontière entre le solvant et la solution devient floue par suite de la diffusion des molécules ; m, surface du liquide. En bas : la protéine est entièrement sédimentée.
- du faisceau lumineux balaye donc une zone d’égale densité, ce qui fait que le mouvement ne nuit pas à 1 observation. Si l’on sédimente par exemple un produit coloré en suspension dans l’eau, on peut voir une zone incolore apparaître à la surface du liquide et s’agrandir avec le temps. Ce mode d’observation est particulièrement précieux pour l’étude des acides nucléiques, lesquels absorbent très fortement dans l’ultraviolet à des longueurs d’onde autour de 2 600 angstrœms ; on peut n’utiliser que quelques millièmes de milligramme de matériel, préparé par exemple à partir d’un virus.
- Solvant
- Frontière
- Fig. 8. — Déviation des rayons lumineux dans une zone où un gradient de la concentration détermine un gradient de l’indice de
- réfraction.
- Un tel gradient existe au niveau de la frontière traversée par les rayons 2 et 3. Explications dans le texte.
- 412
- p.412 - vue 411/560
-
-
-
- Dans bien des cas une autre propriété optique des solutions peut être mise à profit : l’augmentation de l’indice de réfraction avec la concentration. Supposons qu’une solution soit surmontée par une zone « claire », où il n’y a que le solvant seul. Entre la solution et le solvant s’établit une séparation, la « frontière », où la concentration varie rapidement de la valeur zéro à celle de la solution, avec augmentation corrélative de l’indice de réfraction. Si un rayon lumineux parallèle à la surface longe une telle frontière, il s’incurve par réfraction vers le milieu d’indice le plus élevé, tandis qu’un rayon traversant une région où l’indice est constant n’est pas dévié (fig. 8). Plus la frontière est étroite, plus la variation d’indice est rapide et plus la déviation du rayon est prononcée.
- La sédimentation au sein de la solution centrifugée a pour effet de créer de semblables frontières, que l’on peut déceler à l’aide d’un dispositif schématisé sur la figure 9.
- La solution S est éclairée par un faisceau lumineux issu de la fente F d’un collimateur, faisceau dont les rayons sont rendus parallèles par la lentille Lx avant la traversée de S (on a représenté seulement une tranche de ce faisceau). Si la solution S est d’une concentration uniforme, aucune tranche du faisceau n’est déviée. La lentille L2 projette l’image de F en F' dans le plan de la lentille L3. Immédiatement derrière L3, un écran oblique R (par exemple un fil fin) intercepte un peu de la lumière : il barre l’image F' en son centre, de sorte que la lentille cylindrique L4 projette sur l’écran E une ligne noire XX' (correspondant à l’ensemble des tranches du faisceau non représentées sur la figure). Supposons maintenant que la tranche du faisceau représentée ici traverse la solution S dans une zone de concentration croissante (frontière) ; à la sortie de S, les rayons lumineux seront déviés et, au lieu de concourir à l’image en F', ils aboutissent en F". L’écran R, étant obli-
- Fig. çf. — Schéma du système optique Philpot-Svenson.
- Une même portion du faisceau lumineux issu de la fente F est représenté dans les deux cas, lorsqu’il n’est pas dévié (image F') et lorsqu’il a traversé un gradient dans la solution S (image F"). L4, La, L3 sont des lentilles convergentes, L4 est une lentille cylindrique. Au delà de l’écran filiforme oblique R, seuls sont représentés les trajets des rayons interceptés par R. En l’absence de la lentille L4, la lentille L3 formerait sur l’écran E une image du liquide. L’écart N' N" mesure la déviation du faisceau dans la zone correspondante de S et par conséquent le gradient d’indice dans cette zone. Explications complémentaires dans le texte.
- que, interceptera cette lumière en C", à l’écart du centre de F" et le point noir donné par cette tranche sur l’écran E, au lieu d’être sur la ligne XX', s’en écartera en N". Au total il en résultera un diagramme comme celui de la figure xo.
- Solution
- Solvant
- Fig. 10. — Courbe de la concentration en fonction de la distance à l’axe de rotation (en haut) et diagramme correspondant observé à l’aide du système de la figure 9 (en bas). La frontière entre le solvant et la solution, plus ou moins diffuse, est marquée par un « pic ». Plus la transition est rapide, plus le pic est étroit.
- C’est donc un « pic » plus ou moins large qui marque sur l’écran la séparation entre la solution et le solvant pur. Son déplacement en fonction du temps nous renseigne sur la vitesse de la sédimentation ; il arrive souvent que plusieurs pics traduisent la présence dans la solution de plusieurs composants qui sédimentent à des vitesses nettement différentes, apportant ainsi de précieux renseignements d’analyse. Les figures 11 et 13 montrent des diagrammes photographiés de 16 en 16 minutes au cours de centrifugations. On constate en général qu’un pic s’élargit et diminue de hauteur au cours de la sédimentation, ce qui témoigne de l’étalement progressif de la frontière, comme on le voit nettement sur la figure 11. Nous savons déjà que ce phénomène est en grande partie lié à la diffusion ; les mesures de la sédimentation et de la diffusion des constituants biologiques à grosse molécule apportent de précieux renseignements et permettent de calculer la masse moléculaire.
- 413
- p.413 - vue 412/560
-
-
-
- Fig. il. — Sédimentation de l’albumine du sérum à 59780 tours/minute.
- De droite à gauche, photos prises toutes les 16 minutes, la flèche indiquant le sens de la migration. Les deux bandes claires qui encadrent chaque photo servent de référence pour mesurer la distance à l’axe et le grandissement de la photographie. Leur distance réelle est de 1,6 cm. Le produit forme un pic unique et symétrique. L’expérience a été réalisée avec une albumine pure et cristallisée, préparée par M. Pérez à l’Institut Pasteur. Son coefficient de sédimentation est de 4,4 S.
- Mesure de la masse et des dimensions des molécules
- Des particules sphériques de même densité sédimentent d’autant plus vite qu’elles sont plus grosses : c’est une notion intuitive. On définit pour chaque constituant un coefficient s égal au rapport v/y, où v est la vitesse de sédimentation et y l’accélération centrifuge ; l’unité est le Svedberg, du nom de l’inventeur suédois, et vaut io~13 seconde (le quotient d’une vitesse par une accélération a la dimension d’un temps), v étant proportionnel à y, le coefficient de sédimentation est une donnée physique indépendante de la vitesse du rotor ; elle varie cependant avec la concentration, la présence de sels et la viscosité de la solution, ce dernier facteur étant souvent le plus important : c’est ainsi qu’à o° C la sédimentation est beaucoup plus lente qu’à 20° C, car la viscosité de l’eau y est environ 1,8 fois plus élevée, ce qui freine davantage le déplacement des molécules. Aussi les mesures doivent-elles être corrigées pour répondre à un état standard choisi arbitrairement : une solution très diluée dans l’eau à zo° C.
- A la vitesse de diffusion correspond également un coefficient caractéristique D, lequel est en général d’autant plus grand que les molécules sont plus petites. Ces quelques données vont nous permettre de comprendre comment il est possible de mesurer le poids moléculaire.
- En assumant aux molécules une masse m, on peut calculer la force centrifuge qui s’exerce sur chacune d’elles, connaissant la valeur de l’accélération y. Comme nous devons tenir compte de la poussée d’Archimède qui est proportionnelle à pL/p (p étant la densité des molécules et pL celle du liquide solvant), la force mise en jeu est finalement : m( i — pL/p)y.
- Cette force centrifuge accélère la molécule, mais la force de frottement qui la freine croît avec sa vitesse et il arrive vite un moment où les deux forces s’équilibrent, la molécule étant alors animée d’un mouvement uniforme. Si l’on appelle v la vitesse de la molécule et / un coefficient de
- frottement qui dépend de la forme de la molécule, la force de frottement est égale à jv. On a donc l’équation :
- «(ï — Pl/p)ï= >•
- Le coefficient de frottement f intervient chaque fois qu’il y a déplacement de molécules par rapport au milieu environnant : on doit donc le trouver lié à la diffusion ; on montre en effet que D et f sont liés par la relation D = kT/f (k étant une constante universelle et T la température absolue). Comme v = ys, en remplaçant f par sa valeur d’après l’équation précédente, on obtient finalement l’expression qui donne la masse d’une molécule (exprimée en grammes) :
- kTs
- m ~ D(i p,./ p) *
- On obtient la masse moléculaire en multipliant le résultat par le nombre d’Avogadro (nombre de molécules dans une molécule-gramme), soit 6,02 x io23.
- Prenons un exemple : le coefficient de sédimentation de l’albumine du sérum est 4,2 x io~13 seconde (ou 4,2 S), son coefficient de diffusion vaut 6 x io~7 (C. G. S.), sa densité est 1,35 ; la température absolue est 293, le produit de la constante k par le nombre d’Avogadro est 8,32 X io7. Ceci nous permet de calculer la masse moléculaire qui est environ 65 000, chiffre sensiblement en accord avec celui que procurent d’autres méthodes.
- Malheureusement, la détermination précise du coefficient de diffusion D des molécules est presque toujours une opération délicate. Aussi préfère-t-on aujourd’hui déterminer directement à la centrifugeuse le rapport s/D qui figure dans la formule précédente. Nous allons tenter de donner une idée de la façon dont on procède.
- Nous avons vu qu’au cours d’une même expérience, sédimentation et diffusion sont deux phénomènes compétitifs. Si le rotor tourne très vite, la diffusion n’a que peu de temps pour opérer et les molécules, pourvu qu’elles soient assez grosses, se déposent facilement sur le fond de la cellule. Mais si la sédimentation est rendue très lente, il n’apparaît pas de « pic » nettement distinct ; la concentration varie continûment, la solution étant naturellement plus concentrée au fond qu’à la surface. Au bout d’un certain temps, la sédimentation vers le fond est compensée à tous les niveaux par la diffusion en sens contraire : il y a équilibre. De la mesure des concentrations à deux niveaux différents du liquide on peut alors déduire le rapport s/D. En réalité cet équilibre ne se réalise qu’au
- 414
- p.414 - vue 413/560
-
-
-
- bout d’un temps assez long, parfois supérieur à un ou deux jours, et c’est un inconvénient sérieux. Dans une méthode due à Archibald, très utilisée aujourd’hui, il n’est plus nécessaire d’obtenir l’équilibre définitif. Son principe est le suivant : à tout moment on peut considérer un niveau déterminé du liquide à une certaine distance de l’axe ; supposons que nous soyons capables de compter les molécules qui franchissent ce niveau dans un sens ou dans l’autre, mues par les forces de sédimentation ou de diffusion. Si la sédimentation l’emporte, le bilan est un transport d’une certaine quantité de molécules dissoutes vers le bas ; si au contraire la diffusion l’emporte, le bilan est un transport en sens inverse. Que l’équilibre soit atteint et il y a compensation. Or il existe au moins deux surfaces pour lesquelles ce bilan est toujours nul, même si les conditions sont très éloignées de l’état d’équilibre : la surface du liquide et le fond de la cellule, pour des raisons faciles à deviner, ces surfaces étant les limites de notre solution. Par une méthode assez simple on peut évaluer la concentration et son gradient (c’est-à-dire la rapidité de sa variation) au voisinage immédiat de la surface ; en principe une seule photo suffit ; on obtient la valeur du rapport s/D. On recommence la même opération au voisinage du fond : le résultat doit coïncider avec le premier ; dans le cas contraire nous aurions là l’indication que le produit dissous n’est pas homogène et qu’il existe des particules de tailles différentes. Cette épreuve permet donc de vérifier aussi la pureté de la préparation.
- Le poids moléculaire est alors une donnée disponible en quelques heures en utilisant des vitesses de rotation relativement basses, d’où une économie de temps et de moyens. Pour de petites protéines comme les ribonucléases, la valeur obtenue, soit 13 800, s’obtient à l’aide de vitesses de l’ordre de 12 000 tours/minute ; pour observer un pic de sédimentation net il faudrait utiliser des vitesses quatre à cinq fois supérieures ! Quelques milliers de tours par minute suffiraient pour appliquer la méthode d’Archibald à des protéines plus grosses et nous aboutissons à ce résultat surprenant : les ultra-centrifugeuses conçues pour tourner le plus vite possible, au prix de grandes difficultés, s’utilisent fort bien au ralenti, sans qu’il soit nécessaire de provoquer l’apparition d’un dépôt au fond de la cellule. C’est un peu comme si on utilisait pour la ville une voiture de course de forte cylindrée !
- Nous pourrions donc, pour cet emploi précis, nous servir de centrifugeuses à vitesse relativement faible mais, en fait, seules les ultracentrifugeuses, utilisées dans les laboratoires à diverses fins, sont munies des perfectionnements qui sont nécessaires. De grandes vitesses sont indispensables pour la mesure précise du coefficient de sédimentation, de même que pour observer la sédimentation de molécules de tailles inégales qui sont en mélange et que l’on veut discerner, comme dans l’exemple, cité plus loin, des macroglobulines du sérum, etc.
- La forme des molécules
- Les déterminations faites à l’ultra-centrifugeuse sont souvent basées sur une théorie très ardue et se montrent d’interprétation délicate. Supposons certaines molécules assimilables à des sphères : pour des éléments de taille et de masse données, nous pouvons déduire par le calcul
- le coefficient de frottement / que nous avons rencontré précédemment. Effectuons l’opération suivante : déterminons la masse moléculaire M, ce qui revient, si l’on connaît la densité, à mesurer le rayon des sphères correspondantes ; pour l’albumine du sérum, M est égal à 65 000, la densité est 1,35, le rayon des particules serait de 20 À environ ; la théorie permet alors d’en déduire le coefficient /. Or, nous savons que celui-ci peut être mesuré à l’aide du coefficient de diffusion : si la valeur trouvée par cette voie coïncide avec la valeur calculée, nous pouvons penser que l’hypothèse de départ était exacte et que les molécules étaient bien sphériques. Cependant la valeur mesurée à l’aide de la diffusion est souvent plus élevée, pour deux raisons ; les molécules peuvent être entourées d’une couche d’eau, ce qui tend à les freiner davantage : c’est un cas fréquent pour les macromolécules biologiques, presque toujours hydratées ; d’autre part, la forme des particules peut ne pas être sphérique : des bâtonnets ou des disques se déplaçant en zig-zag et en tournant sur eux-mêmes de façon tout à fait désordonnée sont à coup sûr freinées davantage que ne le seraient des sphères. Le degré d’hydratation étant connu, il sera possible d’affirmer seulement que les molécules se comportent au point de vue hydrodynamique comme des particules de telle ou telle forme, par exemple comme des ellipsoïdes de tel rapport d’axes.
- Les matériaux que nous fournissent les êtres vivants sont excessivement complexes, constamment modifiés par les conditions et souvent extraordinairement mouvants et adaptables, même en dehors du milieu vivant. Une technique à elle seule ne peut suffire et il est nécessaire d’utiliser un véritable arsenal de moyens ; d’autres méthodes sont plus précises en vue de déterminer la forme des molécules. L’ultra-centrifugeuse nous permet d’effectuer une discrimination sensible des particules de masses différentes au sein d’une même solution et d’examiner leurs actions réciproques éventuelles : ce sont là sans doute ses principales qualités, lesquelles nous apparaîtront davantage dans quelques exemples.
- Les globulines du sérum et leurs altérations pathologiques
- A l’écart de toute déduction théorique compliquée, l’appareil permet souvent d’effectuer un simple contrôle d’une préparation. Le diagramme de la figure 12 (à gauche) provient d’un acide nucléique fraîchement isolé et pratiquement débarrassé de toute protéine. On y observe trois fractions ; celle qui sédimente le plus rapidement est très hautement polymérisée, puisque son poids moléculaire dépasse largement un million : ce sont de très longues chaînes repliées et tordues en hélices de façon plus ou moins compacte. On connaît les remarquables propriétés des acides nucléiques dans le monde vivant, leur activité fonctionnelle étant souvent liée à un très haut degré de polymérisation. L’acide de la figure 12 est très sensible à des traces de certaines enzymes comme les ribonucléases, toujours présentes dans les tissus : les chaînes sont rapidement scindées en éléments de plus en plus petits. On peut donc vérifier très rapidement l’état d’une préparation et suivre les étapes de sa dégradation. Aussi l’ultra-centrifugeuse est-elle un instrument de choix dans de nombreux domaines de recherches, par exemple l’action des enzymes
- 415
- p.415 - vue 414/560
-
-
-
- Fig. 12. — Sédimentation d’acide ribo-nucléique du foie après 40 minutes de centrifugation à 50740 tours/minute.
- Même disposition que sur chacun des diagrammes de la figure 11. La surface du liquide est située vers la droite et, pendant la centrifugation, les pics se déplacent vers la gauche. Ces diagrammes correspondent . à deux expériences successives. Dans le premier (à gauche), on distingue deux fractions hautement polymérisées, se sédimentant à des vitesses différentes ; la plus rapide (27 S) est constituée par des molécules ayant une masse moléculaire de plus de 1 500 000. L’image de droite concerne la même préparation au bout d’un même temps d’une centrifugation identique ; mais on a ajouté 0,000 01 mg/cm3 de ribonucléase, et cette enzyme a dégradé l’acide ribonucléique en molécules plus petites ; le pic dissymétrique représente un mélange hétérogène de ces produits dégradés, qui sédimentent plus lentement et pour cette raison se trouvent plus à droite dans le diagramme.
- sur un substrat de grosses molécules organiques (fig. 12, à droite).
- Le sérum humain possède un diagramme caractéristique, dont l’apparente simplicité contraste avec le nombre de constituants que l’on sait y reconnaître par d’autres voies : plus d’une trentaine. L’ultra-centrifugeuse est entrée dans le domaine de la pathologie médicale le jour où des perturbations profondes du diagramme du sérum (modification du rapport des constituants ou apparition de protéines anormales) se sont montrées liées à divers troubles de l’organisme (fig. 13).
- Dans les protéines du sérum figurent les globulines, parmi lesquelles on distingue les gamma-globulines et les macroglobulines, qui sont les unes et les autres des supports des anticorps du sang et jouent donc un rôle capital dans les réactions d’immunité. Les macroglobulines sont de très grosses protéines dont le poids moléculaire peut dépasser 1 million et dans lesquelles entre une part importante de glucides. Elles sont encore mal connues et suscitent beaucoup d’intérêt. Leur vitesse de sédimentation est d’environ 20 Svedberg pour les plus importantes. Elles apparaissent très souvent sur les diagrammes comme un pic très serré ou comme une barre (fig. 13) ; cet effet n’est pas dû comme on pourrait le croire à la lenteur de leur diffusion, mais au fait que les macroglobulines sédimentent bien plus vite en solution diluée qu’en solution concentrée : dès lors, les molécules qui se trouvent plus près de l’axe de rotation, en retard sur la frontière créée
- entre la solution et le liquide surnageant, se mettent à sédimenter plus rapidement que les molécules placées plus loin et elles tendent à les rattraper en produisant ce resserrement marqué du pic. Une action chimique convenable scinde facilement les macroglobulines en particules plus petites dont le poids moléculaire est de l’ordre de 159 000 et la vitesse de sédimentation de 7 S, ce qui les fait ressembler aux gamma-globulines normales.
- Une maladie dite de Waldenstrôm s’accompagne d’une augmentation caractéristique des macroglobulines. Cette affection assez rare frappe de préférence les personnes âgées et entraîne éventuellement d’autres anomalies sanguines, avec anémie et tendance aux hémorragies ; les cas les plus graves montrent des altérations du squelette ; la maladie peut, au contraire, rester bénigne pendant de nombreuses années et passer même inaperçue. Ces macro-
- Fig. 13. — Diagrammes successifs du sérum d’un malade atteint de la maladie de Waldenstrôm.
- Même disposition que sur la figure n. Dans l’ordre des mobilités croissantes (c’est-à-dire de droite à gauche sur chaque diagramme), on voit : un pic important constitué surtout par l’albumine ; un deuxième plus rapide qui ne s’en détache que peu à peu (globulines) ; un pic très aigu qui a disparu au bout de 64 minutes (macroglobuline pathologique, coefficient de sédimentation : 19 S) ; un pic encore plus rapide, disparu au bout de 55 minutes (sans doute des macroglobulines associées entre elles). La disparition d’un pic correspond à la sédimentation du produit sur le fond de la cellule. Noter que certains pics (notamment ici celui de la macroglobuiine pathologique) sont traversés par une ligne noire ; c’est que la macroglobuline en grande quantité a produit localement un gradient de concentration si élevé que le rayon lumineux qui l’a traversé a été dévié au point de sortir du champ de la photo.
- 416
- p.416 - vue 415/560
-
-
-
- globulines sont-elles des constituants normaux fabriqués en excès par l’organisme, ou s’agit-il d’éléments entièrement nouveaux ? Ce problème n’a pas encore reçu de réponse définitive.
- Un cancer de la moelle des os, le myélome multiple, se caractérise par d’importantes résorptions osseuses et l’apparition dans le sang de globulines franchement anormales, presque toujours très homogènes aussi bien à l’ultra-centrifugeuse que par d’autres méthodes. Ces nouveaux constituants peuvent sédimenter comme des gamma-globulines normales ou comme des macroglobulines de io à 14 S. Dans l’urine du malade s’observe également une protéine anormale, dite de Bence-Jones, dont la molécule est un peu plus petite que celle de l’albumine ; elle possède une particularité remarquable, celle de précipiter quand on chauffe l’urine vers 50° C puis de se redissoudre quand on continue à chauffer. Or il existe une parenté immunologique entre certaines macroglobulines, les globulines anormales, les protéines de Bence-Jones et les gamma-globulines normales du sérum, et il n’est pas impossible que la plupart des constituants pathologiques correspondent à une déviation des synthèses des globulines-anticorps en faveur d’un type homogène, sorte de parasitisme à l’échelon métabolique. On comprend l’intérêt que présentent ces phénomènes, en vue d’élucider les mécanismes compliqués qui règlent la formation de nos anticorps.
- Sédimentation et flottation
- Une des contributions les plus spectaculaires de l’ultra-centrifugeuse à l’étude des liquides biologiques est d’avoir permis de débrouiller quelque peu le groupe complexe des lipo-protéines, famille de protéines qui contiennent une proportion plus ou moins importante de lipides (corps gras). Les lipo-protéines du sang forment une gamme très variée de produits, dont la structure est encore imparfaitement connue. On observe en gros ceci : plus la partie lipidique est importante, plus la taille des particules augmente, en s’accompagnant d’une diminution de densité. Or dans les lipo-protéines plasmatiques les plus denses entrent déjà pour au moins 40 pour 100 en poids de lipides et leur densité n’est plus que 1,15 environ. Aussi leur sédimentation à l’ultra-centrifugeuse est-elle nettement plus lente que celle de l’albumine (densité 1,35) en dépit d’un poids moléculaire supérieur à 150 000. En les incorporant à un milieu suffisamment dense, par exemple à une solution saline concentrée dont la densité dépasse 1,15, on peut s’attendre à un changement de signe du mouvement des molécules qui vont venir s’accumuler non plus au fond, mais à la surface : ce phénomène a effectivement lieu et a été nommé « flottation » (fig. 14). En modifiant convenablement la densité de la solution, on peut donc observer le passage de la sédimentation à la flottation et déterminer le point où se produit l’équilibre (ni sédimentation, ni flottation), ce qui permet d’en déduire la densité des particules telles qu’elles existent dans la solution, c’est-à-dire avec leur cortège de molécules d’eau.
- Pour toute une classe de lipo-protéines nous trouvons 75 pour 100 de lipides, pour d’autres 90 pour 100 ; la densité de ces produits passe de 1,05 à moins de 1. Leur poids moléculaire se chiffre par millions ; leur taille atteint
- Fig. 14. — Une lipoprotéine centrifugée 48 minutes à 59780 tours/minute dans deux solvants de densités differentes. Dans chaque cas, le diagramme donné pat la solution de lipoprotéine et celui qui est donné par le solvant seul ont été directement superposés en utilisant une cellule possédant deux compartiments en secteur placés côte à côte. On peut donc savoir ce qui revient en propre à la lipoprotéine. A, sédimentation dans un solvant de densité 1,015. flottation dans un solvant de densité 1,210 (la forme incurvée est due à la répartition d’équilibre du sel, qui devient très importante pour les solutions plus concentrées). Les flèches indiquent le sens de la sédimentation (A) et de la flottation (B).
- celle de petits virus, comme celui de la poliomyélite, et leur flottation est très rapide, ce qui permet de les séparer facilement. Par l’ultra-centrifugation nous pouvons donc affecter aux lipo-protéines une classification, en tirer sur chacune d’elles des présomptions assez fortes sur leur taille, leur teneur en lipides, et dans une certaine mesure la composition de ceux-ci.
- Une méthode ultra-sensible : séparation des isotopes
- Puisqu’il est question de densité moléculaire nous ne saurions conclure sans mentionner l’utilisation classique des gradients de densité. Imaginons un artifice quelconque créant dans la cellule d’observation une augmentation continue de la densité du liquide de la surface vers le fond,
- 417
- p.417 - vue 416/560
-
-
-
- c’est-à-dire un tel gradient. On peut régler la valeur moyenne de celui-ci de façon que les particules dissoutes subissent la sédimentation dans les parties superficielles et la flottation dans les parties profondes : le résultat sera l’accumulation du produit à un niveau intermédiaire, où régnent les conditions de l’équilibre.
- Il est possible d’obtenir un gradient de densité en faisant tourner à grande vitesse la solution concentrée d’un sel. Les ions sont évidemment trop petits pour se déposer sur la paroi du fond, mais ils donnent lieu pourtant à une répartition d’équilibre : la solution est alors plus concentrée au fond qu’à la surface. Si l’on connaît la densité des macromolécules étudiées, il suffit d’ajuster celle de la solution saline autour de cette même valeur : le gradient et le niveau d’accumulation se constituent simultanément au cours de l’expérience.
- Résumons des expériences qui montrent l’extrême sensibilité de la méthode du gradient de densité et le parti que l’on peut en tirer pour l’étude du mode de synthèse de certaines substances cellulaires. La thymine est une base azotée qui fait partie des chaînes d’acide désoxyribonucléique ou ADN (partie principale des chromosomes ainsi que de certains virus comme les bactériophages). L’azote contenu dans la thymine normale est bien entendu l’azote 14 ordinaire. Mais on peut remplacer l’azote 14 par son isotope lourd, l’azote 15. Si l’on place de la thymine ainsi marquée à l’azote 15 dans un milieu de culture de bactéries, une partie de l’azote lourd se retrouve dans l’ADN des bactéries. Si la culture bactérienne est alors attaquée et lysée par un bactériophage, l’ADN du phage, synthétisé aux dépens de la bactérie, se trouvera également marqué à l’azote 15. Or, la différence de densité des molécules introduite par l’azote 15 est suffisante pour que les deux ADN, l’un marqué et l’autre non, occupent à la centrifugation deux bandes différentes en gradient de densité.
- Pour Meselsohn et ses collaborateurs, cette constatation fut le point de départ pour une étude du mode de reproduction de l’ADN. On sait que l’ADN, porteur de 1’ « information » qui gouverne l’hérédité, a pour premier pouvoir d’induire la reproduction de molécules semblables à lui-même. Il est formé de deux chaînes parallèles (et
- semblables dans un ordre inverse) unies par des paires de bases azotées comme les deux montants d’une échelle sont unis par les barreaux. Meselsohn a donc procédé à l’expérience suivante. Un bactériophage ayant son ADN marqué à l’azote 15 a été introduit dans une culture bactérienne normale ne contenant pas cet isotope lourd. La culture étant lysée, le bactériophage qui s’y est multiplié doit contenir à la fois de l’ADN marqué et non marqué à l’azote 15. Or ce bactériophage étant soumis à l’ultracentrifugation en gradient de densité, on constate l’apparition d’une troisième bande, située entre celles de l’ADN marqué et de l’ADN normal. Il y a donc un ADN « hybride » de densité intermédiaire. Cette constatation semble bien confirmer l’hypothèse selon laquelle la duplication de l’ADN se réalise d’abord par une séparation des deux chaînes parallèles de la molécule, chacune des deux chaînes gouvernant ensuite la reproduction d’une chaîne semblable à celle qui manque et reconstituant la chaîne double. Les deux moitiés d’ADN (marquées) auraient ainsi chacune utilisé les matériaux azotés des bactéries (non marqués) qui lui étaient offerts pour reconstituer un ADN complet de densité intermédiaire.
- *
- * *
- Il n’est pas possible, dans cet exposé, de parcourir tous les domaines où l’ultra-centrifugeuse analytique a trouvé son utilisation. Une abondante documentation théorique et pratique est trouvée dans le livre de Schach-man, Ultracentrifugation in biochemistry (Academie Press). L’ouvrage plus ancien de Svedberg et Pederson reste la « bible » du chercheur pour la théorie de base et la construction mécanique des pièces. On aurait d’ailleurs tort de croire que cette technique est réservée à la chimie biologique ; de nombreux domaines de recherches l’utilisent, par exemple dans les industries des plastiques ou du pétrole. Pour la science des grosses molécules c’est la meilleure des balances de précision.
- Jean Pelmont,
- Agrégé de l’Université.
- Les photographies qui illustrent cet article nous ont été obligeamment communiquées par le Service des Virus de l’Institut Pasteur.
- Champignon contre moustique
- L’emploi massif des insecticides a un double inconvénient : d’une part, c’est une arme aveugle qui, pour détruire une espèce nuisible, en atteint quantité d’autres, soit directement utiles, soit participant aux équilibres naturels ; d’autre part, il devient souvent inopérant par l’apparition de souches résistantes chez l’espèce attaquée. Chaque fois que c’est possible, on doit préférer la lutte biologique, c’est-à-dire l’introduction d’un parasite qui s’attaque électivement à l’espèce indésirable. La revue Santé du Monde a rapporté récemment les résultats d’une expérience organisée en 1958 par l’Organisation mondiale de la Santé aux îles Tokélau, atolls de corail perdus au cœur du Pacifique, expérience qui offre un bon exemple de lutte biologique.
- Dans ces îles vit une espèce de moustique (Aedes polynesien-sis) qui transmet une filaire, vers parasite du groupe des Néma-
- todes qui est responsable de l’éléphantiasis. Le docteur Laird, du Canada, et le docteur Colless, de Malaisie, ont imaginé d’infecter les larves aquatiques de ce moustique avec un champignon microscopique du groupe des Moisissures, originaire de Malaisie : le Coelomomyces stegomyiae (ainsi nommé parce qu’il parasite des moustiques du genre Stegomyia). La difficulté fut de transporter vivants les champignons depuis la Malaisie jusqu’au cœur du Pacifique. Les gîtes larvaires furent ensemencés et, deux ans après, en i960, l’infection s’était répandue dans 13 pour 100 de ces gîtes, empêchant les larves de se transformer en insectes adultes. Là où en 1958 on dénombrait 60 moustiques en 15 minutes, il s’en rencontrait moins de 30 en i960. L’infection semble donc se maintenir et attaquer les générations successives de moustiques. R. D.
- 418
- p.418 - vue 417/560
-
-
-
- Poste radio détecteur de radiations
- Si l’on excepte le risque de pollution radioactive des aliments, qui sont de plus en plus surveillés à cet égard, le danger des radiations ionisantes ne paraît aujourd’hui sérieux que pour ceux qui travaillent à proximité immédiate des sources de rayonnements. Cependant, les cris d’alarme se sont multipliés pour nous mettre en garde contre une augmentation possible de la radioactivité ambiante. Pour apaiser nos craintes, devrons-nous un jour, à l’instar des techniciens de l’énergie nucléaire, porter sans cesse avec nous un détecteur de radiations ? En voici un, proposé en Amérique à ceux qui ne se séparent jamais de leur poste de radio. Qui se douterait que cet élégant récepteur comporte un détecteur ? Présenté au récent Salon des Arts Ménagers de Chicago par la Westinghouse Electric Corporation, ce poste de T. S. F. à deux gammes d’onde fonctionne sur secteur, sur batterie ou à l’aide
- d’une magnéto actionnée manuellement. Lorsque la radioactivité ambiante devient anormalement élevée, il émet un signal sonore qui avertit son propriétaire du danger. A quand maintenant le stylographe ou le briquet détecteurs de radiations ?
- On a appris d’autre part que la Commission américaine de l’Énergie atomique a mis au point un nouveau détecteur de rayons gamma qui n’est pas plus gros qu’un stylo ; il peut être placé dans la poche des techniciens qui travaillent dans des installations nucléaires. Sa nouveauté réside dans le fait que lorsque son porteur entre dans une zone dangereuse, un signal d’alarme se déclenche et un éclair lumineux est émis par l’appareil. Cette signalisation sonore et lumineuse était jusqu’alors réservée à des détecteurs plus encombrants.
- Montagne sous-marine près de Madagascar
- Le Bulletin d’information publié par le Comité de l’Année géophysique de l’Académie des Sciences de l’U. R. S. S. signale qu’au cours d’une de ses expéditions océanographiques le navire soviétique Vitiay a constaté une diminution aussi considérable que soudaine de la profondeur de l’océan à 200 milles environ à l’est de Madagascar. La profondeur indiquée par les cartes étant de l’ordre de 4 000 à 5 000 m au moins dans cette région, un sondage détaillé fut entrepris. Ce sondage révéla l’existence d’une montagne sous-marine à latitude sud,
- 5 3°3 8r longitude est. Cette montagne, haute de 3 100 m, a son sommet à la profondeur de 1 530 m.
- Radioisotopes dans le cerveau
- Un groupe de chercheurs de Los Angeles (Californie) a mis au point une nouvelle méthode de détection des troubles circulatoires permettant d’étudier l’irrigation du cerveau qui, lorsqu’elle est mal assurée, est génératrice d’attaques. Ces chercheurs injectent dans une veine une substance radioactive puis surveillent son arrivée dans le cerveau en utilisant deux compteurs de radiations situés de chaque côté de la tête, afin d’étudier l’irrigation de chacun des deux hémisphères. Tout en n’incommodant pas le patient, cette technique permet d’étudier l’effet des médicaments administrés et les résultats des interventions chirurgicales éventuelles (.Information U. S. I. S.).
- 419
- p.419 - vue 418/560
-
-
-
- Applications récentes de la thermoélectricité
- batteries solaires et nucléaires
- réfrigérateurs miniatures, etc. par Robert Rosset
- Jusqu’à ces dernières années, les transformations de l’énergie calorifique en énergie électrique étaient toujours effectuées par l’intermédiaire de machines thermiques suivies de machines tournantes productrices d’électricité. Nous avons cependant montré dans un précédent article (x) qu’il existait une autre voie, plus ancienne même que celle-là, et qui consistait à transformer directement la chaleur en électricité par l’intermédiaire de l’effet thermoélectrique. Inversement, il est possible de produire directement du froid, sans utiliser ni compresseur ni fluide réfrigérant, ou de la chaleur sans, pour autant, utiliser l’effet Joule.
- Quel est l’état actuel des réalisations dans ce domaine ? C’est ce que nous nous proposons d’examiner dans les lignes qui suivent.
- Rappelons d’abord succinctement en quoi consiste l’effet thermoélectrique. Un circuit fermé composé de deux conducteurs différents est le siège d’un courant électrique aussi longtemps que les deux soudures sont maintenues à des températures différentes : c’est un couple thermoélectrique (fig. i). En chauffant l’une des soudures et en laissant l’autre à la température ordinaire, on réalise donc un générateur d’électricité qui transforme directement de l’énergie thermique en énergie électrique. De la chaleur est prélevée à la soudure chaude tandis qu’il s’en dégage à la soudure froide et c’est la différence entre ces deux quantités de chaleur qui est transformée partiellement en énergie électrique. Au point de vue thermodynamique, cet appareil est une sorte de machine à vapeur où le fluide circulant entre la soudure chaude, jouant le rôle de chaudière, et la soudure froide, jouant le rôle de condenseur, n’est plus de la vapeur d’eau mais l’ensemble des électrons qui transportent le courant. C’est là l’effet Seebeck dont la découverte remonte à 1821.
- Vingt-cinq ans plus tard, le Français Peltier découvrait l’effet inverse du précédent : lorsqu’on fait passer un courant continu dans le circuit formé de deux conducteurs différents, la soudure se refroidit ou s’échauffe selon le sens du courant (fig. 2). A cet effet vient évidemment s’ajouter l’effet Joule, indépendant du sens du courant et qui consiste toujours en un échaufîement. L’appareil est, cette fois,
- j. Voir La Nature-Science Progrès, avril 1961, p. 170-176.
- analogue à une machine à vapeur fonctionnant en sens inverse, c’est-à-dire à une machine frigorifique. Les électrons extraient de la chaleur à l’une des soudures qui devient froide et la transportent vers l’autre, qui s’échauffe : l’énergie électrique dépensée sert à assurer ce transport de chaleur.
- Les premiers couples thermoélectriques étaient constitués par des métaux et le rendement en était extrêmement limité. Nous avons dit dans notre précédent article que la renaissance actuelle de la thermoélectricité était due à une connaissance plus approfondie de la physique du solide et à l’emploi consécutif des semi-conducteurs dont les propriétés, en ce domaine, sont tout à fait remarquables. D’ores et déjà, les rendements obtenus ont été jugés
- ÿ
- Sens du courant
- Soudure
- froide
- Soudure
- chaude
- Fig. 1. — Effet Seebeck.
- Un circuit fermé constitué de deux conducteurs différents est le siège d’un courant électrique aussi longtemps que les deux soudures sont maintenues à des températures différentes. Le remplacement des conducteurs (métaux) par des semi-conducteurs a permis d’améliorer considérablement le rendement de l’effet thermoélectrique.
- 420
- p.420 - vue 419/560
-
-
-
- Chaleur
- Froid
- Chaleur
- Fig. 2. — Effet Peltier.
- Selon le sens du courant que l’on fait circuler dans le circuit la soudure i absorbe ou dégage de la chaleur. A l’autre soudure 2 on observe l’effet thermique inverse du premier. L’une des soudures devient froide (production de glace) tandis que l’autre s’échauffe.
- suffisants pour justifier de nombreuses réalisations. D’après ce qui précède, on voit qu’on peut les ranger en deux caté-ries : production d’électricité et réfrigération.
- Production d’électricité : batteries solaires
- Le rendement des piles thermoélectriques est généralement compris entre 8 et 20 pour 100 ; il peut donc sembler faible si on le compare à celui des centrales thermiques modernes où l’on atteint couramment 40 à 42 pour 100, mais il faut remarquer que ce rendement est indépendant de l’importance de l’installation, c’est-à-dire qu’il reste
- le même, que l’on construise un générateur thermoélectrique capable de fournir une puissance de quelques watts ou, au contraire, de quelques kilowatts. Il n’en est pas du tout de même du rendement des dispositifs du type machine thermique qui est, lui, directement fonction de l’importance de l’installation. S’il atteint 42 pour 100 dans les grandes centrales, il tombe à 10 ou 15 pour 100 dans les automobiles. Si l’on compare, par conséquent, le rendement d’une centrale thermique à edui d’un générateur thermoélectrique, il existe une valeur de la puissance de l’installation au-dessous de laquelle les piles thermoélectriques reprennent tous leurs avantages.
- Un exemple d’application de cette propriété est la récupération de l’énergie solaire. Celle-ci nous arrive sous une forme extrêmement diffuse et aucun dispositif utilisant des machines thermiques n’a jusqu’ici réussi à s’imposer car, pour les appareils de petites dimensions, les rendements ont toujours été trop faibles. Au contraire, en utilisant des couples thermoélectriques pour transformer en électricité la chaleur produite par le rayonnement solaire, les rendements obtenus rendent le procédé compétitif avec les autres formes d’énergie utilisables au lieu considéré et dans la gamme de puissance considérée.
- C’est ce que vient de montrer une très belle réalisation française : une pile solaire thermoélectrique d’une puissance de 100 watts, mise au point par les laboratoires de la Société d’étude et d’application industrielle de l’énergie solaire, société constituée par la C. S. F. et le Bureau d’investissement africain. Le premier prototype (fig. 3) a été installé il y a quelques mois dans les environs de Toulon et semble donner satisfaction à ses constructeurs.
- Fig. — La pile solaire thermoélectrique de la Compagnie générale de T. S. F., installée aux environs de Toulon.
- La surface de la pile, tournée vers le soleil, est constituée d’un quadrillage de plaques noircies pour qu’elles puissent absorber la plus grande quantité de rayonnement. A chaque plaque est soudée une lamelle semi-conductrice qui constitue la soudure chaude du couple thermoélectrique.
- {Photo C. S. F.).
- p.421 - vue 420/560
-
-
-
- On évalue à x kW/m2 la puissance rayonnée par le soleil à midi dans un pays chaud mais, pour pouvoir utiliser au maximum cette puissance rayonnée, il a fallu d’une part mettre au point des plaques collectrices qui puissent absorber la plus grande quantité de rayonnement, d’autre part parvenir à refroidir les soudures froides des nombreux couples thermoélectriques qui constituent la pile, de manière à réaliser une différence de température aussi grande que possible entre les jonctions chaudes et froides.
- Le matériau thermoélectrique utilisé est le tellurure de bismuth fritté. La source chaude de chaque couple est soudée à une plaque collectrice noire de x dm2 dont l’ensemble forme la surface de la pile. Celle-ci est de 17 m2, la plus grande qui ait été réalisée à ce jour à notre connaissance.
- La source froide de chaque couple est soudée à des pièces métalliques qui conduisent le flux thermique à des ailettes situées sur la face opposée de la pile et qui évacuent les calories non transformées en électricité par convection naturelle. Ces ailettes se trouvent ainsi à 20 ou 250 C au-dessus de la température ambiante.
- La température atteinte par la source chaude est de l’ordre de 1400 C. Pour y parvenir il a fallu réduire au minimum les pertes thermiques du système ; ces pertes sont de trois sortes : pertes par rayonnement, par conduction et par convection.
- Pour limiter les pertes par rayonnement, on utilise des plaques sélectives traitées spécialement pour absorber la lumière visible et ayant un pouvoir émissif aussi faible que possible dans l’infrarouge.
- Pour éviter les pertes par conduction, l’espace situé
- Fig. 4. — Le S. N. A. P. III.
- La pile thermoélectrique de 2,250 kg que l’on voit au premier plan à droite utilise la chaleur dégagée par la désintégration du polonium 210. Elle produit assez d’énergie électrique pour allumer une ampoule et faire tourner une hélice. A gauche, au second plan, on voit un appareil identique dont le couvercle a été enlevé.
- {Photo U. S. I. S.).
- entre les collecteurs et les ailettes de refroidissement est rempli d’un matelas de laine de verre.
- Enfin pour réduire les pertes par convection, 2 ou 3 plaques de verre sont disposées au-dessus des plaques collectrices. Ces plaques de verre limitent en même temps les pertes par rayonnement (effet de serre).
- Là puissance délivrée à midi sous un soleil rayonnant une puissance de 1 kW/m2 est de l’ordre de 10 W/m2 ; mais cette donnée ne fournit pas une idée très précise des possibilités pratiques du générateur en raison des variations d’ensoleillement au cours de la journée ; aussi préfère-t-on dire que 1 m2 de pile solaire est à même de délivrer une énergie de 50 watts-heure par jour ce qui correspond, dans le cas le plus fréquent de l’utilisation d’une batterie d’accumulateurs jouant le rôle de tampon, à une puissance permanente d’emploi de 2 watts environ.
- Cette puissance peut paraître faible mais elle est cependant suffisante pour un certain nombre d’emplois civils ou militaires. Elle est en particulier parfaitement adaptée à l’alimentation de circuits électroniques transistorisés. Par ailleurs le grand intérêt de ce genre de générateur réside dans le fait qu’il est entièrement statique (aucune pièce mobile) et ne demande aucun entretien ni aucune surveillance. Quant à sa durée, elle est pratiquement illimitée.
- On sait que les zones équatoriale et tropicale représentent plus de 40 pour ioo de la totalité des terres émergées. Sous ces latitudes, l’énergie solaire est maximale, et c’est justement dans cette ceinture intertropicale que se trouvent de vastes territoires désertiques ou sous-développés, où l’implantation de réseaux de télécommunications s’est jusqu’à présent heurtée à de grandes difficultés. L’apparition de ce générateur permet désormais d’envisager la constitution d’infrastructures destinées aux télécommunications, à la météorologie, à la sécurité de la navigation aérienne, etc.
- Batteries nucléaires pour satellites
- Un autre domaine où la thermoélectricité présente des avantages indéniables est celui des sources d’énergie électriques capables d’alimenter les instruments scientifiques placés à bord des engins spatiaux.
- Depuis 4 ans, les États-Unis annoncent périodiquement la mise au point de dispositifs baptisés S. N. A. P. (System for Nuclear Auxiliary Power) dont certains font appel à la thermoélectricité. Ils sont en général constitués par une source radioactive entourée d’une enveloppe métallique. En se désintégrant, la substance radioactive élève la température de l’enveloppe. Celle-ci est parsemée de thermocouples dont l’une des soudures, en contact avec l’enveloppe, est à haute température. L’autre soudure restant froide, un courant électrique s’établit dans chaque thermocouple.
- Dans un modèle déjà ancien (fig. 4), la source était constituée par 0,6 g de polonium 210 (période : 138 jours) représentant une activité de 3 000 curies et permettant de porter l’enveloppe de molybdène à une température de 3700 C environ. Les vingt thermocouples qui entourent la source chaude ont un débit unitaire de 0,25 watt. La puissance initiale du générateur atteint donc 5 watts. Elle diminue en raison de la désintégration du polonium
- 422
- p.422 - vue 421/560
-
-
-
- pour tomber à 3 watts au bout de quatre mois. Le rendement énergétique est de 10 à 12 pour 100.
- Toutefois, le prix du curie de polonium atteignant quelque cinq millions d’anciens francs, la minuscule source d’énergie du S. N. A. P. III ne coûte pas moins de quinze milliards d’anciens francs. Mais le faible poids de la pile (2,250 kg contre 675 kg de batteries classiques pour obtenir la même énergie) et sa grande sécurité de fonctionnement sont des avantages qui ont été jugés suffisants pour justifier son emploi.
- Depuis, de nouveaux S. N. A. P. ont vu le jour aux États-Unis. Tout récemment, la Martin Company de Baltimore a présenté le S. N. A. P. I-A (fig. 5) équipé de 277 thermocouples qui convertissent en électricité la chaleur dégagée par la désintégration d’une pastille de cérium radioactif de 450 grammes.
- Fig. J. — Un technicien de la Martin Company de Baltimore termine la mise au point de la pile thermoélectrique S. N. A. P. I-A.
- {Photo U. S. I. S.).
- p.423 - vue 422/560
-
-
-
- Le S. N. A. x'. I-A a la forme d’un œuf. Il mesure environ 85 cm de haut et 60 cm de diamètre. Il est parsemé de pastilles en forme de têtes d’écrous qui obstruent les conduits réservés aux thermocouples. Son poids atteint 80 kg et il est capable d’alimenter en électricité pendant un an les appareils scientifiques placés à bord d’un satellite artificiel en raison de la longue période du cérium 144. Par ailleurs, son prix serait beaucoup moins élevé que la pile au polonium 210.
- Enfin, comme l’a exposé ici même M. Vichney (La Nature-Science Progrès, août 1961, p. 356) un S. N. A. P. utilisant la chaleur produite par la désintégration du plutonium 238 est devenu, pour la première fois, «opérationnel ». Il fournit l’énergie électrique au satellite de communication du type Transit lancé le 29 juin dernier ;
- . grâce à sa légèreté, il a permis à la fusée porteuse d’emporter un satellite supplémentaire (trois au lieu de deux en de précédentes expériences).
- Terminons ce tour d’horizon des générateurs thermoélectriques en citant des appareils qui utilisent des sources de chaleur plus traditionnelles et destinés essentiellement à la production de puissances électriques faibles dans les lieux isolés, à l’écart des réseaux de distribution. C’est le cas de la lampe à pétrole mise au point par les chercheurs russes sous la direction du professeur Joffé et que nous avons décrite dans notre premier article.
- Des générateurs de plus grande puissance, qui utilisent la chaleur dégagée par la combustion de propane, ont été réalisés récemment en France par la C. S. F. et aux États-Unis par la Société Westinghouse. Cette société a installé il y a quelques mois une génératrice d’une puissance de 100 watts dans une station de pompage de gaz naturel de la Northern Illinois Gas Company, située dans une région éloignée du réseau de distribution normal d’énergie électrique.
- La réfrigération thermoélectrique
- Les avantages qui militent en faveur de la réfrigération par effet Peltier sont analogues à ceux que nous avons évoqués à propos de la production d’énergie électrique. Là encore, le rendement d’un réfrigérateur Peltier est indépendant de la puissance considérée. Or, si l’on sait obtenir de bons rendements avec les systèmes électromécaniques pour des puissances d’une centaine de watts, il n’en est plus du tout de même pour des puissances voisines du watt. Au contraire, les couples à effet Peltier ont le même rendement que la puissance soit de 1 watt ou de 100 watts et cette technique a permis de combler une lacune dans le domaine des faibles puissances où il n’existait à vrai dire aucun procédé pratique de réfrigération.
- Par ailleurs, en dehors de toute considération de rendement, les dispositifs de réfrigération à effet Peltier présentent l’avantage de fonctionner sans aucun bruit, de ne comporter ni moteur, ni tuyauterie, ni fluide réfrigérant et d’avoir une durée de vie pratiquement illimitée. Les écarts de température obtenus varient en général de 30° à 8o° C selon la quantité de chaleur que l’on demande au système d’évacuer.
- Voyons maintenant les principaux domaines d’application de cette nouvelle technique.
- Fig. 6. — Réfrigérateur portatif à effet Peltier construit en Angleterre par la General Electric Company.
- Réfrigérateurs domestiques. — Les réalisations en ce domaine sont encore assez timides, non que les couples à effet Peltier aient des performances insuffisantes mais surtout du fait que la construction des appareils classiques a atteint un point de grande perfection économique. Encore n’est-ce pas le prix des matériaux utilisés dans les thermocouples qui limite la généralisation des réfrigérateurs Peltier, mais plutôt la nécessité où l’on est de les alimenter en courant continu. Or les redresseurs nécessaires pour l’obtention de courant continu convenablement filtré à partir du réseau alternatif coûtent actuellement trop cher, plus cher en pratique que les réfrigérateurs électromécaniques qu’il s’agirait de remplacer (Aigrain).
- Toutefois, d’ores et déjà on construit de petits réfrigérateurs (fig. 6) destinés soit à être incorporés à des tables roulantes, à des meubles-bars portatifs dans les appartements, soit encore destinés aux pique-niques. Il suffit alors de les alimenter directement sur la batterie de l’automobile. Les éléments utilisés sont de petits blocs composés de lamelles de tellurure de bismuth et de tellurure d’antimoine reliées électriquement (fig. 7). La température à
- 424
- p.424 - vue 423/560
-
-
-
- l’intérieur de ces réfrigérateurs atteint 70 à io° C pour une température ambiante de 32° C.
- Refroidissement des circuits électroniques. — Ce domaine sera probablement l’un des plus exploités ; on peut en effet construire des couples qui ne pèsent que quelques grammes et occupent un espace très réduit. Il n’existe aucun autre moyen de refroidissement qui présente ces avantages.
- Le refroidissement de l’appareillage électronique permet son emploi à des températures ambiantes plus élevées. Cela est particulièrement important pour les transistors qui fonctionnent beaucoup mieux aux basses températures ; entre autres, le domaine des fréquences utilisables est considérablement élargi.
- De même, la sensibilité de certains appareils comme les détecteurs infrarouges, les photomultiplicateurs, etc., est améliorée lorsque la température diminue, en raison de la réduction du bruit de fond. Leur refroidissement peut être là encore aisément réalisé par effet Peltier.
- Thermostats de précision. — S’il existe sur le marché d’excellents appareils dès qu’il s’agit de réguler une température notablement différente de la température ambiante, il n’en est plus de même lorsqu’on veut simplement s’affranchir des variations journalières, par exemple maintenir la température d’une enceinte à 20° C. Par ailleurs, les thermostats classiques, pour fonctionner au-dessous de la température ambiante, nécessitent l’utilisation de neige carbonique ou d’autres agents réfrigérants, d’où des problèmes d’approvisionnement, de stockage, etc.
- Les thermostats thermoélectriques permettent de s’affranchir de ces servitudes : il suffit d’inverser le sens du courant pour maintenir la température soit au-dessus, soit au-dessous de la température ambiante. Par ailleurs la précision du réglage peut être très grande : o,i° C et même o,ooi° C avec des précautions particulières. Ces thermostats ont des applications variées : stabilisation de la température des cristaux de quartz qui pilotent la fréquence des oscillateurs ; mesures de précision lorsque les variations journalières de température sont gênantes, par exemple dans les méthodes électrochimiques d’analyse, etc.
- D ’autres applications intéressent la médecine et la biologie : on peut par exemple réaliser des boîtes réfrigérées thermoélectriquement et à température bien constante pour la conservation et le transport des tissus, du plasma, des antibiotiques, des vaccins, du sperme pour l’insémination artificielle, etc.
- Instruments de mesure. — On a construit récemment des porte-objets refroidis thermoélectriquement et destinés à être utilisés soit en microscopie classique, soit en microscopie électronique, où réchauffement des objets dû à l’impact du faisceau d’électrons est souvent gênant.
- L’effet Peltier vient de recevoir une application impor-
- Fig. 7. — Bloc réfrigérant à effet Peltier.
- Les couples thermoélectriques sont formés de lamelles de deux semi-conducteurs, tellurure de bismuth contre tellurure d’antimoine.
- (Photos General Ulectric Cy, aimablement communiquées par l’Ambassade de Grande-Bretagne).
- tante pour la détermination du point de rosée, méthode très précise pour mesurer le degré d’humidité d’un gaz. La Société Philips a construit un hygromètre à point de rosée d’un fonctionnement très simple et d’une précision excellente.
- Technique du vide. — On utilise fréquemment pour condenser les vapeurs d’huile des pompes à diffusion des baffles refroidis à l’aide de gaz liquéfiés. L’effet Peltier a été utilisé dans le même but et a conduit à des dispositifs d’un emploi beaucoup plus simple.
- *
- * *
- L’effet thermoélectrique a maintenant dépassé le stade des applications de laboratoire. Les études entreprises laissent augurer d’importants progrès dans l’amélioration des performances des semi-conducteurs et il est vraisemblable que les dispositifs utilisés tant pour la réfrigération que pour la production d’électricité vont se développer à un rythme rapide au cours des années à venir.
- Robert Rosset.
- Feux d’auto à double intensité
- Un système d’éclairage à double intensité destiné aux clignotants et aux feux de stop des voilures vient d’être réalisé par l’Automobile Manufacturers Association de Detroit. Les
- nouveaux feux seront deux à quatre fois plus brillants, le jour, que ceux qui sont actuellement utilisés mais l’intensité des feux arrière diminuera lorsque les phares seront allumés.
- 425
- p.425 - vue 424/560
-
-
-
- Le réseau
- européen
- d’oléoducs
- hm Oléoducs en service
- mmmmÊ Oléoducs en construction ou en projet
- Êk Gisements pétrolifères
- ..‘.'•Berlin
- O*
- fo/ogne
- >DFrancfort ^Karlsruhe
- Strasbourg# ^^^nich/]jjenn
- y^naris u"° *•-. /-Bratislava^-,..
- Strasbourg# ****^Munich/']/ienn(^^**
- ,4^- / r ..................
- Châlonf**/Aig,e j-,.Y../t
- . . • \/\ ik Trieste ..........
- 1
- lava
- •>Bec d'Ambès J
- .... /f
- / tarentis \
- L’Europe a suivi avec retard l’exemple des États-Unis, où d’énormes pipe-lines relient les champs pétrolifères d’Oklahoma et du Texas aux villes des Lacs et à New York (ce sont les deux Big Inches, achevés pendant la guerre). Au Moyen-Orient, de même, des oléoducs, transportent depuis longtemps le pétrole brut des régions d’extraction aux ports méditerranéens (Mossoul-Tripoli, ou bien Arabie séoudite-Sidon). Enfin des oléoducs récents joignent Edjelé à Gabès et Hassi-Messaoud à Bougie.
- Mais en Europe, pour le transport du pétrole, rien de semblable n’était enregistré : le brut arrivait directement aux raffineries sises le long des côtes, et les produits raffinés étaient transportés vers l’intérieur par voie d’eau, voie ferrée ou camions-citernes. C’est la considération du prix de revient qui a amené à utiliser le transport en vrac par oléoduc du pétrole brut des ports de déchargement jusqu’à des raffineries installées au cœur même des régions à desservir.
- Les forces américaines avaient installé pendant la guerre l’oléoduc « Pluto » entre la côte anglaise et Cherbourg ; puis elles utilisèrent le pipe-line militaire Donges-Metz. Aujourd’hui l’élan est donné et toute l’Europe occidentale est en train de connaître un équipement accéléré. La France possède, depuis quelques années déjà, l’oléoduc Le Havre-Paris (250 km), via les raffineries de la Basse-Seine et celles de Rouen. L’Italie a construit les pipe-lines reliant Gênes à Milan et Yado ligure à Novare. Ce n’étaient encore que des réalisations peu importantes.
- Récemment, d’autres oléoducs, plus spectaculaires, sont venus s’ajouter aux précédents : de Parentis à la raffinerie Esso du Bec d’Ambès (120 km), de Gênes à Aigle en Suisse où s’édifie une raffinerie de 600 000 t de capacité. Rotterdam, premier port européen d’hydrocarbures, a été relié à Cologne par un oléoduc long de 260 km (Shell-Caltex), tandis qu’Erro en construisait un autre de la Ruhr au port de Bremerhaven, sur une distance de 380 km.
- Pour la desserte de l’Allemagne du Sud, plusieurs tracés sont en compétition : soit Cologne-Francfort, soit Lavéra-Strasbourg-Karlsruhe, soit Gênes-Aigle-Munich. Le tracé français a été admis par le gouvernement de Paris et les travaux sont prévus pour être terminés au début de 1963. Avantage économique : la proximité des sources d’approvisionnement (Moyen-Orient et Sahara) et, sur l’Italie, avantage d’un relief plat. Le coût total atteindra 600 000 000 NF, pour une longueur de 760 km ; le débit pourra se monter à 25 000 000 t ; des raffineries sont prévues à Chalon-sur-Saône, Strasbourg et Karlsruhe. Ultérieurement l’oléoduc pourra être complété jusqu’à Munich.
- Mais les Italiens, en la personne d’Enrico Mattéi, le très actif président de l’E. N. I. (Ente Nazionale Idrocarburi) tentent de faire pièce à ce projet en préparant un plan d’oléoduc à travers la Suisse (Aigle-Munich), ou à travers l’Autriche (Venise-Munich). Cette compétition est un aspect de la lutte que se livrent Mattéi et les grands trusts pétroliers : on sait que Mattéi n’a pas hésité à acheter de grandes quantités de pétrole soviétique, bravant les décisions du Cartel international du pétrole, où se trouvent représentées toutes les grandes firmes. Un autre projet italien consiste à construire un oléoduc Trieste-Vienne, ce qui redonnerait à Trieste un peu d’activité.
- Les Russes de leur côté ne restent pas inactifs : ils possèdent déjà de nombreux oléoducs, certains immenses (Bakou-Moscou, Oural-Irkoutsk) et ils projettent de rattacher plus étroitement l’économie des démocraties populaires à la leur en construisant un oléoduc atteignant la Tchécoslovaquie, la Pologne, la Hongrie, l’Allemagne de l’Est. Vienne alors ne serait qu’à une faible distance du pétrole soviétique et un projet d’oléoduc Bratislava-Vienne a même été avancé. La compétition s’annonce serrée au cours des années à venir sur le marché européen du pétrole et de sa distribution.
- P. W.
- 426
- p.426 - vue 425/560
-
-
-
- Fille ou garçon à volonté
- pour les pilotes des avions à réaction
- Depuis longtemps, l’Homme a cherché non seulement à savoir le sexe de l’enfant dont il attend la naissance, mais surtout à trouver quelque méthode qui pût permettre de procréer à volonté des filles ou des garçons. Les découvertes de la cytologie moderne nous ont appris que la détermination du sexe se faisait au moment de la fécondation et que, suivant que l’œuf fécondé possédait les chromosomes XX ou XY, il donnait respectivement une fille ou un garçon. Mais ce phénomène lui-même paraissait dépendre des seules lois du hasard, de sorte qu’au tout premier début la proportion des deux sexes doit être théoriquement la même. En fait cependant, dans la grande majorité des races, au moment de la naissance la proportion des garçons est devenue légèrement supérieure : 104 à 107 pour 100 filles (1). Cette proportion à la naissance est communément appelée le sex-ratio proprement dit, ou encore sex-ratio secondaire (2). Il existe cependant des variations. C’est ainsi que le sex-ratio s’élève considérablement dans certaines populations en voie d’extinction. Pour certains auteurs d’autre part, les individus à structure « mésomorphe » et de type « somatotonique » auraient tendance à avoir plus de filles.
- Un élément imprévu vient d’être apporté à la question par le travail tout récent de R. G. Snyder {Human Biologj, t. 33, 1961, n° 1) sur le sex-ratio des enfants des aviateurs. L’auteur, aviateur lui-même, avait eu deux filles pendant qu’il était pilote de chasse. Ayant abandonné le vol, il eut trois garçons successivement. Fait plus significatif, il avait noté que, dans l’escadrille à laquelle il appartenait, sur 29 enfants de ménages où le mari était pilote de chasse, il y avait eu 2 garçons seulement contre 27 filles, soit le sex-Tatio extrêmement bas de 7,41, alors que, pour la moyenne des habitants des Etats-Unis, le sex-ratio est de 105,37. M. Snyder jugea alors intéressant de faire une enquête systématique.
- Celle-ci a porté sur un ensemble de x 11 ménages de pilotes
- 1. Rappelons que l’ovule (œuf vierge) contient un chromosome X, et que le -spermatozoïde lui apporte, soit un deuxième chromosome X, soit un chromosome Y. D’après les travaux de M. L. B. Shetles (voir La Nature, octobre i960, p. 427), les spermatozoïdes porteurs du chromosome Y seraient un peu plus légers que les autres de sorte qu’ils auraient un peu plus de chances de parvenir à l’ovule, ce qui expliquerait la légère prédominance des naissances masculines.
- 2. Le sex-ratio primaire est le nombre de garçons pour 100 filles au moment -de la conception ; le sex-ratio tertiaire est le même nombre au moment où ils ont atteint leur maturité.
- Le record des
- d’aviation appartenant à trois groupes distincts (deux aux Etats-Unis, le troisième au Japon) ayant eu en tout 222 enfants. Dans chacun de ces groupes, M. Snyder a relevé la fonction des pères pendant le mois correspondant à la conception de chaque enfant et pendant les deux mois antérieurs à cette conception. Il a ainsi distingué trois catégories : ceux qui pendant ces trois mois pilotaient des avions à réaction ; ceux qui pilotaient des avions de transport ordinaire ; ceux qui, pour une raison ou une autre, n’avaient pas volé. Il a alors constaté que, chez les pilotes de la première catégorie, il y avait eu 35 garçons pour 59 filles, d’où le sex-ratio de 59,8 ; chez les pilotes de la deuxième catégorie, 25 garçons pour 15 filles, sex-ratio : 166,6 ; chez ceux de la troisième catégorie, 53 garçons pour 35 filles, sex-ratio : 151,4. Que ces chiffres ne soient pas dus au hasard ressort du fait que les mêmes proportions, ou peu s’en faut, se retrouvent dans chacun des trois groupes examinés ; ils se retrouvent aussi, que le type d’activité (ou de non-activité) aérienne considéré se rapporte au mois de la conception ou au premier ou au deuxième mois avant celle-ci.
- Ainsi les données de M. Snyder confirment, sans aller cependant aussi loin qu’elles, ses constatations initiales, constatations qui font déjà partie, paraît-il, de ce que l’on pourrait appeler le folklore des aviateurs : beaucoup plus grande fréquence de filles chez les pilotes d’avions extrêmement rapides. Elles nous apprennent en plus un nouveau fait : le phénomène s’inverse si le pilote se met à conduire des avions lents ou s’arrête de voler. Ce sont là des résultats bien curieux et dont l’explication est difficile. M. Snyder, en ce qui concerne les pilotes d’avions à réaction, fait remarquer qu’on a déjà constaté chez eux un certain nombre de phénomènes physiologiques ou même pathologiques : arrêt de la sécrétion gastrique, acrosinusite, kystes colloïdes dans le troisième ventricule, etc. Il se demande si la tension nerveuse extrême qu’entraîne un tel mode de vol ne déterminerait pas des réactions hormonales qui agiraient sur le chromosome Y des spermatozoïdes. Mais ce n’est là évidemment qu’une hypothèse. Les pères en tout cas qui, n’ayant eu que des garçons antérieurement, désireraient avoir au moins une fille savent maintenant comment accroître au maximum leurs chances pour obtenir l’héritière qu’ils souhaitent : devenir pilote d’un avion à réaction !
- H. Y. V.
- suspendus
- Le futur pont Verrazzano qui reliera Brooklyn à Richmond au-dessus de l’entrée du port de New York (The Narrows) sera soutenu par deux pylônes de 210 m de haut, construits en ;acier. La travée centrale aura un développement de 1 298 m,
- soit 18 m de plus que le célèbre pont de la Porte d’Or, à San Francisco (1937). 27 000 t d’acier seront utilisées dans la fabrication de ce pont suspendu, qui sera en principe terminé pour 1964, et surplombera les eaux de 69 m.
- 427
- p.427 - vue 426/560
-
-
-
- Comment s’orientent Anguilles et Saumons
- dans leurs migrations par Ernest Baumgardt
- de milliers de kilomètres
- Nombre d’animaux, principalement des oiseaux et des poissons, effectuent des migrations périodiques à très longues distances, qui posent aux naturalistes et aux physiologistes des problèmes passionnants. La plupart de ces migrations sont maintenant bien connues dans leurs caractéristiques géographiques et temporelles. On commence à connaître aussi les facteurs externes (température, longueur des jours, etc.) et internes (cycle hormonal, maturité sexuelle, etc.) qui en règlent l’alternance. Il reste beaucoup de points à éclaircir, notamment sur les processus d’orientation qui permettent à ces animaux, dans leurs migrations lointaines, de retrouver avec une précision souvent étonnante le lieu de leur naissance qui, dans la plupart des cas, sera leur lieu de reproduction. Nous nous bornerons ici au cas des deux poissons migrateurs les plus remarquables, qui ont été les plus étudiés, l’Anguille et le Saumon. L’étude très poussée qui a été faite de leur cycle de reproduction n’est pas due seulement au caractère pathétique de la vie de ces animaux, qui sollicite puissamment l’imagination, mais aussi à leur importance pratique. La pêche des anguilles est un facteur économique important pour certains pays du Nord de l’Europe, de même celle des saumons au Canada et aux États-Unis. Dans ces pays, pêcheries privées et organismes officiels collaborent à l’étude et à la conservation des espèces de ce genre, qui constituent une richesse nationale.
- Anguilles et Saumons présentent des cycles de migration opposés. Tandis que l’Anguille s’engraisse dans les eaux douces et retourne à la mer pour s’y reproduire (migration catadrome), le Saumon s’engraisse dans la mer et regagne, pour y frayer, sa rivière natale (migration amdromé).
- Grâce principalement aux travaux de M. Maurice Fontaine, professeur au Muséum national d’Histoire naturelle, nous connaissons la nature de l’impulsion qui oblige les poissons migrateurs, notamment anguilles et saumons, à quitter leurs cours d’eau et à descendre à la mer. Le jeune saumon qui va s’y engraisser comme l’anguille qui va s’y reproduire changent alors de couleur. Leur robe, qui était foncée ou terne, devient argentée, par suite d’un dépôt de guanine ; l’accumulation de ce pigment témoigne d’une hyperactivité de la glande thyroïde. Ce déséquilibre neuro-
- endocrinien va de pair avec une sensibilisation générale de l’animal qui acquiert un état de grande instabilité. Dès lors, un événement extérieur, tempête ou crue par exemple, peut déclencher le mouvement de migration. Devenus sensibles au contact du sol et à l’agitation des eaux, ces poissons gagnent les eaux profondes des fleuves et finalement la mer.
- Le professeur Fontaine a étudié le comportement des anguilles qui, affaiblies par un jeûne prolongé (dès leur transformation en anguilles argentées elle ne mangent plus), se laissent aller au fil de l’eau. Elles voyagent la nuit et évitent la lumière autant qu’elles le peuvent. Elles souffrent alors d’une déminéralisation poussée accompagnée d’une importante imbibition d’eau. Arrivées' dans l’estuaire elles se dirigent tout de suite vers la mer dont la salinité semble atténuer leur douloureux besoin. Les pêcheurs des lagunes littorales n’ont qu’à ouvrir les écluses pour laisser pénétrer l’eau de mer dans la lagune : aussitôt la migration des anguilles argentées se déclenche et elles se précipitent dans les nasses qui sont disposées sur leur chemin.
- En près de quinze ans de recherches assidues, Johannès Schmidt a circonscrit l’aire de ponte des Anguilles atlantiques. Réussite remarquable, car les prises d’anguilles en haute mer sont excessivement rares : l’anguille s’enfonce dans les profondeurs dès qu’elle a gagné la mer.
- Entre les Bermudes et les Antilles, en pleine mer des Sargasses, dans une cuvette d’eaux tropicales à température élevée et à salinité plus grande que celle des eaux qui l’entourent, se trouve l’aire de ponte des Anguilles. Celle des anguilles d’Europe chevauche sur celle des anguilles d’Amérique, sans se confondre entièrement avec elle. Un ichthyologue britannique, M. Tucker, a soutenu récemment que les deux espèces n’en faisaient qu’une seule ; on lira, à la suite du présent article, les arguments que lui oppose le professeur Fontaine.
- Les jeunes larves d’Anguille (leptocéphales), très plates et transparentes, se dispersent, semble-t-il, dans des directions variées, et leur sort dépend de la direction qu’elles auront prise. Si l’on ne considère que l’espèce européenne, celles qui remontent trop vers le nord périssent dans les eaux froides du Labrador ; celles qui se dirigent trop vers le sud ne supportent pas la température du courant
- 428
- p.428 - vue 427/560
-
-
-
- Fig. I. — Au barrage de Bonneville sur le fleuve Columbia (États-Unis).
- Les saumons ne pouvaient franchir ce barrage. On voit, au premier plan, 1’ « échelle » spécialement aménagée pour leur faciliter le passage.
- (Photo aimablement communiquée par le Centre culturel américain).
- vers leurs frayères que suivraient les anguilles (ce plus court chemin serait un grand cercle du globe terrestre) mais celui qui conserve inchangée une direction fixe par rapport à la rose des vents.
- équatorial. Il ne survit donc que celles qui avancent vers l’Europe, en suivant le Gulf Stream. On peut donc penser que leur sort est livré, dans une grande mesure, au hasard et, si des facteurs jouent pour les orienter (température, salinité, etc.), l’étude en serait bien difficile.
- Arrivé au continent, le leptocéphale a achevé sa transformation en cive lie (jeune anguille) qui se précipite dans les estuaires pour gagner les eaux douces. Nous verrons plus loin les hypothèses que l’on peut faire sur l’orientation des jeunes anguilles, comme sur celle des anguilles adultes qui retournent à la mer. Ces dernières suivent des itinéraires convergents vers la Mer des Sargasses, ce qui confirme la localisation de leur aire de ponte. Des anguilles en migration catadrome ont été marquées en divers pays européens ; les rares reprises qui ont pu en être faites dans la mer ont eu lieu en des endroits qui déterminent une route à orientation constante. Ce n’est donc pas le plus court chemin
- La précision prodigieuse du retour des Saumons à la rivière natale
- Les Saumons qui frayent, tant en Europe qu’en Amérique, dans les cours d’eau tributaires de l’Atlantique appartiennent au genre Salmo (qui a donné son nom à la famille des Salmonidés) ; les Saumons de l’Océan Pacifique appartiennent aux diverses espèces du genre Oncho-rjnchus.
- Les alevins, sortis à la fin de l’hiver des œufs, couverts de sable et de gravillon, que la femelle a déposés dans un sillon creusé par elle au fond du lit de la rivière ou du ruisseau, grandissent dans les parages de leur naissance pendant un à quatre ans, s’y transformant en parrs (jeunes saumons). La durée de ce séjour en eau douce, beaucoup plus long pour le Saumon atlantique que pour les Oncho-rynchus, est aussi d’autant plus long que la station est plus
- 429
- p.429 - vue 428/560
-
-
-
- septentrionale, le développement de l’animal étant plus lent aux températures plus basses.
- Transformés en façons ou smolts à la robe argentée à la fin de cette première phase de leur vie, les saumons descendent les cours d’eau ét gagnent l’océan où ils demeurent de deux à sept ans selon les espèces, et selon les conditions de leur nutrition en mer. Puis vient le temps de la migration de retour, qui se fait en toute saison, sauf au plus fort de la saison chaude. Une nouvelle transformation affecte alors ces animaux. Les modifications physiologiques s’accompagnent d’un changement de robe qui d’argentée devient bigarrée de vert, de jaune et de rouge ; chez le mâle, la mâchoire inférieure se recourbe en crochet jusqu’à transpercer parfois la mâchoire supérieure. Les poissons sont alors gras et ils ne se nourrissent plus jusqu’à la fraie qui a lieu en décembre ou janvier. Pour atteindre leurs frayères, les saumons cherchent obstinément à franchir tous les obstacles qui se dressent sur leur chemin, sautant s’ils le peuvent barrages et cascades (fig. 5). Us périssent plutôt que de renoncer, là où des ouvrages de l’homme leur opposent des barrières infranchissables. Aussi établit-on des « échelles » qui leur facilitent le passage (fig. 1).
- Du fleuve, les saumons adultes passent dans les affluents. Génération après génération, des groupes de saumons retournent à la même petite rivière pour y frayer. Ce retour au lieu même de la naissance, plus strict d’ailleurs pour les Saumons du Pacifique que pour ceux de l’Atlantique, pose, plus que toute autre migration de poissons, le problème de l’orientation. Certaines espèces ne frayent qu’une fois et meurent sur place ; chez d’autres on a observé des survivants ayant frayé plus d’une fois. Notons enfin qu’une certaine proportion des saumons atlantiques sont capables de frayer à l’état de parrs, avant d’avoir fait aucun séjour en mer.
- Grâce au marquage, chaque année en rivière, d’un grand nombre de saumons, dont quelques-uns sont ensuite repêchés en mer et d’autres à leur retour, grâce aux efforts des ichthyologues de tous les pays intéressés, une masse d’informations nous permet peu à peu d’élucider le mystère de leur migration anadrome. Voici un exemple particulièrement intéressant , publié par la Commission compétente de l’état d’Oregon : en avril 1958, un alevin est
- marqué à la station piscicole de la rivière Alsea ; le 5 septembre 1958, il est capturé en mer au sud-ouest de l’Alaska, et relâché ; le 5 février i960, il est capturé de nouveau à la station piscicole où il était éclos. Des saumons du Pacifique ont été repris en haute mer à des distances variant entre 2 000 et 4 000 km de leur lieu de naissance.
- Le Saumon du Pacifique retourne toujours, de façon très précise, au lieu de sa naissance. Il a donc suffi, par exemple, de transporter des œufs fécondés de saumon dans l’étang de la station piscicole de l’Université de l’État de Washington pour être certain que les poissons, devenus adultes, y retourneraient et s’y reproduiraient désormais.
- On pouvait se demander si un « effet de groupe » pouvait influencer les saumons dans leur retour. Des œufs fécondés provenant d’un affluent du fleuve Columbia, la Willamette, ont été transférés dans un autre petit affluent du cours supérieur de la Columbia et les alevins issus de ces œufs ont été marqués. Quelques années plus tard, des saumons provenant de la Willamette et, avec eux, quelques spécimens marqués du groupe expérimental en question, se présentaient dans l’estuaire de la Colombia. Or, les saumons issus des œufs déplacés se séparèrent du gros et remontèrent le fleuve jusqu’au lieu de leur éclosion. Il n’y a donc pas d’effet de groupe.
- En résumé, si l’impulsion à la migration est héréditaire, le retour au lieu d’éclosion est déterminé par la mémoire individuelle. Mais quelle est la nature des souvenirs qui guident ainsi l’animal ?
- L’extraordinaire finesse de Fodorat des poissons
- Une première tentative rationnelle d’explication du comportement de retour du Saumon à son lieu d’éclosion, à sa rivière natale, a été donnée en 1951 par Hasler et Wisby (Université de Wisconsin). Ces auteurs subdivisent e problème en deux partie :
- i° Comment le saumon reconnaît-il le fleuve dont sa rivière natale est tributaire et comment sait-il distinguer celle-ci des autres affluents ?
- 20 Comment, sans points de repère, le saumon peut-il trouver son chemin en haute mer ?
- Fig. 2. — Routes suivies par les Saumons du Pacifique en migration.
- Les traits pleins, interrompus et pointillés indiquent respectivement les régions où, entre 1956 et 1960, on a marqué et recapturé des saumons des trois espèces [indiquées dans le cartouche.
- (D'après la Commission internationale des Pêcheries du Pacifique Nord).
- U Cl AL \A
- 'Okhotsk
- > Karaginski LKomandorski
- iakhaline
- l.Kodiak
- Baie dt Bristol
- l.Vancouver
- lokkaïdo
- wmwmiÊm King ••••••• steelhead
- 1000 Km
- 430
- p.430 - vue 429/560
-
-
-
- Ces auteurs ont proposé l’hypothèse que les alevins sont conditionnés par rapport à une odeur organique typique de leur fleuve natal. De ces odeurs caractéristiques, il existe nécessairement une grande quantité dues à l’ensemble de la flore aquatique et de leurs produits de décomposition. Or, la flore dépend des propriétés du sol qui forme le lit du cours d’eau et les variations de ces propriétés provoquent autant de variations de l’odeur caractéristique de l’eau. Si l’on admet que le saumon est poussé à remonter le fleuve, il faudrait s’attendre à ce qu’il entre dans l’affluent natal parce qu’il reconnaît son odeur. En fait, le comportement des saumons permet d’affirmer que s’ils manquent leur affluent au premier coup, ils s’en aperçoivent vite, font demi-tour et le cherchent jusqu’à la réussite.
- Cette affirmation peut surprendre, mais la statistique suivante montre qu’elle est correcte. Clemens et ses collaborateurs ont marqué 469 326 alevins dans un cours d’eau du système fluvial du Fraser et en ont capturé presque ix 000 au retour des saumons adultes. Bien qu’ils aient placé des pièges dans des affluents proches, tous les poissons repris le furent, sans exception, dans leur affluent d’origine. D’autres chercheurs ont noté un faible effet de dispersion, mais l’exception confirme la règle et on doit admirer la précision presque mathématique du retour de ces poissons au lieu de leur éclosion.
- Dans les explications plus anciennes du comportement migratoire, on trouve souvent l’hypothèse que les animaux suivent un « gradient », c’est-à-dire une modification progressive (de salinité, de température, d’odeur). Mais l’expérience montre que les appareils sensoriels s’adaptent à l’action de tout gradient assez faible comme ceux qui sont invoqués, de même que l’œil, par exemple, s’adapte à un degré de lumière, de sorte que ces gradients, s’ils étaient continus, cesseraient d’être perçus.
- Hasler pense à juste titre qu’il doit s’agir dans le cas du Saumon d’une réaction du type « tout ou rien ». L’animal doit pouvoir conserver, pendant des années, le souvenir de l’odeur dont il a été imprégné pendant sa vie en eau douce. Dès que cette odeur est ressentie par lui, il cherche à maintenir cette sensation, ce qui, après quelques essais désordonnés, l’amène à entrer dans son affluent natal.
- Cette théorie pose trois problèmes qu’il s’agit de résoudre par l’expérience.
- i° Les cours d’eau ont-ils des odeurs particulières auxquelles les poissons puissent réagir ?
- 20 Les poissons peuvent-ils déceler de telles odeurs et les discriminer ?
- 3° Les poissons peuvent-ils garder le souvenir de sensations d’odeur depuis leur jeunesse jusqu’à leur maturité ?
- Hasler et ses collaborateurs se sont attaqués courageusement aux expériences de longue haleine nécessaires pour donner une réponse à ces trois questions. Pour répondre à la première, ils ont appris à un groupe de vairons à distinguer les eaux de deux cours d’eau du Wisconsin, dont l’un s’alimente dans un bassin du type quartzite, l’autre provenant d’un bassin dolomitique. La preuve que cet apprentissage est dû au seul odorat est faite par la destruction du minuscule épithélium qui contient les récepteurs olfactifs. Après cette intervention, les vairons ne répondent plus à l’odeur à laquelle ils avaient été conditionnés.
- L’analyse chimique des eaux a montré que les différences
- essentielles sont d’origine organique. On a aussi fractionné ces eaux à différentes températures et cela a permis de constater que les vairons reconnaissent parfaitement une fraction distillée à 250 sous vide, mais non une fraction distillée à ioo°. Cela suggère que le stimulus spécifique est une substance organique détruite à ioo°, et non pas l’un des constituants minéraux de l’eau.
- Le vairon, bien que non spécialisé pour l’accomplissement de migrations de grande envergure, garde très longtemps le souvenir de l’odeur à laquelle il a été entraîné. De nombreux exemples montrent que de jeunes vairons dressés gardent leur pouvoir de discrimination jusqu’à leur maturité. Il est bon de souligner que l’extrême sensibilité olfactive du vairon a été testée par nombre de chercheurs opérant dans divers pays à des époques différentes. Ainsi on sait qu’un vairon reconnaît individuellement d’autres vairons par voie olfactive. Il faut et il suffit que les substances en question soient solubles dans l’eau. Pour l’une d’entre elles, qui se dégage d’un vairon blessé et provoque une réaction de fuite dans une bande de vairons, on a prouvé qu’elle n’est nullement volatile (von Frisch, Hüttel).
- La même méthode d’apprentissage a été appliquée par Hasler aux alevins de Saumon. Il faut peu de temps à ces poissons pour apprendre à distinguer l’une de l’autre des eaux provenant de deux cours d’eau du Wisconsin. Les adultes ont la même capacité : 302 saumons arrivés à la maturité sexuelle sont capturés dans les deux branches de la rivière Issaquah (état de Washington). Hasler et Wisby envoient ces poissons en aval, avant la bifurcation, puis ils obstruent avec du coton les voies nasales de la moitié des animaux. Ceux qui sont ainsi privés de leur odorat se répartissent au hasard dans les deux branches, tandis que la très grande majorité des animaux intacts entrent d’emblée dans leur rivière natale. Il n’en faut guère davantage pour accréditer la théorie du guidage olfactif du Saumon en migration anadrome.
- Teichmann, dont les travaux sur le sens olfactif du Chien sont bien connus, a étudié celui de l’Anguille (voir La Nature, août i960, p. 332). Ce poisson peut être dressé à distinguer entre de l’eau distillée et une dilution aqueuse à 6 X io~20 d’alcool (3-phényléthylique. Pour illustrer cette sensibilité, on peut dire qu’en versant 1 gramme de cette substance dans le lac de Constance, en la diluant totalement et en prélevant ensuite un échantillon, il faudrait diluer encore 58 fois dans le même volume pour arriver à l’extrême limite de sensibilité olfactive d’une anguille dressée à distinguer cette odeur de celle de l’eau du lac de Constance ne contenant pas d’alcool ffiphényl-éthylique. Teichmann a montré que l’Anguille réagit effectivement à l’entrée dans ses voies nasales de quelques rares molécules (de 2 à 5) pendant une période de l’ordre de 15 à 20 secondes.
- Nous ne savons pas encore de quelle manière l’anguille utilise son sens olfactif durant sa migration. Kreutzberg a suggéré que les civelles ou anguillettes pourraient distinguer par leur sens olfactif l’eau de la marée basse de celle de la marée haute, ce qui leur permettrait de profiter de cette dernière pour entrer dans les estuaires. Dans des essais de laboratoires, ce chercheur constate que les anguillettes ne savent plus distinguer ces deux sortes d’eau lorsqu’elles ont été filtrées sur du charbon de bois. On peut donc présumer que ces odeurs spécifiques sont d’origine organique.
- 431
- p.431 - vue 430/560
-
-
-
- LAKE mendota
- 0AN6- COURT Y. WISCONSIN
- GOVERNOR'S
- ISLAND
- KILOMETERS Q‘1/2 t
- Fig. 3- — Expériences sur le retour des Perches à leurs frayères dans le lac Mendota.
- A et B, frayères des perches, i, 2, 3, points où l’on a relâché des perches marquées. Celles-ci retrouvent très vite leurs frayères par temps ensoleillé. Elles vont au hasard par temps couvert, ce qui montre qu’elles s’orientent sur le soleil.
- (D’après Hasler, dans Science).
- Mais comment peut s’orienter l’Anguille dans l’océan, pour retrouver la Mer des Sargasses ? Il n’est pas exclu que son sens olfactif si développé y soit pour quelque chose. Pour l’instant, il s’agit d’hypothèses avancées surtout par Hasler.
- Manquant de points de repère, perdu dans l’immensité des masses d’eau en mouvement de l’océan, le poisson migrateur ne peut apprécier son déplacement, à moins qu’il ne dispose de repères tactiles ou visuels (le soleil, les étoiles ?) qui le desservent. Mais à l’endroit où deux eaux de propriétés assez différentes en fait de salinité, quantité de gaz dissous, odeur propre, se rencontrent, ces différences pourraient être perçues et constituer un point de repère. Selon Hasler, des expériences encore non publiées ont montré que le vairon peut distinguer de l’eau de mer provenant de Georges Bank d’échantillons d’eau provenant de la Mer des Sargasses. Et puisque des masses
- Fig. J (page ci-contre). — D’un bond puissant, ce saumon d’Ecosse tente de franchir une cascade.
- (Photo Thompson/Rapho).
- d’eau de propriétés différentes ne se mélangent que peu, mais glissent plutôt l’une sur l’autre, le gradient de la variable considérée (salinité, résidus organiques, etc.) y atteint des valeurs si élevées qu’il peut être perçu par un poisson qui avance rapidement.
- Horloge interne et orientation astronomique
- Il est clair que l’odorat seul ne peut expliquer le guidage des poissons à de grandes distances en haute mer. Hasler a donc cherché à découvrir d’autres repères susceptibles de guider les poissons migrateurs. Opérant dans un laboratoire de l’état de Wisconsin, il ne peut évidemment observer les Saumons en haute mer. Il a donc eu l’idée d’observer le comportement d’un poisson d’eau douce qui, dans un grand lac, par exemple, doit rechercher sa frayère. Ce comportement pourrait fournir une indication au sujet du Saumon ; Hasler s’est donc attaqué à l’étude du comportement de la Perche, dans un lac du Wisconsin, le lac Mendota.
- Dans ce lac, long de 9 km et dont la superficie est de 30 km2, les perches ont deux frayères, d’étendue assez limitée, situées sur les rives nord du lac et distantes de 1,6 km. Pendant trois saisons consécutives (1955 à 1957) on y a capturé des perches qui ont été marquées et relâchées en trois points, distants de 750 m à z 500 m du point de capture (fig. 3); 89 à 96 pour 100 des poissons ainsi relâchés retournent presque immédiatement à leur frayère, du moins si le soleil est visible. Mais lorsque le ciel est très couvert, les poissons libérés se dirigent au hasard. Lorsque les poissons atteignent la rive nord, près de leurs frayères, ils s’orientent alors sur d’autres repères que le soleil. On facilite l’observation en affublant le poisson lâché d’un petit flotteur en matière plastique (fig. 4).
- Flotteur
- Surface de l'eau
- Fil de nylon
- Hameçon
- Fig. 4. — Poisson muni d’un flotteur qui permet de suivre ses déplacements.
- (D’après Hasler, dans Science).
- 432
- p.432 - vue 431/560
-
-
-
- Siiliilllglll
- ' ',*7* .;,/
- p.433 - vue 432/560
-
-
-
- On connaît le mécanisme de l’orientation astronomique qui a été étudié sur différents animaux par Piéron, von Frisch, Kramer, Santschi, Pardi, Sauer, etc. Ce type d’orientation est basé sur la connaissance que possède l’animal de l’heure de la journée et de la position du soleil. Il permet de trouver une direction de la rose des vents, mais non pas un lieu déterminé. Un animal dont le pouvoir d’orientation est basé sur ce seul principe et que l’on a déplacé expérimentalement continue son chemin parallèlement à celui qu’il suivait avant sa capture. Un très grand nombre d’animaux de tous ordres s’orientent ainsi. Mollusques, Crustacés, Arachnides, Insectes, Oiseaux possèdent ce pouvoir d’orientation et, en ce qui concerne les Arthropodes, on connaît le mécanisme visuel de leurs yeux à facettes qui rend ce fonctionnement possible. Toutes ces espèces possèdent une horloge interne dont le rythme est de 24 heures, et il est en général impossible de dresser un animal selon un autre rythme. La nature de cette horloge interne est inconnue, mais son existence est solidement prouvée et confirmée par d’innombrables expériences.
- Hasler et ses collaborateurs ont établi expérimentalement l’aptitude de la Perche à s’orienter astronomiquement. La figure 6 montre le principe de son expérience, inspirée de la célèbre expérience de Kramer sur l’orientation des Étourneaux. Hasler utilise la tendance du poisson à se cacher lorsqu’il est effrayé, par exemple par une légère décharge électrique. L’animal se trouve à ciel ouvert dans un petit récipient sans couvercle, entouré de 16 petits compartiments avec lesquels on peut mettre le récipient en communication. Dans une première série d’expériences, tous les compartiments, sauf un, sont recouverts d’une bande métallique, de sorte que le poisson effrayé ne peut se réfugier que dans ce seul compartiment qui se trouve toujours dans le même secteur de la rose des vents.
- Lorsque le poisson est bien habitué à regagner ce compartiment, on laisse tous les compartiments ouverts et on met le petit bocal en communication avec eux deux fois par jour, entre 8 et 9 h et entre 15 et 16 h. L’animal se réfugie le plus souvent dans le compartiment qui se trouve dans la direction apprise par lui, mais seulement lorsque le soleil est tant soit peu visible. Lorsque le ciel est couvert, sa fuite est au contraire désordonnée. Cela prouve qu’il s’oriente sur le soleil, qu’il tient compte de son mouvement apparent et par conséquent qu’il connaît l’heure (fig. 7, en haut).
- L’expérience décisive, dont le principe est encore emprunté à Kramer, consiste à opérer en l’absence de la lumière du jour et à substituer au soleil un soleil artificiel. De nouveau le poisson choisit son compartiment en fonction de la position du soleil artificiel, cette fois immobile, et de l’heure. Il change donc sa direction de 15 degrés en moyenne par heure (fig. 7, en bas à droite).
- Peut-on en conclure que le Saumon s’oriente de cette manière en haute mer ? Ce seul mécanisme ne peut lui suffire, car de faibles erreurs dans la direction choisie entraîneraient au bout du compte des centaines de kilomètres de dérive et, partant, l’impossibilité de retrouver l’estuaire recherché. Néanmoins, il est très possible que l’orientation astronomique constitue l’un des moyens dont disposent les poissons migrateurs, sans être nécessairement le seul. On a pu montrer, dans le cas des Oiseaux et particulièrement des pigeons voyageurs, que l’animal dispose souvent de plusieurs méthodes de guidage et de repérage et qu’il emploie celle qui est la plus utile dans les conditions envisagées.
- D’après des recherches non publiées de Hasler, les jeunes saumons argentés possèdent l’horloge interne qui leur permet de s’orienter sur le soleil aussi bien que les Perches.
- Fig. 6. — Dispositif pour entraîner un poisson à trouver une direction déterminée de la rose des vents.
- La vue supérieure montre l’aquarium avec son petit bocal central et les 16 compartiments où le poisson peut se réfugier quand il est libéré du petit bocal. En bas, coupe de l’appareil : le levier R permet d’abaisser le petit bocal et ainsi de libérer le poisson dans l’aquarium. P, dispositif d’observation périscopique. Explications dans le texte.
- (D’après Hasler, dans Science),
- 434
- p.434 - vue 433/560
-
-
-
- après-midi
- matin
- soleil
- artificiel
- temps couvert
- Fig. 7. — Résultats obtenus dans le dispositif de la figure 6 avec un poisson entraîné à se diriger vers le nord.
- Le poisson en expérience a d’abord été dressé à se réfugier dans le compartiment orienté exactement au nord, compartiment qui était seul ouvert. Par la suite, tous les compartiments ont été ouverts. Chaque point représente le résultat d’une expérience. En haut, résultats obtenus à la lumière du soleil : tant l’après-midi (à gauche) que le matin (à droite) le poisson a su retrouver le compartiment du nord ou s’en est relativement peu écarté. En bas, à gauche, par temps couvert, le poisson s’est égaré dans divers compartiments. En bas, à droite, il s’est orienté sur un soleil artificiel immobile : les points noirs représentent ses choix du matin, les petits cercles ses choix de l’après-midi ; il s’est donc orienté comme si le soleil artificiel était lui aussi mobile. Il a donc la notion de l’heure.
- (.D’après Hasrer, dans Science).
- Il reste encore à démontrer, par des essais en haute mer, que le Saumon utilise réellement cette faculté dans la migration et que, par temps couvert, il est plus ou moins désorienté.
- Le Poisson peut-il faire le point ? — La question n’est pas aussi incongrue qu’elle peut paraître au premier abord. Il existe en effet des preuves indéniables que certains Oiseaux s’orientent de manière à retrouver assez rapidement leur nid lorsqu’on les lâche très loin de celui-ci, tout en les obligeant à survoler des contrées absolument inconnues d’eux, y compris la mer. Les recherches qui concernent les pigeons voyageurs et plusieurs autres espèces ont été menées de manière à exclure toute fausse interprétation. Plusieurs chercheurs concordent dans cette conclusion : ces oiseaux font de la navigation, se comportent comme s’ils savaient faire le point. Les recherches très récentes de Sauer prouvent même que la Fauvette (qui voyage la nuit) s’oriente sur les étoiles tout en faisant le point. Comment ? Toutes les explications proposées sont critiquables ; on ne sait pas répondre à cette question.
- On n’a pas entrepris des recherches de ce type sur l’orientation en haute mer du Saumon. Cependant, on a montré que des perches dont l’horloge interne a été avancée ou retardée artificiellement (en les habituant à un rythme décalé par rapport au soleil, grâce à l’emploi d’un soleil artificiel) corrigent partiellement ce décalage lorsqu’on les teste dehors, à midi, quand le soleil est au zénith. Cela suggère l’hypothèse que la hauteur du soleil
- peut constituer un point de repère pour le poisson.
- Lorsqu’on transporte sous une autre longitude un animal qui peut s’orienter astronomiquement, il garde son horloge interne pendant quelques jours, puis s’adapte à l’heure décalée. Que se pas sera-t-il lorsqu’on le transporte de l’hémisphère nord à l’hémisphère sud ? Dans ce cas le soleil semble tourner à l’envers de l’aiguille de la montre et on doit s’attendre à ce que l’animal ne puisse pas s’orienter correctement. C’est cette expérience que Hasler et Schwassmann ont entreprise avec quelques poissons-lunes dressés dans le Wisconsin et transportés en partie au Brésil (latitude i°5), en partie à Montevideo (latitude 3o°5). Les animaux ont été effectivement incapables de s’adapter au mouvement apparent du soleil, si différent de celui qui leur est coutumier dans l’hémisphère nord.
- Orientation nocturne. — Évoquons encore les expériences de Sauer sur la Fauvette. Ces oiseaux, dans leur migration d’Europe en Afrique, voyagent la nuit. Dans la première phase de leur migration ils volent en direction du sud-ouest, puis modifient brusquement leur orientation après la traversée de la Méditerranée. Sauer utilise la tendance qu’ont les Fauvettes à se tenir dans leur cage le plus possible orientées dans la direction de leur vol. Il dispose au-dessus de la cage un planétarium qui reproduit successivement les images du ciel tel que les Fauvettes doivent le voir au cours de leur migration. Tant que le ciel est celui de l’Europe, elles se tiennent orientées au sud-ouest. Quand le planétarium leur présente un ciel plus
- 435
- p.435 - vue 434/560
-
-
-
- Fig. 8. — Un saumon pris au filet dans un rapide d’une rivière de l’Oregon.
- Le saumon constitue une des richesses économiques de cette région (Photo aimablement communiquée par le Centre culturel américain)
- 436
- p.436 - vue 435/560
-
-
-
- méridional, elles changent brusquement leur orientation. Ainsi la preuve est faite qu’elles s’orientent sur les étoiles.
- Cette performance extraordinaire donne à penser que les poissons migrateurs à grande distance pourraient utiliser un procédé analogue. En effet, les saumons adultes migrent en bandes, souvent pendant la nuit. Profitant d’une luminescence suffisamment intense dans la partie nord-est de l’Océan Pacifique, on a pu en observer qui poursuivaient leur chemin en ligne droite sur plusieurs kilomètres.
- Le problème de l’orientation lointaine des animaux^ principalement des Oiseaux et des Poissons, a donc commencé à s’éclairer quelque peu. On peut espérer que nous ne tarderons pas à en apprendre davantage.
- Ernest Baumgardt,
- Maître de recherches au C. N. R. S.
- La documentation concernant les travaux américains sur les migrations du Saumon a été empruntée à un article du professeur Arthur D. Hasler paru dans la revue Science (23 septembre i960). Plusieurs de nos figures ont été empruntées à cette publication, avec l’aimable autorisation de l’éditeur.
- Pour se perpétuer l’Anguille d’Europe ne s’en remet pas à sa cousine d’Amérique
- Il y a deux ans, un ichthyologue du British Muséum, M. Denys Tucker, publiait un travail qui tendait à modifier entièrement l’idée que nous nous faisions sur la reproduction de l’Anguille d’Europe. Plus exactement, d’après ce savant naturaliste, il fallait admettre cette notion quelque peu paradoxale que l’Anguille d’Europe ne se reproduisait pas, la perpétuation de l’espèce étant entièrement et uniquement assurée par sa cousine, qui serait alors plutôt sa sœur jumelle, à savoir l’Anguille d’Amérique. Il n’y aurait alors qu’une seule espèce d’anguille dans l’Atlantique et les anguilles qui peuplent l’Europe ne reviendraient jamais à leur lieu de naissance, la Mer des Sargasses. Comme on pouvait le prévoir, cette opinion n’a pas été accueillie avec une grande faveur par tous les ichthyo-logues et M. Maurice Fontaine, professeur au Muséum de Paris, a récemment communiqué à l’Académie des Sciences des observations qui, sur des points importants, contredisent les conclusions de M. Tucker.
- Johannès Schmidt a établi que la première partie de la vie de l’anguille se passe dans la Mer des Sargasses, à l’état de larve, ou leptocêphale. C’est seulement lorsque le leptocéphale a atteint 7 à 8 cm de long et qu’il s’est transformé en jeune anguille, ou civelle, que l’animal est apte à gagner les eaux douces pour y achever son développement en anguille adulte. Pour' croître et se transformer en civelle, un leptocéphale d’anguille d’Europe a besoin de deux ans et demi ; c’est à peu près le temps qui lui est nécessaire pour traverser l’Atlantique, aidé par les courants et notamment le Gulf Stream. Ceux qui au départ n’ont pas pris la bonne direction sont irrémédiablement perdus. En particulier ceux qui seraient allés vers les côtes américaines y parviendraient beaucoup trop vite pour avoir le temps d’achever leur croissance.
- En même temps Schmidt montrait que toutes les anguilles d’Europe appartenaient à la même espèce, sans qu’on puisse y distinguer des races ou variétés. Et cela est bien naturel car, se reproduisant toutes au même endroit, elles ne forment qu’une seule population dont le brassage est constamment assuré. Mais l’Anguille américaine semble bien nettement distincte. D’abord par quelques caractères morphologiques, légers peut-être mais constants. En particulier le nombre de ses vertèbres varie de 103 à 110, avec
- une moyenne de 107, alors que l’Anguille d’Europe a en moyenne 115 vertèbres. Ce nombre est également celui des somites ou segments du corps du leptocéphale, et c’est ce qui permit à Johannès Schmidt de distinguer les larves des deux espèces pêchées par lui dans la Mer des Sargasses.
- Mais c’est surtout par leur biologie que les deux espèces diffèrent. L’Anguille d’Amérique, dès sa naissance, et pendant toute sa vie, est une espèce d’eaux légèrement moins froides que l’Anguille d’Europe. D’après Schmidt, leurs aires de ponte sont distinctes, quoique contiguës, et elles s’interpénétrent sur une certaine étendue. L’Anguille d’Europe se reproduit dans la partie orientale de la Mer des Sargasses entre les isothermes de 16 et 17° C. L’Anguille d’Amérique, plus à l’ouest, pond dans des eaux dont la température ne descend pas au-dessous de 170. Sa ponte se fait un peu plus tôt, au cœur de l’hiver, et surtout la croissance du leptocéphale américain est beaucoup plus rapide. Sa transformation en civelle se fait au bout d’un an à peine, alors que la civelle européenne a déjà trois ans d’âge. Cette croissance rapide est adaptée, comme l’a montré Schmidt, à la proximité des eaux américaines.
- Or, d’après M. Denys Tucker, toutes ces différences ne seraient pas spécifiques. Se fondant sur des études expérimentales conduites avec d’autres poissons, comme la Truite, il pense que le nombre des vertèbres peut être influencé par la température. Les leptocéphales qui naissent à la limite septentrionale de l’aire de ponte, où la température des eaux supérieures ne dépasse pas 200, prendraient par là même le type européen. Ceux des eaux plus méridionales, en remontant vers la surface, passeraient assez brusquement dans des eaux plus chaudes, à 250, et le nombre des vertèbres s’en trouverait réduit ; ils donneraient alors le type américain.
- M. Tucker soutient aussi que les Anguilles d’Europe auraient à vaincre de trop grandes difficultés pour atteindre la Mer des Sargasses. Les Anguilles d’Amérique du Nord, moins éloignées, sont aidées dans leur voyage de retour par un fort courant, récemment découvert. L’Anguille d’Europe ne trouverait que des courants contraires. En outre, il ne saurait y avoir, dit M. Tucker, qu’un instinct commun à toute l’espèce. Comment le même instinct
- 437
- p.437 - vue 436/560
-
-
-
- guiderait-il vers le même lieu de ponte des anguilles qui les unes viendraient, par exemple, de Scandinavie, et les autres de la Mer Noire à travers la Méditerranée ?
- Mais à ce dernier argument certains ichthyologues ont répondu par avance en montrant que les anguilles adultes ne devaient jamais pouvoir franchir le détroit de Gibraltar, où l’on n’en a d’ailleurs jamais capturé. En effet les anguilles adultes qui descendent en Méditerranée y trouvent des eaux d’une salinité de 38 pour mille et la salinité dans le détroit de Gibraltar n’est que de 36 pour mille, ce qui constitue sans doute pour elles une barrière infranchissable, car leur état physiologique ne peut leur permettre un retour vers des eaux moins salées. On admettait donc couramment que les anguilles de la région méditerranéenne ne pouvaient participer à la reproduction de l’espèce et que seules pouvaient s’en charger les anguilles de l’Ouest et du Nord de l’Europe qui retournent à l’Océan directement, ou par la Manche ou la Mer du Nord.
- En outre on a vu, par l’exemple du Saumon, que ce n’est pas seulement l’instinct, mais la mémoire qui guide le poisson migrateur. Si extraordinaire qu’il soit, le fait est prouvé.
- Asthénique mais non pas débile
- Cependant, pour refuser à toutes ces anguilles la faculté de reproduire, M. Tucker ajoutait d’autres arguments, d’ordre physiologique. Au moment où les anguilles d’Europe commencent à développer leurs glandes sexuelles et prennent le chemin de la mer, leur intestin régresse et certains organes, comme les yeux, s’hypertrophient. M. Tucker y voit la preuve d’une dégénérescence qui ferait qu’elles périraient avant d’avoir pu accomplir leur long voyage vers la Mer des Sargasses. M. Tucker invoquait en particulier des travaux de M. Maurice Fontaine où ce savant
- aurait parlé de la « débilité » de l’Anguille argentée, c’est-à-dire de l’Anguille en migration de retour, dont la robe est en effet argentée.
- Dans sa communication à l’Académie des Sciences, le professeur Fontaine fait observer qu’il n’a pas parlé de débilité mais d’asthénie. L’Anguille d’Europe adulte, au moment où elle s’apprête à quitter les eaux douces, présente un comportement asthénique transitoire, dû à un début de déminéralisation et à la basse température des eaux d’hiver, comportement qui précisément disparaît quand l’animal pénètre dans les eaux saumâtres, puis salées. M. Fontaine ajoute que les anguilles argentées ont un métabolisme respiratoire plus intense en eau de mer qu’en eau douce et que la régulation osmotique de leur sang est plus efficace que celle de l’anguille jaune, c’est-à-dire de l’anguille qui n’a pas encore pris sa livrée de retour à la mer. Le déséquilibre dont témoigne l’anguille à la fin de son séjour en eau douce représente donc en quelque sorte une adaptation préalable à sa migration vers l’eau salée. On constate ainsi que l’anguille présente alors une accumulation de graisse, qui constitue une grande réserve d’énergie.
- Enfin, par des injections hormonales, le professeur Fontaine a réussi à hâter la maturation sexuelle d’anguilles mâles et, à un moindre degré, d’anguilles femelles. On ne peut donc présumer chez ces poissons aucune dégénérescence des organes reproducteurs.
- En résumé, selon M. Fontaine, rien ne permet de croire que ces anguilles argentées européennes n’auront pas la force de rejoindre la Mer des Sargasses et qu’elles ne pourront s’y reproduire. Nous pouvons donc croire, jusqu’à plus ample informé, que l’Anguille d’Europe ne s’en remet pas à l’Anguille d’Amérique pour assurer sa descendance.
- J. G.
- Le premier trimestre de 1961, période faste pour la démographie française
- La natalité a atteint au cours du premier trimestre de 1961 le chiffre de 209 354, en sensible excédent sur la période correspondante de i960 (202 991). Mais ce dernier chiffre avait été anormalement faible, en raison du mauvais état sanitaire constaté pendant le deuxième trimestre de 1959. Le taux de natalité, en tout état de cause, est en régression par rapport aux années précédentes.
- Le facteur qui a joué favorablement sur la courbe ascendante de la population est le petit nombre de décès : 134 637 contre 163 742, dans le premier trimestre de i960. De nouveau, il semble que F « agent fluctuation démographique » soit essentiellement le virus grippal. Alors que les décès par grippe se montaient dans le premier trimestre de i960 à 10 632, on n’en a dénombré que 1 349 dans la même période de 1961. Ceci n’expliquerait pas à première vue le gain de près de 30 000 qui ressort des précédents chiffres. Mais, comme nous l’avons déjà mis en relief
- pour les années à grippe qui ont précédé i960, cette maladie infectieuse « intraitable » retentit sur les autres causes de décès, accélérant sans doute le processus des différentes affections. C’est ainsi que les lésions vasculaires cérébrales, parvenues à leur fatal aboutissement au nombre de 18 358 en i960, ne se retrouvent que 16 184 en 1961. Encore plus spectaculaire est la différence entre les décès par maladies du cœur : 29 237 en i960, 25 659 en 1961. Quant à la trop vaste rubrique des cames indéterminées, elle est brusquement descendue de 30 023 à 23 639. (Pour tous ces chiffres il ne s’agit toujours que des premiers trimestres).
- Seuls les accidents et suicides sont en progression, d’ailleurs légère. Dans cette rubrique, le virus, évidemment, n’intervient pas, du moins que l’on sache. On pourrait même se demander s’il ne peut jouer statistiquement à l’inverse, en « liquidant » quelques accidentés ou suicidés potentiels. G. C.
- 438
- p.438 - vue 437/560
-
-
-
- Des sous-marins en alliages légers remplaceront-ils les bathyscaphes ?
- Les bathyscaphes ont déjà à leur actif des performances remarquables : ils ont permis à des hommes de descendre dans les fosses les plus profondes de l’Océan. Toutefois, comme on pouvait s’y attendre, leur principe même est discuté, en raison de leurs qualités nautiques très limitées. Le bathyscaphe, en effet, a été conçu pour des déplacements verticaux à travers l’épaisseur de la mer et c’est pourquoi son inventeur, le professeur Piccard, s’est inspiré des aérostats qu’il avait auparavant pratiqués dans ses explorations de l’atmosphère.
- Cette conception était dans une certaine mesure rationnelle, car la partie habitée de l’engin, assimilable à une nacelle, était une sphère d’acier, capable, par sa forme, de résister aux énormes pressions qui régnent dans les profondeurs de l’Océan. Par contre, il était prévisible que des constructeurs s’orientent un jour ou l’autre vers une formule se rapprochant davantage du sous-marin et visant à la fois la facilité de propulsion, le rayon d’action et le confort.
- Cette formule a été étudiée par quatre techniciens américains, MM. Wenk, Dehart, Mandel et Kissinger, et s’est matérialisée par un projet de sous-marin de grande profondeur auquel a été donné le nom d’« Aluminaut ». L’engin conserve certaines des caractéristiques du bathyscaphe, tout en réunissant en une structure unique le flotteur et la nacelle. Comme les sous-marins en général, il comporte une coque mince et une coque épaisse, mais c’est dans l’intervalle entre ces deux coques que prennent place les réservoirs qui contiennent le fluide léger qui remplissait le flotteur du bathyscaphe. Notons que -le fluide prévu n’est plus de l’essence mais appartient à la famille des silicones.
- L’étude de l’Aluminaut a été conduite en prenant pour base trois paramètres principaux : la charge utile transportée, comprenant les passagers, les aménagements intérieurs et l’outillage océanographique (elle a été évaluée à 1,8 t) ; la résistance à P écrasement à une profondeur déterminée (6 300 m) ; la réserve de flottabilité, fonction elle-même de la densité du matériau utilisé. C’est selon ce dernier paramètre que l’on est parvenu à la conclusion inattendue d’une coque en alliage léger (origine du nom « Aluminaut »), de préférence à l’acier.
- Les calculs de résistance et de flottabilité, contrôlés par des essais sur maquette, ont permis de comparer les latitudes offertes par sept matériaux différents, dont cinq aciers ayant une limite élastique variant entre 35 et 140 kg/mm2 et deux alliages légers possédant respectivement une limite de 35 et 60 kg/mm2. Les résultats des calculs, c’est-à-dire les différentes réserves de flottabilité, résultant de l’emploi de ces matériaux, sont représentés dans la fig. 1. La profondeur d’écrasement est portée en ordonnées, la flottabilité (en pourcentage du poids total) en abscisses. N ous
- devons apporter une précision qui aidera la lecture de ce graphique : à droite du double trait vertical qui correspond, au zéro de l’abscisse, c’est-à-dire dans la zone dite « plongée », les valeurs de flottabilité sont négatives. Elles sont positives à gauche de ce double trait. Cette précision permet de constater que les trois aciers les moins résistants n’apportent, à la profondeur considérée de 6 300 m, qu’une réserve de flottabilité nulle ou négative. Deux aciers et les deux alliages légers offrent des réserves de flottabilité positives.
- Finalement, l’alliage adopté est un aluminium-zinc américain (le 7079-T6), dont la limite élastique, intermédiaire entre celles des deux alliages du schéma, est de 45 kg/mm2. La réserve de flottabilité de l’ordre de 30 pour 100 du poids total est largement suffisante.
- La démonstration n’est peut-être pas entièrement convaincante. Elle tend seulement à prouver que l’utilisation de l’aluminium est, sinon obligatoire, du moins possible. On doit d’ailleurs signaler que l’étude a été en grande partie inspirée par la Reynolds Métal Co., un des plus grands producteurs mondiaux de l’aluminium. D’autres matériaux
- PLONIÉE
- 1OTTAB
- F/ottdôi/ité en % du poids tota/
- 20 40 60 80 100 120 140 160 18C
- Pression aur ie coque en % de /a va/eur d écrasement
- Fig. 1. — Réserve de flottabilité de la coque de rAluminaut.
- Les courbes concernent : 1, acier à 35 kg/mm2 ; z, acier à 60 kg/mm2 ; 3, acier à 77 kg/mm2 ; 4, acier à 105 kg/mm2 ; 5, acier à 140 kg/mm2 ; 6, alliage léger à 35 kg/mm2 ; 7, alliage léger à 60 kg/mm2. Explications dans le texte.
- 439
- p.439 - vue 438/560
-
-
-
- Fig. 2. — Enveloppe extérieure de l’Aluminaut.
- i, lest en grenaille ; 2, lest liquide ; 3, superstructure détachable ; 4, quille de roulis ; 5, ligne de flottaison ; 6, quille largable.
- (Clichés obligeamment prêtés par la Revue de PÂluminium).
- avaient été envisagés, parmi lesquels le titane et les résines armées de fibres de verre.
- Un début d’exécution a eu lieu à la Reynolds Métal, où ont été cintrées les plaques qui constitueront, par anneaux successifs, la coque cylindrique de l’Aluminaut. Ces plaques auront une épaisseur de 15 2,4 mm. Les autres caractéristiques du bâtiment sont les suivantes : longueur totale : 15,44 m ; longueur de la coque épaisse : 10,16 m ; largeur totale : 3,05 m ; diamètre intérieur : 2,13 m. Deux moteurs sont prévus : l’un, de 5 ch, actionnera une
- La plus grande île artificielle
- En divers points du globe, l’exploitation des gisements pétrolifères se fait en mer, des plates-formes spéciales étant implantées sur le talus continental, à faible profondeur. De nombreuses plates-formes de ce genre, reposant sur des pilotis en acier, existent au large de la côte du golfe du Mexique. La plus vaste est située à 11 km de la côte de Louisiane ; c’est la plus grande île artificielle du monde, avec ses 800 m de longueur ; elle abrite des chaudières, des compresseurs, des génératrices électriques, des logements pour 120 hommes (avec cuisine, restaurant, salle de repos, infirmerie) et des bureaux. Un aéroport pour hélicoptères, situé à l’une des extrémités, assure les liaisons avec la terre ferme. Le coût total de file a atteint près de 120 000 000 NF.
- Nouveau facteur sanguin
- Un sérologue australien, J. A. Albrey, attaché à la « banque du sang » de la Croix-Rouge à Brisbane (Australie), avait découvert, il y a un an, une incompatibilité inexplicable entre le sang d’un donneur et celui de deux familles différentes de Brisbane. Ses recherches, maintenant confirmées par des laboratoires étrangers, permettent d’établir qu’il existe un nouveau facteur, le WEB, qui, jusqu’ici, ne semble pas apparenté aux onze familles sanguines connues à ce jour (Information de F Ambassade d’Australie ).
- hélice de sustentation pour les déplacements verticaux, l’autre, de 15 ch, assurera une vitesse de 5 nœuds. Les extrémités de la coque cylindrique seront fermées par deux pièces hémisphériques, percées de hublots.
- Sur la figure 2 qui montre l’aspect de l’enveloppe extérieure, on constate la présence d’une quille horizontale de roulis et d’une quille verticale, placée à la partie inférieure et largable en cas de danger. On constate également qu’un lest lourd (en grenaille) est destiné, comme sur le bathyscaphe, à déterminer la plongée.
- Les premiers essais de l’Aluminaut sont attendus avec intérêt. Il est incontestable qu’un engin autonome serait de la plus grande utilité pour permettre d’assurer, dans les meilleures conditions, les recherches océanographiques à grande profondeur.
- Y. M.
- Agriculture au delà du Cercle polaire
- La région de Mourmansk, au delà du Cercle polaire, connaît un développement agricole certain : 6 000 ha y sont actuellement ensemencés en céréales, on compte 30 000 bovins, autant de porcs, et une grande quantité de volailles ; en i960 le rendement à l’hectare a atteint 200 q pour les pommes de terre et 300 q pour les légumes potagers. Les vaches laitières produisent en moyenne 3 500 kg de lait par an. Sans doute ce développement, qui il y a encore vingt ans était jugé impossible sous ce climat, est-il dû en partie aux conditions plus favorables qu’ailleurs dans l’Arctique soviétique créées par les effluves tièdes de la mer de Barentz (on sait qu’à Mourmansk, la mer ne gèle jamais, et que la moyenne de janvier est supérieure à celle de Moscou) (D’après Vie del Mondo).
- Psychothérapie pour les rats
- Un rat mentalement déficient élevé dans un milieu qui stimule ses facultés peut être finalement plus intelligent que ses congénères normaux élevés en cage. C’est du moins ce que dit M. Sol Schwartz, psychologue à l’Université du Michigan, qui est arrivé à cette conclusion en élevant un groupe de rats souffrant de lésions du cerveau dans un laboratoire aux murs peints de couleurs gaies, où il leur faisait entendre de la musique et les entourait de jouets et de soins. Ces rats ont passé une série de tests beaucoup plus brillamment que leurs frères élevés en cage. .
- 440
- p.440 - vue 439/560
-
-
-
- Vers de mer et Vers de terre
- par Jean Grive
- Nous avons présenté, au fur et à mesure de leur publication, les volumes du grand Traité de Zoologie édité par la librairie Masson sous la direction du professeur Pierre-Paul Grassé. Cette œuvre considérable, réalisée avec la collaboration d’un grand nombre de spécialistes, pour la plupart français, va bientôt être achevée. Sur dix-sept tomes, dont plusieurs ont été scindés en deux ou même en trois fascicules, chacun de plus de mille pages, douze ont déjà paru. Les plus récents sont les deux premiers fascicules du tome V qui traitent, le premier de l’embranchement des Annélides et des Vers annelés qui s’en rapprochent 0, le second d’une partie des Mollusques et embranchements voisins.
- Certes cette œuvre savante, qu’aucun zoologiste dans le monde ne saurait ignorer, est surtout précieuse pour ceux qui se spécialisent dans les études anatomiques et biologiques, car elle condense à ce sujet l’essentiel de la' science actuelle. Mais elle intéresse aussi tous les naturalistes qui ne se contentent pas de vues superficielles.
- Le monde des Vers doit nous intéresser à plus d’un titre. C’est d’abord un monde immense, tant par son extraordinaire variété que par le nombre de ses individus, qui lui confère une place de premier ordre dans les équilibres naturels, même en nous en tenant au seul embranchement des Annélides. L’étude des Annélides a également un intérêt spécial pour l’histoire du monde vivant, car cet embranchement est certainement des plus anciens et il a probablement donné naissance à plusieurs autres, notamment aux Mollusques et aux Arthropodes, ou du moins il a avec ces embranchements et sans doute avec d’autres une origine commune dont il nous donne une idée approchée. Quoi qu’il en soit, l’importance des Annélides en anatomie comparée est fondamentale.
- Avec les Vertébrés et leurs ancêtres les Prochordés d’une part, d’autre part avec les Arthropodes (c’est-à-dire Crustacés, Insectes, Arachnides, etc.), les Vers annelés sont les seuls animaux doués de métamérie, c’est-à-dire dont le corps, à symétrie axiale, est divisé en segments
- i. Traité de Zoologie ; Anatomie, Systématique, Biologie, publié sous la direction de Pierre-P. Grasse, membre de l’Institut, professeur à la Sorbonne. Tome V. Fascicule I. Annélides, Mysostomidcs, Sipunculiens, Echiuriens, Priapuliens, Endo-proctes, Phoronidiens, par M. Avel, P. de Beauchamp, P. Brien, C. Dawydoff, M. Durchon, P. Fauvel, P.-P. Grasse, H. Harant, M. Prenant, J. Roger, A. Tétry. i vol. 17,5 X 25, 1116 p., 904 fig., 5 planches en couleurs. Masson, Paris, 1959. Prix, broché : 180 NF ; cartonné : 190 NF. Nous rendons compte d’autre part du fascicule II, consacré aux Bryozoaires, Brachiopodes et Mollusques (voir « Livres nouveaux », p. 45 3).
- originellement plus ou moins semblables. On avait tendance à penser que cette métamérie existait depuis l’origine, c’est-à-dire que le corps de ces animaux s’était constitué par la réunion d’une somme d’individus élémentaires qui, au lieu de se séparer, seraient restés soudés ; de même que les êtres multicellulaires se seraient constitués par des cellules qui, après division, seraient restées réunies au lieu de se séparer. Mais il ne manque pas d’arguments anatomiques et embryologiques contre cette façon de voir. On penserait plutôt aujourd’hui que la division du corps en segments a été acquise secondairement, car on peut montrer qu’elle a divers avantages physiologiques ; mais on ne peut encore faire que des hypothèses risquées sur la façon dont elle est apparue.
- Les Vers Annélides proprement dits, tels qu’ils sont aujourd’hui définis, se divisent en trois classes : les Poly-chètes ainsi appelés parce que la plupart portent sur le corps de nombreuses soies ; les Oligochètes, dont les soies sont beaucoup plus restreintes ; et les Achètes, ou Hirudinées, ou Sangsues, qui sont privées de soies. Les Polychètes sont, sauf rares exceptions, des vers marins > les Oligochètes sont les Vers de terre au sens large, ils vivent pour la plupart dans le sol ou dans la vase ; les Sangsues sont ou terrestres, ou marines, ou d’eau douce.
- Les Polychètes et les singularités de leur reproduction
- Les Annélides Polychètes, dont l’étude dans le Traité de Zoologie a été confiée à M. Pierre Fauvel, professeur à l’Université catholique d’Angers, tiennent une grande place dans l’économie du monde marin. En Extrême-Orient il en est que l’on consomme et la pêche du « Palolo » donne lieu à de curieuses coutumes. Sur nos côtes, ils ne servent guère que d’appât. La biologie de certaines espèces est des plus curieuses.
- Les Polychètes se répartissent en deux grands groupes : les Errantes et les Sédentaires. Les unes comme les autres comprennent des espèces de tailles très diverses, depuis quelques millimètres jusqu’à plusieurs centimètres et davantage. Certaines Polychètes Errantes, qu’on ne trouve d’ailleurs pas sur nos côtes, atteignent jusqu’à trois mètres de long. Les Sédentaires vivent dans le sable ou la vase, où elles s’entourent habituellement d’un tube ; elles sont
- 441
- p.441 - vue 440/560
-
-
-
- Fig. I. — Une Polychète sédentaire : l’Arénicole (Are-nicola marina).
- Ce ver habite dans le sable vaseux de nos plages une galerie en U dont la branche postérieure est enduite de mucus, la branche antérieure n’étant qu’une sorte de puits vertical produit par les mouvements incessants de la tête de l’animal.
- (Dessin de P.-P. Grasse, Traité de Zoologie, tome V, Masson, Paris ; avec l’aimable autorisation de l’éditeur).
- Fig. 2. — Une Sabelle (Sabella pavonica).
- Les Sabelles vivent dans un tube enfoui verticalement dans le sable. Elles n’ont pas de tête distincte ; le premier segment du corps porte une collerette et un grand panache de branchies, qui entourent la bouche et s’épanouissent en entonnoir. Les filaments branchiaux sont pourvus de cils vibratiles qui créent un courant, entraînant vers la bouche les particules alimentaires.
- (.D’après W. C. McIntosh, in P.-P. Grasse).
- en général reconnaissables à leur corps divisé en plusieurs parties distinctes, comme FArénicole de nos plages (fig. i) qui laisse sur le sable des tortillons analogues à ceux des vers de terre ; comme les vers de terre, ces vers marins sédentaires ingèrent le sable et la vase et en digèrent les particules organiques. D’autres Sédentaires ont un mode de nutrition différent : leur bouche est ornée d’un grand bouquet de branchies filamenteuses, pourvues de cils vibratiles qui créent un courant d’eau continu et la filtrent pour en retenir les petits organismes du plancton. D’autres encore font circuler l’eau dans leur tube et on connaît une espèce, le Chétoptère, qui fait passer cette eau sur une boule de mucus où les bactéries et les débris minuscules sont retenus ; périodiquement il ingurgite le mucus pour se nourrir.
- Les Polychètes errantes, comme leur nom l’indique, ont une vie fort différente. Elles rampent sur le fond ou, parfois, nagent en pleine eau. Beaucoup d’entre elles sont pourvues d’une trompe et armées de mâchoires solides. Les carnassières se saisissent de vers plus petits, de crustacés ou de mollusques. Les végétariennes, et parmi elles celles qu’on a baptisées du joli nom de Nereis, broutent des algues (fig. 3).
- Fig. 3. — Une Néréide (Nereis pelagica).
- (D’après Benham, in P.-P. Grasse).
- C’est dans les processus de leur reproduction que les Polychètes présentent les particularités les plus intéressantes et parfois les plus étranges. Ces processus sont extrêmement divers. Beaucoup de ces vers peuvent d’abord se reproduire par simple division, sans qu’intervienne aucun processus sexuel. Les modalités de cette scissiparité sont variées. Le corps peut par exemple se scinder en plusieurs « stolons » dont chacun, avant de se séparer, acquiert les caractéristiques d’un individu autonome (fig. 4). Le bourgeonnement peut aussi être latéral. Si on coupe une Polychète, chacune des deux parties peut régénérer la partie qui manque, et même un petit morceau suffit parfois à reconstituer l’animal entier. Ainsi on trouve
- 442
- p.442 - vue 441/560
-
-
-
- Fig. 4. — Une Polychète errante, Autolytus purpureo-maculatus, en voie de « sto-lonisation ».
- L’animal a bourgeonné plusieurs stolons, dont chacun va constituer un nouvel individu.
- (.D’après Okada, in P.-P. Grasse).
- quelquefois dans le même tube deux Sédentaires qui vivent côte à côte ; il n’y avait primitivement qu’un seul individu qui par accident s’est trouvé scindé en deux. Notons d’ailleurs que les vers des autres classes ont des facultés de régénération analogues, sinon toujours équivalentes.
- Mais c’est par leur reproduction sexuée que les Poly-chètes sont surtout intéressantes. Quelques-unes sont hermaphrodites ou successivement des deux sexes ; et il existe des cas de parthénogenèse. En général les sexes sont séparés, mais l’accouplement est l’exception. La viviparité, c’est-à-dire le développement des œufs à l’intérieur du corps maternel, est donc également exceptionnelle. Dans la plupart des cas, mâles et femelles dispersent leurs produits sexuels dans l’eau, où se fait la fécondation. Mais la maturité sexuelle des individus s’accompagne, dans certaines espèces, de phénomènes très curieux.
- La maturité sexuelle entraîne chez de nombreuses Poly-chètes une transformation profonde des individus, à tel point que les reproducteurs ont été souvent décrits comme des espèces ou même des genres distincts de ceux dont ils provenaient. Les yeux grossissent, les antennes et les palpes émigrent à la face ventrale, les muscles longitudi-
- naux et circulaires se détruisent, du moins dans la partie postérieure du corps dont les segments se tassent, de sorte que le corps se raccourcit. En revanche des lamelles foliacées se développent sur les fausses pattes, et l’animal devient un nageur plus agile. Mâles et femelles vont alors nager activement vers la surface de l’eau, les mâles étant attirés par une sécrétion des femelles et, dans certaines espèces, par la luminescence de diverses parties de leur corps. Inversement, la présence des mâles incite les femelles à pondre leurs œufs, dont la présence dans l’eau provoque à leur tour l’émission des produits sexuels mâles. Les individus sont alors présents en si grand nombre près de la surface que la mer semble bouillonner. Ce phénomène collectif se déroule toujours dans les premières heures de la nuit et semble en rapport avec les phases de la Lune, sans qu’on ait pu encore en expliquer le déterminisme exact. Les pêcheurs de Concarneau connaissent bien ce phénomène qu’on appelle l’essaimage. La transformation de ces animaux est irréversible et ils meurent après ces noces étranges.
- Une Polychète du Pacifique et des Antilles donne un spectacle du même ordre, mais fondé sur un processus très différent, plus étonnant encore. Dans cette espèce bien connue sous le nom de « Palolo » (fig. 5), c’est la partie postérieure du corps seule qui contient les glandes sexuelles et qui subit une transformation. Au moment de la maturité, ce stolon postérieur se détache de l’animal et il constitue un animal indépendant qui, d’ailleurs, acquiert des yeux à sa partie antérieure. Les stolons mâles et femelles, bourrés de produits sexuels, nagent activement jusqu’à la surface de la mer et lâchent leurs produits en pleine eau. D’autres espèces présentent un phénomène analogue. Les indigènes savent à quelle date précise les palolos feront leur essaimage et ils les récoltent en grand nombre pour s’en nourrir.
- Depuis quelques années, des observations et des expériences diverses, notamment réalisées par M. Maurice Dur-chon, professeur à la Faculté des Sciences d’Alger, ont établi que le développement des Annélides Polychètes était sous l’influence de sécrétions endocrines. En particulier, comme chez les Insectes et les Crustacés, c’est
- Fig. /. — Le « Palolo » des îles Fidji et Samoa (Eunice viridis).
- Le ver est montré ici dans sa forme « épitoque », c’est-à-dire quand sa partie postérieure s’est transformée en un stolon bourré de produits génitaux, avec un œil ventral au centre de chaque segment. Ce stolon se détachera lors de 1’ « essaimage » et gagnera la surface de la mer, tandis que la partie antérieure ne quittera pas les anfractuosités des récifs et pourra régénérer un nouveau stolon sexué l’année suivante.
- {D'après Woodworth, in P.-P. Grasse).
- 443
- p.443 - vue 442/560
-
-
-
- une hormone qui a pour effet de retarder la maturité sexuelle. D’autres hormones influent sur les processus de régénération.
- Les Oligochètes, hermaphrodites ou polyploïdes parthénogénétiques
- Si certaines Polychètes sont consommées en quelques pays et servent d’appât pour les pêcheurs, si les Sangsues ont un rôle bien connu en médecine et intéressent d’autre part les parasitologues par nombre de leurs espèces, les Oligochètes ont pour nous un intérêt bien plus immédiat par le rôle que jouent les vers de terre dans l’évolution des sols et dans les équilibres de la vie terrestre. Les 250 pages qui leur sont consacrées dans le Traité de Zoologie de M. Grassé ont été rédigées par M. Marcel Avel, professeur à la Faculté des Sciences de Bordeaux, à qui l’on doit de nombreux travaux sur divers aspects de leur biologie et notamment sur leurs mécanismes de régénération, la faculté qu’ont ces animaux de réparer leurs amputations étant d’ailleurs notablement moindre que chez les Polychètes.
- A l’exception de quelques espèces qui vivent dans les détritus de la zone de balancement des marées, les Oligochètes sont toutes des animaux terrestres ou d’eau douce. La plupart des Oligochètes terrestres creusent des galeries dans le sol où elles séjournent presque en permanence, ce sont les vers de terre au sens large du terme. De rares espèces grimpent sur les arbres et on en connaît même quelques-unes qui vivent dans la neige ou sur les glaciers. Celles qui habitent les eaux douces nagent ou rampent sur la végétation immergée, ou bien s’enterrent plus ou moins dans la vase du fond, ou encore se confectionnent des tubes avec des matériaux divers. D’une façon générale, on peut donc diviser les vers Oligochètes en terricoles et limicoles. Les uns comme les autres se nourrissent en général de feuilles en décomposition et de débris organiques qu’ils ingèrent avec la terre ou la vase qui les contient. Quelques-uns cependant sont carnassiers et s’emparent de tout petits animaux. Quelques-uns enfin sont parasites, externes ou internes.
- A la différence des Polychètes, chez lesquelles les sexes sont presque toujours séparés, les Oligochètes sont hermaphrodites. Les organes mâles et femelles se trouvent dans des segments différents et l’accouplement, comme celui des escargots, réalise une fécondation réciproque. Cependant il existe des espèces chez lesquelles les individus peuvent se féconder eux-mêmes ; c’est ce qu’on appelle la reproduction uniparentale. Enfin, chez de nombreuses espèces, bien qu’elles montrent des organes mâles en apparence normaux, la reproduction se fait, dans la plupart des populations, par parthénogenèse, c’est-à-dire que les œufs se développent sans aucune fécondation.
- L’étude des chromosomes des espèces parthénogénétiques a conduit à la découverte d’un curieux phénomène. On sait que les cellules sexuelles contiennent normalement un seul chromosome de chaque paire, la fécondation ayant pour effet de restituer le nombre double de chromosomes. Ce nombre simple de chromosomes dans l’œuf non fécondé est obtenu par une division cellulaire de type spécial, appelé méiose, ou réduction chromatique. Quand il y a parthénogenèse, il se produit dans l’œuf une régulation qui a pour effet de reconstituer le nombre double des
- chromosomes, faute de quoi, sauf exception, l’animal ne serait pas viable. Or chez les vers de terre parthénogénétiques, le doublement des chromosomes, au lieu de se faire après la méiose, se fait avant \?l méiose. D’ailleurs la parthénogenèse de ces animaux semble en rapport avec une particularité assez étonnante de leur équipement chromosomique. Beaucoup de vers de terre ont un nombre de chromosomes anormalement élevé, jusqu’à 130 chromosomes chez une espèce d’Enchytréide, c’est-à-dire de ces petits vers qui colonisent surtout les parties superficielles du sol. Beaucoup d’espèces ont donc leurs chromosomes en double, en triple, ou davantage. Ce sont des polyploïdes. Ce phénomène est relativement rare chez les animaux, alors qu’il est fréquent chez les plantes, et presque la règle chez les Fougères.
- La polyploïdie chez les vers de terre n’entraîne pas de différences discernables dans leur morphologie ou leur physiologie. Mais la parthénogenèse qui en est souvent la conséquence a entraîné une grande diversification par l’isolement génétique qui en résulte et, selon les spécialistes, elle a joué un grand rôle dans l’amplitude de leur répartition géographique.
- Tout comme les Polychètes, mais à un moindre degré, les Oligochètes se reproduisent aussi par simple division, sans qu’entrent en jeu des phénomènes sexuels. Certaines d’entre elles peuvent se scinder spontanément, chaque partie reconstituant ensuite l’animal entier. Mais cette possibilité semble réservée à des familles de Limicoles. Elle est liée à un haut pouvoir de régénération des parties accidentellement ou expérimentalement amputées. Ce pouvoir est beaucoup plus réduit chez les espèces terrestres, notamment chez celles que nous appelons des vers
- Fig. 6. — Influence de la chaîne nerveuse d’un ver de terre sur la régénération de la tête.
- Si l’on sectionne la tête d’un ver de terre assez près de l’extrémité antérieure, il peut la régénérer. Cette expérience, due à M. Avel, montre l’influence de la chaîne nerveuse dans la régénération de la tête. Si l’on dévie la chaîne nerveuse pour la faire saillir dans une fenêtre latérale, elle y provoque la formation d’une tête surnuméraire, i et 2 : à l’aide d’un crochet en argent cr on a dévié la chaîne nerveuse n ; 3 : poussée d’une tête supplémentaire T. s. Autres abréviations : b, bouche ; si, soies latérales ; sv, soies ventrales ; sut, points de suture.
- (Dessins extraits du Traité de Zoologie, tome V, Masson, Paris, avec Vaimable autorisation de l’éditeur)
- 444
- p.444 - vue 443/560
-
-
-
- Fig. 7. — Un Ver de terre australien de grande taille :
- Digaster longmanni.
- Pour comparaison, on tient à la main un Ver de terre de nos régions.
- La règle au premier plan est graduée en pouces (2,54 cm).
- (.D’après M. D. Bei.lomy).
- de terre. Contrairement à ce que l’on croit généralement, un Lombric que l’on coupe en deux est incapable de régénérer deux individus complets. Le pouvoir de régénération dépend essentiellement du niveau où le ver a été sectionné. S’il manque un trop grand nombre de segments, nombre qui varie avec les espèces, la régénération n’a pas lieu ou elle est incomplète ; elle se produit plus facilement pour les segments postérieurs que du côté de la tête. La régénération est produite principalement par des cellules spéciales qui ont été identifiées depuis longtemps, mais son déterminisme n’est pas encore connu dans tous ses détails, malgré les nombreuses expériences qui ont été effectuées. Le système nerveux y joue certainement un rôle important (fig. 6).
- Vers de terre et fertilité du sol
- On sait que Darwin fut le premier à attirer l’attention sur la grande importance des vers de terre dans l’évolution des sols. Cette question a fait depuis lors l’objet de nombreux travaux, principalement depuis une dizaine d’années. On estime que dans les terres cultivées, le nombre
- des vers de terre varie de 360 000 par hectare dans un chaume, à 3 millions dans des prairies et 4 millions par hectare dans des jardins, ce qui correspond à 130 kilos de vers de terre dans le premier cas, à plus d’une tonne dans une prairie, et même quelquefois à deux tonnes, ce qui fait dire au professeur Avel qu’une bonne prairie produit un poids plus élevé de vers de terre que de gros bétail.
- Les vers de terre absorbent un mélange de terre et de débris végétaux, qu’on a évalué à plusieurs dizaines de tonnes par hectare et par an. Les résidus de leur digestion sont déposés par eux en partie sur les parois de leurs galeries, qu’ils tapissent d’une couche continue consolidée par du mucus ; une autre partie comble les galeries abandonnées, et une troisième est rejetée à la surface du sol sous forme de tortillons faciles à reconnaître. Toutes ces déjections des vers de terre ont été soigneusement analysées, et leur fertilité, comparée avec celle du sol environnant, a toujours été reconnue comme bien supérieure. Le passage par le tube digestif des Lombrics transforme les débris végétaux en dérivés humiques et il assure un mélange intime de cet humus avec les constituants minéraux du sol qui ont été ingérés en même temps. Il se constitue ainsi des complexes colloïdaux argilo-humiques que les agronomes ont reconnu être d’une stabilité très supérieure à celle des constituants séparés. Ils ont aussi de précieuses propriétés absorbantes pour l’eau et pour les ions essentiels à la nutrition végétale.
- « Les formes évoluées de l’humus, écrit M. Avel, ne
- 445
- p.445 - vue 444/560
-
-
-
- peuvent donc pas, contrairement à ce que pensaient jusqu’à une époque récente la majorité des pédologues, résulter entièrement de l’action chimique des bactéries et des champignons du sol. Un mélange mécanique très intime, qui ne peut être effectué que dans le tube digestif des animaux du sol, est indispensable. A cause de leur masse prédominante, les agents principaux de cette transformation sont les vers de terre, tout au moins sous nos climats. »
- Mais les transformations proprement chimiques que les Lombrics font subir au sol ne sont pas moins importantes. Aussi bien dans les sols cultivés que dans les forêts, ils fixent sous forme assimilable des éléments indispensables aux plantes, phosphore, potassium, magnésium, calcium, et ils diminuent l’acidité. Ils influent aussi notablement sur la composition de la flore microbienne.
- Il résulte de tout cela que les vers de terre, aussi bien les Lombrics que les espèces plus petites qui colonisent les parties plus superficielles du sol, jouent un rôle pri-
- mordial dans la nature et dans l’économie agricole. Leurs déjections doivent être considérées comme un engrais naturel excellent, auquel vient s’ajouter leur propre substance, car leur vie est relativement courte. C’est pourquoi dans quelques pays, on a entrepris leur élevage en grand pour repeupler les sols que les divers traitements agricoles appauvrissent en vers de terre. Il existe en Allemagne et aux États-Unis des entreprises spécialisées qui sont capables de fournir journellement des centaines de milliers de vers de terre. A ce sujet indiquons cependant que des réserves ont été faites récemment sur l’efficacité de ce repeuplement. Il semble bien que les vers de terre existent naturellement partout où ils trouvent des conditions de vie convenables, et si ces conditions n’existent pas ils ne tardent pas à disparaître. Il s’agit donc moins d’en répandre artificiellement que de trouver des modes de culture du sol qui ne leur soient pas trop défavorables.
- Jean Grive.
- Année de contrastes climatiques en U. R. S. S.
- L’année i960 fut une année de contrastes climatiques prononcés sur tout le territoire de l’Union Soviétique, tant en Europe qu’en Asie, signale la revue Priroda de Moscou. Les mois de janvier et de février, relativement doux au sud, furent très froids au nord, surtout au nord de la Sibérie où, à Ver-khoïansk, par exemple, la température mensuelle moyenne de l’air atteignit — 48,1° C en janvier, — 45,6° C en février et — 30,1° C en mars ; le 3 janvier, la température y descendit à — 550 C. Le printemps, au contraire, fut froid au sud, et relativement doux au nord de l’U. R. S. S. En mars et avril, des tempêtes de poussière d’une rare violence se produisirent dans les régions méridionales, en Europe. Ces tempêtes étaient dues à la formation de vastes et puissants anticyclones aux latitudes moyennes. La pression, au centre des anticyclones, atteignait 1 050 mb, alors que la pression normale y est de
- Pont géant sur
- Le Danemark va entreprendre la construction d’un pont géant qui enjambera le Grand Belt et reliera les îles de Fionie et de Seeland. Le projet était prêt il y a déjà quelques années (voir La Nature, janvier 1957, p. 34), mais des difficultés de financement l’ont fait attendre : il est aujourd’hui question d’un droit de péage qui amortirait en 70 ans le coût de l’ouvrage. La dépense en effet atteindra 1 500 millions de nouveaux francs pendant onze ans. Le pont aura 25 km de long et s’appuiera
- Un rideau d’ondes radar
- Une opération « Barrière invisible » est en cours d’achèvement aux États-Unis, nous apprend le Centre culturel américain. Elle consiste en un rideau d’ondes radar émises par un émetteur de 500 kW, qui traversera le continent américain, de la Caroline du Sud à la Géorgie. De gigantesques antennes réceptrices capteront les ondes réfléchies par les objets qui traverseront ce rideau. Le système doit permettre de détecter éventuellement
- 1 020 à 1 030 mb. Les vents de l’est atteignirent 28 m/s dans les régions affectées par les tempêtes de poussière. Quant à l’été, s’il fut beau au début (sauf des pluies exceptionnelles au sud), les températures moyennes, en août et septembre, descendirent partout au-dessous de la normale, sauf dans les régions septentrionales. Mais c’est le mois de décembre qui fut certainement le mois le plus extraordinaire de l’année. Il fut le plus chaud qu’on ait noté depuis le début des observations météorologiques en Russie, en 1779. A Moscou, la température mensuelle moyenne fut, en décembre i960, de + 0,2° C, le record précédent étant de — i,4° C en 1824, 1932 et 1951. Même des fleuves tels que la Néva et le Volkhov, qui sont habituellement entièrement recouverts de glace à cette époque de l’année, restèrent dégagés jusqu’en janvier.
- C. M.
- le Grand Belt
- sur une île située à mi-parcours ; la hauteur au-dessus de l’eau sera de 67 mètres, ce qui sera largement suffisant pour autoriser la navigation des plus gros navires dans le Grand Belt. Le pont aura deux étages, l’un pour une voie ferrée double, l’autre pour quatre chaussées routières ; chaque travée aura 350 m de développement. Les experts jugent qu’une vitesse minimale devra être imposée, si l’on veut obtenir un débit satisfaisant (25 000 voitures à l’heure).
- va traverser les États-Unis
- les satellites passant au-dessus des États-Unis. Des calculateurs électroniques interpréteront les données ainsi réunies pour déterminer les orbites des engins détectés. Ce dispositif a déjà permis.de localiser et de suivre dans sa course un morceau de métal de 4,30 m de long, en orbite à une altitude moyenne de 640 km, qui provenait de la désintégration d’un satellite américain.
- 446
- p.446 - vue 445/560
-
-
-
- L’ACTUALITE INSTRUMENTA TE
- Pompe doseuse
- pneumatique
- Il est souvent nécessaire, en chimie, de pouvoir refouler un liquide avec un débit parfaitement constant et réglable néanmoins dans d’assez larges limites. C’est le cas, par exemple, des opérations de soutirage dans les colonnes de distillation, des séparations à l’aide des résines échan-geuses d’ions, du mélange de réactifs au cours d’une synthèse, du prélèvement en quantités connues de liquides destinés à être analysés chimiquement.
- Ce problème n’a été abordé, pour l’instant, que par un nombre assez restreint de constructeurs, surtout en ce qui concerne les faibles débits. Aussi pensons-nous utile de signaler l’apparition sur le marché d’une pompe doseuse d’un type nouveau mise au point par la division nucléaire de la Compagnie française Thomson-Houston.
- Cette pompe permet de refouler tous les liquides courants de l’industrie chimique à des débits de consigne fixés avec précision et ajustables dans une large gamme, soit en marche, soit à l’arrêt. Le principe en est le suivant : un piston à course alternative aspire et refoule des volumes précis du liquide considéré (fig. i). Ces volumes sont
- I I Clapet de refoulement iq Guide du piston
- Arrivées d'air comprimé
- Piston
- Butée réglable
- - Clapet d'aspiration
- Fig. i. — Coupe schématique du corps de pompe.
- rigoureusement proportionnels à la course du piston, laquelle est réglable mécaniquement au moyen d’une butée. Le volume de liquide pompé par unité de temps est également proportionnel à la fréquence de va-et-vient du piston. L’utilisateur dispose donc de deux possibilités de réglage extrêmement souples : le volume unitaire refoulé et la cadence de refoulement. Un exemple type de réglage du débit est figuré dans le tableau I.
- Le piston est actionné par un vérin pneumatique à simple ou double effet (fig. 2), l’admission de l’air comprimé s’effectuant par tout ou rien au moyen d’électrovannes à trois voies. Le cycle de commande des électrovannes peut être réalisé soit par un ensemble micromoteur-came actionnant des rupteurs, soit par tout autre dispositif de commande
- Tableau I. — Exemple du dosage du débit
- DE LA POMPE DOSEUSE PNEUMATIQUE
- Débit en litres/heure
- Course de piston
- en millimètres
- Pour 30 coups/mn Pour 1 coup/mn
- 2 U3 0,04
- 20 13,1 °,44
- automatique fournissant des signaux capables de contrôler les électrovannes.
- Le corps de pompe ainsi que les soupapes peuvent être usinés en plexiglas ou en acier inoxydable. L’ensemble piston-vérin pneumatique est en acier inoxydable. Les éléments de l’ensemble sont assemblés par un simple écrou
- Electro-vannes
- Alimentation en air comprimé
- Corps de pompe
- Piston
- v\\\\\\\\\\\^
- Fig. 2. — Schéma du vérin pneumatique.
- Cas du montage à double effet. Lorsque l’électrovanne de droite est dans la position indiquée le piston se déplace de droite à gauche et inversement.
- 447
- p.447 - vue 446/560
-
-
-
- Fig. 3. — Différents composants de la pompe doseuse.
- On distingue, de gauche à droite, le corps du vérin pneumatique, le piston, l’écrou moleté d’assemblage, le corps de la pompe proprement dite.
- {Photo Thomson-Houston).
- moleté, ce qui permet un démontage aisé (fig. 3 et 4).
- La pression de l’air comprimé d’alimentation peut varier de 2 à 7 kg/cm2. La pression de refoulement atteint un tiers de la pression de l’air comprimé en simple effet, et deux fois cette pression en double effet. La précision du dosage est meilleure que 1 pour 100 du débit maximal.
- Le principe de la pompe permet d’envisager trois types d’applications :
- — Montage à débit constant : le dispositif cadenceur est réglé à une valeur prédéterminée qui assure un débit constant.
- — Montage proportionnel : le dispositif cadenceur
- Fig. 4. — Pompe doseuse pneumatique de la Compagnie française Thomson-Houston.
- On distingue, de gauche à droite, la butée de réglage de la course, les deux entrées d’air comprimé, l’entrée et la sortie du liquide.
- {Photo Thomson-Houston).
- délivre des impulsions dont la fréquence est proportionnelle au débit d’un liquide auquel on veut mélanger une fraction déterminée de liquide dosé ; un exemple d’application est l’introduction en proportion définie de l’eau de Javel dans l’eau potable.
- — Montage discontinu : le dispositif cadenceur déclenche un certain nombre d’impulsions qui correspondent à un certain volume dosé ; c’est le montage utilisé lorsqu’on veut prélever une quantité déterminée d’un liquide.
- Bien entendu, la combinaison de ces montages élémentaires permet de réaliser des installations complexes, équipées de plusieurs pompes remplissant des fonctions déterminées et commandées automatiquement.
- Un dosimètre miniature pour neutrons rapides
- De très nombreux dispositifs ont été mis au point au cours des dernières années pour évaluer les doses de radiations auxquelles sont soumises éventuellement les personnes qui travaillent dans les usines ou les laboratoires nucléaires. On connaît, par exemple, le stylo-dosimètre, petit électro-scope à fil de quartz métallisé dont le déplacement est sensiblement proportionnel à la dose de radiations reçues. Toutefois, ce dispositif n’est pas sensible aux neutrons, lesquels, n’étant pas chargés, ne sont pas ionisants par eux-mêmes. Or, le problème de la détermination des doses de neutrons, et surtout des neutrons rapides, est important car il intéresse en temps de paix le personnel qui travaille
- Fig. j. — Une simple mesure d’intensité de courant permet de déterminer la dose de neutrons rapides reçus par le dosimètre de l’Institut Battelle.
- {Photos Battelle Memorial Institute).
- 44R
- p.448 - vue 447/560
-
-
-
- Fig. 6. — La miniaturisation du dosimètre à neutrons rapides est clairement illustrée par cette photographie.
- Les détecteurs enfichés sur la plaque tiennent dans le creux de la main et sont cependant en nombre suffisant pour le personnel d’une centrale nucléaire amené à travailler aux points « chauds ».
- au voisinage des réacteurs, et en temps de guerre les civils ou les militaires éventuellement exposés aux flux intenses de neutrons libérés par les explosions nucléaires.
- Jusqu’alors, les neutrons rapides étaient mis en évidence par les protons de recul qu’ils produisent dans deux feuilles d’acétate de cellulose entre lesquelles se trouve une émulsion photographique spéciale. On compte les traces de ces protons dont le nombre est fonction de la dose de neutrons reçus. Ce procédé est assez incommode car il exige un personnel entraîné pour le comptage des traces des protons et, de plus, il est très long.
- L’Institut Battelle vient de mettre au point pour le
- compte de l’U. S. Armv Signal Corps un détecteur de neutrons rapides qui fonctionne sur un principe totalement différent. Plus petit qu’un clou de tapissier, il est constitué d’un disque de silicium de 2,5 mm de diamètre et de 0,75 mm d’épaisseur monté entre deux pointes métalliques. Son fonctionnement est fondé sur les changements des propriétés électriques des semi-conducteurs sous l’effet d’un bombardement neutronique. Le silicium voit sa conductibilité électrique diminuer : le courant qui le traverse sous une certaine différence de potentiel varie donc selon l’irradiation. Les effets des neutrons sont cumulatifs et l’appareil enregistre bien des doses successives. Son emploi est très simple puisqu’il suffit d’une simple mesure d’intensité de courant pour en déduire l’irradiation à condition, bien entendu, de disposer de tables d’étalonnage qui relient ces deux grandeurs. La mesure est ainsi quasi instantanée et, de plus, le détecteur est rigoureusement insensible aux autres rayonnements.
- p.449 - vue 448/560
-
-
-
- Destinée à faire circuler toutes sortes de fluides, qu’ils soient liquides ou gazeux.
- Pompe WAB
- à tuyau flexible
- Cette pompe de petites dimensions que l’on veut réaliser une circulation à petite échelle.
- Le débit est réglable, en faisant varier la vitesse de rotation. Le débit dépend aussi du diamètre du tuyau souple utilisé : débit maximum 300 lit res/heure à 500 tours/minute avec un tuyau de 10/13,5 mm.
- rend de grands services toutes les fois de liquide ou de gaz dans un montage
- > La pompe peut aspirer ou refouler , elle s’amorce d’elle-même; elle peut tourner dans les deux sens.
- Le fluide pompé est uniquement en contact avec le tuyau souple. L’échange de ce tuyau est très rapide.
- PROLABO
- 12, Rue Pelée PARIS XI•
- TÉL. VOL. 11-90 et 41-19
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 19551
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e. — ODE 54-83
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d’État. Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour —» Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- VIENT I)E PA HAITIlE
- BIBLIOTHÈQUE TECHNIQUE PHILIPS
- LA VISION DES COULEURS
- PAR
- J. BERGMANS
- Ingénieur-docteur
- 96 pages 14 x 22, avec 23 figures Carlonné sous couverture illustrée .
- et 2 hors-texte couleurs.
- ............... 9,50 NF
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6’. DAN 99-15.
- RAPY
- appareils électroniques de mesure
- QUELQUES POSSIBILITÉS :
- Tensions : 100 p V à 50 kV R d’entrée 1014 (1
- Intensités : 10"*5 à 10-1 ampère • R. d'entrée
- nulle
- Résistances : 1017 0 à 100 pA- R d'entrée
- nulle
- Capacités : 0,1 pF à 10.000 pF - R. d'entrée
- nulle
- Champs : 0,1 gauss à 10 000 gauss.
- Electrisations
- 10 pico-coulombs à 1.000 coulombs. 0,5 à 5 \V.
- Pertes en watts des tôles Fluctuations de tension :
- depuis 1 mV 1,000 ou 2.000 V. Intégration : (analogique)
- I seconde à 60 minutes I à 20 voies Conductivité : 1 A à 1.000 M A (mesure à
- distance)
- Fournisseur de 1.900 laboratoires officiels et privés toutes industries
- 63, rue de Charenton, Paris 12* - Tel. DID. 07-74
- 450
- p.450 - vue 449/560
-
-
-
- Pompe de laboratoire à tuyau
- La Société Prolabo vient de mettre en vente une petite pompe d’une grande simplicité de fonctionnement, susceptible de rendre de multiples services chaque fois qu’il s’agit de faire circuler un liquide ou un gaz, à condition toutefois que le circuit n’oppose pas une trop grande résistance à l’écoulement.
- Son principe est le suivant (fig. 7) : un tuyau souple est enroulé dans le fond du corps de pompe, de forme semi-circulaire. Deux galets tournants écrasent le tube contre la paroi, ce qui provoque le déplacement du point de pincement le long du tube, et l’entraînement du fluide contenu par impulsions successives. Il suffit donc de munir l’axe de rotation de l’équipage mobile d’une poulie d’entraînement à relier par courroie à un moteur électrique, par exemple. Le débit est sensiblement proportionnel à la vitesse de rotation et à la section du tuyau.
- Les avantages de ce type de pompe sont multiples
- — Absence de contamination : le fluide pompé est uniquement en contact avec le tube souple qui le canalise ; il n’y a ni presse-étoupe, ni contact avec des parties métalliques.
- — La pompe s’amorce d’elle-même instantanément ; elle peut soit aspirer, soit refouler un liquide ou un gaz.
- — Le débit est aisément réglable en modifiant la vitesse de rotation. Sa valeur maximale atteint 300 l/h à 500 tours par minute avec un tube de diamètre intérieur de xo mm.
- Enfin, le mécanisme est robuste et ne nécessite aucun entretien ; le seul organe susceptible d’usure est le tuyau souple, dont le démontage et le remplacement sont très rapides. La pompe peut fonctionner dans toutes les positions.
- Dans la mesure où l’on peut trouver un tuyau flexible qui supporte le contact avec le fluide considéré, ce matériel est donc à même de rendre de grands services chaque fois que se pose un problème de pompage délicat comme dans
- Fig. 7. — La pompe W. A. B. à tuyau flexible pour la circulation des liquides et des gaz.
- {Photo Prolabo).
- le cas de fluides corrosifs ou toxiques. Pour les fluides courants, des tubes en élastomères aux silicones, type Rhodorsil par exemple, présentent une bonne résistance aux écrasements répétés et possèdent de ce fait une durée de vie convenable.
- R. R.
- Des films pour rayons X manipulables à la lumière
- Les émulsions photographiques servent d’habitude à faire des photographies en lumière visible. Les diverses applications des rayons X représentent cependant une part importante de la consommation des surfaces photosensibles. Les rayons X généralement utilisés traversent sans peine une épaisseur de papier qui arrête totalement la lumière visible. Il semble cependant que les méthodes de la photographie ordinaire aient été adoptées telles quelles par les radiologues qui prennent bien soin d’opérer dans l’obscurité pour découper leur film, le sortir de son emballage et le transférer dans un chargeur. D’après une information de Kodak, les radiologues à la pointe du progrès peuvent maintenant trouver du film pour rayons X dans un emballage prêt à l’emploi : la pellicule en feuilles est enrobée de papier que l’on ne retire qu’au développement. De même la pellicule en rouleau (70 mm, 35 mm, 16 mm) est recouverte de papier opaque à la lumière ;
- on peut donc couper en pleine lumière la longueur de film nécessaire ; il suffit ensuite de sceller les extrémités avec un ruban adhésif et d’exposer normalement. C’était bien simple, encore fallait-il y penser !
- F. R.
- Lampes superminiatures
- En complément à l’information publiée dans notre numéro de juin 1961, p. 267, signalons la fabrication aux États-Unis de deux autres types de lampes électriques à incandescence de très faibles dimensions : lampes à faible consommation (9 mW sous 1,35 V) de 0,4 mm de diamètre et 1,6 mm de long, présentant un temps de réponse rapide (4 ms) pour des impulsions de basse fréquence ; lampes de 0,8 mm de diamètre et 2,5 mm de longueur, d’un rendement lumineux élevé (250 mlm sous 3 V) et d’une durée de vie de l’ordre de 2 000 heures.
- 451
- p.451 - vue 450/560
-
-
-
- Le Ciel en Novembre 1961
- SOLEIL : du 1er novembre au Ier décembre (à oh) sa déclinaison décroît de — I4°I7' à — 2i°44' et la durée du jour de 9h50m à 8h32rn ; diamètre app. le Ier — 32/i7",o, le 30 — 32/29",6. — LUNE : Phases : N. h. le 8 à 9h59m, P. Q. le 15 à 123113m, P. L. le 22 à 9h44m, D. Q. le 30 à 6hl9m ; apogée le 2 à 2h, diamètre app. — 29'32" ; périgée le 17 à 5h, diamètre app. — 32'20" ; apogée le 29 à 22h, diamètre app. = 29'34". Principales conjonctions : avec Uranus le 2 à 6h, à o°i3' S ; avec Vénus le 6 à i6h, à 3°o' N ; avec Mercure le 6 à 1811, à 2°I9' N ; avec Neptune le 8 à oh, à 3°2i' N ; avec Mars le 9 à 3h, à 5025' N ; avec Saturne le 13 à 1311, à 2°38/ N ; avec Jupiter le 14 à oh, à 2°30/ N ; avec Uranus le 29 à 1511, à o°5' N. Principales occultations : le 20, de E,2 Baleine (mag. 4,3), immersion à i6h53m,6 ; le 21, de p. Baleine (mag'. 4,4), immersion à 2h29m,7 ; le 23, d’Aldébaran (mag. 1,1), immersion à 3h3m,2 et émersion à 3h43m,6 ; le 24, de 119 Taureau (mag. 4,7), émersion à 4h30m, o de 120 Taureau (mag. 5,5), émersion à 5hl2m,5 et de 71 Orion (mag. 5,2), émersion à 2lhl4m,l ; le 27, de Ç Cancer (mag. 5,1), émersion à 4hom,8. — PLANÈTES : Mercure, belle étoile du matin visible une grande partie du mois, se lève le 9 à 5hlm, soit ih50m avant le Soleil ; Vénus, encore étoile du matin se rapprochant du Soleil, non loin de Mercure vers le 9 ; Mars, est invisible ; Jupiter, dans le Capricorne est étoile du soir, le 21, coucher à 20h33m et diamètre pol. app. 34",o ; Saturne, dans le Sagittaire précède et s’écarte peu à peu de Jupiter, le 15, diamètre pol. app. 14",4 et axes de l’anneau: 36",o et -f- 13",9 ; Uranus, près de Béguins à l’est, apparaît avant minuit, le 15, position : lohiim et + I2°3/, diamètre app. 3",8 ; Neptune, dans la Balance réapparaît un peu le matin à la fin du mois ; Cérès, dans la région E, Taureau, puis X Baleine, mag. 7,5, positions, le Ier : 3h29m et + g°4o', le 11 : 3hi9m et + 9°3o', le 21 : 3hiom et + 9026', le Ier déc. : 3him et -j- 9°30' ; Vesta, près de X puis de E, Taureau suit Cérès, mag. 7,0, positions, le Ier : 4h2m et + n°39', le 11 : 3h53m et ~f 11016^, le 21 : 3h42m et 4- io^', le Ier déc. : 3h32m et + io°49'. — ÉTOILES VARIABLES : minima observables d'Algol (2m,2-3m,5) le 15 à 5h,5, le 18 à 2h,4, le 20 à 23h,3, le 23 à 20h,2 ; minima de (3 Lyre (3m,4-4°^,3) le 4 à I4h,4, le 17 à I2h,7, le 30 à uh,o; maxiraa de S Céphée (3m,7-4m,6) le Ier à 9^,3, le 6 à l8h,i, le 12 à 2h,9, le 17 à nh,7, le 22 à 20h,5, le 28 à 5h,3 ;
- maxiina de p Aigle (3rn,7-4m,4) le 2 à 10^,0, le 9 à 14^,3, le 16 à i8h,g, le 23 à 22h,7. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.) : le Ier : 2h49m3is, le 11 : 3h28m56s, le 21 : 4h8m22s, le Ier déc. : 4h47m47s.
- Phénomènes intéressants : Surveiller l’apparition de taches et de facules à la surface du Soleil. — Du Ier au 6, lumière cendrée de la Lune, le matin. — Le a3, on ne manquera pas d’observer l’occultation d’Aldébaran. — On suivra à la jumelle les mouvements rétrogrades de Cérès et de Vesta, respectivement en opposition avec le Soleil les 14 et 20. — Profiter de la proximité d’Uranus avec Régulus pour observer la lointaine planète. — Étoiles filantes : du 15 au 20, Léo-nides (max. le 16), radiant Ç Lion ; du 17 au 23, Andromédides, radiant y Andromède. — Dans la première moitié du mois, Mercure est bien visible le matin, à l’œil nu.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- 28, rue Serpente, Paris-6e
- Vous aurez à votre disposition une importante Bibliothèque, un Observatoire, des séances mensuelles, cours, conférences, etc. Vous recevrez la revue mensuelle L’ASTRONOMIE Spécimen gratuit et conditions sur demande. Permanence au Siège social, tous les jours non fériés de 14 à 17 heures. POUR CONSTRUIRE VOUS-MÊMES votre INSTRUMENT achetez l’important ouvrage :
- LA CONSTRUCTION DU TÉLESCOPE D'AMATEUR
- par Jean Texereau,
- Ingénieur du Laboratoire d’Optique de l’Observatoire de Paris.
- 2° édition considérablement augmentée, magnifique volume 16 x 24 de 296 pages, illustré de 156 fig. et IV planches hors texte, sous reliure toile. 25,50 NT franco, réduit à 19,50 NE pour les Membres de la Société, payable à la commande : Ch. post. Paris 1733.
- ..
- L ES LIVRES NOUVEAUX
- Éléments d’histoire des mathématiques, par Nicolas Bourbaki, i vol. 14 x 21, 276 p. Hermann, Paris, i960. Prix : 18 NF.
- Ce volume, quatrième tome de l'Histoire de la Pensée, publiée par Hermann, rassemble, sans modifications substantielles, la plupart des Notes historiques parues jusqu’ici dans les Éléments de Mathématiques du « célèbre mathématicien » Nicolas Bourbaki. Par suite, les études séparées qui constituent cet ouvrage n’ont pas la prétention de constituer une histoire complète des mathématiques. En revanche, les idées directrices de chaque théorie, la manière dont ces idées se sont développées et ont réagi les unes sur les autres apparaissent très clairement. Le public cultivé y verra comment des Babyloniens à nos jours se sont affermies les notions de nombre, d’espace, de relations et de structure. Abondante bibliographie.
- La création de l’Univers, par Georges Gamow, professeur de physique théorique à l’Université du Colorado. Trad. par Geneviève Guéron. 2e édition remise à jour. 1 vol. 16 X 21, 166 p., 40 fig,, 11 planches de photos. Dunod, Paris, 1961. Prix : 8,40 NF.
- L’auteur est un vigoureux partisan de 1’ « atome primitif » imaginé par G. Lemaître et, profitant des récentes acquisitions de la chimie nucléaire,
- il nous présente dans cette 2e édition l’atome primitif dernier cri. Des calculs, dont les bases nous sont ici révélées et mises à la portée du profane, permettent une précision stupéfiante : dans la monstrueuse explosion tous les éléments chimiques qui composent l’univers actuel (et bien d’autres qui se sont désintégrés depuis) se sont constitués en une heure environ. La formation des galaxies, celle des étoiles et des systèmes planétaires, l’évolution des astres vers leur mort finale à l’état dégénéré sont ensuite exposées avec le talent plein d’humour qui a fait le succès des livres de G. Gamow.
- An Introduction to Astrodynamics, édité par Robert M. L. Baker Jr. et Maud W. Maken-son. 1 vol. 15,5 X 23,5, xiv-358 p., 47 fig. Academie Press Inc., New York, i960. Prix, relié : 18 dollars.
- Une ire partie traite des problèmes fondamentaux de mécanique céleste. La 2e partie aborde la détermination détaillée des orbites et la théorie de leur observation. La question des voyages interplanétaires vers la Lune, Mars et Vénus est traitée avec soin et les auteurs montrent qu’une meilleure estimation des distances des planètes ainsi que du Soleil sera nécessaire pour résoudre les problèmes de navigation. L’ouvrage s’adresse aux étudiants et aux ingénieurs chargés d’applications
- pratiques dans le domaine des véhicules de l’espace Une série d’exercices familiariseront le lecteur avec une science en pleine évolution.
- Histoire et avenir de la méthode expérimentale, par René Leclercq, ingénieur civil, docteur ès sciences, directeur de recherches à l’Union chimique belge. 1 vol. 14,5 X 22,5, 138 p., 10 planches hors texte. Collection
- Évolution des Sciences. Masson, Paris, i960. Prix : 15 NF.
- Malgré le titre de son livre, l’auteur a été conduit, et on ne saurait lui en faire un reproche, à remonter aux débuts de la science, bien avant la naissance de la méthode expérimentale, au temps où les Grecs forgeaient l’instrument logique indispensable à tout progrès de la connaissance. Plus tard, l’expérimentation ne peut être considérée abstraction faite des outils intellectuels qui l’animent et l’interprètent. Finalement, nous voici devant une esquisse de l’évolution de l’esprit scientifique dans toutes ses principales manifestations. Et ce qui manque, c’est une définition explicite de l’expérience et de la méthode expérimentale.
- Physique générale, par Jean Rossel. 1 vol. 16,5 X 23, 486 p., 617 fig. Éditions du Griffon, Neuchâtel, i960. Diffusion Dunod, Paris. Prix, relié : 55 NF.
- 452
- p.452 - vue 451/560
-
-
-
- Cet ouvrage comble une lacune de la bibliographie française où l’on ne trouve que des exposés trop sommaires ou des traités en plusieurs volumes. Son utilité se manifestera aussi bien à côté du cours magistral suivi par l’étudiant, que par la suite lorsqu’on voudra raffraîchir sa mémoire sur un point particulier. Après un condensé de méthodes et de théorèmes mathématiques d’utilisation courante, l’auteur expose les notions fondamentales de la physique en insistant sur les grandes lois de conservation et il indique les grandes lignes des données actuelles sur les particules élémentaires et les édifices qui constituent les objets matériels du monde physique : atomes, molécules et cristaux, gaz, liquides, solides. Cette préparation permet d’aborder les quatre parties qui font suite : mécanique, phénomènes ondulatoires, chaleur et thermodynamique, électricité et atomistique, avec les indispensables moyens d’interprétation des lois physiques que fournit la théorie atomique. Nombreux problèmes et exercices.
- Physique générale et expérimentale. Tome V : Lumière, par P. Fleury et J. P. Mathieu, i vol. 16 X 25, 510 p., 407 fig., 24 tableaux. Eytoiles, Paris, 1961. Prix, relié : 69 NF.
- La lumière et les rayonnements électromagnétiques en général sont ici traités dans leurs rapports avec la matière. On trouvera d’abord une partie consacrée aux techniques classiques et modernes de mesure : vitesse de la lumière, indices de réfraction, longueurs d’onde, photométrie, colorimétrie, polarimétrie. Dans une 2e partie, on examine les conditions dans lesquelles la lumière est émise, réfléchie, transmise, diffusée, dispersée, absorbée ; les phénomènes de biréfringence naturelle ou artificielle et la polarisation rotatoire y ont place. La production et l’interprétation des spectres d’émission et d’absorption précèdent trois chapitres de « compléments divers » dans lesquels les auteurs envisagent les applications de l’optique à la Géophysique, à la Biophysique, ainsi que des notions sur la théorie de la relativité.
- Éléments de physique nucléaire, par Daniel Blanc et Georges Ambrosino. i vol. 16,5 X 24, 238 p., 84 fig. Masson, Paris, i960. Prix : 30 NF.
- Cet ouvrage résume un enseignement à la Faculté des Sciences et à l’École d’Électrotechnique, d’Électronique et d’Hydraulique de Toulouse ; il se place au niveau de la licence ès Sciences. Les auteurs ont ménagé une place prépondérante aux résultats expérimentaux, en évitant les développements théoriques. Toutefois, ce n’est pas une œuvre de vulgarisation et le lecteur devra posséder de solides connaissances de physique. Dans l’ensemble, l’ouvrage est bien à jour ; plusieurs chapitres sont traités avec beaucoup de soin ; citons ceux consacrés aux réactions nucléaires, au neutron, à la structure et à la cohésion nucléaire ainsi qu’aux réactions thermonucléaires. En appendice sont groupés un certain nombre de résultats fondamentaux d’utilité pratique dans l’application de la Physique nucléaire. Abondante bibliographie.
- A Physics Anthology, édité par Norman Clarke. 1 vol. 15 X 22, vm-323 p. Chapman and Hall, Londres, i960. Prix, relié : 35 sh.
- Études parues dans le Bulletin de l’Institute of Physics de Londres, et dont les éditeurs ont pensé qu’elles étaient susceptibles d’intéresser un plus vaste public. Des articles sur les aspects philosophiques de la physique moderne côtoient ainsi une bibliographie de Max Planck ou une étude des méthodes physiques en médecine. Intérêt inégal bien que l’on y trouve les signatures de physiciens célèbres comme Sir Cyril Hinshelwood ou Sir John Cockeroft.
- Progress in cryogénies, volume 2, édité par K. Mendelssohn. i vol. 16 x 25, 280 p., nombreuses figures. Heywood and Company Ltd., Londres, i960. Prix, relié : 63 sh.
- Huit études sur divers aspects de la production
- et des applications des très basses températures. Communications d’un niveau élevé, réservées aux spécialistes. Abondante bibliographie.
- Théorie et pratique des circuits de l’électronique et des amplificateurs par J. Quinet.
- Tome II : Les amplificateurs HF et BF. Les oscillateurs et la modulation. Filtres et ponts de mesure. 4e édition. 1 vol. 16 X 25, 272 p., 175 fig. Dunod, Paris, i960. Prix, broché : 29 NF.
- Étude détaillée des associations « lampes-circuits » utilisées en électronique, c’est-à-dire des caractéristiques dynamiques et droites de charges, des amplificateurs HÉ et BF, des oscillateurs de toutes sortes, des différents procédés de modulation, des multivibrateurs et des générateurs de signaux carrés et en dents de scie. Citons encore les filtres, les changeurs de fréquence, le push-pull, la contre-réaction, le haut-parleur et la description d’un grand nombre de ponts de mesure. Nombreux exemples numériques et schémas pratiques avec toutes les valeurs numériques. Les calculs des gains, des sélectivités, des tensions sont traités en détail. Ouvrage facile à assimiler et destiné de ce fait aussi bien aux professionnels qu’aux simples amateurs.
- Comprenez la télévision, par P. Duru. i vol. 15 X 21, 640 p., 501 fig. Bibliothèque technique Philips, Eindhoven et Paris, i960 ; distributeur : Dunod, Paris. Prix, cartonné : 44 NF.
- Ouvrage destiné essentiellement aux agents techniques qui recherchent, en marge de l’interprétation mathématique des phénomènes, une explication concrète du fonctionnement des téléviseurs. La ire partie est consacrée à l’étude physique des circuits fondamentaux de l’électronique. L’étude de la télévision proprement dite n’est donc abordée qu’avec la 2e partie qui traite des bases d’exploitation de cette technique et explique de manière détaillée le balayage, l’utilisation des mires, etc. La 3e étudie le mécanisme du récepteur ; enfin, la 4e est consacrée à la mise en service des appareils, au dépannage, à la mise au point et à l’alignement des circuits. Excellent outil de travail pour les nombreux personnels chargés de l’installation et de l’entretien des téléviseurs chez les particuliers.
- Ingénieurs et techniciens de l’Électronique,
- par Lucien Chrétien, i vol. 12 X 19, 146 p., 8 planches hors texte. Collection Les carrières et la vie, n° 1. Presses Universitaires de France, Paris, i960. Prix, broché : 5 NF.
- Premier volume d’une nouvelle collection, Les carrières et la vie, destinée aux jeunes gens soucieux du choix d’une profession, cet ouvrage décrit d’une manière vivante, parfois même un peu trop enthousiaste, les conditions de travail dans les écoles préparatoires et dans la profession étudiée. C’est ainsi qu’un chapitre est consacré
- --- A NOS LECTEURS ------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARI$-6e
- se tient a la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- à la vie d’un étudiant dans une école d’électronique ; un autre, sous la forme d’un récit, met en relief les problèmes techniques, financiers et humains qui se posent dans une entreprise. Par contre, on ne trouve que des renseignements très sommaires sur la manière de devenir électronicien, si ce n’est en entrant à l’École Centrale de T. S. F. et d’Électronique, école-type choisie par l’auteur qui en est le directeur des Études et par suite certaines pages de l’ouvrage présentent un aspect publicitaire.
- Traité de Zoologie ; Anatomie, Systématique, Biologie, publié sous la direction de Pierre-P. Grasse, membre de l’Institut, professeur à la Sorbonne. Tome V. Fascicule IL Bryozoaires, Brachiopodes, Chêtognathes, Pogonophores, Mollusques (Généralités, Aplacophores, Polyplacophores, Mono-placophores, Bivalves), par P. de Beauchamp, P. Brien, E. Buge, A. Franc, A. V. Ivanov, H. Lemche, P. Manigault, A. Portmann, J. Roger, K. G. Wingstrand. i vol. 17,5 x 25,
- 1 168 p., 955 fig., 5 planches en couleurs. Masson, Paris, i960. Prix, broché : 180 NF ; cartonné : 190 NF.
- Plus encore peut-être que le fascicule I de ce tome V, dont on a trouvé l’annonce dans ce même numéro (p. 441), le fascicule II présente pour les zoologistes un caractère d’actualité par les nouveautés qu’il leur apporte. L’exposé sur les Mollusques Monoplacophores, rédigé par MM. Lemche et Wingstrand, de Copenhague, créateurs de cette nouvelle classe, n’a nulle part son équivalent. M. A. V. Ivanov, de Leningrad, a dressé l’inventaire des connaissances actuelles sur les Pogonophores, qui lui sont dues pour une grande part. Ces curieux animaux des profondeurs marines, dont le premier représentant connu fut décrit en 1914 par M. Caullery, sont des Deutérostomiens et auraient dû trouver place dans le tome IX, paru précédemment, mais cette entorse à l’ordre systématique, soigneusement signalée, nous vaut une étude beaucoup plus complète. Signalons encore : les excellents chapitres sur la reproduction asexuée des Bryozoaires ; sur la sécrétion des coquilles ; sur les Brachiopodes vrais ou Ecto-proctes, séparés définitivement semble-t-il des Endoproctes (traités dans le fascicule I) et qui réservent encore beaucoup de travail aux zoologistes, très en retard à ce sujet sur les paléontologistes ; enfin une claire vue d’ensemble de l’embranchement des Mollusques. Comme dans les autres tomes du Traité, les formes fossiles sont présentées de façon à éclairer la phylogénie des formes actuelles. Excellente et abondante illustration, en grande partie originale.
- Le cancer, par Georges Beau, i vol. 12 x 18, 192 p., dessins et photos. Collection Le rayon de la Science. Éditions du Seuil, Paris, 1961. Prix : 4,50 NF.
- On ne peut espérer comprendre le cancer sans une connaissance approfondie de la cellule, de sa croissance, de ses régulations, et du rôle que jouent les acides nucléiques dans sa reproduction et sa différenciation. L’auteur a donc avec raison commencé par un exposé de la biologie cellulaire, dont le cancer est un dérèglement. Tous les facteurs qui peuvent amener la cancérisation sont ensuite brièvement analysés, ainsi que les moyens actuels de lutte. Le seul reproche qu’on puisse faire à ce livre est de présenter quelques hypothèses assez floues, comme celle de la cellule cancéreuse primitive ou celle d’un « dénominateur commun » qui serait « d’ordre immatériel ».
- La chasse photographique, par Jacqueline et François Sommer, i vol. 16,5 X 20,5, 96 p., nombreuses photos. Hachette, Paris, i960. Prix, cartonné : 8 NF.
- Deux grands chasseurs se sont mués en fervents photographes animaliers. Ils résument ici les enseignements de leur expérience et nous présentent une série de photographies prises, dans des conditions très diverses, sous différents climats. Ils nous convainquent aisément que des satisfactions esthétiques s’allient en ce domaine à l’intérêt documentaire.
- 453
- p.453 - vue 452/560
-
-
-
- 3609 of the World s Leading Physicists, hâve written this indispensable 8
- F""*"'
- Volume 1 r: Volume 2
- Volume 4
- ma to COMPENSAIT!) BARS
- COMPES’SATOR
- (O
- EPIÇA DM I DM NEUTRONS
- Some of the Distinguished Consultants and Contributors to this Encyclopaedic Work
- A. C. AITKEN (Edinburgh)
- G. ARRHENIUS (California)
- G. E. BACON (Harwell)
- J. P. BAXTER (Australiei)
- H. BROOKS (Harvard)
- SIR EDWARD BULLARD (Cambridge) A. H. COOK (Teddington)
- E. H. COOKE-YARBOROUGH
- (Harwell)
- V. E. COSSLETT (Cambridge)
- C. A. COULSON (Oxford)
- S. C. CURRAN (Glasgow)
- A. DALGARNO (Belfast)
- M. J. S. DEWAR (Chicago)
- G. J. DIENES (Brookhaven)
- J. V. DUNWORTH (Harwell)
- W. M. ELSASSER (Utah)
- F. C. FRANK (Bristol)
- A. B. GILLESPIE (Harwell)
- S. A. GOUDSMIT (Brookhaven)
- E. A. GUGGENHEIM (Reading)
- D. H. GURINSKY (Brookhaven)
- W. A. HIGINBOTHAM (Brookhaven)
- E. INGERSON (Austin, Texas)
- SIR HAROLD JEFFREYS (Cambridge)
- R. F. JONES (Horley, Surrey)
- O. KUBASCHEWSKI (Teddington)
- D. KUCHEMANN (Farnborough)
- N. KURTI (Oxford)
- A. D. LECLAIRE (Harwell)
- H. L1PSON (Manchester)
- W. M. LOMER (Harwell)
- Dame KATHLEEN LONSDALE
- (London)
- H. A. C. McKAY (Harwell)
- N. F. MOTT (Cambridge)
- M. W. OVENDEN (Glasgow)
- T. G. PICKAVANCE (Harwell)
- E. C. POLLARD ( Yale)
- Sir ROBERT ROBINSON (London)
- S. K. RUNCORN (Newcastle)
- G. T. SEABORG (Washington)
- A. A. SMALES (Harwell)
- I. N. SNEDDON (Glasgow)
- D. TER HAAR (Oxford)
- P. VAN RYSSELBERGHE (Stanford)
- F. A. VICK (Harwell)
- Volume 5
- Nil IKON SL \ I! t K ! V ,
- RAIWiACIIVI
- CONSTANTS
- PERGAMON PRESS n-
- PERGAMON
- PRESS
- Volume 6
- radia rtON. COMtNI <Ü S
- Ut
- ? STELLAR L 'ÉVOLUTION
- lllf
- |S
- r~ " -r
- \ Volume 7 c
- ! STELLAR I y MAGNITUDE jp pÇ". to
- ZWH 11 !> :n\
- PERGAMON
- PRESS
- Volume 8 t MULTi-L1NGÜAL GLOSSARY1
- SUBJECT
- INDEX
- >
- (P 9
- PERGAMON
- PRESS
- PERGAMON , PRESS
- f"-_ T
- i
- PERGAMON i PRESS I
- The ENCYCLOPAEDIC DICTIONARY OF PHYSICS consists of 8 volumes of approximately 8,000 pages, size 9x T'. Some 15,000 articles and ternis are arranged in strict alphabetical order for easy reference.
- A six-Ianguage Glossary of 15,000 physical terms (English, French, German, Spanish, Russian and Japanese) is supplied FREE to ail purchasers of the ENCYCLOPAEDIC DICTIONARY. This will prove invaluable to persons having to refer to foretgn language periodicals and to those who need to translate articles from them. This unique Glossary can be ordered separately at £20 net ($60,00).
- The value and utility of this encyclopaedic work is guaranteed for rnany years, and it will be of considérable help to scientists, engineers, doctors, science teachers and students; to managers of technical, engineering, research and industrial establishments ; in Consulting and design engineers’ offices ; and in large public libraries and those of universities, industrial and technical colleges, and libraries in ail secondary schools.
- The Subject Index Volume makes it easy to locate in the Dictionary authoritative articles on any topic or term in physics, and in addition, at the end of each article the reader is provided with a most valuable selected bibliography as a guide to further study.
- lAf No comparable dictionary of physics has appeared in English smee the Dictionary of Applied Physics, edited by Sir Richard Glazebrook, was published in 1923.
- THE WORTHY SUCCESSOR TO GLAZEBROOK
- PERGAMON PRESS
- Mathematicians, Chemists and Engineers volume work of reference in Physics
- THE ENCYCLOPAEDIC DICTIONARY OF PHYSICS
- General, Nuclear, Solid State, Molecular, Chemical, Métal and Vacuum Physics, Astronomy, Geophysics and Related Subjects
- Editor-in-Chief: J. THEWLIS, Harwell
- Associaîe Ediîors: R. C. Glass, London D. J. Hughes, Brookhaven A. R. Meetham, N.P.L., Teddington
- Assisted by an International Board of Consulting Editors and Contributors
- READERS OF THIS JOURNAL ARE INVITED TO ACCEPT A COPY OF VOLUME I TO EXAMINE AND REFER TO FOR 4 WEEKS — ENTIREL Y AT THE EXPENSE OF PERGAMON PRESS
- The Scope of the Encyclopaedic Dictionary
- Acoustics Laboratory apparatus
- Astronomy Low-temperature physics
- Astrophysics Magnetic effects
- Atomio and molecular beams Magnetism
- Atomic and nuclear structure Mathematics
- Biophysics Mechanics of fluids
- Cathode rays Mechanics of gases
- Chemical analysis Mechanics of solids
- Chemical reactions, pheno- Mesons
- meaa and processes Meteorologv
- Chemical substances Molecular structure
- Colloids Molecular theory of gases
- Cosmic rays Molecular theory ofliquids
- Countersand diseharge tubes Neutron physics
- Crystallography Nuclear reactions
- Dielectrics Optics
- Elasticity and strength of Particle accelerators
- materials Phase equilibria
- Electrical conduction and Photochemistry and radia
- currents tion chemistry
- Electrical discharges Photography
- Electrical measurements Physical metallurgy
- Electrochemistry Physical metrology
- Electromagnetism and Positive rays
- electrodynamics Radar
- Electrostatics Radiation
- Engineering metrology Radioactivity
- General mechanics Reactor physics
- Geodesy Rheology
- Geomagnetism Solid-state theory
- Geophysics Spectra
- Heat Structure of solids
- Hospital and medical physics Thermionics
- Industrial processes Thermodynamics
- Ionization Vacuum physics
- Isotopes X-rays
- Headington Hill Hall, Oxford 4 & 5 Fitzroy Square, London W.l 122 East 55th Street, New York 22, N.Y. Gauthier-Viilars, 55 Quai des Grands-Augustins
- Easy to refer to
- Articles covering ail topics within Physics are arranged alphabetically. Nevertheless wherever possible terms relating to main topics are listed together, so—NUCLEAR REACTOR, Breeder type; NUCLEAR REACTOR, Thermal type: and so on.
- Présentation of the
- Encyclopaedic Dictionary
- Each volume is handsomely bound in maroon buckram and the tille and categories dealt with in the volume gold-blocked on the spine, clearly legible from the library shelf. The paper inside the volumes has been chosen to give a lucid présentation to the many graphs and fine line diagrams which illustrate the work. The complété set has a distinguished appearance which will grâce any library shelf.
- Four Weeks’ Free Examination
- Since the first announcement of this new Encyclopaedic Dictionary orders hâve flooded in from ail over the world, and less than 15% of the original print order remains to be sold. Now we hâve created the opportunity for you to evaluate this work yourself on a month’s free trial. Then, at the end of four weeks, unless you are com-pletely satisfied and convinced of the utility of the Encyclopaedic Dictionary, you may return the inspection copy of Volume 1 without any further obligation simply by using the pre-addressed, postage-paid label and carton provided. Otherwise it becomes yours, and the remaining volumes will be despatched and in-voiced to you as they appear (ail volumes are expected to be published during 1961/early 1962). The price for the complété set is £98 net ($298.00) but libraries and individuals wishing to spread payment over a long period (of say, up to 5 years) can apply indicating the period of time on the Réservation Certificate. No interest will be charged on spread payments.
- Send no money now but simply fill in the Réservation Certificate to ensure prompt receipt of your inspection copy.
- Paris 6
- I------------------------------1
- j RESERVATION
- | CERTIFICATE
- | To: Captain I. R. Maxwell, M.C.,
- | Publisher at PERGAMON PRESS,
- Headington Hill Hall, Oxford
- I Please send me for free examination Volume !
- J of THE ENCYCLOPAEDIC DICTIONARY I OF PHYSICS. If, after examining and using i the Dictionary for four weeks, I am not
- * complelely satisfied, I may return it without I any further obligation simply by using the
- • reply-paid label and carton provided.
- I Otherwise I shall be invoiced for Volume 1 I and for the remaining Volumes pro rata as J they appear, at a total cost of I £98 net ($298.00) per set.
- SIGNATURE................
- I NAMEOF ESTABLISHMENT COMPANY
- ADDRESS
- * Ï/We wish to spread payment over years
- *___________________________________________________________________________________ ________i
- PERGAMON PRESS
- p.dbl.454 - vue 453/560
-
-
-
- Léonide Sédov et l’astronautique, par Hilaire Cuny. i vol. 13,5 X 16, 224 p., dessins et photos. Éditions Seghers, Paris, 1961. Prix : 6 NF.
- Dans la collection Savants du monde entier, H. Cuny nous présente un des techniciens les plus célèbres de l’astronautique. Mais il élargit son sujet jusqu’à un exposé de l’histoire de l’astronautique, des techniques actuelles, des résultats scientifiques déjà acquis, et des perspectives de l’astronautique de demain. De nombreuses pages sont réservées à un choix de textes de L. Sédov, de ses précurseurs russes et de ses collaborateurs.
- Études rurales. Revue éditée par l’École pratique des Hautes Études. N° 1 (avril-juin 1961). 108 p., 5 pl. hors texte. Prix : 7,50 NF.
- Dans le premier numéro de cette nouvelle revue, M. Georges Duby, professeur à l’Université d’Aix-Marseille et l’un des directeurs d'Études rurales précise les buts de cet organe trimestriel : faire comprendre le complexe humain, biologique et biotechnique que constitue l’agriculture, par une étude scientifique des campagnes, en faisant appel à la fois aux historiens, géographes, économistes, sociologues, psychologues, ethnologues et agronomes.
- L’Aviation commerciale française, numéro spécial de la revue Yransports, publié sous la direction de Paul Moussa, directeur des Transports aériens au Ministère des Travaux publics. 1 vol. 23 x 29, 72 p., nomb. fig. Editions Sociales et Economiques, Paris, 1961. Prix : 5 NF.
- Série d’articles de spécialistes qualifiés. Quatre parties principales : les ailes françaises dans le monde ; vers un réseau aérien à l’intérieur de la France ; les instruments du transport aérien ; associations nécessaires à l’échelle européenne et internationale.
- M
- &
- CH. LEMONWER t0.3
- DES CRAIES ARTISTIQUES AUX MILLE RESSOURCES
- Par leurs Qualités exceptionnelles les CRAIES NEOCOLOR sont particulièrement appréciées de l'artiste, du maQuettiste, du décorateur. Exemptes de toute matière nocive, elles sont précieuses pour l’enseignement du dessin aux enfants.
- D'UNE LUMINOSITÉ INCOMPARABLE
- et/es s'awUtçwihtsuJk TOUT
- Très fortement pigmentées et résistantes au soleil, les CRAIES ARTISTIQUES NEOCOLOR permettent de travailler, même en grande surface, sur papier, carton, bois, textile, métal, verre, plastiçues, plâtre, etc.
- €(/e* saTîs/ûrhtà i&tts l££Çet*les
- Les CRAIES ARTISTIQUES NEOCOLOR employées à sec permettent la technique du grattage. Diluées dans le FOTOL (diluant caran D'ACHE) ou la térébenthine, elles s'appliquent au pinceau donnant les effets de lavis ou de peinture à l'huile.
- £ffe7
- chez votre papetier
- En boîtes : 10, 15 et 50 couleurs
- DISTRIBUÉ par ÇORECTOR-ADHÉSINE
- Dans la nuit des abîmes, par Pierre d’Ursel, vice-président du Spéléo-Club de Belgique, i vol. n,5 >' !7,5> 64 p., dessins et photos. Éditions du Soleil levant, Namur (Belgique), 1961.
- Courte initiation à la spéléologie, comprenan t un résumé historique, une description du matériel individuel et collectif qui constitue la partie la plus importante de ce petit livre, quelques prescriptions techniques, une énumération des buts et des dangers de la spéléologie.
- La Terre va changer de visage, par Pierre Gauroy. t vol. 16 X 21, 186 p., cartes. Hachette, Paris, i960. Prix : 8 NF.
- L’Homme a déjà fait subir bien des changements à l’aspect du globe, mais les possibilités de la technique moderne font rêver de bouleversements bien plus radicaux. Canaux, tunnels, barrages peuvent être conçus à des échelles gigantesques. Videra-t-on l’Atlantique dans le Sahara ? Volera-t-on le Gulf-Stream ? Fera-t-on fondre les glaces polaires, et que s’ensuivra-t-il ? Redressera-t-on l’axe du monde ? Agréable technique-fiction ?
- Les mécanismes réactionnels en chimie organique, par Bianca Tchoubar. i vol. n X 16, 22i p., 13 fig. Monographies Dunod, Paris, i960. Prix, relié : 16 NF.
- Qu’il s’agisse de l’amélioration des rendements d’une synthèse chimique, de l’orientation d’une réaction vers tel ou tel stéréoisomère ou de la détermination de la structure d’un produit naturel, la connaissance des mécanismes par lesquels s’effectue une transformation chimique est souvent susceptible de faciliter la solution du problème. Aussi doit-on se féliciter de la parution de ce petit ouvrage qui fournit de façon claire et concise des exposés bien adaptés aux étudiants français de propédeutique et de la licence.
- La grande roche de Naquane, par Emmanuel Anati. Mémoire 31 des Archives de l'Institut de Paléontologie humaine. 1 vol. 23 X 28,5, 190 p., 49 dessins, 52 planches de photos. Masson, Paris, i960.
- Le Val Camonica, en Lombardie, contient de nombreuses roches historiées, qui dépeignent la vie d’une population alpine ; les Camuniens, au cours des 2 000 ans qui ont précédé notre ère. Les gravures de la Grande Roche de Naquane (48 m de long) montrent surtout des scènes de chasse et du culte qui s’y rapporte, de tissage, etc. L’auteur en a fait une étude exhaustive, apportant des vues nouvelles sur une civilisation qui devait disparaître avec la domination des Romains sur la région, en 16 avant J.-C. Excellent travail, dont on espère qu’il pourra se poursuivre sur toutes les gravures rupestres de la région, pour une vue plus complète de la civilisation camunienne
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 4e trimestre 1961, n° 3737. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 4332. - IO-19G1.
- 456
- p.456 - vue 454/560
-
-
-
- Perspectives
- psycho-pharmacologiques
- Le terme de drogues psychotropes est utile, en raison de sa généralité même, pour désigner l'ensemble des substances chimiques, d'origine naturelle ou artificielle, qui ont un tropisme psychologique, c'est-à-dire qui sont susceptibles de modifier l'activité mentale sans préjuger du type de cette modification.
- Grâce aux progrès de la psycho-pharmacologie, les cliniciens disposent aujourd'hui d'une grande variété de drogues psychotropes permettant de faire varier en des sens différents les comportements psychologiques et d'instituer à volonté un régime de détente, un régime de stimulation, un régime de rêve ou de délire. Selon qu'elles dépriment, excitent ou dévient l'activité mentale, j'ai proposé de classer les psychotropes en trois groupes : les psycholeptiques, les psycho-analeptiques et les psycho-dysleptiques. On sait que le suffixe « leptique » (du grec lambano, lepsomaï : capter) indique l'action de prendre en abaissant ; précédé du préfixe ana qui signifie en haut, il indique l'action de prendre en élevant ; précédé du préfixe péjoratif dys, il indique l'action de prendre en déviant ou en perturbant.
- Il ne s'agit là que d'une systématisation commode dont le but est de permettre aux praticiens de distinguer les principales drogues psychotropes d'après le type de comportement clinique qu'elles induisent : régime de détente (psycholeptiques), régime de stimulation (psycho-analeptiques), régime de rêve ou de délire (psycho-dysleptiques).
- i° Dans le groupe des psycholeptiques, rentrent toutes les substances qui dépriment l'activité mentale sans préjuger si cette chute du tonus psychologique est due à une diminution de la vigilance, à une réduction de l'énergie intellectuelle ou à une sédation de la tension émotionnelle. Ce vaste groupe se subdivise en sous-groupes dont les deux principaux sont les dépresseurs de la vigilance et les dépresseurs de l'humeur.
- par Jean Delay,
- de l'Académie Française et de l'Académie de Médecine.
- a) Les dépresseurs de la vigilance, c'est-à-dire de la fonction vigile qui règle les oscillations de la veille et du sommeil, comprennent tous les hypnotiques. Correctement manié, un hypnotique, par exemple un barbiturique sodique, permet d'obtenir l'abaissement des niveaux de conscience compris entre la veille et le sommeil. Au premier stade, il s'agit d'un état hypo-noïde caractérisé par une diminution de l'activité intellectuelle ou noétique, qui n'est pas perceptible sur les électroencéphalogrammes. Au second stade, il s'agit d'un état hypnoïde qui n’est pas encore le sommeil mais peut déjà s'accompagner de modifications légères des électroencéphalogrammes. Au troisième stade, il s'agit d'un état hypnique ayant tous les caractères cliniques et électroencéphalographiques du sommeil (1).
- b) Les dépresseurs de l’humeur, c'est-à-dire de la fonction thymique qui règle les oscillations du tonus émotionnel entre un pôle pathétique et un pôle apathique, comprennent tous les tranquillisants dont l'action est précisément caractérisée par la substitution à un régime pathétique d'un régime apathique. Ces médicaments sont quelquefois appelés ataraxiques, parce que l'ata-raxie est par définition l'absence de trouble émotionnel, la condition imperturbable. A vrai dire, l'efficacité des nombreux tranquillisants découverts et préconisés dans ces dernières années est très variable. Un type de tranquillisants majeurs mérite d'être individualisé en raison de ses résultats remarquables dans la chimiothérapie des psychoses : il s'agit des neuroleptiques (phénothiazine, réserpine, halopéridol) ainsi dénommés en raison du syndrome neurologique qu'ils sont capables de produire en même temps qu'ils réduisent divers syndromes psychiatriques.
- 2° Dans le groupe des psycho-analeptiques rentrent toutes les substances qui stimulent l'activité mentale sans préjuger si cette élévation du tonus psychologique
- i. Voir : L’électroencéphalographie, par le docteur Paul Laget, La Nature, mai 1958, p. 161-167.
- 457
- p.457 - vue 455/560
-
-
-
- est due à une augmentation de la vigilance qui peut aller jusqu'à l'insomnie, à un accroissement de l'énergie intellectuelle, ou à une élévation de la tension émotionnelle qui peut aller jusqu'à l'euphorie ou à l'anxiété. Ce vaste groupe se subdivise en sous-groupes dont les principaux sont les stimulants de la vigilance et les stimulants de l'humeur.
- a) Les stimulants de la vigilance comprennent toutes les amines psychotoniques, par exemple la méthyl-amphétamine, qui entraînent à la fois une facilitation de l'effort intellectuel et une difficulté du sommeil. L'action de ces amphétamines, stimulants de la vigilance, s'oppose à celle des barbituriques, dépresseurs de la vigilance : ils sont antagonistes. Si l'effet vigile et l'effet psychotonique sont habituellement liés, ils apparaissent dissociés dans l'action d'autres substances, comme la centrophénoxine, dérivé des acides régulateurs de croissance des végétaux, qui se comporte dans certains cas pathologiques comme une drogue de l'éveil sans action psychotonique.
- b) Les stimulants de Vhumeur se sont récemment enrichis de médicaments anti-dépresseurs tels que les dérivés de l'hydrazine et surtout l'imipramine qui constitue une chimiothérapie efficace des états dépressifs.
- 3° Dans le groupe des psycho-dysleptiques rentrent toutes les substances qui perturbent l'activité mentale et engendrent une déviation délirante du jugement avec distorsion dans l'appréciation des valeurs de réalité. Ces drogues sont génératrices d'états oniriques (2) ou oniroïdes, d'hallucinations, d'états de confusion ou de dépersonnalisation. Telles sont par exemple la mescaline, alcaloïde du peyotl, la lysergamide ou L. S. D. 25, la psilocybine et la psilocine extraites du Psilocybe mexicana, champignon hallucinogène du Mexique (3). Elles s'opposent aux psycholeptiques qui sont capables de réduire les psychoses artificielles qu'elles produisent, mais en revanche leur distinction d'avec les psycho-analeptiques est plus contestable. Ainsi la cocaïne, psychotonique à faible dose, produit à plus forte dose une activité hallucinatoire et délirante. Les drogues psycho-analeptiques sont incontestablement des stimulants de l’humeur et elles apparaissent parfois comme des stimulants de l'activité intellectuelle, mais les phénomènes positifs en apparence nouveaux qu’elles produisent ne sont habituellement que la conséquence de phénomènes négatifs, et demandent à être interprétés dans la perspective jacksonienne de Vescape of control ou de la dissolution-libération des fonctions mentales.
- 2. Un état onirique est un état de rêve éveillé.
- 3. Voir : Les champignons hallucinogènes du Mexique, La Nature, décembre 1957, p. 483-486.
- Depuis une dizaine d'années la psycho-pharmacologie a fait des progrès si rapides qu'elle autorise de grands espoirs. Du point de vue de la clinique psychiatrique, si l'on essaie de systématiser les principales acquisitions dues aux drogues psychotropes, on peut les répartir sous quatre chefs : les cures neuroleptiques dans le traitement des psychoses, les chimiothérapies des états dépressifs, la production et la réduction des psychoses artificielles, l'exploration pharmacodynamique du psychisme. Chacune de ces découvertes récentes ouvre des perspectives d'avenir.
- i° Cures neuroleptiques. — Dans une suite de communications faites à partir de mai 1952 avec Pierre Deniker, nous avons montré qu'une phénothiazine à action centrale, la chlorpromazine, utilisée à doses élevées, de façon régulière et prolongée, était un puissant réducteur de psychoses non seulement aiguës mais chroniques. Elle n'est pas seulement capable de réduire les états d'agitation et les états maniaques, mais aussi des états hallucinatoires et délirants. Ultérieurement, il est apparu que d'autres phénothiazines étaient douées de propriétés analogues. Il en va de même de la réserpine et des dérivés du Pauwolfia serpentina d'une part et de l'halopéridol, corps non phénothiazinique et non réserpinique, d'autre part.
- L'ensemble de ces substances rentre dans le cadre des médicaments neuroleptiques, que j'ai ainsi appelés (1955) parce qu'à l'action psycholeptique qui leur est commune avec les hypnotiques et les tranquillisants, s'ajoute une action neurologique de type extra-pyramidal qui leur est propre. Nous pensons que le symptôme psychologique et le syndrome neurologique qu'ils déterminent ne sont que deux expressions de la même localisation de ces drogues psychotropes sur les centres de la base du cerveau. Quoi qu'il en soit la cure neuroleptique constitue une méthode originale, différente de la cure de sommeil, parce que les patients ne dorment pas, et différente de la cure d'hibernation artificielle (Laborit) parce qu'elle n'entraîne pas de réfrigération, ses effets ne pouvant donc être attribués ni à une action hypnotique ni à une action réfrigérante.
- 20 Chimiothérapie des états dépressifs. — Tandis que les neuroleptiques se montraient remarquablement efficaces dans le traitement des états maniaques, des états oniriques, des états hallucinatoires et délirants, leurs résultats restaient décevants dans le traitement des états mélancoliques et dépressifs. Aussi un réel progrès dans la pharmacopée psychiatrique est-il représenté par la découverte de médicaments anti-dépressifs, comme les dérivés de l'hydrazine (isoniazide et ipro-
- 458
- p.458 - vue 456/560
-
-
-
- niazide) et surtout l’imipramine. Grâce à cette drogue psychotrope, il est possible dans la plupart des cas d’éviter le recours à l’électrochoc, dont la mélancolie constituait l’indication majeure. Diverses associations médicamenteuses, dont l’une des plus intéressantes est l’association de l’imipramine et de la lévomé-promazine, permettent encore de diminuer le nombre des états mélancoliques et dépressifs résistant à la chimiothérapie.
- 3° 'Production et réduction des psychoses artificielles. — Dès 18 5 5, Moreau de Tours avait montré que le hachisch est capable de produire des états de rêve éveillé et des symptômes d’aliénation mentale à propos desquels il soutenait l’identité psychologique du rêve et de la folie, hypothèse qui ne se justifie vraiment que dans le cadre des psychoses oniriques. Ce sont précisément des psychoses oniriques que reproduisent la plupart des psycho-dysleptiques, qui sont onirogènes et hallucinogènes. Il en est ainsi de la mescaline, du L. S. D. 25, de la psilocybine. Ces psychoses artificielles permettent des recherches d’un intérêt théorique considérable, concernant d’une part l’analyse clinique et phénoménologique des symptômes ainsi provoqués et leur comparaison avec les psychoses spontanées, d’autre part l’origine biochimique des psychoses.
- Pour les cliniciens, le fait capital consiste en ce que ces psychoses artificielles peuvent être produites et réduites à volonté, chez les sujets normaux, la réduction s’opérant par le moyen des neuroleptiques qui mettent fin à l’ensemble des symptômes de la psychose artificielle. On peut par exemple provoquer une psychose onirique par la psilocybine et l’interrompre par la chlorpromazine. L’étude des antagonismes entre drogues psycho-dysleptiques et drogues psycholep-
- tiques constitue une voie de recherches particulièrement prometteuse.
- 40 Explorations pharmacodynamiques du psychisme. — Les diverses catégories de drogues psychotropes peuvent être utilisées pour faciliter l’exploration du psychisme conscient et inconscient. Ainsi les barbituriques (psycholeptiques) sont utilisés pour la narco-analyse, les amphétamines (psycho-analeptiques) pour la weck-analyse, la psilocybine (psycho-dysleptique) pour l’oniro-analyse. Ces explorations n’apportent pas seulement un complément précieux à l’analyse clinique, elles sont aussi susceptibles d’exercer une action thérapeutique, par exemple lorsqu’elles permettent d’obtenir dans une névrose traumatique des abréactions émotives libératrices. Freud écrivait dans l’une de ses dernières œuvres : « Nous ne nous intéressons à la thérapeutique que dans la mesure où elle agit par les méthodes psychologiques et, pour le moment, nous n’en avons point d’autres. Dans l’avenir, nous apprendrons peut-être à exercer une influence directe, au moyen de substances chimiques particulières, sur les quantités d’énergie et sur leur distribution dans l’appareil mental. » Cet avenir, qui lui paraissait lointain, s’est singulièrement rapproché. Ceci dit, les actions psychothérapeutiques obtenues par les drogues psychotropes ne dispensent nullement de recourir aux méthodes habituelles de psychothérapie et de sociothérapie qui restent en médecine mentale le traitement de fond. Méthodes biologiques et méthodes psychologiques, loin de s’opposer, se complètent.
- Jean Del a y,
- de l’Académie Française et de l’Académie de Médecine, Professeur à la Faculté de Médecine de Paris.
- Une cité scientifique en construction près de Munich
- Une « cité de recherches scientifiques » est en cours de construction près de Munich, sur la rive gauche de l’Isar ; elle comprendra l’Institut de physique de l’Université de Munich, le Groupe de travail Max Planck pour les recherches extraterrestres et plusieurs autres instituts universitaires. Les travaux, dont l’achèvement est prévu pour 1965, doivent être effectués en trois tranches. La première tranche, actuellement en cours, porte sur quatre grands laboratoires, plusieurs bâtiments pour des ateliers et petits laboratoires et des bureaux pour les scientifiques et les services administratifs ; les premiers laboratoires
- doivent être prêts à la fin de 1961. La deuxième tranche, prévue pour 1963, comprendra la construction d’autres laboratoires, d’une centrale énergétique et d’un immeuble de bureaux doté d’un « cerveau électronique ». La troisième tranche complétera les installations et aménagements : nouveaux laboratoires et bâtiments administratifs, salle de cours, bibliothèque centrale, cantine pour le personnel. Le coût de cette cité scientifique sera de l’ordre de 80 millions de marks, dont 52 millions pour les constructions et 28 millions pour l’équipement et les aménagements intérieurs.
- 459
- p.459 - vue 457/560
-
-
-
- Isolants presque parfaits
- doués de propriétés magnétiques remarquables
- les ferrites
- ont permis les hautes fréquences en électronique
- par Jean Cé^aire
- ON raconte qu’en 2637 avant J.-C., les troupes de l’empereur Hoang-Ti, poursuivant un prince rebelle, se perdirent dans les brouillards intenses des grandes plaines de la Mandchourie ; ce que voyant, Hoang-Ti construisit un char avec une « statue tournante représentant une femme, dont le bras tendu restait orienté en permanence vers le Sud ». Le prince rebelle fut alors rattrapé, et mis à mort.
- Selon toute vraisemblance, cette statue avait été sculptée dans un oxyde de fer, la magnêtite. Bien que l’on ait des preuves que les Grecs ont utilisé la magnêtite, ou pierre d’aimant, à l’époque du siège de Troie, il faut attendre le xie siècle de notre ère pour trouver des références littéraires ayant directement trait à l’utilisation du compas pour la navigation maritime. Au cours de cette période, l’histoire de la magnêtite, le plus simple des ferrites, est étroitement liée à celle de la boussole et de son emploi pour la navigation.
- Puis la magnêtite devint une curiosité qui ne présenta plus guère d’intérêt que pour l’historien ou peu s’en faut : on découvrit en effet que l’on pouvait réaliser des aimants beaucoup plus puissants à partir de trois métaux, le fer, le nickel, le cobalt, et leurs alliages.
- La magnêtite et plus généralement les oxydes magnétiques ont pris leur revanche au cours des deux dernières décennies. Ils sont en effet responsables pour une large part de l’intense développement qu’a connu l’électronique depuis la fin de la deuxième guerre mondiale, et tout particulièrement le domaine, encore en enfance, des hautes fréquences. A côté de leur utilisation comme mémoires dans les ordinateurs, ils ont permis en effet d’étendre les techniques classiques de l’électronique au maniement des fréquences de plus en plus élevées.
- Des aimants qui sont en même temps des isolants
- Les propriétés bénéfiques des ferrites trouvent leur origine dans le fait suivant : ce sont à la fois des aimants raisonnablement puissants et des isolants presque parfaits au point de vue électrique. Voyons pourquoi l’association de ces deux propriétés est intéressante et considérons,
- pour cela, l’un des ancêtres des dispositifs électromagnétiques : le transformateur. Il est essentiellement constitué de deux enroulements métalliques, l’un appelé le primaire, l’autre le secondaire (fig. 1). Lorsqu’un courant alternatif circule dans le primaire, il produit dans l’espace environnant, en particulier dans le secondaire, un champ magnétique alternatif. La variation du champ magnétique dans le secondaire engendre dans celui-ci une force électromotrice : il circule dans l’enroulement un courant, lui-même alternatif. Autrement dit, on réalise ainsi un transfert d’énergie du primaire vers le secondaire et l’on sait qu’en choisissant convenablement les nombres de spires respectifs des deux enroulements on peut obtenir, à la sortie du secondaire, une tension qui soit une fraction ou un multiple de la tension primaire, par exemple « transformer » du 110 volts en 220 volts ou inversement.
- Fig. 1. — Schéma d’un transformateur.
- 11 est essentiellement constitué de deux enroulements, primaire et secondaire. Le champ alternatif qui est produit par le passage d’un courant alternatif dans le primaire et qu’on a représenté ici par d’hypothétiques « lignes de force » induit dans le secondaire une tension alternative. Si les deux enroulements sont simplement placés dans l’air, une faible partie seulement du champ primaire traverse le secondaire.
- Pour que le transfert soit efficace il faut, bien entendu, que le champ magnétique produit par le primaire traverse le secondaire. Si les deux enroulements sont dans l’air, le champ primaire est dispersé dans l’espace et une faible partie seulement traverse le secondaire. Enroulons alors les deux fils sur un noyau en substance magnétique telle
- 460
- p.460 - vue 458/560
-
-
-
- Secondaire
- Primaire
- Noyau magnétique
- Fig. 2. — Schéma d’un transformateur avec noyau magnétique.
- Le noyau magnétique sur lequel sont bobinés les enroulements primaire et secondaire canalise le champ magnétique primaire qui traverse ainsi en quasitotalité le circuit secondaire.
- que du fer. Ce noyau va littéralement canaliser le champ primaire qui traversera en quasi-totalité le secondaire (fig. 2). On peut dire, en quelque sorte, que le fer se comporte comme un conducteur magnétique. Le malheur, c’est que le fer est aussi un bon conducteur de l’électricité. Soumis au champ magnétique variable du primaire, il est lui-même parcouru par des courants au même titre que le secondaire, courants qui portent le nom de courants de Foucault. Ces courants dissipent une partie de l’énergie du primaire par effet Joule : il en résulte un échauffement inutile et même nuisible du noyau magnétique.
- Les choses s’aggravent encore lorsque croît la fréquence du courant primaire. En effet, plus la fréquence est élevée, plus la variation du champ magnétique est rapide et plus le transfert d’énergie est important, mais aussi plus sont élevées les pertes par courants de Foucault, qui deviennent rapidement prohibitives.
- Pour combattre les courants de Foucault, les constructeurs ont d’abord constitué les noyaux des transformateurs de minces tôles d’un alliage de fer à environ 4 pour 100 de silicium, pressées les unes contre les autres et isolées électriquement par un vernis. Ce vernis isolant brise en quelque sorte la continuité électrique du noyau et empêche la circulation des courants de Foucault. Par ailleurs, l’addition de silicium augmente d’un facteur 5 environ la résistivité électrique, alors que les propriétés magnétiques ne sont diminuées que de 4 pour 100. Pour les basses fréquences, c’est-à-dire celles qui vont des 50 périodes du courant industriel à quelques kilocycles, le feuilletage des noyaux magnétiques s’est montré efficace et cette technique est toujours universellement employée. Mais aux fréquences plus élevées, le procédé devient rapidement inutilisable. On eut recours alors aux poudres magnétiques comprimées à grains très fins et isolés électriquement. On ne put cependant franchir par cette méthode le cap du mégacycle ; aux fréquences plus élevées, on constata que la présence d’un noyau en. poudre magnétique était aussi nuisible que s’il n’y avait aucun noyau du tout.
- Par contre, on savait déjà que certains composés non métalliques, fortement magnétiques, tels que la magnétite qui est, nous l’avons dit, la substance magnétique la plus anciennement connue, étaient de bons isolants. Alors que la résistivité du fer n’est que de o,86.io~5 O.cm, celle de la magnétite est de l’ordre de io-2 Q.cm, soit 1 000 fois
- plus grande, ce qui signifie qu’avec un noyau en magnétite les pertes par courants de Foucault doivent être 1 000 fois plus faibles. C’est alors qu’un physicien des laboratoires de recherche de la Société Philips, en Hollande, J. L. Snoek, entreprit vers 1940 l’étude des propriétés en haute fréquence des composés analogues à la magnétite que l’on appelle les ferrites. Leurs résistivités sont, pour la plupart, de l’ordre de io5 à io7 Q.cm, c’est-à-dire des milliards à des milliers de milliards de fois plus élevées que celle du fer. Les recherches de Snoek furent couronnées de succès et suscitèrent dès lors de nombreux travaux particulièrement féconds. Les ferrites sont désormais entrés dans la technique ; aussi nous proposons-nous de faire le point de nos connaissances en la matière dans les lignes qui suivent.
- Orbites électroniques et propriétés magnétiques
- Les ferrites constituent une classe de composés bien définis, de formule générale Fe203, MO où M est un métal bivalent tel que Mn, Fe, Co, Cu, Ni, Mg, Cd ou une combinaison mixte de ces métaux. La magnétite, par exemple, a pour formule Fe304, plus précisément Fe203, FeO. On y trouve 2 atomes de fer trivalent, 1 atome de fer bivalent et 4 atomes d’oxygène. Tous les ferrites contiennent de même des atomes de fer trivalent et des atomes d’oxygène dans le rapport de 2 à 4. Si le métal bivalent est du fer, on parle de ferrite de fer ; si c’est du nickel, on parle de ferrite de nickel, etc.
- Si elle nous renseigne peu en elle-même sur les propriétés des ferrites, cette formule nous explique cependant la résistance élevée de ces composés. Il s’agit en effet de composés ioniques que l’on peut écrire Fe^ + + 0^“, M+ + O--. Cela signifie que les atomes métalliques ont cédé, les uns 3 électrons, les autres 2 électrons aux atomes d’oxygène, qui voient ainsi leur couche électronique périphérique, laquelle comprend normalement 6 électrons, se compléter à 8 électrons, ce qui correspond à une structure de gaz rare. Mais, du fait de ce transfert, les électrons périphériques des atomes métalliques, normalement mobiles et qui constituent alors des électrons de conduction, responsables des propriétés conductrices des métaux, ne sont plus capables de se mouvoir librement ; cela explique, de façon imagée mais que justifient les théories quantiques, la résistance élevée de ces composés.
- Comment s’expliquent alors les propriétés magnétiques des ferrites ?
- Une hypothèse due à Ampère attribue le magnétisme à des courants électriques dont les atomes seraient le siège. Cette hypothèse nous paraît maintenant naturelle : les orbites des électrons et même leur rotation sur eux-mêmes ou spin sont en effet assimilables à des courants électriques à l’échelle atomique. Chacune de ces orbites possède un moment magnétique (x) et le moment magnétique d’une molécule est la somme des moments magnétiques de toutes les orbites qu’elle renferme.
- 1. Lorsqu’on place un aimant dans un champ magnétique, ses extrémités (pôles) sont soumises à des forces parallèles au champ appliqué et ces forces sont, pour un même champ, plus ou moins intenses selon l’aimant considéré. Le moment magnétique est le facteur de proportionnalité qui relie les forces subies au champ appliqué. Plus le moment est grand, plus les forces subies sont importantes. Le moment magnétique caractérise donc l’aimantation d’une substance.
- 461
- p.461 - vue 459/560
-
-
-
- Paramagnétisme
- Fig. 3- — Les quatre types de magnétisme.
- Les flèches symbolisent les moments magnétiques des petits aimants constitués par les atomes du cristal. Explications dans le texte.
- {Imité de Scientific American).
- Anh Ferromagnétisme
- ferrimagnétisme
- C’est aussi celui des alliages de Heusler (Cu, Mn, Al) où les ions Mn et Al sont paramagnétiques. Toutefois, au-dessus d’une certaine température critique, appelée point de Curie, différente pour chaque substance, l’agitation thermique est suffisante pour désorganiser les causes internes d’alignement des dipôles et le matériau n’est plus alors que paramagnétique. Le tableau I donne quelques exemples de températures de Curie.
- Supposons alors que les orbites des électrons soient distribuées avec une symétrie telle que dans chaque atome leurs moments magnétiques se détruisent : l’atome n’a pas de moment magnétique permanent. On dit qu’il est diamagnêtique.
- Supposons maintenant qu’il n’y ait pas compensation entre les moments magnétiques des orbites électroniques ou des spins : les atomes vont alors posséder un moment magnétique permanent. L’atome est dit paramagnétique.
- Voyons maintenant comment se modifient les propriétés magnétiques des atomes en fonction de la structure du réseau cristallin, dans le cas, bien entendu, des substances composées au moins partiellement d’atomes paramagnétiques (si les atomes sont tous diamagnétiques, la substance ne peut être que diamagnêtique).
- Ces propriétés dépendent essentiellement des interactions entre les petits aimants que sont les atomes (on dit aussi des dipôles) dans le cristal. Pour certains cristaux, ce couplage est extrêmement faible. A la température ordinaire l’agitation thermique est suffisante pour annihiler les interactions entre dipôles, lesquels sont alors orientés absolument au hasard (fig. 3). En l’absence d’un champ magnétique extérieur suffisant pour aligner les dipôles, la substance n’est pas magnétique : on dit qu’elle est paramagnétique.
- Pour certaines dispositions des atomes du réseau cristallin, des effets coopératifs dus aux interactions entre dipôles magnétiques provoquent des orientations d’ensemble même pour des champs très faibles comme le champ magnétique terrestre. Plusieurs cas peuvent alors se présenter. Tout d’abord les dipôles peuvent s’orienter tous dans le même sens, d’où une magnétisation spontanée importante : la substance est alors dite ferromagnétique. C’est le cas de trois métaux, le fer, le cobalt, le nickel et leurs alliages, et d’un élément terre rare, le gadolinium Gd.
- Tableau I. — Exemples de températures de Curie pour quelques substances ferromagnétiques
- Substance. Fe Ni Co Gd Cu2MnAl Monel (x)
- T (°C). . . 770 358 1 131 16 330 75
- 1. Le Monel comprend : Ni 68 p. 10o, Cu 30 p. ioo, Fe 2 p. 100.
- Mais il se peut aussi que les moments magnétiques des atomes, en l’absence de champs extérieurs, s’orientent deux à deux en sens inverse l’un de l’autre. Le cristal consiste alors en deux sous-réseaux magnétiques intercalés, ayant chacun tous ses dipôles parallèles mais en sens inverse l’un de l’autre. La magnétisation spontanée résultante est alors nulle et l’effet d’un champ extérieur est une aimantation très faible. Un tel cristal est dit antiferromagnétique. Comme pour le ferromagnétisme, il existe une température analogue au point de Curie, le point de Néel, au-dessus de laquelle les effets collectifs disparaissent et le cristal devient paramagnétique. Le tableau II donne quelques exemples de substances antiferromagnétiques.
- Tableau IL — Exemples de températures de Néel POUR quelques substances antiferromagnétiques
- Substance. Cr MnF2 FeO MnS CoF2
- T (oC). . . 202 — 198 — 75 — 133 — 223
- 462
- p.462 - vue 460/560
-
-
-
- Fig. 4. — Bloc à mémoire pour le calculateur Gamma 60 de la Compagnie des Machines Bull.
- Cet ensemble de 29 matrices comporte environ 115 000 microtores (voir les figures 10 à 12). 11 a fallu 1 250 km de fil pour le câbler et 14 660 soudures.
- Enfin la troisième situation, plus générale, est celle du ferrimagnétisme. Dans ce cas, les deux sous-réseaux ont des moments magnétiques atomiques différents bien que toujours orientés en sens inverse l’un de l’autre ; la compensation n’a plus lieu et on observe une magnétisation spontanée comme dans le cas du ferromagnétisme (c’est pourquoi d’ailleurs on confond souvent les deux). Il existe également une température au-dessus de laquelle cette magnétisation spontanée disparaît ; on l’appelle aussi point de Curie. La classe la plus importante de substances ferrimagnétiques est précisément celle des ferrites. Il est
- clair qu’une substance ferrimagnétique est un moins bon aimant qu’une substance ferromagnétique puisque tous les dipôles ne sont pas alignés dans le même sens. C’est ce qui l'explique qu’elles aient été délaissées aux beaux jours de la naissance de l’électromagnétisme où l’on s’intéressait surtout à des circuits magnétiques de grandes dimensions fonctionnant sous des puissances importantes. Mais il est des cas, nous le verrons, où le ferrimagnétisme est une intéressante propriété qui ^confère une souplesse d’emploi beaucoup plus grande qu’avec les aimants métalliques.
- p.463 - vue 461/560
-
-
-
- Une riche variété de structures cristallines
- a
- Venons-en maintenant à' la structure cristalline des ferrites. Si nous pouvions voir les atomes d’un cristal de ferrite, nous constaterions qu’il est constitué par la reproduction quasi indéfinie d’un même motif que l’on appelle maille cristalline (fig. 5). Cette maille est cubique et comprend 8 ions métalliques bivalents, 16 ions ferriques (trivalents) et 32 ions oxygène. Les ions oxygène, beaucoup plus gros que les ions métalliques, constituent un assemblage compact dans les interstices duquel sont placés les cations métalliques. Ainsi que le montre la figure 5, les positions occupées par ces cations peuvent être de deux types désignés respectivement : sites tétraédriques ou A, entourés par 4 atomes d’oxygène ; et sites octaédriques ou B, entourés par 6 atomes d’oxygène. Pour chaque groupe de 32 atomes d’oxygène, il y a 64 sites A et 32 sites B, soit 96 sites en tout. Mais, comme il n’y a que 3 atomes métalliques pour 4 oxygènes, soit 24 atomes métalliques par maille, les sites ne sont occupés que pour un quart. L’étude approfondie du cristal montre qu’il y a 8 sites A et 16 sites B effectivement occupés.
- O Oxygène
- Ions sur site tétraédrique
- Ions sur site octaédrique
- Fig. /• — Maille élémentaire d’un ferrite spinelle.
- On pourrait s’attendre, puisqu’il y a deux fois plus d’ions trivalents que d’ions bivalents, et deux fois plus de sites B que de sites A, à ce que les 8 ions bivalents occupent les 8 sites tétraédriques et les 16 ions trivalents les 16 sites octaédriques. En fait, ceci n’est le cas que pour le ferrite de zinc et le ferrite de cadmium qui possèdent la structure
- 0 O O O 0 © © 0
- 0 O O O © 0 © ©
- © © 0 ©
- Ferrite de zinc 0 0 © ©
- (D © © © © © © ©
- © © © © © © © ©
- 1 ° O © ©
- Ferr ite de nickel ' O O © ©
- © © © © © © © ©
- © © © © ©
- 1 ® © ©
- O O O P © © ©
- Ferrite de nickel - zinc * ©
- Fig. 6. — Distribution des ions métalliques dans différents ferrites.
- Explications dans le texte.
- {Imité de Scientific American).
- dite spinelle normale (fig. 6). Dans la majorité des ferrites au contraire, les 8 ions bivalents occupent 8 sites octaédriques et les 16 ions ferriques occupent les 8 sites octaédriques restants et les 8 sites tétraédriques. Ils possèdent la structure spinelle inverse. C’est le cas des ferrites de fer, de nickel, de cobalt et de manganèse.
- Les ferrites de cuivre et de magnésium présentent, eux, une structure intermédiaire, dite structure spinelle mixte, avec des ions bivalents répartis à la fois sur les sites A et B, leur distribution étant fonction des traitements thermiques subis par le matériau.
- C’est cette variété de structures qui est responsable de la diversité des propriétés magnétiques des ferrites. Nous avons dit déjà que ces propriétés magnétiques étaient sous la dépendance des interactions entre les petits aimants que sont les atomes dans le cristal. Ces interactions n’existent qu’entre des atomes situés dans des sites différents : elles peuvent avoir lieu entre les sites A et B mais non entre les atomes des sites A seuls, ou B seuls. Considérons quelques exemples.
- Dans le ferrite de zinc, les ions zinc occupent les sites A tandis que les ions fer occupent les sites B. Le zinc ne présentant pas de propriétés magnétiques, les petits aimants (ions fer) qui occupent les sites B ne peuvent s’aligner sur les ions zinc. Ils sont si faiblement couplés entre eux
- 464
- p.464 - vue 462/560
-
-
-
- qu’au-dessus de — 269° C (4 degrés au-dessus du zéro absolu) les vibrations thermiques sont suffisantes pour désorganiser toute orientation d’ensemble de ces dipôles. Par suite, le ferrite de zinc n’est pas ferrimagnétique mais paramagnétique.
- Dans le ferrite de nickel, les ions nickel occupent 8 sites B tandis que les ions fer occupent les 8 sites A et les 8 sites B restants. Les moments magnétiques des atomes de fer étant égaux mais orientés en sens inverse se compensent. La magnétisation des ferrites de nickel est donc due uniquement aux atomes de nickel. Comme ils sont assez faiblement magnétiques (comparés aux atomes de fer), la magnétisation résultante est relativement faible.
- Supposons alors que l’on remplace 3 atomes de nickel d’un ferrite de nickel par 3 atomes de zinc. On pourrait penser, puisqu’on a remplacé 3 atomes magnétiques par 3 autres qui ne le sont pas, que la magnétisation résultante va être plus faible. Il n’en est rien. Les ions zinc se placent dans des sites A ; de ce fait, il expulsent 3 ions ferriques qui vont occuper des sites B et voient leur moment magnétique changer de sens. Autrement dit, 3 ions nickel, faiblement magnétiques, ont été remplacés par 3 ions fer, fortement magnétiques. Le ferrite de zinc-nickel est, par suite, un aimant plus puissant que le ferrite de nickel.
- Cette sensibilité des ferrites à l’arrangement des atomes dans le cristal permet des variations quasi infinies de leurs propriétés magnétiques, ce qui faisait dire à un spécialiste américain que « la préparation des ferrites est devenue un art, au même titre que la cuisine française ». Par exemple, l’addition d’aluminium à un ferrite de nickel entraîne une diminution des propriétés magnétiques parce que l’aluminium, trivalent, remplace des ions ferriques et qu’il n’est pas paramagnétique. L’addition de 35 pour 100 environ d’aluminium conduit à un matériau antiferromagnétique.
- On utilise un ferrite dont la formule est NÎq g6 Cuo Mno,o2 Coo,02> Al^g, Fe^y O4”. En gros, il ‘s’agit d’un ferrite de nickel-aluminium qui combine un point de Curie élevé à des propriétés magnétiques relativement modérées. L’addition de cuivre permet de fritter le matériau à basse température (le frittage à haute température provoque un départ d’oxygène et une dégradation du cristal). Le manganèse augmente la résistivité électrique. Le cobalt est intéressant pour certaines applications en haute fréquence.
- La structure des ferrites permet aussi d’expliquer la résistivité assez faible de la magnétite Fe2Oa, FeO. Les ions ferreux divalents occupent les sites B tandis que les ions ferriques trivalents sont répartis entre les sites A et les sites B restants. Supposons alors qu’un électron passe d’un ion Fe3+ à un ion Fe2+. L’ion ferreux devient ferrique et inversement, ce qui revient à dire que les deux ions ont simplement interverti leurs positions. La distribution des ions dans les sites A ou B étant quelconque, ce changement de position ne modifie en rien le cristal ; il se produit donc aisément, ce qui signifie que les électrons sont relativement libres dans le cristal et peuvent conduire le courant. Ainsi, si l’on désire un ferrite de faible résistance électrique, il suffit de lui ajouter un peu de fer ferreux, tel qu’il se présente dans FeO.
- Il existe deux autres catégories de ferrites, les ferrites hexagonaux et les ferrites grenats. La structure des grenats
- est plus complexe que l’arrangement que nous venons de décrire. Chaque maille comprend 24 ions terre rare, 40 ions ferriques et 96 ions oxygène, soit 160 en tout. Toutefois les propriétés des grenats s’interprètent de manière analogue à celles des ferrites ordinaires. Là encore les possibilités sont nombreuses et ces substances font l’objet d’un grand nombre d’études en vue de leurs applications aux hyperfréquences. Les ferrites hexagonaux sont des mélanges d’oxyde ferrique Fe203, d’oxyde de baryum BaO et de nombreux oxydes de métaux bivalents. Ils ont pu être utilisés à de très hautes fréquences, supérieures aux fréquences d’utilisation des ferrites spinelles.
- De nombreux laboratoires travaillent sur ces substances et sur d’autres matériaux ferrimagnétiques. Le domaine est encore pratiquement inexploré et l’on peut s’attendre à d’importantes découvertes dans les années à venir.
- Des transformateurs et antennes aux mémoires des calculateurs
- Ainsi que nous l’avons déjà dit au début de cet article, les ferrites trouvent des applications importantes dans la construction des circuits magnétiques des transformateurs fonctionnant aux fréquences élevées.
- C’est ainsi, par exemple, que les transformateurs chargés dans les récepteurs de télévision du balayage horizontal, c’est-à-dire du brusque retour en arrière du faisceau d’électrons qui décrit l’écran du récepteur, ont tous des noyaux en ferrites, précisément parce que la fréquence du phénomène est très élevée.
- Il y a encore quelques années, la réception des émissions radiophoniques supposait l’emploi d’antennes souvent assez encombrantes et malgré cela parfois assez inefficaces. De nos jours, la plupart des récepteurs fonctionnent avec un simple cadre ou une antenne guère plus longue qu’un crayon, antennes qui sont constituées de ferrites. Là encore, on peut parler de transformateur puisque l’antenne n’est autre chose que le circuit secondaire d’un transformateur dont le primaire est constitué par l’antenne de la station émettrice. Les ferrites jouent enfin des rôles analogues dans les dispositifs de télécommunications à fréquences élevées et dans de nombreux circuits électroniques.
- Dans un ordre d’idées voisin, les ferrites sont utilisés dans la technique des machines à calculer comme éléments de mémoire. L’application est importante et mérite que l’on s’y arrête plus longuement. On sait que, dans les calculateurs arithmétiques, la représentation des nombres à l’intérieur de la machine est effectuée en numération binaire, c’est-à-dire que le calculateur ne compte pas, comme nous, dans le système décimal qui exige l’écriture de dix chiffres différents, mais dans le système binaire où tous les nombres sont écrits avec seulement deux chiffres, o et 1 (voir La Nature, juillet 1956, p. 257). Par suite, il est clair qu’une telle machine doit utiliser des circuits qui puissent présenter deux états différents. Les ferrites sont, à cet égard, particulièrement intéressants.
- Pour chaque matériau ferromagnétique, et donc pour les ferrites, on peut tracer une courbe, dite courbe d’hystérésis, qui représente les variations de la magnétisation du matériau sous l’influence d’un champ magnétique variable (fig. 7). Lorsque le champ magnétique croît, la magnétisation augmente d’abord rapidement puis plus lentement
- 465
- p.465 - vue 463/560
-
-
-
- Magnétisation
- Champ magnétique
- Fig. 7. — Cycle d’hystérésis d’un matériau magnétique.
- Explications dans le texte.
- pour atteindre une valeur constante dite magnétisation de saturation. Si maintenant on diminue le champ appliqué, la magnétisation ne suit pas la même courbe qu’à l’aller. Lorsque le champ est nul, il subsiste une aimantation résiduelle appelée magnétisation rémanente. Pour l’annuler, il est nécessaire d’inverser le champ H et de le faire croître jusqu’à une valeur Hc appelée champ coercitif. Au delà, la magnétisation s’inverse et atteint enfin sa valeur de saturation de sens opposé. En ramenant le champ H à zéro, puis en l’inversant à nouveau, on observe un comportement analogue et symétrique et la courbe .se referme, complétant le cycle d’hystérésis (on ne peut éliminer la magnétisation et ramener l’échantillon dans un état non aimanté que par une réduction progressive de l’amplitude H du champ avec changement alternatif du signe ; ceci conduit à décrire des parties de plus en plus petites de cycles qui aboutissent finalement au point zéro).
- Magnétisation
- (ou courant)
- Fig. 8. — Cycle d’hystérésis rectangulaire. Explications dans le texte.
- Les ferrites sont caractérisés, en général, par un cycle d’hystérésis quasi-rectangulaire (fig. 8), d’où résulte le phénomène de mémoire. Considérons en effet un tore de
- ferrite sur lequel sont bobinés deux enroulements (fig. 9). Si un courant d’intensité suffisante est envoyé dans l’enroulement de gauche, un flux magnétique est engendré dans le tore qui restera, après suppression du courant, dans l’état marqué 1 sur la courbe de la figure 8. Autrement dit, le tore est capable, par sa magnétisation, de « garder en mémoire » l’information. Ce sera un x ou un o selon le sens de la magnétisation.
- Tore en Perrite
- Enroulement
- d'ecriture
- Enroulement de test
- Fig. 9. — Fonctionnement d’un tore de ferrite en « mémoire ».
- Explications dans le texte.
- Supposons alors que l’on veuille « lire » la valeur du chiffre enregistré par le tore. Il suffit d’envoyer un courant dans l’enroulement de gauche, en lui imposant le sens qui tend à ramener ce noyau dans l’état o. Si le noyau occupait déjà l’état o, aucune variation de flux ne se produit, et l’on ne recueille aucune tension induite dans l’enroulement de sortie (celui de droite), encore appelé « enroulement de test ou de lecture » du noyau. Par contre, si le tore était initialement dans l’état 1, l’inversion du flux dans le tore induit dans l’enroulement de test une tension dont l’apparition caractérise la valeur 1 du chiffre précédemment enregistré. Il faut remarquer que, l’opération de test ayant pour effet de laisser le noyau dans l’état o, l’information qu’il contenait se trouve détruite ; si cette information doit être conservée en permanence, il faut prévoir des circuits qui réintroduisent un 1 chaque fois que le noyau a été testé.
- Pour être utilisable dans un calculateur, l’inversion de l’aimantation du tore (on dit qu’il y a « basculement ») doit être extrêmement rapide. Avec les ferrites, les temps de basculement varient de quelques microsecondes à des valeurs de l’ordre d’une microseconde.
- Les applications les plus importantes sont les mémoires dites à coïncidence dans lesquelles sont intimement combinées des fonctions de mémoire et de sélection. La disposition pratique la plus fréquente est celle de micro-tores assemblés dans des « matrices » qui comportent un réseau de fils Xx, X2... Ylf Y2 ... ainsi qu’un fil de lecture traversant successivement tous les tores (fig. 10). La méthode utilisée pour inscrire un chiffre donné ou pour lire un des tores de la matrice fait appel à la forme quasi-rectangulaire du cycle d’hystérésis. Ainsi que le montre la figure 8, si un champ Hc suffit à faire passer le tore dans l’état 1, un champ de valeur Hc/2 seulement est insuffisant. Par suite, tout noyau donné peut être « sélectionné » en envoyant un courant produisant un champ Hc/2 dans chacun des deux fils, vertical et horizontal, qui lui correspondent. Ce noyau sera alors le seul à subir au total un champ Hc. Au contraire, les noyaux appartenant à la même ligne ou à la même colonne que le noyau sélectionné ne changeront pas d’état, pas plus que les autres noyaux de l’assemblage. Le système de sélection est dit « à courants coïncidents » parce qu’il faut que les deux enroulements de commande
- 466
- p.466 - vue 464/560
-
-
-
- x, X2 x3 x4
- Fil de lecture
- Fig. JO. — Schéma de câblage d’une matrice à coïncidence.
- Lorsqu’un courant parcourt simultanément deux fils perpendiculaires, X2 et Y3 par exemple, le tore de ferrite situé à leur intersection est soumis à un champ total Hc (ou — Hc selon le sens des courants) qui le fait passer dans l’état i (ou dans l’état o). Si l’on veut maintenant connaître l’état du tore, il suffit de faire passer dans les deux fils X2 et Y3 des courants qui produisent un champ — Hr, c’est-à-dire qui tendent à le ramener dans l’état o. Si le noyau occupait déjà l’état o aucune variation de magnétisation ne se produit et l’on ne recueille aucune tension induite dans le fil de lecture. Si, en revanche, le tore était dans l’état i, l’inversion de la magnétisation du tore induit dans le fil de lecture une tension dont l’apparition caractérise la valeur i du chiffre enregistré. L’opération de lecture ayant pour effet de laisser le tore dans l’état o, l’information qu’il contenait se trouve détruite, s’il s’agissait d’un i ; si l’on veut conserver cette information en permanence, il faut donc prévoir des circuits qui réintroduisent un i chaque fois que le tore a été testé.
- du noyau à sélectionner soient parcourus simultanément par des courants pour que le champ Hc lui soit appliqué. Il est possible de constituer des blocs de plusieurs centaines de milliers de tores (par empilement de matrices planes) dont le cycle d’exploitation est de l’ordre de 5 à 10 microsecondes seulement ! (fig. 4 et 11).
- Dans toutes ces applications, le ferrite se présente sous forme de tore. Récemment, de nouvelles formes de noyaux
- Fig. JJ.— Une matrice à tores en ferrite.
- 467
- p.467 - vue 465/560
-
-
-
- p.468 - vue 466/560
-
-
-
- Fig. 12. — Différents types de tores de ferrite de fabrication courante : micro-tores à mémoire, transluxeurs (tores à plusieurs trous), etc.
- ont été développées, associant dans une même pièce plusieurs circuits magnétiques susceptibles ainsi de réagir les uns sur les autres. La forme la plus fréquente est celle de tores à plusieurs trous (transluxeurs) qui permet la réalisation simple de mémoires non destructibles, de circuits logiques, etc. Ce type de noyaux facilite la création de nouveaux éléments de circuits intéressants (fig. 12).
- Disons enfin, pour terminer ce tour d’horizon des applications des ferrites que d’autres propriétés liées à la propagation des ondes électromagnétiques de très hautes fréquences dans les ferrites jouent un grand rôle dans certaines techniques comme celle du radar. Les ferrites présentent en effet à l’égard des hyperfréquences des propriétés de non-réciprocité en ce sens qu’ils n’opposent pratiquement pas de résistance lorsque l’onde se propage dans un sens tandis qu’ils l’arrêtent complètement en sens inverse. On conçoit dès lors qu’il soit possible d’utiliser les ferrites en technique radar où la même antenne sert à la fois pour l’émission et la réception, en téléphonie par onde porteuse, etc.
- La fabrication des ferrites
- Les pièces en ferrite sont réalisées par les techniques de la métallurgie des poudres. Les oxydes de grande pureté sont broyés en poudre très fine, mélangés dans la proportion correcte après avoir ajouté, parfois, un liant organique. Le mélange est comprimé sous des pressions de plusieurs tonnes par cm2. Les pièces subissent ensuite l’opération du frittage : elles sont portées à des températures de l’ordre de 1 200 à 1 4000 C pendant plusieurs heures, le plus souvent en atmosphère contrôlée ; le liant organique est calciné et une réaction se produit entre les oxydes composants qui conduit à la structure désirée.
- La fabrication des tores à mémoire est spécialement caractérisée par la dimension très faible des unités produites : le poids d’un tore classique de 2 mm de diamètre n’est en effet que de 5 mg ; celui d’un tore de 1,25 mm est de 1,5 mg.
- Les masses en jeu étant faibles, les moyens utilisés ne sont pas sans rappeler ceux que l’on trouve dans l’industrie pharmaceutique. L’importance des lots traités (plusieurs dizaines, sinon plusieurs centaines de milliers de tores) constitue une autre caractéristique de cette fabrication dont la conséquence est un automatisme poussé ! Par ailleurs, la nécessité d’avoir un grand nombre de pièces de mêmes caractéristiques, pour les associer dans un même ensemble, entraîne une surveillance méticuleuse des proportions de matière première, de leur pureté, de l’homogénéité du mélange obtenu, de la forme des grains, etc. Mais les précautions les plus grandes doivent être prises pour les cuissons : tous les paramètres tels que température, atmosphère, doivent être réglés avec précision. Par la suite, chaque tore est contrôlé automatiquement ; une fois la matrice montée, chaque tore est à nouveau vérifié, afin d’éliminer tout risque de défaut. De telles précautions s’expliquent quand on songe que dans un bloc terminé contenant plus de 100 000 tores, la défection d’un seul rend l’ensemble inutilisable.
- Fig. 1— Détail d’une matrice à tores en ferrite.
- Les montages s’écartent aussi, par leur surcroît de minutie, de ce que l’on peut voir habituellement en électronique. C’est que, dans un bloc de 19 x 19 X 22 cm par exemple, se trouvent rassemblés 110 000 pièces, 1 250 km de fil et 15 000 soudures. Une telle fabrication a fait naître des techniques spéciales qui évoquent l’horlogerie, la bijouterie et, surtout, ... la broderie. Les opérations de câblage ne sont pas en effet complètement automatisées et nécessitent l’intervention de l’adresse manuelle et de l’acuité visuelle d’ouvrières convenablement entraînées.
- *
- * *
- Le magnétisme est certainement une des branches de la physique qui s’est laissée le moins facilement « apprivoiser ». Encore aujourd’hui, de nombreux points restent obscurs. Toutefois, les efforts déployés depuis un demi-siècle trouvent maintenant leur récompense, et les ferrites en sont un des exemples les plus manifestes.
- Jean Cézaire.
- La documentation de cet article a été empruntée essentiellement à un article de C. Lester Hogan dans Scientific American, à Télonde, revue d’entreprise de la Compagnie générale de Télégraphie sans fil, à un article de R. Pauthenet dans la Revue générale de l’Flectricité et à l’ouvrage de P. J. B. Clarricoats, Micromve ferrites, Chapman et Hall, éditeurs. Les photos sont de René Bouillot ; elles nous ont été aimablement communiquées par la Compagnie générale de Télégraphie sans fil (C. S. F.).
- 469
- p.469 - vue 467/560
-
-
-
- L’aile gonflable
- pour récupération de fusées ou remorque aérienne
- En dehors du problème posé par la récupération des capsules habitées lancées dans l’espace circumter-restre, les techniciens américains qui s’occupent des programmes spatiaux ont songé à récupérer des étages de fusées de lancement afin de réduire le coût des expériences.
- Les caractéristiques fondamentales d’un tel dispositif de récupération devraient être d’abord un poids faible et la possibilité de se loger dans un faible volume. Pour y répondre, les techniciens de la N. A. S. A., organisme de recherches aéronautiques et spatiales américain, ont mis à l’étude un nouveau type d’aile, 1’ « aile flexible ». Elles sont construites (fig. i) en un matériau flexible qui est fixé sur trois membrures solides formant la quille et les deux
- éléments de bord d’attaque. Une telle aile se gonfle alors sous l’effet du vent relatif créé par le déplacement, ce qui lui vaut d’excellentes qualités de planeur. Les matériaux utilisés pour construire l’aile peuvent être des tissus spéciaux ou des matériaux plastiques en feuilles. Toutefois, pour les applications aux véhicules à grande vitesse, soumis à des températures élevées, il faudra utiliser des tissus métalliques à mailles fines.
- L’aile flexible possède une stabilité inhérente autour de
- Fig. I. — Aspect en vol de véhicules gonflables remorqués par hélicoptère.
- (.Document rie la Société Ryan).
- 470
- p.470 - vue 468/560
-
-
-
- Fig. 2. — Utilisation d’un véhicule Ryan pout la récupération d’une fusée de lancement d’engin spatial.
- (.Document Ryan).
- ses trois axes, même quand elle supporte des charges importantes à de fortes incidences ; cela est dû à l’effet de pendule créé par la position de la charge nettement en dessous de la surface portante.
- Parallèlement aux essais de récupération de charges spatiales, la N. A. S. A. envisage pour ce type de véhicule des applications plus spécifiquement aéronautiques. La première est leur emploi en tant que planeur remorqué comme l’indique la figure i. Les calculs ont montré qu’un hélicoptère pourrait alors tirer une charge six fois plus lourde que celle qu’il est capable de transporter seul.
- La Société Ryan a reçu un contrat du Corps des Transports de l’Armée américaine pour construire et essayer en vol un avion à aile flexible pouvant servir de cargo.
- Citons encore son emploi comme engin de surveillance d’opérations militaires tactiques : lancé par un servant au sol et guidé par radio, l’engin à aile flexible peut emporter un équipement photographique ou de télévision pour repérer les positions et les mouvements de l’ennemi sur le terrain.
- Enfin, Ryan a également un contrat pour la récupération de l’énorme fusée de lancement Saturne, dont les essais doivent avoir lieu dans les prochaines années (fig. 2).
- J. S.
- Brumes de fumée
- Les habitants de vastes régions de la Sibérie, tant orientale qu’occidentale, ont été témoins, en juillet 1959, d’un phénomène atmosphérique en apparence fort étrange, nous dit, dans un de ses récents numéros, la revue soviétique Priroda. Un jour, ensoleillé pourtant, et le ciel étant complètement dégagé, ils se virent soudain enveloppés d’une brume sèche, lourde et trouble. Le Soleil parut devenir un disque de cuivre rouge jaunâtre, que l’on pouvait observer sans inconvénient à l’œil nu, et en certains points la visibilité n’allait pas au delà de 200 m. Cette brume sèche s’étendit progressivement et, pendant trois jours, les 18, 19 et 20 juillet, elle recouvrit entièrement les régions d’Omsk, de Tioumen, de Kurgan, du Kazakstan-Nord, de Koktchetav et de Pavlodarsk. Elle était due, comme on l’a établi plus tard, à d’immenses incendies de forêt qui s’étaient déclarés en juillet dans la région de Krasnoïarsk, la fumée étant entraînée vers l’ouest par des vents chauds de l’est, avec une légère composante nord.
- La couleur jaune marron de cette fumée prouve que les particules qui la composaient étaient assez grosses ; en effet, lorsque la lumière est diffusée par des particules plus fines, l’air ambiant apparaît bleuâtre. La radiation diffuse, qui, dans les conditions normales de transparence, pour un ciel dégagé, n’est que de l’ordre de 0,12 à 0,13 calorie par centimètre carré et par minute, atteignit le 19 juillet,
- dans les régions affectées, la valeur de 0,60 cal/cm2/mn alors que la radiation solaire directe tomba de 1,38-1,43 cal/ cm2/mn (valeur normale vers midi) à 0,13 cal/cm2/mn. Ainsi, la radiation diffuse qui, dans cette région et à cette époque de l’année, ne représente habituellement que 13 pour 100 environ de la radiation totale, en représentait approximativement 85 pour 100 le 19 juillet 1959.
- Des phénomènes dus à la même cause, et encore plus impressionnants, ont d’ailleurs déjà été constatés dans le passé. Ainsi, en 1950, un immense nuage de fumée, produit par des incendies de forêt au Canada, traversa, entraîné par le vent, l’Océan Atlantique et recouvrit l’Angleterre, le Danemark, la Belgique, la Hollande et le Nord de l’Allemagne, jusqu’à une ligne passant environ par les villes de Luxembourg, Francfort, Leipzig et Stettin. Ce nuage de fumée, qui persista plusieurs jours, permit d’observer, en Europe occidentale, des phénomènes curieux : le Soleil et la Lune paraissaient bleus, au lever et au coucher. Mais le nuage de fumée le plus spectaculaire fut sans doute celui qui, en 1915, enveloppa toute la Sibérie centrale. Ce nuage recouvrit une superficie totale de près de 6 millions de km2, alors que la superficie affectée en 1959 ne fut que d’environ 3,5 millions de km2. En 1915, le nuage de fumée subsista, en certains endroits, pendant plus de deux mois. C. M.
- 471
- p.471 - vue 469/560
-
-
-
- Un nouveau virus animal
- le polyome
- éclaire certains aspects
- de l’étiologie du cancer
- par Jacques Fouchet et Faut Ostoya
- Nous savons que le cancer est une prolifération anarchique de certaines cellules de l’organisme qui envahissent les tissus comme une population- étrangère et ne respectent aucune des structures complexes propres à la vie. Mais nous ignorons comment une cellule normale se transforme en cellule cancéreuse. Sur ce point deux théories principales sont en présence : l’une admet que le cancer provient d’une mutation de la cellule, éventuellement déclenchée du dehors, mais sans incorporation d’un agent externe ; l’autre croit au contraire à une telle incorporation qui serait celle d’un virus.
- Jusqu’ici la présence d’un virus n’a été prouvée que dans des types de cancer particuliers, propres à l’animal. Mais la découverte récente du « polyome », capable de provoquer une grande variété de tumeurs malignes chez la souris, le hamster et même le rat, apporte un appui nouveau à la théorie virale.
- On attribue à un virus la transmission d’un cancer lorsqu’on peut provoquer celui-ci par l’inoculation de broyats d’organes et de filtrats ne contenant pas de cellules entières. Il ne s’agit pas alors d’un transplant viable, d’une greffe, et l’on doit supposer qu’un agent ultra-filtrable a transmis non pas la tumeur elle-même, mais un agent qui la provoque. Les virus ont conservé longtemps un certain caractère hypothétique, mais ils sont maintenant bien discernables au microscope électronique (fig. i). De formes variables, constitués d’un noyau d’acide nucléique et d’une enveloppe de protéine, ils n’ont pas de système enzymatique qui leur permette d’assimiler d’eux-mêmes le milieu ambiant et ils ne peuvent donc se reproduire qu’à l’intérieur de cellules vivantes dont ils mettent à profit le métabolisme, quitte à le dérégler, parfois jusqu’à la destruction.
- Dans les noyaux des cellules, l’ADN ou DNA (acide désoxyribonucléique) représente, on le sait, le « code » qui gouverne la synthèse de toutes les autres substances, et l’ARN ou RNA (acide ribonucléique), formé sous la dépendance de l’ADN et émigrant du noyau dans le reste de la cellule (cytoplasme), paraît bien être l’intermédiaire par lequel se réalise cette « commande », en dirigeant quant à lui, notamment, la synthèse des protéines. Constitués d’ADN, comme ceux dont il s’agit ici, ou d’ARN (tous
- ceux des végétaux), les virus sont donc des êtres vivants si l’on veut, mais réduits à n’être qu’une portion de code héréditaire. Au lieu d’induire l’édification d’une cellule ou d’un organisme, cette fraction de code n’est plus capable que de se répéter elle-même, en utilisant les matériaux que lui offre la cellule. Ce faisant, le virus peut n’apporter aucun dommage à la cellule ; il peut en d’autres cas la détruire ; il peut aussi, sans la détruire, en modifier le métabolisme et, notamment, la transformer en cellule cancéreuse. Nous préciserons plus loin cette hypothèse.
- C’est en 1908 qu’Ellerman et Bang réussirent pour la première fois à transmettre par des filtrats la leucémie de l’oiseau. Mais les expériences les plus remarquables furent réalisées en 1910 par Peyton Rous qui obtint par les mêmes méthodes de filtration le transfert d’un sarcome du muscle pectoral de la poule (myosarcome). Il a été possible depuis d’extraire le virus de Rous de ce type de tumeurs et il est intéressant de constater que la quantité extractible est en relation avec la dose inoculée et non avec le développement tumoral. Il semble que le virus se contente de donner le départ à la tumeur et nous verrons plus loin que ce fait, constaté dans d’autres cas, mène à d’intéressantes considérations théoriques. D’autre part, injecté à des lapins, le virus de Rous suscite la formation d’anticorps qui le neutralisent. Ce n’est qu’en 1932 que la transmission d’un cancer de la peau fut réalisée chez le lapin par Rous et Shope ; il s’agissait de grosses verrues sèches ou papillomes. Enfin Bittner, en 1936, découvrit dans une lignée pure de souris, dite inbred, c’est-à-dire obtenue par le croisement des animaux d’une même portée, un virus qui provoquait des cancers de la mamelle et se transmettait par le lait maternel.
- Un virus très infectieux et puissamment cancérigène
- Les recherches qui menèrent à la découverte du polyome firent suite à la mise en évidence par Ludwik Gross, en 1951, d’un virus de la leucémie de la souris. Des filtrats de tissus de souris souffrant de leucémie spontanée transmettaient la maladie. Expérimentant sur des animaux de la même lignée mais non leucémiques, Sarah Stewart
- 472
- p.472 - vue 470/560
-
-
-
- et Bernice Eddy (États-Unis) obtinrent, vers 1958, l’induction de cancers parotidiens, c’est-à-dire des glandes salivaires. S’agissait-il d’un virus associé ? Ou bien les animaux utilisés répondaient-ils différemment au même virus ?
- Des filtrats de ces cancers parotidiens, injectés à des souris nouveau-nées, ne transmettaient pas la tumeur, alors que celle-ci se reproduisait si l’on reprenait les filtrats qui provenaient directement des souris leucémiques. Stewart et Eddy supposèrent alors que les tumeurs parotidiennes contenaient bien le virus, mais que celui-ci n’était pas assez abondant ou assez virulent pour agir. Pour aug-
- menter sa virulence ils employèrent un moyen déjà classique qui consistait à le cultiver et le multiplier au sein d’une culture de tissu. Un premier essai, sur tissu rénal de singe, ne donna pas de résultat. Des cultures ultérieures, sur cellules d’embryon de souris, furent au contraire positives. Des filtrats de ces cultures, inoculés à des souris nouveau-nées, déterminèrent des tumeurs chez ces animaux dans des proportions qui allaient de 80 à xoo pour 100 selon les expériences.
- Un phénomène plus extraordinaire se révéla alors. Le virus qui provenait d’un cancer bien délimité, celui des
- Fig. 1. — Fibroblaste de souris, infecté in vitro par le virus polyome.
- On aperçoit des anomalies chromatiniennes et des amas de virus (petits points noirs en grappes). On remarque que le virus se concentre dans le noyau cellulaire dont la membrane limitante apparaît comme une ligne noire très nette. On ne distingue pas d’amas de virus dans le cytoplasme. Le grossissement est ici relativement faible : xo 500 diamètres environ. {Photo aimablement communiquée par le docteur Wilhelm Bernhart, Centre Oberling, Institut du Cancer).
- - S
- !LtÉ;« mi
- p.473 - vue 471/560
-
-
-
- Fig. 2 — Inclusion de tissu infecté dans une masse de plastique, au Centre Oberling.
- Il s’agit d’obtenir un bloc qui sera coupé en lames ultrafines dans le microtome de la figure 3, destinées à être examinées au microscope électronique.
- {Photo A. D. P.).
- glandes salivaires, devenait capable, après culture sur tissu embryonnaire, de provoquer les cancers les plus variés : cancers des glandes lacrymales, de la gorge, de la thyroïde, de la mamelle (même chez les mâles), des poumons, de la peau. Les glandes sudoripares de la partie nue de la patte de la souris pouvaient être atteintes et l’on trouvait aussi
- des sarcomes des os, du rein, du foie, de la paroi des vaisseaux sanguins. Un même animal développait souvent des tumeurs simultanées ; et il ne s’agissait pas de métastases, c’est-à-dire du transfert d’une tumeur originelle en divers points de l’organisme, mais bien d’une série d’infections primaires. Il était clair que la culture in vitro avait exalté les propriétés infectieuses du virus, grâce peut-être à une multiplication des particules virales jamais atteinte dans la nature.
- Pour savoir si un virus unique était à l’origine de ces cancers, Stewart et Eddy tirèrent parti de la propriété qu’avait le virus de créer des « plages de destruction » dans les cultures de cellules in vitro. On peut voir en effet, dans un flacon sur la paroi duquel s’étend une seule couche de cellules, des plages circulaires qui trouent cette couche. Dans ces régions, les cellules ont été détruites par le virus ; on dit qu’elles ont été « lysées ». Cette lyse des cellules paraît antinomique de la prolifération cellulaire normalement entraînée par le virus ; cependant on la retrouve chez l’animal in vivo sous la forme de phénomènes inflammatoires ou hémorragiques. Quoi qu’il en soit, Stewart et Eddy considèrent que les plages de destruction sont assez éloignées les unes des autres pour que chacune ait vraisemblablement pour origine une particule unique de virus. Il suffit alors de prélever une petite quantité de virus au bord de la plage, de la recultiver pour la multiplier et d’inoculer à un animal, pour être pratiquement sûr d’avoir affaire à un seul type de virus. L’inoculation se fait à partir d’une solution extrêmement diluée pour éviter encore, autant que
- Fig. 3. — Confection de coupes ultrafines au mictotome.
- La loupe binoculaire est destinée à observer le ruban de coupes qui est recueilli à la surface d’un bac d’eau. Les coupes ont entre 0,05 et 0,025 d’épaisseur.
- 474
- p.474 - vue 472/560
-
-
-
- possible, la présence d’un mélange de virus. D’ailleurs chaque fois que l’expérience était réalisée, on retrouvait la même variété de tumeurs, ce qui soulignait bien qu’un type viral unique était partout en cause.
- C’est l’étendue de ses possibilités cancérigènes qui constitue l’intérêt exceptionnel de ce virus, baptisé en Amérique Polyoma S E (de Stewart et Eddy). Il semble tout à fait différent du virus découvert par Gross, quoiqu’il lui ait été originellement associé chez les souris leucémiques, où pourtant il ne produisait pas de cancers d’aucune sorte, sans doute parce qu’il n’y était pas assez virulent, peut-être aussi parce qu’il n’infectait pas assez massivement les souris dans les premières heures de leur vie, quand l’animal n’a pas encore développé la faculté de former des anticorps.
- En revanche, cultivé sur embryons et inoculé à des nouveau-nés, le polyome s’est montré hautement infectieux chez des lignées nombreuses de souris. C’est un fait important, car le virus du cancer mammaire de Bittner, par exemple, est très spécifique : il ne provoque de tumeurs que dans la lignée pure de souris où il a été découvert. Enfin le polyome se transmet au rat ainsi qu’au hamster qui y est particulièrement sensible ; chez le lapin des tumeurs apparaissent mais régressent d’elles-mêmes au bout de
- quelques mois ; on ne note aucun effet chez le singe et il semble donc improbable que l’homme soit sensible à ce virus. Il est cependant remarquable que des chercheurs qui ont étudié le polyome pendant un temps prolongé aient développé les anticorps correspondants (Stewart).
- Pouvoir antigénique du virus
- Le polyome a en effet un important pouvoir antigénique : il donne lieu à la formation d’anticorps qui se combinent avec le virus et réduisent ou inhibent son pouvoir infectieux. C’est sans doute pour cela qu’il n’avait pas jusqu’à présent été rencontré dans la nature. Selon Stewart, 80 pour ioo des souris appartenant à un même laboratoire présentent des anticorps du polyome dans leur sérum sanguin, qu’elles aient reçu ou non une inoculation du virus. Le polyome se transmet par la salive, les excréments et le lait maternel. Le fait qu’il soit très contagieux rend donc peu recommandable son étude in vivo dans des laboratoires qui se livrent en même temps à des recherches sur d’autres virus, car on ne peut être sûr alors que les phénomènes observés ne soient pas dus à une présence latente du polyome. D’autre part, selon M. Vendrely, du Centre de Cancérologie Oberling (Villejuif), on courrait le risque,
- Fig. 4. — Le virus polyome à un fort grossissement.
- On remarquera la constance de la forme sphérique et du diamètre des particules virales. L’agrandissement final est de l’ordre de 100 000 à partir d’un grossissement de 30 000 par le microscope électronique. (W. Bernhart, Centre Oberling).
- 475
- p.475 - vue 473/560
-
-
-
- en cherchant à cultiver le polyome sur d’autres types de cellules, de le voir s’y adapter par mutation : des épidémies imprévisibles pourraient en être la conséquence. Nous avons vu que le pouvoir antigènique du virus lui permet de développer des anticorps chez l’homme. On est amené à penser que s’il était imprudemment cultivé sur des cellules humaines il risquerait de devenir infectieux pour celles-ci avec toutes les dangereuses conséquences que fait prévoir son caractère contagieux.
- C’est en mélangeant avec du virus le sérum qui est présumé contenir des anticorps que l’on peut mettre ceux-ci en évidence. En présence d’anticorps, le virus ne provoque pas de phénomènes inflammatoires ni de tumeurs in vivo, non plus que de plages de destruction in vitro. On peut enfin procéder au test dit d’hémagglutination. Les globules rouges du sang contenu dans une éprouvette s’agglutinent lorsqu’on y verse une solution de virus ; mais si l’on ajoute du sérum provenant d’animaux précédemment inoculés et ayant développé des anticorps, l’agglutination des globules rouges ne se produit plus.
- On a pu montrer récemment qu’une seule particule du virus (rendu virulent) suffit à produire l’infection. Les animaux ne sont protégés que si on leur injecte en même temps que le virus un sérum porteur d’anticorps ; injecté trop tard, ce sérum reste sans effet. D’ailleurs la protection n’est pas toujours complète et des lésions sous-cutanées peuvent apparaître au voisinage du lieu d’inoculation. Quant aux animaux non traités préventivement, ils commencent, au bout de 8 jours, à former spontanément des anticorps. Cependant les tumeurs qu’ils portent continuent à se développer parce que le virus s’est déjà installé dans les cellules. Ce sont apparemment les particules virales libres, présentes dans le sang, qui suscitent des anticorps ; mais ceux-ci semblent rester sans action sur le virus intracellulaire.
- Chez le hamster, particulièrement sensible, quelques nouveau-nés succombent déjà vers le 12e jour. Les tumeurs sont moins variées que chez la souris mais leur développement est plus rapide. On observe des cancers du rein, du poumon, de la paroi du cœur, de la peau. D’après Karl Habel et Rosalie J. Silverberg, les grosses tumeurs rénales entraînent la mort du hamster au bout de 15 à 22 jours, les tumeurs sous-cutanées au bout de 60 à 70 jours, 98 jours au maximum.
- Il faut bien noter que la résistance au virus, dont nous avons vu qu’elle peut être provoquée par des injections préventives d’anticorps, dépend aussi de l’âge. Chez la souris, l’inoculation du virus doit se faire au premier jour de la vie de l’animal pour provoquer des tumeurs. Au bout de 2 jours il est déjà trop tard. En revanche le hamster reste sensible pendant 24 jours.
- Structure et action du polyome
- Vu au microscope électronique, le virus se présente sous l’aspect de petits corps sphériques, d’un diamètre voisin de 30 mp (300 Â) (fig. 4). Il se compose de protéine et d’acide désoxyribonucléique ou ADN. Jusqu’à présent on n’a pu cependant y distinguer un noyau d’ADN et une membrane protéinique comme c’est le cas, par exemple, pour le bactériophage. Les particules de virus s’amassent dans le noyau des cellules où elles peuvent montrer une
- .tendance à la cristallisation. On note au microscope électronique que le virus paraît se former à partir de filaments qui se groupent en faisceaux et se résolvent ensuite en particules sphériques (en bas de la figure 5 et un peu à droite). Dans le nucléole, région du noyau où semble se synthétiser l’ARN, on aperçoit des condensations sombres, tout à fait anormales, dont la genèse n’est pas encore expliquée (fig. 6). D’autres altérations semblent liées à la présence du virus : vésicules intra-nucléaires contenant des grains très petits, tuméfaction des mitochondries, dépôts de lipides dans le cytoplasme.
- L’acide nucléique contenu dans le polyome est bien de l’ADN et non de l’ARN. En séparant par centrifugation la protéine de l’acide nucléique, on peut voir que l’acide est détruit par une enzyme spécifique, la désoxyribonu-cléase, ce qui montre bien qu’il s’agit d’ADN. Celui-ci constitue la partie active du virus : injecté seul à des souris il détermine la formation de tumeurs. Il semble que la protéine du virus serve à le protéger des enzymes qui pourraient le détruire et soit également le siège de ses propriétés antigéniques. La protéine aurait aussi une action dans le mécanisme d’absorption du virus à travers les membranes de la cellule et elle jouerait surtout un rôle dans la virulence et le pouvoir infectieux. En effet, à concentration égale, le virus réduit à son ADN s’est montré un million de fois moins actif que le virus complet, tout au moins dans les premières expériences. Récemment, l’activité de l’ARN pur a été multipliée par mille, grâce à de nouvelles méthodes de nutrition des cultures développées par Weyl. Il n’en reste pas moins nécessaire de l’utiliser à une concentration mille fois plus forte que celle du virus complet pour en obtenir des effets infectieux.
- L’inoculation du seul ADN dans des cultures de tissu montre néanmoins qu’après pénétration dans les cellules, il reste capable de synthétiser des particules virales complètes, munies de leur protéine. Frankel-Conrat avait d’ailleurs mené des expériences semblables avec le virus de la mosaïque du Tabac. Il avait montré que l’ARN propre à ce virus, une fois injecté à l’état pur dans une plante, reconstituait sa protéine spécifique (voir La Nature, janvier 1959, p. 34). Cette action d’un acide nucléique pur a naturellement une importance théorique considérable. On sait que les molécules d’ADN ne diffèrent que par un arrangement variable de leurs quatre constituants basiques (adénine et guanine, thymine et cytosine), arrangement qui peut être assimilé à un code. L’action de l’ADN pur est donc la confirmation de l’existence de ce code et du bien-fondé des théories sur le rôle inducteur capital des acides nucléiques.
- Une autre particularité de l’ADN, récemment découverte, est qu’on peut le chauffer et même le faire bouillir dans l’eau sans lui faire perdre son activité biologique, à condition toutefois de le refroidir lentement (La Nature, novembre i960, p. 478). D’ailleurs, selon B. et A. Pullman (Angleterre), la température de dénaturation serait plus élevée pour les types d’ADN riches en guanine et en cytosine plutôt qu’en adénine et en thymine. Les couples de bases formés de guanine et de cytosine seraient mieux stabilisés par leurs liaisons d’hydrogène. Quant au virus complet, muni de sa protéine, il supporte aussi des températures assez élevées : chauffé pendant une heure à 6o°, son activité n’est que légèrement diminuée.
- 476
- p.476 - vue 474/560
-
-
-
- Effets sur les cellules
- Le premier effet du polyome dans les cultures est de produire un ballonnement des noyaux cellulaires dû à la multitude de particules virales qui s’y développent. Les cellules distendues finissent par éclater, libérant dans le milieu le virus qui s’y est multiplié. C’est ainsi qu’apparaissent les plages de destruction des cultures et que des phénomènes inflammatoires et des hémorragies ont lieu chez les ani-
- Fig. j. — Portion d’un noyau cellulaire contenant le polyome.
- On aperçoit de nombreuses particules virales entre les masses de chromatine (substance des chromosomes). Dans le bas, un peu à droite, on note une masse de filaments parallèles qui pourrait représenter un foyer de reproduction du
- virus.
- (W. Berniiart, Centre Oberling).
- maux infectés par le virus. On a même vu des tumeurs, où l’on injectait une grande quantité de polyome, être détruites par le virus qui les avait induites (Habel et Silverberg). D’autre part, on a pu observer in vitro que des
- p.477 - vue 475/560
-
-
-
- Fig. 6. — Hypertrophie d’un nucléole sous l’action du polyome.
- Le nucléole, qui apparaît sombre sur la masse plus claire du noyau cellulaire, montre des densifications très marquées (taches noires) ; le noyau est lui-même parsemé de nombreuses particules de virus. Grossissement : 56 000.
- (W. Bernhart, Centre Oberling).
- transformations morphologiques des cellules pouvaient se produire, sans aller jusqu’à la lyse. Par exemple, des cellules d’embryon de rat présentaient, 14 jours après leur infection par le polyome, des formes en fuseau qui se montraient stables et se développaient régulièrement (fïg. 7). Les conditions de culture, température et milieu nutritif, ont une influence sur la forme des cellules. On a pu noter aussi des variations d’acidité du milieu en rapport avec l’évolution morphologique de ces cellules : le milieu était rendu beaucoup plus acide que celui de cultures témoins
- Fig. 7. — Cellules en forme de fuseau.
- Modification des cellules survenue dans des cultures de tissu embryonnaire de rat, 14 jours après l’infection par le polyome. A gauche, tissu témoin non infecté ; à droite, les cellules transformées.
- (Photos Léo Sachs, Institut Weizmann de Science, Rehovoth, Israël, aimablement communiquées par Nature, Londres, avec l’autorisation de P auteur).
- non infectées et placées dans des conditions identiques (Léo Sachs et Dan Médina, Israël). Ce serait l’indication d’une modification importante du métabolisme cellulaire provoquée par le polyome. S’agit-il là de processus spécifiques de la cancérisation ? Il est encore trop tôt pour
- 478
- p.478 - vue 476/560
-
-
-
- le dire, mais il est certain que les cellules morphologiquement transformées, une fois testées in vivo, se révélaient néoplasiques. Elles continuaient à se multiplier après transplantation sur des animaux adultes.
- D’autre part, le développement de la tumeur est sans rapport avec la production d’anticorps, qui peuvent ou non être présents. C’est ainsi que beaucoup d’animaux d’expérience, atteints de grosses tumeurs, ne possèdent pas d’anticorps décelables dans leur sang. Il y a plus remarquable encore : le virus peut paraître absent non seulement du sérum sanguin, mais même du noyau des cellules (Habel et Silverberg). Il semble que le polyome, après une courte période d’infectivité brutale où se produisent des lyses cellulaires accompagnées d’une multiplication des particules virales, se « masque » en quelque sorte, semble disparaître des noyaux où il ne subsisterait plus que dans un état latent, incapable d’entraîner la destruction des cellules. C’est à ce stade, en revanche, qu’il exalterait le pouvoir de duplication des cellules, entraînant leur prolifération rapide et par conséquent l’apparition de tumeurs. Le mécanisme de cette activité modifiée du polyome reste hypothétique, mais on ne peut s’empêcher de songer ici au comportement d’un autre virus, spécifiquement bactérien et bien connu, le bactériophage, qu’il nous paraît opportun de rappeler maintenant.
- Le bactériophage et les bactéries lysogènes
- Découvert par d’Hérelle en 1917, en tant qu’agent d’une lyse transmissible des bactéries, le bactériophage a été bien étudié depuis cette époque. Ce virus, formé d’ADN et
- Fig. 8. — Schéma de la structure du bactériophage.
- (D’après Anderson, in P. Morand, Aux confins de la vie, Masson, éditeur).
- — Proteme
- Point d'attache
- sur la-----
- bactérie
- d’une enveloppe de protéine (fig. 8), présente l’aspect d’un têtard. Il attaque les bactéries en des régions préférentielles, généralement vers leurs bouts, en se fixant sur la paroi par son extrémité caudale (fig. 9 et 10). Celle-ci agit comme une micro-seringue qui projette à l’intérieur de la bactérie l’ADN contenu dans la « tête » de la particule virale. L’enveloppe de protéine, qui conserve la forme extérieure du virus, reste fichée dans la paroi de la bactérie, mais comme elle est désormais vidée de son acide nucléique on la qualifie de « fantôme ». Quant à l’ADN envahisseur, il s’insère dans le métabolisme de l’hôte et le désorganise à son profit. L’acide nucléique phagique contiendrait d’ailleurs plus de guanine et moins d’adénine que l’acide nucléique
- bactérien, fait qui pourrait corroborer l’hypothèse selon laquelle la guanine jouerait un rôle dans les phénomènes de dominance (voir La Nature, novembre i960, p. 480).
- Quoi qu’il en soit, toute la machinerie cellulaire de la bactérie semble dirigée par l’ADN phagique qui l’utilise pour former de nouvelles particules virales aux dépens des protéines et de l’acide nucléique bactériens. En particulier l’acide ribonucléique (ARN) contenu dans le cytoplasme de la bactérie se transforme en ADN phagique (on sait que l’ADN diffère de l’ARN par le fait que le sucre qu’il contient^ le ribose, est à l’état désoxydé, d’où le nom d’acide désoxyribonucléique ; en outre l’ARN ne contient pas de thymine, mais une autre base pyrimidique, l’uracile). Quant à la protéine bactérienne, elle est décomposée et ses acides aminés résiduels se trouvent réarrangés pour former de la protéine virale sous l’influence évidente de l’ADN phagique. Après une courte période de latence, des particules rondes (doughnuts) commencent à se former, aboutissant à la reconstitution de plus d’une centaine de particules virales typiques, en forme de têtards, qui sont libérées par l’éclatement de la bactérie (fig. 11 et 12). Chez la bactérie Lscherichia colt, l’évolution est si rapide que l’éclatement se produit moins de 20 minutes après la première attaque du phage.
- Or, certaines souches bactériennes manifestent une résistance au phage ; elles continuent à vivre et à se reproduire normalement. Cependant il est certain qu’elles contiennent l’ADN du virus, car de temps à autre une bactérie éclate en libérant des particules virales comme cela se produit chez les bactéries sensibles. On a qualifié de « lysogènes » les souches bactériennes qui conservent la faculté de produire du virus infectieux, alors que normalement elles le contiennent dans un état non infectieux, qui est dit « tempéré » ou « masqué ». A l’état tempéré, l’ADN du bactériophage serait intimement incorporé à celui de la bactérie, il ferait partie de son équipement génétique, de son génome, et il se reproduirait alors au même rythme que l’ensemble de l’ADN bactérien. Mais, sous certaines influences qui peuvent rompre cet équilibre, l’ADN phagique reprend son autonomie, il se multiplie alors activement aux dépens de son hôte et c’est ainsi que dans les souches lysogènes on voit des bactéries éclater de temps à autre et libérer des bactériophages. On peut provoquer expérimentalement ce phénomène en soumettant les bactéries aux rayons X ou aux ultraviolets, dont on sait qu’ils peuvent rompre des liaisons dans les acides nucléiques et provoquer des mutations. Des substances comme l’ypérite azotée peuvent aussi rendre la sensibilité à une souche de bactéries lysogènes. On sait que les rayons ionisants et des substances comme l’ypérite ont d’autre part, sur les tissus animaux, des effets cancérigènes.
- On a donné le nom de « prophage » à l’unité d’ADN qui subsiste à l’état latent, ou tempéré, dans le noyau bactérien, mais reste toujours susceptible de se réactiver tout en conférant à la bactérie une immunité passagère à l’égard du virus complet. Et c’est ici que se place un fait important : la présence du prophage peut être liée à certaines modifications des caractères génétiques normaux de la souche bactérienne (Stewart). Il semble que le prophage se comporte comme un gène, ayant une influence sur les gènes voisins, influence qui varierait selon le lieu, le « locus », où il se serait inséré dans l’ADN de l’hôte.
- 479
- p.479 - vue 477/560
-
-
-
- La théorie du provirus
- On aperçoit maintenant quelle analogie peut exister entre le bactériophage et un virus cancérigène comme le polyome. Les plages de destruction produites in vitro par le polyome, les phénomènes inflammatoires et hémorragiques qui apparaissent in vivo, sont peut-être assimilables aux lyses de bactéries dues au bactériophage, tandis que les phénomènes de multiplication cancéreuse des cellules correspondraient à un état tempéré du polyome, où il ne provoquerait plus de lyses et serait incorporé à la structure génétique des cellules d’un tissu. Dans cet état de « provirus », il serait, comme le prophage, assimilable à un gène et capable par conséquent d’influencer la machinerie cellulaire sans la désorganiser. En particulier il aurait une action sur les facteurs d’inhibition de la mitose (division cellulaire). La nature de ces facteurs reste actuellement hypothétique, mais il ne fait pas de doute qu’ils existent et ne peuvent être que sous la dépendance de l’acide nucléique, dont une modification des codes, par la présence d’unités surnuméraires d’ADN viral, serait à l’origine des phénomènes de cancérisation.
- Si l’on réfléchit aux divers processus de l’ontogenèse, à l’évolution embryologique, on voit bien que la multiplication cellulaire doit s’arrêter après l’achèvement de tel ou tel organe. De même, dans la cicatrisation d’une plaie, les cellules épidermiques cessent de se diviser quand la plaie est comblée. L’arrêt des mitoses se produirait donc quand le taux de concentration d’une substance inhibitrice hypothétique, sécrétée par les cellules, deviendrait suffisant. Cette sécrétion pourrait être modifiée dans les cellules dont les chromosomes contiendraient l’ADN viral. Lorsqu’elle ne serait pas modifiée, le virus n’aurait aucune action tumorale. Lorsqu’elle ne serait que diminuée, il pourrait naître une tumeur bénigne, dont la croissance s’arrêterait parce qu’à partir d’une certaine masse cellulaire il se créerait malgré tout une quantité suffisante de substance inhibitrice. Mais si celle-ci ne réussissait pas à atteindre le taux nécessaire, ce serait la tumeur maligne, c’est-à-dire la prolifération sans frein. Le fait que les cellules cancéreuses ont généralement une vie plus courte que la normale, des masses nécrotiques apparaissant souvent dans les tumeurs, pourrait aussi priver ces cellules du temps indispensable à l’élaboration d’agents régulateurs de leur prolifération.
- L’idée d’assimiler le polyome à un provirus, à un gène, dans son aspect inducteur d’une multiplication anarchique des cellules, est soutenue par le fait qu’il est souvent impossible, suivant Habel et Silverberg, de mettre le virus en évidence dans des tumeurs à l’origine desquelles il se trouve pourtant indiscutablement associé. Il n’est donc pas interdit d’imaginer qu’en l’absence de virus décelable, l’ADN viral se trouve incorporé si intimement au matériel génétique de la cellule-hôte qu’il ne serait plus possible de
- Fig. 9 et io. — Attaque d’une bactérie par le bactériophage.
- Les phages, constitués d’une tète claire et d’un pied plus sombre, se fixent par leur pied, surtout sur l’extrémité des bactéries, et y déversent leur contenu d’ADN. Sur la photo d’en haut, on voit aussi une bactérie plus qu’à moitié détruite, avec les « fantômes » (enveloppes de protéine) des phages qui l’ont attaquée et sont restés fixés sur elle ; à l’intérieur, de nouveaux phages complets apparaissent. On remarque que les fantômes, flétris, ont perdu la couleur claire de leur tête.
- (Photos aimablement communiquées par G. Penso, Istituto superiore di Sanità, Rome).
- p.480 - vue 478/560
-
-
-
- Fig. il et 12. — Processus de destruction d’une bactérie par les phages.
- A gauche, évolution des phages à l’intérieur d’une bactérie : sous l’influence de l’ADN phagique se sont constituées des structures nommées « morulas » et « rosettes » par M. Penso, ainsi que de petits cercles blancs (doughnuts) qui sont des phages en formation ; on peut distinguer aussi quelques phages déjà mûrs. A droite, une bactérie a éclaté et a libéré de nombreux phages ; il ne reste plus que les deux extrémités du microbe.
- (Photos Istituto superiore di Sanità, Rome).
- l’extraire des broyats dans un état suffisamment pur et actif. En fait, à l’état de provirus, il ne déclencherait la prolifération cellulaire que par interaction avec l’ensemble des structures génétiques de la cellule. Il ne se retrouverait dans les broyats qu’attaché à des fragments d’ADN de la cellule-hôte et ne serait plus alors capable de donner naissance à des particules virales complètes et autonomes, ayant des capacités infectieuses.
- L’hypothèse du provirus est également soutenue par le fait que les tumeurs, induites originellement par le polyome, peuvent, après avoir été transplantées par greffe, continuer à se développer sans production ultérieure de virus (Habel et Atanasiu). Toutefois, sous l’influence des rayons X ou ultraviolets, les cellules tumorales ne donnent pas lieu à la réapparition du virus complet comme c’est le cas pour les bactéries lysogènes ; leur incorporation à l’ADN cellulaire serait plus stable. Cela tient peut-être au fait que dans le noyau cellulaire des êtres plus évolués, l’ADN forme des ensembles mieux organisés (chromosomes) que dans les bactéries.
- A notre connaissance il n’existe qu’une seule expérience qui semble contredire ce que nous venons de dire. M. Ludwik Gross a fait connaître récemment qu’ayant soumis à l’action des rayons X des souris d’une lignée généralement indemne de leucémie, 60 pour ioo d’entre elles ont développé une leucémie. Des filtrats ayant été préparés à partir de ces animaux leucémiques, ils ont reproduit la leucémie après leur inoculation à des souriceaux nouveau-nés. M. Gross en conclut que les rayons X ont activé un virus qui auparavant était latent et inactif.
- Les observations faites sur le polyome, particulièrement celles qui ont mis en évidence un ADN qui reste infectieux en l’absence de sa protéine spécifique, montrent bien le rôle capital de cet acide nucléique mais on ne peut en tirer la conclusion que le cancer de l’homme, comme celui de la souris, soit dû à un virus. Pour le moment, le microscope électronique n’est pas capable de dire si parmi les nombreuses particules, souvent à la limite de la visibilité, qu’on aperçoit dans les microsomes des cellules cancéreuses humaines, certaines sont virales.
- Virus ou mutation équivalente à un virus
- Pour nous résumer, nous pouvons dire que dans certains cancers animaux l’action d’un virus a pu être mise en évidence mais que souvent ce virus, incorporé à l’ADN
- 481
- p.481 - vue 479/560
-
-
-
- Fig. I). — Analyseur d’acides aminés au Centre Oberling.
- L’appareil est utilisé pour effectuer l’analyse complète des acides aminés d’un hydroîysat de protéines. L’échantillon à analyser est placé à la partie supérieure d’une colonne échangeuse d’ions (amberlite) et les acides aminés sont clués à des vitesses différentes, à l’aide de solutions tampons de pH différents. Les acides aminés ainsi préparés sont envoyés dans un tube en téflon placé dans un bain-marie à ioo° où ils réagissent avec une solution de ninhydrine. Les solutions colorées obtenues passent dans un photocolorimètre et les densités optiques correspondant à l’absorption des colorations sont transmises à un enregistreur sur trois longueurs d’onde différentes. L’interprétation des courbes inscrites permet de déduire le résultat de l’analyse.
- (Photo A. D. P.).
- des cellules cancéreuses, est masqué et non infectieux. Cela autorise à supposer que nombre de cancers, sinon tous, peuvent être déterminés par un virus masqué. Le « démasquage » du virus, par culture sur embryon (cas du polyome) ou par des radiations (souris rendues leucémiques de Gross), sont des faits jusqu’ici exceptionnels. On peut bien admettre que dans le cas général les rayonnements et les corps cancérigènes activent un virus latent sans pour cela le démasquer et le rendre infectieux, mais cette existence préalable d’un virus reste hypothétique. Il peut aussi bien s’agir d’une mutation induite dans un ADN qui était normal, mutation qui revient à faire d’une portion d’ADN cellulaire l’équivalent d’un virus, sans que jamais cet ADN acquière la virulence infectieuse. Mais, quelle que soit l’hypothèse choisie, bien des choses nous échappent encore : en particulier nous ne savons pas pourquoi les doses de
- radiation ou de substance cancérigène ont, dans un temps qui peut être très long, des effets cumulatifs. L’action relativement rapide d’un virus inoculé est facile à comprendre ; tous les autres phénomènes nous restent en grande partie obscurs.
- Toutefois risquons encore une supposition. Nous avons vu que la malignité d’une tumeur pouvait être attribuée hypothétiquement a l’insuffisance d’une substance inhibitrice de la prolifération cellulaire. Si une irradiation a pour effet de modifier l’ADN d’une cellule de façon à interrompre sa sécrétion de substance inhibitrice, celle-ci ne viendra à manquer gravement dans le tissu environnant que lorsqu’un certain nombre de cellules voisines auront subi cette mutation. Ainsi la malignité d’une tumeur serait due à l’abondance de ces cellules déficientes dans un volume donné du tissu, abondance qui augmenterait avec le temps si se continue l’irradiation (ou l’action d’une substance cancérigène).
- Quoi qu’il en soit il s’agit de changements dans l’infrastructure des molécules d’ADN. A cet égard la théorie virale et la théorie mutationniste du cancer se rejoignent.
- *
- * *
- Comment peut-on espérer enrayer les proliférations malignes ? Il faudrait connaître les causes déterminantes du déroulement et de la séparation des deux brins parallèles de la molécule d’acide nucléique, séparation qui semble conditionner la duplication des chromosomes et préluder à la division de la cellule. On peut espérer la découverte de substances chimiques capables d’inhiber cette division de façon plus sélective que ne le font les substances actuellement connues. Ce serait, peut-être, un ADN synthétique qui contrebalancerait en quelque sorte l’ADN perturbateur de la cellule cancéreuse.
- De toute façon, cette recherche ne peut être méthodiquement préparée que par l’étude des ultrastructures cellulaires et particulièrement de leurs acides nucléiques. Partout les chercheurs s’orientent dans cette voie. En France, l’Institut du Cancer (Centre Oberling) possède de nouveaux laboratoires parfaitement organisés et munis des appareils les plus modernes. On peut y voir un remarquable analyseur automatique d’acides aminés (fig. 13). On sait qu’une protéine tient en premier lieu son individualité et ses caractéristiques biologiques des acides aminés qui en font la trame et de l’ordre dans lequel ils se situent au long de la chaîne moléculaire ; les repliements de cette chaîne et sa configuration dans l’espace, en relation avec la présence en divers points de liaisons latérales, ont aussi beaucoup d’importance. Connaissant dans tous ses détails la structure d’une protéine et l’ordre de son édification, il ne serait pas théoriquement impossible de remonter à celle de l’acide nucléique, ADN et ARN, qui a induit sa synthèse. Des travaux ont été commencés dans ce sens, notamment par Tsugita et Frankel-Conrat aux États-Unis sur le virus de la mosaïque du tabac (La Nature, novembre i960, p. 480). En France le Centre Oberling s’est spécialisé dans l’étude des virus sur cultures de tissus et il a abordé celle du polyome (H. L. Febvre, W. Bernhart). Il est outillé pour contribuer efficacement à l’avancement de ces travaux dont on peut espérer qu’ils nous mèneront à une victoire sur le cancer.
- Jacques Fouchet et Paul Ostoya.
- 482
- p.482 - vue 480/560
-
-
-
- L’avion au service de l’Entomologie
- La possibilité du transport d’insectes à longues distances par voie aérienne a depuis longtemps inquiété les entomologistes chargés de la lutte contre les insectes nuisibles. L’emploi de l’avion pour l’étude de ces migrations passives a été tenté pour la première fois aux États-Unis en 1931, par R. B. Coad. Peu après l’entomologiste français Lucien Berland fit à Saint-Cyr un certain nombre de vols dans le but de dresser un tableau très provisoire de la faune qu’on peut rencontrer dans l’atmosphère entre 500 et 2 500 mètres (voir La Nature, 15 octobre 1934). Depuis cette époque ces recherches ont été assez largement poursuivies et l’entomologiste américain Perry A. Glick vient de donner dans le Technical 'Bulletin 1222 de l’Agricultural Research Service le résultat de cinquante-deux vols effectués dans le Sud des États-Unis. Ces vols avaient pour but la recherche des voies de migration de VEmpoasca fabce, cicadelle qui cause d’assez sérieux dégâts dans les états du Nord en s’attaquant aux feuilles de pomme de terre. Ces insectes apparaissent dans le Centre des États-Unis chaque année en avril-mai alors qu’ils se trouvent en Floride dès le mois de mars.
- Les vols de recherche ont été effectués en deux régions assez éloignées ; au Sud à la lisière des états de Louisiane, Arkansas et Mississippi ; au Nord dans l’Illinois à la limite de l’Indiana. L’appareil utilisé ne diffère pas fondamentalement de celui de Berland ; il est cependant un peu perfectionné. Il se compose de deux grands filets disposés de chaque côté de la carlingue, longs de 2 5 pouces (62,5 cm), à ouverture de 40 cm2 environ ; la manœuvre de ces filets, facile de l’intérieur de l’avion, permet de séparer les récoltes suivant l’altitude et le temps de vol. Les prélèvements ont été faits à une altitude bien plus faible que ceux de Berland, entre 200 et 5 000 pieds, soit 60 et 1 500 m. Cela explique en partie le nombre élevé des captures qui atteint 2 528 individus déterminables, appartenant à 202 genres et 123 espèces, dont 3 nouvelles.
- L’examen de ces captures confirme dans l’ensemble ce
- Les dômes de glace de
- La Terre François-Joseph, archipel le plus septentrional de l’U. R. S. S., est presque entièrement recouverte de glaciers, percés çà et là par des rochers de basalte noirs. Dans la plupart des îles, ces glaciers ont l’aspect de dômes de glace. Les dômes, du moins à l’intérieur des îles, ont une forme régulière, elliptique. Leur hauteur varie entre 300 et 500 m au-dessus du niveau de la mer. Ils restent, tous, entièrement recouverts de neige pendant onze mois de l’année. Leur structure, cependant, est loin d’être aussi uniforme que leur aspect, nous apprend la revue soviétique Priroda. Ainsi, la neige se transforme en glace, en l’espace d’une année, au sommet de certains des dômes, alors qu’au sommet d’autres dômes elle se transforme d’abord en névé et seulement ensuite en glace. Une expédition envoyée sur la Terre François-Joseph par l’Institut de Géographie de l’Académie des Sciences de l’U. R. S. S. a pu constater qu’à ces
- que Berland avait déjà pu constater : abondance de petites formes (Hyménoptères, Diptères et Homoptères), absence à peu près complète des Lépidoptères ; donc prédominance des insectes à vol assez faible sur ceux qu’on considère comme de bons voiliers, pouvant peut-être mieux lutter contre les courants ascendants de l’atmosphère.
- Dans les récoltes de P. A. Glick quelques points de détail peuvent être intéressants à préciser. Parmi les animaux en principe incapables de voler, 38 espèces d’araignées ont été capturées, entre 300 et 1 200 m ; mais il n’est pas précisé s’il s’agit d’individus très jeunes (on sait que les toutes jeunes araignées sécrètent un fil, appelé fil de la Vierge, qui donne prise au vent et assure leur dissémination). Les Coléoptères sont représentés par 19 familles et 225 espèces ; des Staphylins ont été pris jusqu’à 1 000 m, des Anobiides à 600 m, des Altises à 300 m, des Cara-biques (Agonurn) jusqu’à 600 m. Parmi les 209 espèces d’Hyménoptères, la masse se compose de petites formes de Braconides, Ichneumonides, Cynipoïdes, intéressantes car beaucoup d’entre elles peuvent être parasites d’insectes nuisibles aux cultures. Les 894 Diptères sont représentés par 25 familles, dont beaucoup de Culicides, Drosophiles, Ephidrides, Chloropides ; le Syrphide Mesograpta mar-ginata a été capturé à plus de 1 000 m. Les Homoptères, avec 272 espèces, sont particulièrement intéressants pour l’Entomologie appliquée ; les pucerons atteignent plus de 1 000 m, ainsi que les Psylles également très nuisibles aux plantes cultivées. Enfin, rappelons que dans cette liste imposante de plus de 2 500 insectes, les Lépidoptères ne comptent que trois espèces.
- En ce qui concerne l’objet principal de cette expérience, la cicadelle recherchée a été trouvée (21 individus) entre 60 et 1 200 m ; antérieurement l’auteur en avait capturé un individu à plus de 2 000 m ; ce résultat semble confirmer la possibilité d’une migration aérienne de ce parasite, partie de la Louisiane vers les états du Centre et du Nord.
- L. C.
- la Terre François-Joseph
- deux types différents de dômes correspondent deux régimes nettement différents en ce qui concerne la température, les propriétés mécaniques, la plasticité et la mobilité de la glace. Deux dômes de glace, situés sur la même île, ont été spécialement étudiés par l’expédition : un dôme de près de 360 m de hauteur, composé uniquement de glace, et un dôme de 450 m de hauteur, à sommet plat, contenant du névé. Bien que la quantité des précipitations atmosphériques soit presque la même, la fonte et l’évaporation sont sensiblement plus intenses sur le premier des deux dômes. A la profondeur de 20 m, la température de la glace est de — 9,5° C dans le premier dôme, mais elle est de — 30 C, à la même profondeur, dans le deuxième dôme. Cette différence apparaît d’autant plus paradoxale que la température annuelle moyenne de l’air ambiant est légèrement supérieure dans le cas du premier dôme.
- 483
- p.483 - vue 481/560
-
-
-
- La première tranche du radiotélescope
- le plus grand du monde
- est entrée en service à Nançay
- par James Lequeux
- La course au gigantisme est une des caractéristiques principales de la Radioastronomie actuelle. Bien que l’on puisse encore obtenir des résultats intéressants avec des instruments de petites dimensions, il est évident que des antennes de plus grande surface capteront davantage d’énergie et permettront d’explorer plus loin encore l’Univers, jusqu’à ses limites observables. C’est ainsi que l’on a vu naître un peu partout des radiotélescopes de 25 m de diamètre, et surtout deux géants : la radiotélescope de 75 m de diamètre de Jodrell Bank, et son frère de Sydney (Australie) dont le diamètre est légèrement inférieur mais dont les performances sont meilleures, et qui est maintenant terminé. D’autres instruments de plus grandes dimensions encore sont en construction aux États-Unis et en U. R. S. S., mais ils semblent encore loin d’être utilisables.
- La France, qui a toujours occupé une des premières places dans le domaine de la Radioastronomie, se devait de ne pas rester en arrière dans ce courant. C’est pourquoi fut conçu il y a quelques années déjà le projet d’un radiotélescope qui serait, lors de son achèvement, le plus grand du monde. Inutile d’ajouter qu’un projet aussi ambitieux ne peut être mené à bien que s’il est suffisamment économique, notre pays ne pouvant consacrer à la recherche radioastronomique des centaines de millions de dollars comme le font les États-Unis. Il était alors impossible de construire un instrument orientable en tous sens comme celui de Jodrell Bank, par exemple. Pour pouvoir être utilisé avec fruit sur la longueur d’onde de 21 cm, celle de la raie de l’hydrogène neutre dont on
- sait l’importance en astrophysique, un miroir de radiotélescope ne doit s’écarter d’un paraboloïde idéal que de quelques centimètres environ, et ceci quelle que soit sa position dans l’espace, malgré les déformations dues à son propre poids et au vent.
- Dans ces conditions, on peut prévoir que le coût de l’instrument croît plus vite que la puissance quatrième de son diamètre : ainsi, un miroir de 100 m de diamètre, analogue par ailleurs à celui de Jodrell Bank, coûterait plus de trois fois plus cher, soit plus de 40 millions de nouveaux francs.
- Deux miroirs qui se font face
- La solution qui a été adoptée pour le radiotélescope actuellement en construction à Nançay (Cher) est toute différente. Elle est inspirée, avec quelques modifications, d’un système qui a été proposé et réalisé par J. D. Kraus à l’Ohio State University (États-Unis) ; il a pour lui l’avantage d’une grande simplicité, qui permet de construire à peu de frais une vaste surface collectrice. L’instrument de Nançay, dont une première tranche vient d’entrer en fonctionnement, est constitué de deux miroirs qui se font
- Fig. 1. — Schéma de la marche des rayons radioélectriques dans le grand radiotélescope de Nançay.
- Les rayons aboutissent, près de la « cabane de commande », à un petit miroir et sont concentrés dans un cornet central au fond duquel se trouve l’antenne réceptrice.
- 100 mètres
- 484
- p.484 - vue 482/560
-
-
-
- Fig, 2, — Maquette de l’état définitif du grand radiotélescope de Nançay (Cher), tel qu’il sera dans deux ans.
- A droite, le miroir plan mobile autour d’un axe horizontal ; à gauche, le miroir sphérique fixe.
- (Dessin de P. Mantes, architecte D. P. L. G.).
- face (fig. 2). Le premier, situé au nord du terrain, est pian et mobile autour d’un axe horizontal. Il renvoie horizontalement le rayonnement qu’il reçoit du ciel sur le miroir sud, qui est fixe et de forme sphérique. Celui-ci concentre l’énergie en son foyer, qui est situé entre les deux miroirs (fig. 1). C’est donc un instrument méridien, et l’on doit attendre le passage de la région étudiée dans le plan du méridien local pour pouvoir faire l’observation ; d’autre part, on explore les différentes déclinaisons du ciel en faisant varier l’inclinaison du miroir plan.
- Dans ses dimensions définitives, le miroir plan comprendra dix panneaux mobiles indépendants, de 20 m de large et de 40 m de haut ; sa largeur totale sera donc de 200 m. Ce miroir concave, placé à 460 m du miroir plan, sera une tranche de sphère de 300 m de largeur pour 35 m de hauteur, et de 560 m de rayon. Il sera constitué de panneaux de 10 m de large. Le radiotélescope aura donc une surface utile de 7 000 mètres carrés, soit 1,55 fois plus que le miroir de Jodrell Bank : et ceci pour le prix de revient très nettement inférieur d’environ 7 ou 8 millions de nouveaux francs.
- Les deux parties seront recouvertes d’un grillage métallique étamé dont les mailles carrées ont 12,5 mm de côté ; ce grillage est un réflecteur excellent pour les ondes radioélectriques aussi courtes qu’une dizaine de centimètres.
- Certains de nos lecteurs se demandent sans doute pourquoi la surface du miroir plan est sphérique, et non pas une fraction de paraboloïde : cette dernière forme semblerait pourtant très avantageuse, car elle donne en son foyer des images parfaites, en radio comme en optique (il y a stigmatisme rigoureux). Cependant, dès que l’on s’écarte de l’axe du paraboloïde, les images deviennent très rapidement mauvaises et entachées de coma : le champ utile de l’instrument est très réduit et l’on est obligé d’observer au voisinage immédiat de l’axe. Un miroir sphérique donne des résultats très différents : si les images ne sont nulle part parfaites, car elles sont affectées par l’aberration de
- sphéricité, elles sont de qualité égale dans un champ extrêmement étendu, et l’on peut observer très loin de l’axe. L’aberration de sphéricité est d’ailleurs réduite si l’on diaphragme l’instrument au centre de courbure du miroir sphérique. C’est ce montage, équivalent en gros à celui de la chambre de Schmidt en optique (x), qui est utilisé à Nançay : le miroir plan, qui n’aura que 200 m de large contre 300 pour le miroir sphérique, constitue donc le diaphragme. Les radioastronomes ont par surcroît sur les astronomes classiques un avantage non négligeable ; comme les phénomènes de diffraction sont très importants dans les radiotélescopes dont les dimensions sont toujours faibles en regard de la longueur d’onde, ils masquent toujours les aberrations tant que celles-ci ne sont pas énormes ; raison de plus pour utiliser un miroir sphérique malgré l’aberration de sphéricité qu’il produit.
- Pour la poursuite de l’image : une antenne sur voie ferrée
- Ainsi, le champ du radiotélescope de Nançay est d’environ 15 degrés dans le sens horizontal ; il est donc possible de disposer au voisinage du foyer plusieurs antennes réceptrices qui permettent d’opérer simultanément sur plusieurs longueurs d’onde différentes. Mieux encore, on peut suivre l’image d’une radiosource au cours de son mouvement diurne par un déplacement approprié de l’antenne focale, le reste du radiotélescope restant fixe. Il est donc possible d’observer une même source sur 7 degrés 1/2 de part et d’autre du plan méridien, c’est-à-dire pendant une heure.
- Recueillir de l’énergie pendant un temps aussi long, au lieu des 14 secondes que mettrait la source pour traverser le diagramme de réception de l’antenne si tout restait immobile, revient à augmenter la sensibilité de l’appareil par un facteur 16 environ. Ainsi, non seulement le radiotélescope de Nançay sera le plus grand du monde, mais on pourra éventuellement bénéficier de sa surface réceptrice pendant une heure sur une radiosource donnée, ce qui lui donnera une sensibilité énorme.
- 1. Voir : La chambre photographique de Schmidt, par James Lequeux, ~La Nature, septembre 1957, p. 337-344.
- 485
- p.485 - vue 483/560
-
-
-
- Fig. 3. — Le miroir sphérique fixe du radiotélescope de Nançay. Quoique le rayon de la sphère soit de 560 m, la courbure de la surface est nettement visible. La surface est recouverte d’un fin grillage réflecteur soudé.
- (Photo Observatoire de Meudon).
- Le mouvement de poursuite de l’image de la radiosource au foyer se fera simplement en déplaçant l’antenne réceptrice sur une voie ferrée courbe (pour suivre la forme de la surface focale) de 60 m de longueur, au moyen d’un moteur fournissant un mouvement synchrone à celui de la radio-source. L’antenne réceptrice elle-même sera en forme de cornet de faibles dimensions (30 cm de large sur 150 cm de haut environ, si l’on opère sur 21 cm de longueur d’onde).
- Le pouvoir de résolution du radiotélescope sur 21 cm de longueur d’onde vaudra 3',5 dans le sens horizontal contre seulement 20' dans le sens vertical, la hauteur des miroirs étant beaucoup plus faible que leur largeur. Ce grand pouvoir séparateur dans le sens est-ouest ouvrira aux observateurs des possibilités entièrement nouvelles.
- L’instrument que nous venons de décrire ne sera terminé que dans deux ans. Cependant, une première tranche qui représente le cinquième du radiotélescope futur a été terminée en mars dernier et est actuellement en fonctionnement. Le miroir sphérique (fig. 3) atteint déjà les dimensions respectables de 60 m de large sur 35 m de haut, tandis que le miroir plan (fig. 4) comporte deux éléments de 20 m de large sur 40 m de haut chacun ; c’est une des plus grandes surfaces planes mobiles qu’il soit donné de voir.
- M. Parise, ingénieur à l’Observatoire de Meudon, a assumé la responsabilité de la réalisation de cet ensemble dont l’étude et la construction ont été menées à bien par la Compagnie Française d’Entreprises. Les difficultés qu’il
- Fig. 4. — Le miroir plan mobile du radiotélescope de Nançay.
- Le miroir est constitué de deux éléments indépendants, mobiles autour d’un axe horizontal. Le mouvement se fait au moyen de moteurs électriques qui attaquent une chaîne solidaire du grand secteur circulaire que l’on aperçoit derrière le miroir. Le repérage de la position est transmis à la cabane de commande. Remarquer l’anémomètre en haut du pylône ouest, à gauche de la figure : lorsque le vent devient trop fort, l’anémomètre déclenche automatiquement le mouvement des miroirs vers la position horizontale, même en l’absence de courant électrique, afin d’assurer leur protection contre les tempêtes souvent violentes à Nançay.
- (Photo Observatoire de Meudon).
- p.486 - vue 484/560
-
-
-
- Fig. j. — Le dispositif focal en cours de montage.
- Ce miroir recueille le rayonnement qui provient du miroir sphérique et le concentre dans le cornet visible au premier plan, au fond duquel se trouve l’antenne dipôle. Les premiers étages du récepteur sont contenus dans l’enceinte de forme cylindrique solidaire du cornet.
- a fallu surmonter ont été nombreuses ; la moindre n’a pas été d’implanter dans un sol sableux et humide à io m de profondeur les 38 poteaux de béton sur lesquels repose la charpente. Mais la difficulté la plus sérieuse, qui est exceptionnelle en construction métallique, est de construire d’aussi grandes surfaces avec des tolérances qui ne dépassent pas un centimètre. Il semble que les résultats obtenus répondent aux espérances et le miroir sera encore bon vers xo cm de longueur d’onde. Malgré tout, l’ensemble est d’une étonnante légèreté, qui n’apparaît malheureusement pas bien sur les photographies.
- Au foyer se trouve actuellement un petit miroir (fig. 5) qui sert à collecter les ondes provenant du miroir sphérique et qui sont réparties sur 21 cm de longueur d’onde dans un diamètre de 4 m environ (celui de la tache de diffraction). Ces ondes sont concentrées dans un cornet central au fond duquel se trouve une petite antenne de 10 cm de longueur, invisible sur notre cliché : c’est sur elle qu’arrive toute l’énergie captée par les 1 400 m2 de surface du miroir (2).
- 2. Cette énergie reste extraordinairement faible : on peut estimer que l’énergie totale des ondes radioélectriques captées depuis 20 ans par les radioastronomes en provenance du ciel (Soleil exclu) est de l’ordre de quelques ergs (1 erg = io~7 joule). Ce sont des ergs bien utilisés !
- Ce dispositif peut être remplacé par un autre similaire pour la longueur d’onde de 13 cm.
- Un champ immense d’explotation : les galaxies extérieures
- Le radiotélescope existant, malgré ses dimensions encore modestes, peut rendre de très grands services ; il permet notamment des mesures de position précises et l’étude détaillée de certaines régions compliquées de la Galaxie (région d’Orion, du Cygne, du Centre galactique). Mais il est surtout l’objet de nombreux tests qui permettront d’en connaître l’efficacité, et éventuellement de modifier légèrement en conséquence le projet initial. Ces tests ont donné jusqu’ici des résultats satisfaisants (fig. 6) et l’on peut espérer que le radiotélescope complet sera mis en service à la date prévue, c’est-à-dire dans deux ans. Aussi s’active-t-on déjà, à l’Observatoire de Meudon, à préparer, sous la direction de J.-F. Denisse, les récepteurs qui seront utilisés avec l’instrument définitif, et à échafauder des projets d’observations. Le radiotélescope sera utilisé principalement pour trois catégories d’études :
- i° On établira des catalogues de radiosources sur différentes fréquences, avec des mesures de position très précises ; on peut s’attendre à observer près de 100 000 radiosources sur ondes décimétriques, alors que l’on en connaît actuellement moins de 2 000.
- p.487 - vue 485/560
-
-
-
- . Lune : 1/5/61 X =21,1 cm ;
- ' ' ^ ^ * 1
- 2° Le grand radiotélescope sera utilisé avec une autre antenne mobile de faibles dimensions pour réaliser un interféromètre à très grand pouvoir de résolution, susceptible de mesurer le diamètre de très nombreuses radio-sources même s’il est plus petit que la seconde d’arc.
- 3° Enfin et surtout, il est très bien adapté à l’étude de la raie 21 cm de l’hydrogène neutre dans les galaxies
- Fig. 6. — Enregistrement du passage de la Lune sur la longueur d’onde 21 cm, le icr mai 1961.
- Cet enregistrement donne une idée de la qualité du miroir. La lune rayonne en radio comme un corps noir à 2500 K environ. Remarquer les fluctuations du bruit du récepteur et les marques du temps.
- extérieures. C’est un nouveau chapitre de l’astronomie qui s’ouvre car la mesure de la fréquence de cette raie en différents points d’une galaxie permet d’étudier sa rotation autour de son centre, pour laquelle les mesures optiques ne donnent guère de bons résultats. On connaîtra aussi le contenu des galaxies en matière interstellaire, ce qui permettra peut-être de déterminer leur âge. Il y a là un immense champ d’exploration pour l’instrument de Nançay, qui pourra étudier en détail plusieurs dizaines de galaxies et déceler la présence d’hydrogène neutre dans plusieurs centaines d’autres ; à l’heure actuelle, la raie 21 cm n’a pu être observée que dans une dizaine de galaxies, et il n’y a que peu d’espoir de faire beaucoup mieux avec le miroir hollandais de 25 m qui a été utilisé à cet effet.
- Les radioastronomes de Nançay vont donc se trouver en contact permanent avec les grands problèmes cosmogoniques, qu’ils n’ont guère eu l’occasion d’effleurer jusqu’ici comme leurs collègues anglais ou australiens (ce sont les observations solaires qui ont constitué jusqu’ici l’essentiel du travail des chercheurs français). S’il est confirmé que l’on détecte déjà des radiosources situées presque aux confins de l’Univers observable (ce qui est, à notre avis, hautement probable), un instrument aussi puissant que celui de Nançay observera principalement des sources pour lesquelles les effets cosmogoniques liés à la structure de l’Univers (rougissement, modifications du diamètre apparent et du flux, âge très reculé) seront prépondérants.
- Nous sommes donc en droit d’espérer que l’étude de ces effets, qui sont jusqu’ici incertains et controversés, apportera une contribution vraiment fondamentale à notre connaissance de la nature de l’Univers.
- James Lequeux,
- Service de Radioastronomie, Observatoire de Paris-Meudon.
- Projets de liaisons fluviales
- Le plan de liaison fluviale Rhône-Rhin est à l’origine de critiques de la part des régions laissées à l’écart. Bordeaux et Toulouse notamment se jugent défavorisés par leur situation géographique au sein de l’Europe des Six. De là une réaction qui s’est traduite par la mise sur pied d’un projet de liaison Bordeaux-Méditerranée, reprenant l’ancien Canal du Midi creusé au xvne siècle par le fameux ingénieur Riquet et le portant du gabarit de 150 tonnes à celui de 350 tonnes. Coût des travaux : 220 millions NF, en face des 3 milliards NF exigés par la liaison Rhône-Rhin. Mais le gabarit de 350 t demeure en soi très faible face aux chalands de 1 500 t qui naviguent sur le Rhin. Les canaux belges sont actuellement modernisés au gabarit de 1 350 t par exemple, de même que la voie Dunkerque-Douai. Bref, la question reste entière, d’autant que Nantes à son tour réclame un aménagement de la Loire.
- Contre les vers intestinaux du bétail
- D’après une information du Service de presse de l’Ambassade de Grande-Bretagne, les Impérial Chemical Industries viennent de mettre au point un nouveau médicament qui s’est montré très efficace contre les vers intestinaux du bétail, sans donner lieu à des effets secondaires indésirables.
- Le produit, baptisé « Promintic », est administré par injections sous-cutanées ; la dose dépend du poids de l’animal traité. Elle est en moyenne de 5 cm3 pour un agneau, de 10 cm3 pour un mouton et de 30 cm3 pour les veaux d’un an. Une variété administrable par voie orale est en cours d’étude. Le produit agit sur les vers à tous les degrés de leur croissance, y compris les larves, d’où élimination du danger d’une seconde infection quand celles-ci atteignent leur maturité. Le Promintic est rapidement éliminé par l’organisme et, 24 heures après, on n’en retrouve aucune trace dans le lait ou dans la viande.
- 488
- p.488 - vue 486/560
-
-
-
- La nécessaire unité des Sciences humaines réclame des notions et un langage communs
- par Jean-Claude Filloux
- UN important ouvrage récemment paru Q) doit appeler l’attention sur le danger d’émiettement qui menace aujourd’hui les sciences humaines et sur la nécessité de leur constituer des bases de pensée communes et un langage commun.
- Un souci scientifique s’est heureusement affirmé dans leurs disciplines. Depuis un peu plus d’un quart de siècle des méthodes toujours plus rigoureuses permettent de « mettre en équations » le comportement humain, tant sous ses aspects individuels que sous ses aspects collectifs.
- Expériences de laboratoire ou « sur le terrain », observations systématiques et enquêtes, contrôles statistiques ont pour but de démêler l’écheveau compliqué des effets et des causes, de manière à parvenir à la fois à une explication et à une compréhension de nos façons de sentir, de percevoir, de penser et d’agir. En même temps que s’affinent les méthodes, tout un corps de théories et de modèles interprétatifs est progressivement élaboré. La théorie génétique de l’évolution enfantine de Piaget, la théorie du fonctionnement des groupes de Lewin, la théorie des paliers sociaux de Gurvitch, la théorie des structures en ethnologie de Lévi-Strauss en sont d’excellents exemples, pour nous en tenir aux domaines explorés par la psychologie, la psychologie sociale, la sociologie et l’ethnologie. Une telle liste est d’ailleurs loin d’être limitative : l’économie politique, la géographie humaine, la démographie, sans compter l’histoire font désormais partie de l’ensemble formé par les « sciences humaines ».
- Mais d’autre part, au sein de chacune de ces sciences, des éclatements se produisent. Ils sont souvent à l’origine de la constitution d’un nouveau niveau d’investigation qui prend rapidement une sorte d’autonomie. Ainsi la sociologie religieuse, la sociologie de la connaissance forment de plus en plus des rameaux distincts dans le cadre de la « sociologie générale » ; l’étude du fonctionnement des groupes restreints (dynamique des groupes, etc.) devient un domaine particulier dans le cadre de la « psychologie sociale ». Un véritable pluralisme scientifique est ainsi observable dans le développement des sciences humaines.
- Un des aspects particulièrement inquiétants d’un tel pluralisme se situe au niveau des notions utilisées par telle ou telle science de l’Homme. Toute science se trouve en présence d’un problème de terminologie : les termes, les concepts employés pour désigner et traiter méthodiquement les phénomènes étudiés doivent être soigneusement
- i. L’Unité des sciences humaines, par Guy Palmade. i vol. 16 X 25, 358 p., 20 fig. Collection Organisation et Sciences humaines, Dunod, Paris, 1961. Prix, relié toile : 39 NF.
- élaborés ; leur sens doit être clair, de façon à permettre une communication totale entre les divers chercheurs. Il n’est qu’ouvrir la collection de lut Nature et lire avec soin les articles consacrés à la physique ou à la biologie pour s’apercevoir du grand nombre de concepts techniques (inconnus du Petit Larousse Illustré') qui sont nécessaires pour « parler » des phénomènes physiques ou biologiques, et que le profane lui-même doit s’assimiler s’il veut pénétrer, même superficiellement, dans le secret d’une réalité qui se situe souvent sur un autre « plan » que celui du sens commun. Les sciences de l’Homme sont dans la même situation : elles doivent constituer et utiliser un langage scientifique qui, d’une part, permette l’expression interprétative des faits observés et, d’autre part, autorise la formulation de lois reliant entre eux des éléments clairement conceptualisés.
- *
- * *
- Pas plus que le physicien ne se contente de dire que « les pierres tombent », le psychologue ne se contentera, par exemple, d’affirmer que « cet animal mange parce qu’il a faim » : s’il utilise à ce propos des concepts tels que ceux de motivation, d’induction, de conduite, en parlant d’une « conduite induite par une motivation », c’est parce qu’ainsi une certaine généralisation est possible, que les concepts utilisés renvoient eux-mêmes à d’autres notions qui leur donnent un sens exact et, finalement, permettent l’élaboration de modèles de comportement à fondement systématique. Ainsi, parmi les motivations, certaines renvoient à une « privation », d’autres à une « frustration » : il n’est pas indifférent d’utiliser l’un ou l’autre de ces termes quand on veut interpréter le comportement d’un individu motivé, dans la mesure, par exemple, où la frustration seule est inductrice de comportements d’agression. Qu’il me soit permis, en passant, de relever la versatilité du profane qui accepte fort bien de s’initier au langage du physicien, du biologiste, du naturaliste, comprend fort bien que le médecin ait son langage à lui, mais s’indigne facilement lorsque le psychologue ou le psychosociologue prétend dépasser le langage vulgaire, ou simplement donner un sens précis à un mot hérité du Larousse.
- Pour un pluralisme cohérent
- Quoi qu’il en soit, il est clair que les sciences humaines ont besoin de concepts scientifiques. Mais, précisément, le pluralisme des spécialités qu’elles développent s’accompagne d’un pluralisme des notions qui n’est pas sans poser
- 489
- p.489 - vue 487/560
-
-
-
- de problèmes. Il n’est pas rare qu’au sein d’une même science (ainsi en psychologie) des théories différentes s’accompagnent de terminologies différentes. La psychanalyse a son corps de concepts (refoulement, transfert, sublimation, etc.) ; Piaget 'donne un sens précis aux notions d’assimilation, accommodation, opération, etc. Nous savons qu’en psychologie des groupes, Lewin, Moreno et les praticiens de la psychothérapie de groupe ne parlent pas exactement le même langage. Quant aux disciplines mères (psychologie, sociologie, ethnologie, économie politique), chacune d’elles paraît ignorer la terminologie des autres. S’il arrive qu’un même terme soit utilisé par l’une et par une autre, c’est souvent pour désigner des réalités qui n’ont qu’une lointaine analogie. L’ethnologue sait-il toujours exactement ce que le psychologue entend par « personnalité » quand il utilise cette notion pour interpréter le psychisme de tel ou tel primitif ? Le psychologue sait-il bien ce que l’ethnologue entend par « culture » quand ce dernier parle de « modèles culturels » comme typiques d’une société donnée ?
- Il est évident qu’une telle situation est dangereuse. L’homme étant une réalité « totale » dont les diverses sciences humaines ne sont en somme que des perspectives partielles prises sur elle, une cohérence de ces sciences est nécessaire, au moins au niveau de leurs systèmes de référence notionnels.
- Constituer un appareil conceptuel tel que chaque concept soit trans-spêcifique (c’est-à-dire puisse s’appliquer en dehors de toute spécificité propre à une science humaine particulière), c’est là une tâche fondamentale à laquelle doivent s’atteler ensemble psychologues, psychosociologues, sociologues, ethnologues, économistes, etc., si l’on veut que les sciences humaines présentent ce pluralisme cohérent nécessaire à leur progression. Bien entendu, il s’agit d’une tâche ardue, qui a tenté jusqu’à présent peu de gens. Je signalerai cependant l’effort de l’anthropologue américain Ralph Linton qui, en 1945, se posait explicitement le problème de l’établissement d’une terminologie commune au psychologue, au sociologue et à l’ethnologue (2). Je citerai aussi le travail de R. G. Grinker qui en 1951 se proposait d’édifier une Théorie unifiée du comportement humain (3). Mais il me semble que l’effort le plus important dans ce domaine est le récent ouvrage de Guy Palmade, U unité des sciences humaines, car son objet est très exactement de formuler un appareil conceptuel qui puisse être utilisé à la fois par les représentants des diverses sciences humaines.
- Quelques notions-clefs
- Partant d’une étude serrée des notions employées par le psychotechnicien, qui peuvent parfaitement être réduites à quelques notions-clefs, Guy Palmade démontre que ces notions-clefs permettent fort bien d’interpréter des phénomènes humains qui dépassent largement le champ de la psychologie appliquée, et qui sont par ailleurs étudiés par la psychanalyse, la psychologie sociale, la sociologie (notamment la sociologie du travail et la sociologie juridique), les sciences économiques enfin. Je me bornerai ici
- 2. Voir ma préface à l’important ouvrage de Ralph Linton, Le fondement culturel de la personnalité. Monographies Dunod, 1959.
- 3. Totrard a tmified thenry of hurnan Behavior, par R. G. Grinker. Basic Books.
- à définir rapidement les concepts fondamentaux qui nous sont proposés. Ce sont essentiellement les concepts d’opération, de conduite, T information, de caractérisation, <T induction, de complémentarité.
- Une opération est une transformation bien définie, impliquant pour se développer un « opérateur » : un animal qui contourne un obstacle effectue une opération de détour parce qu’il possède un opérateur de détour ; les outils et les machines, les règles du Droit, sont des opérateurs sociaux qui permettent certaines opérations sociales.
- Un ensemble organisé d’opérations constitue une conduite, et l’on pourra parler aussi bien de conduites individuelles (l’individu qui « se conduit ») que de conduites sociales (morales, juridiques, etc.). Palmade semble attribuer une importance particulière aux « conduites institutionnelles », notamment à celles qui président à l’éducation des enfants.
- Une information se définit comme ce qui permet la sélection d’une opération (les « stimulus » de la psychologie expérimentale traditionnelle sont des informations, au même titre que les modèles idéaux qui font agir et réagir les masses).
- La caractérisation est l’acte par lequel un sens est donné, une caractéristique est conférée. Notre « inconscient » est ce que nous ne connaissons pas, ne « caractérisons » pas ; et, dans la mesure où la société se connaît par certains ressorts qui la font « se conduire », où elle manque de lucidité vis-à-vis d’eux, on peut parler d’inconscient collectif, de « non-caractérisé » au niveau social.
- On parle ôlinduction quand une conduite tend à en produire une autre : mon agressivité produit la haine (conduite d’autrui) et des sentiments de culpabilité (conduite induite par ma propre conduite).
- Enfin, quand une conduite induite induit elle-même la conduite inductrice, une complémentarité s’établit, et cette complémentarité est observable au niveau individuel comme au niveau des interactions sociales.
- Palmade pense donc que de tels concepts (je n’ai cité que les principaux), du fait même qu’ils doivent permettre un langage commun aux divers savants ès sciences humaines, plaident en faveur de la possibilité d’une unité structurale de ces sciences. L’ethnologue comme l’économiste devraient être à même d’exprimer les faits qui sont l’objet de leurs investigations en termes de conduites, en état de complémentarité, de caractérisation, d’information, etc. Dans la mesure où ces concepts (le lecteur l’aura remarqué certainement) semblent susceptibles de définitions claires, il est certain qu’ils contribueront, s’ils sont employés systématiquement, à résoudre en grande partie les difficultés terminologiques que nous avons signalées. On regrettera seulement que l’histoire soit un peu oubliée. Mais, après tout, l’histoire des sociétés n’est peut-être qu’un cas particulier de la sociologie (de même que l’histoire de la personnalité est un cas particulier de la psychologie). Je terminerai enfin ces réflexions en disant qu’on trouve dans le livre de Guy Palmade nombre de références aux progrès les plus récents des sciences humaines qui, en elles-mêmes, sont une nourriture excellente pour tous les esprits curieux de l’évolution générale des idées en ce qui concerne l’homme. Et l’homme ne doit-il pas être l’objet de la plus totale élucidation, s’il ne veut pas être la victime des techniques matérielles qu’il a inventées ?
- Jean-Claude Filloux.
- 490
- p.490 - vue 488/560
-
-
-
- Expansion démographique explosive aux Pays-Bas
- Les Pays-Bas sont le théâtre d’une poussée démographique d’une ampleur exceptionnelle et dont on ne Connaît pas d’autre exemple en Europe occidentale. Ce phénomène pose des problèmes d’autant plus difficiles qu’il se déroule sur un territoire peu étendu.
- La population actuelle dépasse 11,5 millions d’habitants, contre environ 5 millions au début du siècle. Tenant compte du taux annuel d’accroissement, il est à prévoir que la population atteindra 14 millions en 1980 et pourrait excéder 18 millions aux abords de l’an 2000.
- Cette progression se traduit par une densité nationale qui représente également un record européen, le chiffre actuel étant 352 habitants au kilomètre carré. Mais l’inflation démographique néerlandaise n’est en aucune façon uniforme et ce sont les inégalités régionales qui, à la fois, sont inquiétantes dans le présent et permettent d’entrevoir des solutions pour l’avenir.
- La plus importante concentration se localise en effet dans l’Ouest du pays, jalonné par un chapelet de villes, très peu distantes les unes des autres : Utrecht, Amsterdam, Haarlem, Leyde, La Haye, Delft, Rotterdam. Ces villes tendent à s’amalgamer, à la faveur du développement constant de leurs zones suburbaines. En conséquence, la densité de population dépasse uniformément 700 habitants au km2. Cette région surpeuplée et déjà congestionnée est désignée sous le nom de 'Kandstadt Holland. Malheureusement, selon un processus bien connu, elle constitue un pôle d’attraction pour les habitants des autres provinces.
- Certaines de ces provinces, parmi lesquelles, au nord, celles de Dreathe et de Frise et, au sud-ouest, le delta zélandais, ont une densité bien moindre, avec (respectivement) iooài5oeti5oà 200 habitants au km2. Il y a donc des espaces disponibles auxquels vont s’ajouter peu à peu les polders résultant de l’assèchement de l’ex-Zuyderzée.
- Cette inégale répartition de la population imposerait d’inverser le courant actuel et de rétablir l’équilibre par un aménagement judicieux du territoire. Il semble qu’un mouvement spontané tend déjà à se produire en direction du sud-est. Ailleurs, il devra résulter de mesures législatives, par lesquelles le gouvernement néerlandais s’efforcera de décongestionner le Randstadt Holland, sans toutefois rompre avec la doctrine libérale qui est sienne.
- On conçoit l’extrême difficulté de ce problème, dont les articulations sont multiples : préserver les terrains de culture, tout en augmentant leur rendement déjà très élevé, favoriser l’implantation des industries dans les zones dites de développement, définir le tracé le plus économique des voies de communications déjà fort nombreuses, préserver les quelques sites naturels qui existent encore (notamment dans le centre du pays), préserver également les espaces verts et les terrains de récréation au cœur même du Randstadt.
- C’est à ce prix que pourra être contenue, dans l’étroitesse de leurs frontières, l’expansion explosive qui caractérise les Pays-Bas.
- G. C.
- Le sel, matériau de construction... en Chine
- A 120 km de la ville de Sinin, en Chine centrale, se trouve un énorme lac salé, le lac Koukounor, qui couvre environ 4 000 km2 et dont la longueur est, approximativement, de 105 km. Deux particularités de ce lac sont sa haute altitude (3 200 m) et sa richesse en sel. Son exploitation a été entreprise sur une grande échelle, il y a quelques années. Un fait curieux, signalé par la revue soviétique Priroda, est l’utilisation du sel, par les riverains du lac, pour la construction de différents bâtiments. Ainsi des hangars, des dépôts et même une usine ont été construits en briques de sel, les toits ayant été réalisés de façon à protéger les murs contre la pluie, d’ailleurs très rare dans cette partie de la Chine. Mais ce qui est encore plus remarquable
- Télescope solaire géant en
- La construction d’un des plus grands télescopes solaires du monde vient de commencer à l’observatoire de Kitt Peak, à Tucson (Arizona), nous apprend une information du Centre culturel américain.
- A cet effet, un tunnel d’environ 1x5 m de long et de 4,3 m de diamètre est creusé sous un angle d’environ 32 degrés par rapport à l’horizontale, au sommet de Kitt Peak, montagne située à quelque 64 km de Tucson. A proximité s’élèvera une tour d’acier et de béton sur laquelle reposera un miroir actionné
- peut-être, c’est un véritable « pont de sel » qui relie deux des rives du lac et que suit la grande route conduisant au Tibet. Ce « pont », qui mérite plutôt le nom de digue, est long de 32 km et large de 8 à 10 m. Voici comment il a été construit : une bande étroite de la surface du lac fut « arrosée », au cours de plusieurs saisons où cette partie du lac était asséchée, d’une solution saline de très haute concentration ; chaque « arrosage » laissait, après évaporation, une couche mince de sel sur toute la longueur de la bande. L’épaisseur de la digue ainsi formée atteignit finalement 0,6 m, ce qui fut jugé suffisant pour assurer la solidité de l’ouvrage. De très nombreux camions chargés empruntent ce pont de sel sans s’exposer au moindre danger.
- construction dans F Arizona
- par un moteur. Situé à 33 m au-dessus du sol, l’héliostat suivra le Soleil dans sa course et enverra son image au fond du tunnel creusé dans la montagne. De là, l’image du Soleil sera reflétée sur un autre miroir, qui le projettera dans une salle d’observation souterraine.
- L’image, dont le diamètre sera de 86 cm, pourra alors être photographiée ou étudiée au spectroscope. On pense que le nouveau télescope, dont le coût est de 4 millions de dollars, pourra commencer à fonctionner en 1962.
- 491
- p.491 - vue 489/560
-
-
-
- Les Cloportes fertilisent-ils les terres arides ?
- par Albert Vandel
- Membre de l’Institut.
- Les célèbres observations de Charles Darwin sur les Vers de terre ont attiré l’attention des pédologues sur le rôle joué par les animaux du sol dans l’élaboration de la terre végétale. Si l’intervention des Vers Oligochètes apparaît primordiale en ce domaine, bien d’autres espèces animales exercent des actions de même ordre. Les Iso-podes terrestres (x) représentent des agents extrêmement efficaces dans la transformation des matières végétales en humus (Bornebusch ; Franz ; Kühnelt ; Schaller ; Dudich, Ballogh et Loska, etc.).
- Cependant, les Cloportes étant tenus pour des animaux essentiellement hygrophiles, il était admis jusqu’ici que leur rôle de fabricants d’humus ne pouvait s’exercer que dans les forêts humides.
- Des découvertes récentes ont montré que certains Cloportes jouent, dans les régions arides ou semi-désertiques de l’Asie centrale, un rôle assez analogue à celui qu’assument les Vers de terre en Europe. Cette conclusion découle des observations et des expériences poursuivies par les biologistes russes N. A. Dimo et T. A. Lachtchak, en Turkménie (environs de Kaaka et d’Askhabad ; chaîne du Kopet-Dag) et M. A. Sosnina, en Ouzbékistan (désert de Karnab-Tchoul, entre Boukhara et Samarcande). Les biologistes et les pédologues de l’Europe occidentale sont restés ignorants de ces travaux parus dans des périodiques qui leur sont à peu près inaccessibles (i. 2).
- Grâce à l’aimable intervention du professeur E. V. Bo-routzky, de l’Université d’État de Moscou, il m’a été possible de prendre connaissance de ces publications. Il m’a paru utile de les faire connaître au public scientifique occidental.
- L’espèce qui a principalement retenu l’attention des naturalistes russes est un Hemilepistus^ désigné dans les travaux sus-mentionnés sous les noms de H. cristatus et de H. elegans,
- i. L’ordre des Crustacés Isopodes comprend un sous-ordre dont les représentants mènent une vie terrestre, ce sont les Oniscoïdes ou Cloportes. Le nom de Cloporte est une déformation de « Clausporque » (Clausus parais, porc enfermé), ces animaux ayant été comparés à de petits porcs en plusieurs langues et dialectes. Le mot latin Porcel/io désigne aujourd’hui l’un des genres (famille des Porcellionides). Les Grecs et les Latins les ont aussi comparés à de petits ânes (grec : oniskos ; latin : aselhir), d’où le nom d’un cloporte commun, Qniscus asellus, et le nom du sous-ordre des Oniscoïdes. Sur le rôle des Vers de terre dans le sol, voir La Nature-Science Progrès, octobre 1961, p. 445-446.
- 2. Dimo (N. A.) : Les Cloportes et leur rôle dans la formation des terres dans les déserts. La PédoI'g:e, Moscou, 1945, n° 2.
- Lachtchak (T. A.) : Matériaux relatifs à la biologie du Cloporte désertique, Hemilepistus cristatus B.-L. Bu/l. Acad. Sc. de la R. S. S. de Turkménie, Askhabad, 1952, n° 5, p. 52-57.
- Lachtchak (T. A.) : Les Cloportes du genre Hemilepistus en tant que créateurs de sols. Mém. Sc. Université A. Ai. Gorki de Turkménie, 1954, n° 1, p. 108-118.
- Sosnina (M. A.) : Du nouveau sur les Cloportes du désert de Karnab-Tchoul. Acad. Sc. Agricoles de l'Ouzbékistan, Samarcande, 1959, n° 9, p. 253-262, 6 fig.
- mais qui appartient, en fait, à une espèce propre à ces régions et que E. V. Boroutzky a décrite, en 1955, sous le nom de Hemilepistus uijanini. Il convenait tout d’abord de connaître la biologie de ce Cloporte. Les naturalistes russes s’y sont employés avec activité et nous leur devons des observations du plus grand intérêt. Ce sont elles que nous devons tout d’abord résumer.
- Une active vie de famille dans de profonds terriers
- Le genre Hemilepistus appartient à la sous-famille des Porcellionides quinquetrachéates. Les représentants de ce genre sont caractérisés par la présence de rangées d’énormes épines disposées sur la tête et les premiers segments du corps (fig. 1 et 2). Ces épines résultent du développement exagéré des granulations qui couvrent les téguments de la plupart des Porcellionides. Le genre Hemilepistus est originaire des régions désertiques et steppiques de l’Asie centrale. Quelques espèces de ce genre ont pénétré en Afrique du Nord. Hemilepistus reaumuri (Audouin) est largement répandu dans les régions arides et les déserts de l’Afrique septentrionale ; cependant il ne dépasse point vers l’ouest le méridien d’Alger.
- On savait depuis longtemps que les Hemilepistus passent une partie de leur existence à l’intérieur de profonds terriers creusés dans les sols compacts. Mais le mode de forage demeurait inconnu. Les terriers sont constitués par des puits verticaux qui peuvent atteindre un mètre de profondeur. Des chambres plus vastes sont ménagées à différents niveaux (fig. 3). Les chambres supérieures servent de salles de séjour aux adultes ; d’autres sont utilisées comme magasins de nourriture ou comme dépotoirs d’excréments. Enfin, les salles les plus profondes sont réservées aux larves et aux jeunes.
- Les naturalistes russes ont remarqué que les terriers sont normalement fermés par un « gardien » qui obstrue l’entrée, en ajustant exactement les trois premiers segments du corps garnis d’épines dans l’ouverture du terrier. Il y a longtemps déjà qu’un tel comportement avait été signalé chez Hemilepistus reaumuri. Eugène Simon (3) comparait le « gardien » à la larve de Cicindèle, et l’auteur du présent article (4) à certaines Fourmis corticicoles (Camponotus, Colob-opsis, etc.).
- 3. In Dollfus (Adrien) : Les Isopodes terrestres du Nord de l’Afrique, du Cap Blanc à Tripoli (Maroc, Algérie, Tunisie, Tripolitaine). Mém. Soc. Zool. France, IX, 1896, p. 546.
- 4. Vandel (A.) : Un Cloporte qui se creuse un terrier. Bull. Soc. Zool. France, XLIX, 1924, p. 122.
- 492
- p.492 - vue 490/560
-
-
-
- Fig. I. — Un Cloporte des régions arides, Hemilepistus aphga-nicus, vu de profil.
- Longueur de l’animal : 15 mm.
- {Photo Torossian).
- Le « gardien » s’efface pour laisser passer les membres de la famille ; mais il demeure impavide devant un étranger. Il serait intéressant d’étudier de plus près un comportement aussi étroitement spécifique.
- Les naturalistes russes ont soigneusement observé la façon dont les Hemilepistus creusent leur terrier, car ce comportement est à l’origine des études dont ce Cloporte a été l’objet. Le forage des puits et des chambres exige la remontée des particules de terre arrachées qui doivent être rejetées au dehors, ainsi que les excréments accumulés dans certaines galeries. C’est la première paire de pattes qui sert à transporter ces matériaux jusqu’à l’orifice du terrier. Là, ils ne sont point dispersés au hasard, mais disposés régulièrement, de telle façon qu’ils forment un petit mur circulaire qui entoure l’orifice du terrier. Ce mur atteint ses plus grandes dimensions à l’automne, c’est-à-dire au moment où la population atteint sa plus forte densité.
- Il convient de signaler qu’un comportement analogue se rencontre chez un Isopode appartenant à un tout autre groupe systématique et présentant une écologie toute différente. Le Trichoniscide cavernicole, Scotoniscus macromelos, creuse dans l’argile des grottes des puits de sondage ; et les matériaux extraits sont débités en « moellons » et disposés régulièrement en une muraille circulaire qui entoure le point de creusement (5).
- La répartition des Hemilepistus avait conduit les carcino-logistes à les considérer comme des formes désertiques, ce qui est exact ; et comme des types adaptés à une atmosphère sèche, ce qui est faux. Les observations de Lach-tchak nous permettent d’affirmer que les Hemilepistus sont des formes hygrophiles comme tous les représentants du sous-ordre des Oniscoïdes. En été, dans les régions peuplées de H. cristatus, la température de l’air peut atteindre
- 5, Vandel (A.) : Sur Fécîifîcadon de logettes~de mue et de parturition
- ehcz les Isopodes terrestres troglobies, et sur certains phénomènes de conver- Fig. 2. — Flemilepistus aphganicus, moitié antérieure,
- genec observés dans le comportement des animaux cavernicoles. Compt. Rend. en vue dorsale.
- Ai ad. Sc. Paris, CCXLVIII, 1958, p. 1539. (Photo ToROSsrAN).
- 493
- p.493 - vue 491/560
-
-
-
- Fig. 7. — Coupe dans un terrier d'Hemilepistus.
- i, Chambre occupée par les adultes ; 2, Dépotoir d’excréments ; 3, Magasin our les aliments (saxoul et absinthe) ; 4. « Nurserie » pour les jeunes.
- {D'après M. A. Sosnina).
- 43° C, et celle du sol 68° C, tandis que le degré d’humidité relative tombe à 15 pour 100. Mais, dans les profondes retraites que s’aménagent les Hemilepistus, la température ne dépasse jamais 26° C, « tandis que l’humidité de l’air est proche de la saturation et constante pendant toutes les saisons ». J. L. Cloudsley-Thompson (6) et E. B. Edney (7) ont également constaté que la physiologie d’Hemilepistus naumuri et ses réactions vis-à-vis du milieu ne diffèrent point notablement de celles que l’on observe chez les autres Oniscoïdes.
- Le rythme saisonnier est très net. L’activité débute en mars. C’est probablement à cette époque que se produit l’accouplement. En avril, chaque terrier est occupé par un seul couple. En mai, apparaissent les premières femelles ovi-gères, portant une poche incubatrice remplie d’œufs. Les jeunes Cloportes restent enfermés pendant deux semaines environ dans les chambres qui leur servent de « nurseries ». A ce stade, les épines de la région antérieure du corps ne sont pas encore développées. La transformation des jeunes en adultes exige de deux mois à deux mois et demi.
- Les activités de creusement sont particulièrement intenses en automne afin de préparer les profondes retraites pour l’hiver. Lorsque la température descend au-dessous de
- 6. Cloudsley-Thompson (J. L.) : Studies in diurnal rhythms. — VI. Biocli-matic observations in Tunisia and their significance in relation to the physio-logy of the fauna, especially Woodlice, Centipedes, Scorpions and Beetles. Annals Mag. Nat. Hist., (12), IX, 1956, p. 316.
- 7. Edney (E. B.) : The survival of animais in hot deserts. An inaugural lecture given in the University College of Rhodesia and Nyasaland. Oxford University Press, 1957, p. 26.
- io° C, les Cloportes s’enfoncent en profondeur ; puis ils tombent en léthargie, encore que la température ne semble point descendre, au cours de l’hiver, au-dessous de io° C dans le fond des terriers.
- Le rythme nycthéméral est- également bien marqué, mais il diffère suivant les régions. En Turkménie, pendant la saison chaude de l’année, les périodes d’activité sont brèves ; elles se situent dans la matinée (entre 6 h 30-7 h et 8 h-8 h 30) et dans la soirée (entre 18 h 30-19 h et 20 h 30-21 h). Pendant l’automne, l’activité augmente considérablement et peut s’étendre sur toutes les heures de la journée.
- En Ouzbékistan, le rythme est différent. A la fin de l’hiver, les Cloportes sortent pendant la période la plus chaude de la journée, entre 12 et 15 h. Plus tard (mars-avril), les Hemilepistus remontent à la surface du sol de 8 h du matin au coucher du soleil. Pendant les très fortes chaleurs, les Cloportes s’enfoncent jusqu’à deux mètres de profondeur et tombent en léthargie (estivation). Seuls, quelques individus remontent à la surface du sol après le coucher du soleil. En septembre, par une température de 20-22° C, on les trouve à l’extérieur, entre 8 et 10 h, et entre 16 et 19 h.
- Les Hemilepistus sont essentiellement végétariens. Ils se nourrissent principalement de Salsolacées (Salsola, Ana-bis, Halocharis, Zygophyllum) et d’une absinthe (Artemisia sieberti). Ils grimpent sur les plantes pour ronger la tige et les feuilles. Ils utilisent également les graines comme aliments. Enfin, ils absorbent de la terre que l’on retrouve dans leurs excréments.
- Les Hemilepistus prennent grand soin de leurs jeunes. Tandis que l’un des parents joue le rôle de « gardien », l’autre part en quête de nourriture et apporte aux jeunes, claustrés dans leurs « nurseries » pendant les deux premières semaines de leur existence, les végétaux qui constituent la base de leur nourriture. Les parents s’occupent aussi à nettoyer le terrier.
- Cette vie familiale finit par se transformer en un état subsocial lorsque la seconde génération devient adulte. Alors qu’au printemps chaque terrier ne renferme qu’un seul couple, on compte, à la fin de l’été, de 45 à 53 individus par demeure.
- Un rôle fondamental dans Félaboration des sols
- Les Hemilepistus forment des colonies extrêmement populeuses. On compte, en moyenne, 2-3 terriers par mètre carré, soit environ 23 000 terriers par hectare. Chaque terrier est occupé, avons-nous dit, par 45-53 individus au cours de la période d’été, ce qui conduit à estimer la population d'Hemilepistus qui vivent sur un hectare à 900 000-1 000 000 individus.
- Les mesures effectuées par Lachtchak ont établi qu’un Hemilepistus extrait, chaque jour, de son terrier, 0,0097 g d’excréments et 0,0045 g de terre. Le même auteur estime qu’au cours des trois mois qui correspondent à l’activité maximale de creusement, les Hemilepistus répandent à la surface du sol une tonne et demie par hectare d’excréments et de terre profonde, riche en sels et en gypse. La surface du sol est parsemée, dans les biotopes peuplés d’Hemilepistus, de boulettes de terre imprégnées de débris végétaux, d’aliments non digérés et d’excréments. Ainsi
- 494
- p.494 - vue 492/560
-
-
-
- prend naissance un sol de structure granulaire. L’action exercée par les Hemilepistus est donc fort comparable à celle des Vers de terre dans les régions tempérées et la remplace dans les zones arides.
- Les terriers déterminent, en raison de leur grand nombre et de leur profondeur qui peut atteindre un mètre et plus, l’aération des sols compacts et facilitent par là l’action des bactéries aérobies qui interviennent dans la transformation des sols. Les terrains remaniés par les Cloportes sont bien aérés ; leur structure granulaire leur permet de s’imprégner rapidement d’eau ; ils renferment des sels et des matières organiques ; ils deviennent donc propres à la culture.
- Des grains d’avoine plantés dans des sols remaniés par les Hemilepistus ont germé plus rapidement que les graines déposées dans une terre vierge ; les tiges d’avoine atteignaient une longueur double et les grains pesaient deux fois plus que les lots témoins.
- Lachtchak résume le résultat de ses recherches en affirmant que « les Cloportes du genre Hemilepistus jouent un rôle fondamental au point de vue de l’élaboration des sols dans les zones désertiques et semi-désertiques, où ils remplacent les Vers de terre ».
- Tel est le point de vue du pédologue.
- L’avis des agriculteurs
- Le jugement porté par les agriculteurs est assez différent, ainsi qu’il ressort de la lecture de diverses publications agricoles. A. T. Stojarova et M. G. Kandourova ont établi, à la suite d’observations poursuivies au Sovkhoze de Race, en 1949-1950, que deux Cloportes, Hemilepistus fedtschenkoi et Protracheoniscus maracandicus, commettent de redoutables dégâts dans les cultures de Luzerne. Lorsque la population
- La vitesse des courants du Pacifique
- Dans le cadre des travaux de l’Année géophysique internationale, une expédition soviétique à bord du Vitia% a procédé à une série de mesures de courants aux diverses profondeurs de l’Océan Pacifique. Voici, par exemple, la vitesse des courants, telle qu’elle a été relevée les 21 et 22 août 1958 et que reproduit, sous la forme d’un tableau, le Bulletin d’information publié par le Comité de l’Année géophysique internationale de l’Académie des Sciences de l’U. R. S. S. : à 8 mètres de profondeur, 40,7 centimètres par seconde ; à 100 m, 23,5 cm/s ; à 250 m, 20 cm/s ; à 750 m, 18,8 cm/s ; à 1 500 m, 5,6 cm/s.
- L’étude générale des courants du Pacifique permet de formuler les conclusions suivantes :
- i° L’eau se trouve à l’état de mouvement continu à toutes les profondeurs de l’océan ;
- 20 Les courants varient considérablement avec la profondeur et la situation météorologique ;
- 30 La vitesse des courants dépasse fréquemment 50 cm/s dans les couches superficielles et 25 cm/s aux profondeurs comprises entre 1 000 et 3 000 m ;
- 40 Dans la plupart des régions dominent les courants provoqués par des facteurs liés aux flux et reflux ; le caractère des courants de flux est très loin d’être homogène dans le Pacifique ; dans sa partie nord-est, on observe le plus souvent des courants déterminés par des irrégularités du flux journalier.
- de Cloportes comprend de 20 000 à 60 000 individus à l’hectare, la moitié de la récolte est détruite ; et lorsque ce chiffre s’élève à huit millions, les cultures sont totalement anéanties.
- M. A. Sosnina a constaté des dégâts analogues dans les régions désertiques du Karnab-Tchoul. Les zones forestières, plantées de saxoul noir, comportant une végétation de sous-bois composée d’absinthes et de Salsolacées et poussant sur des terrains sablonneux de couleur grise, constituent un milieu très favorable à la multiplication des Hemilepistus (640 000 individus à l’hectare). Les pâturages établis sur les mêmes sols et constitués principalement d’absinthes et de Salsolacées offrent également de bonnes conditions de vie ; cependant, les Cloportes y sont moins nombreux (360 000 individus à l’hectare). Dans les deux cas, les dégâts occasionnés aux pâturages par les Hemilepistus sont notables. Enfin, les Hemilepistus constituent de redoutables destructeurs de semis, en particulier de plantes alimentaires : tournesol, maïs, orge, sainfoin, etc.
- Il convient donc de dresser le bilan des activités utiles et des destructions causées par les Hemilepistus, afin d’en tirer des conclusions valables pour l’établissement de cultures vivrières dans les régions semi-désertiques. Nous ne saurions mieux conclure qu’en reproduisant les dernières lignes de l’étude de M. A. Sosnina : « Le but des recherches à venir doit être de déterminer, de façon plus précise, les coefficients de l’activité nuisible des Cloportes, au point de vue des destructions qu’ils occasionnent dans les reboisements et les pâturages, et de leur utilité, reconnue par les pédologues, dans l’amélioration des sols. »
- Albert Yandel,
- Membre de l’Institut,
- Professeur à la Faculté des Sciences de Toulouse.
- La lumière tue les œufs de poisson
- Depuis longtemps, les pisciculteurs avaient constaté que la lumière solaire tuait les œufs de saumon et de truite ; ils en rendaient responsables les radiations ultraviolettes dont la lumière solaire est assez riche. Or, il semble que la lumière visible, dont le spectre s’étend approximativement de 0,4 à 0,8 micron et qui ne renferme pas d’ultraviolets, est tout aussi nocive pour les œufs de poisson.
- C’est l’élévation du taux de mortalité des œufs de truite du centre de pisciculture de Cold Spring Harbor (État de New York), brusquement passé de 10 à 90 pour 100, qui amena le Dr Alfred Perlmutter, de l’Université de New York, à attribuer ce phénomène aux lampes à fluorescence placées au plafond de l’alevinière. Un autre chercheur, travaillant sur les truites arc-en-ciel, constata de son côté que les bandes violette et bleue de la lumière visible, c’est-à-dire les plus proches de l’ultraviolet, étaient plus nocives que les bandes verte, jaune et orangée.
- Le Dr Perlmutter conclut de ces expériences que la lumière visible est mortelle pour certains œufs de poisson ; il ajoute que, dans la nature, ces œufs sont préservés de la lumière par une eau boueuse, des anfractuosités rocheuses ou même l’ombre du corps de leurs parents. Par ailleurs, la coloration des œufs, plus accusée dans la nature que dans les alevinières, ainsi que les cellules pigmentées qui apparaissent sur les parties vitales de l’embryon, contribuent à cette protection (U. S. I. S.).
- 495
- p.495 - vue 493/560
-
-
-
- Une machine lit pour les aveugles les textes imprimés
- Une équipe de chercheurs de l’Institut Battelle achève actuellement la mise au point d’une machine capable de « lire » les textes imprimés ou dactylographiés en associant à chaque lettre de l’alphabet une note ou un groupe de notes musicales. Un tel appareil devrait ainsi rendre de grands services aux aveugles.
- L’élément fondamental de ce dispositif est une mosaïque de cellules photoélectriques qui est promenée sur le texte imprimé, fortement éclairé. Chaque caractère occulte les cellules d’une manière qui lui est propre et produit ainsi un signal caractéristique. Ce signal attaque à son tour un oscillateur qui produit une note ou un groupe de notes de musique. Les combinaisons de ces notes sont susceptibles d’être traduites « en clair » par les aveugles après un certain entraînement.
- L’une des principales difficultés rencontrées par les
- chercheurs a été de trouver une disposition des cellules photoélectriques qui fût aussi spécifique que possible à l’égard des différentes lettres de l’alphabet. Le problème a été résolu au moyen d’un calculateur analogique, qui a simulé l’action de différents types de détecteur photoélectriques.
- Cette machine, en dehors de son utilité pour les aveugles, devrait également rendre des services dans les télécommunications, chaque lettre étant traduite sous la forme d’un signal électrique qui peut être transmis à distance.
- Fig. i. — Un chercheur de l’Institut Battelle déplace la sonde photoélectrique sur le texte imorimé et écoute les sons correspondants produits par les oscillateurs.
- {Photo Battelle Memorial Institute).
- p.496 - vue 494/560
-
-
-
- L’ACTUALITE
- INSTRUMENTALE
- Tube cathodique à
- entretien d’image
- Supposons que l’on veuille visualiser un phénomène unique et rapide avec un tube cathodique de type classique : la brillance de l’image qui apparaît sur l’écran diminue très rapidement après la fin de l’excitation du tube. Dans ces conditions, il est pratiquement impossible d’observer le phénomène, encore moins de faire des mesures sur la courbe obtenue. Jusqu’à ces dernières années, on était obligé de photographier la courbe, opération longue et fastidieuse. Par ailleurs et, pourrait-on dire, presque paradoxalement, les tubes classiques présentent des inconvénients lorsque la courbe étudiée s’inscrit trop lentement sur l’écran, par exemple lorsqu’elle est tracée par points : c’est le cas des écrans radar où la trajectoire de l’avion est matérialisée par une série de points lumineux ; on ne peut alors avoir une vue d’ensemble de cette trajectoire à moins de marquer avec un crayon gras les positions successives du spot.
- Il était donc intéressant de pouvoir disposer de tubes qui permettent de conserver pendant un certain temps la trace du phénomène enregistré, autrement dit de tubes qui réalisent un stockage des informations reçues. Un attrait supplémentaire de ces tubes est qu’ils permettent la superposition ou la juxtaposition de plusieurs figures inscrites simultanément ou successivement. Enfin, ainsi que nous allons le voir, le procédé utilisé cotiduit à des images d’une brillance très élevée, de sorte que les courbes tracées peuvent être examinées en plein jour sans avoir à se préserver par des caches de la lumière ambiante, propriété qui présente des avantages dans les appareillages des tours de contrôle, des passerelles des navires, des cabines de pilotage dans lesquelles règne une forte luminosité.
- La Compagnie générale de T. S. F. (C. S. F.) vient d’annoncer la réalisation d’un tube à entretien d’image, le F. 8029, dont les caractéristiques nous ont semblé intéressantes et dont nous nous proposons de décrire schématiquement le fonctionnement.
- A côté d’un canon à électrons rapides de type classique, dit canon d’inscription (fig. 1), figure un deuxième canon à électrons lents cette fois, dit canon d’entretien, une couche spéciale qui constitue la mémoire de l’ensemble et une grille collectrice. La couche mémoire est obtenue par dépôt d’un matériau isolant, le fluorure de magnésium, sur une grille métallique sans en obstruer les mailles. Soumis à l’impact d’un faisceau d’électrons, cet isolant émet des électrons secondaires. S’il s’agit des électrons fortement accélérés du canon d’inscription, il émet plus d’électrons qu’il n’en reçoit et devient, de ce fait, chargé positivement. Au contraire, sous l’effet des électrons lents du canon d’entretien, il émet moins d’électrons qu’il n’en reçoit et devient donc chargé négativement. La grille collectrice sert à recueillir ces électrons secondaires.
- Dans un premier stade, le tube fonctionne de façon normale : le phénomène étudié déclenche le balayage horizontal et le pinceau d’électrons rapides issus du canon d’inscription décrit la courbe à enregistrer. Mais au lieu de tomber sur l’écran fluorescent comme dans un tube classique, ces électrons arrivent à la couche mémoire, extraient en grand nombre des électrons secondaires de l’isolant et créent ainsi sur l’isolant une trace chargée positivement. Les électrons secondaires sont recueillis par la grille collectrice positive.
- Dans le stade suivant intervient le canon d’entretien. Avant que le canon d’inscription ait formé une trace positive sur la couche mémoire, celle-ci était chargée négativement par l’application d’une impulsion convenable sur la grille support. Par suite, elle repoussait les électrons et l’écran était complètement obscur. Une fois formée la trace positive, en revanche, les électrons d’entretien peuvent traverser la couche mémoire à l’endroit où celle-ci est chargée positivement et l’on obtient sur l’écran fluorescent la projection lumineuse de la trace positive laissée par le canon d’inscription. La durée de l’image n’est limitée que par l’existence d’ions positifs produits par l’impact des électrons sur les molécules de gaz résiduel qu’il est évidemment impossible, même par un vide soigné, d’éliminer complètement. Ces ions positifs augmentent le potentiel de Y ensemble de la couche mémoire et il arrive un moment où les électrons d’entretien peuvent la traverser en chaque point : l’écran s’illumine ; on peut donc dire que la durée de l’image est limitée par une perte de contraste, l’écran tout entier devenant aussi lumineux que l’image inscrite. Par contre, si l’on coupe le faisceau d’entretien, il n’y a plus formation d’ions positifs dans le tube et la trace positive peut être conservée sans altération un temps
- Couche
- mémoire
- [
- Grille collectrice
- Canon d'entretien
- 1
- CZCX
- Canon d'inscription
-
- Ecran
- fluorescent
- ordinaire
- Plaques de déflexion horizontale et verticale
- Fig. :r. — Schéma du tube à entretien d’image. Explications dans le texte.
- 497
- p.497 - vue 495/560
-
-
-
- EE3 ^=\ l_ISCH
- Stéréomicroïcbpe
- à grossissement continuement variable de 10x à 20x 7 x à 30 x
- NOUVEAU
- SPECTROPHOTOMÈTRE
- ENREGISTREUR
- ULTRASCAN-HILGER
- 2 000-7 500 Â
- Double faisceau
- Ag. excl. : Ets F. C. DANNATT, S.A.
- I98, rue Saint-Jacques, PARIS 5e
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- [Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Püris-4e. — ODE 54-83
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d’État. Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- HMHHHIHMHHHMBHMHHHBBMHHHHMHIHHIIHHilHHiHI
- avec oculaires supplémentaires et lentilles additionnelles
- grossissement de 3,5 x à 120 x Autres fabrications :
- microscopes • spectrographes-projecteurs • banc métallographique - projecteur de profil -réseaux > microdosimètre • refractomètre • colorimètre et analyseur de couleur
- REPRÉSENTATION EXCLUSIVE
- Société française d'instruments de Contrôle et d'Anafyseî LE MESNIL SAINT-DENIS (S.-&-0.)TéL 923 84-8»
- BIBLIOTHÈQUE TECHNIQUE PHILIPS
- LA VISION DES COULEURS
- PAR
- J. BERGMANS
- Ingénieur-docteur
- 96 pages 14 x 22, avec 23 ligures et 2 liors-textc couleurs. 1961. Cartonné sous couverture illustrée . 9,50 NF
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6'. DAN 99-15.
- Bl 03
- p.498 - vue 496/560
-
-
-
- très long, pendant plusieurs mois par exemple. On a la vision de l’image inscrite en rétablissant le faisceau d’entretien une ou plusieurs fois. Cette propriété peut être intéressante lorsqu’il s’agit d’enregistrer un signal dont on ignore à quel moment il se produira.
- La très grande brillance de l’image obtenue sur l’écran (jusqu’à 150 fois la brillance d’un tube classique) est due au principe même de fonctionnement du tube : chaque point de la trace laissée par le faisceau d’inscription illumine en effet en permanence l’écran. C’est ce qui se passerait sur un tube classique si on laissait le spot immobile en un seul point de l’écran.
- Pour effacer la trace il suffit de fixer la totalité de la surface de l’isolant à un potentiel négatif, ce que l’on réalise en envoyant une impulsion convenable sur la grille support. Les électrons du canon d’entretien sont alors repoussés par l’isolant et l’écran s’obscurcit.
- Réalisation pratique. — Nous avons vu l’influence des ions positifs dus au -gaz résiduel sur la rémanence de l’image. Afin de la limiter le plus possible, le vide à l’intérieur du tube est de l’ordre de io-8 mm de mercure. Ce résultat est obtenu par un étuvage à très haute température suivi d’un pompage pendant deux jours à l’aide d’une pompe à titane. Le degré de vide est maintenu pendant le fonctionnement du tube grâce à l’action de dépôts intérieurs de titane et de baryum qui absorbent les traces d’air qui pourraient pénétrer dans le tube ou les gaz occlus à l’intérieur des constituants du tube et qui se dégagent peu à peu.
- Un point important est la régularité de l’épaisseur de la couche d’isolant, qui ne doit pas Avarier de plus de 5 pour xoo d’un point à l’autre. La méthode consiste à évaporer le fluorure de magnésium vers 1 2000 C dans un vide aussi parfait que possible.
- Par ailleurs, ce tube destiné spécialement à être monté sur avion présente une excellente tenue aux vibrations. Il peut fonctionner dans une cabine où règne une pression de 250 mm de mercure, ce qui correspond environ à 8 000 m d’altitude.
- Disons, pour terminer, qu’il existe également un tube à deux canons d’inscription et un canon d’entretien, le F. 8036. Par suite, deux inscriptions simultanées peuvent
- Nouvelle ampoule à incandescence et à fluorescence
- Une ampoule électrique qui associe les' avantages de l’incandescence à ceux de la fluorescence vient d’être mise au point par la Duro-Test Corporation. Cette ampoule contient, comme les ampoules classiques, un filament de tungstène mais elle est remplie d’hydrogène et ses parois sont enduites intérieurement de phosphore. Les molécules d’hydrogène s’ionisent au contact du filament porté à haute température ; puis, les ions formés se recombinent sur les parois intérieures de l’ampoule avec libération d’énergie qui excite le phosphore, lequel émet alors de la lumière. On sait que, dans les lampes à fluorescence ordinaires, le phosphore est excité par les radiations ultraviolettes émises par le passage d’un courant à haute tension dans de la vapeur de mercure. La nouvelle lampe serait peu coûteuse et aurait un rendement égal à celui des lampes à fluorescence de type courant, soit trois fois supérieur à celui des lampes à incandescence ordinaires.
- Fig. 2. — Le tube à entretien d’image F. 8029.
- (Photo C. S. F.).
- être faites sur la couche mémoire. On peut également inscrire un phénomène sur la couche mémoire et l’autre sur l’écran fluorescent. Enfin, un procédé est en cours d’étude, qui doit permettre un « effacement sélectif » de l’image inscrite. Il sera alors possible d’effacer une partie quelconque d’une inscription sans toucher au reste et de réinscrire aussitôt tout en gardant sans interruption la vision directe des images tracées.
- R. R.
- Pour la normalisation des calculatrices électroniques
- On annonce la création d’une association européenne de fabricants de calculatrices électroniques, dont le siège social et le secrétariat se trouvent à Genève. Le président en est M. C. G. Holland-Martin, directeur des recherches de l’International computers and tabula tors Limited, de Londres. Le but de cette association est- d’encourager l’adoption de procédures et de matériel normalisés par les différents constructeurs. Trois comités techniques ont déjà été formés. Ils s’occupent respectivement des symboles pour codes d’entrée et de sortie, de la mise au point de langages communs pour la programmation, de la représentation schématique des opérations d’analyse et de traitement. Un quatrième comité actuellement en formation s’occupera de l’identification des symboles. Parmi les personnalités françaises membres de l’association on compte M. P. Dreyfus, de la Compagnie des Machines Bull, vice-président, et M. M. R. Pedretti, de l’I. B. M.-France, trésorier.
- 499
- p.499 - vue 497/560
-
-
-
- Récents développements dans les sources de lumière
- Les fabricants américains de sources lumineuses ont mis au point ou étudient divers types de lampes nouveaux.
- — Lampe 25 W à ampoule colorée aux silicones.
- — Lampe fluorescente en forme de plaque rectangulaire munie d’un réflecteur dorsal.
- — Lampe fluorescente blanche possédant un rendement plus élevé dans l’extrémité rouge du spectre qui assure ainsi un meilleur rendu des couleurs du teint, des aliments et des tissus.
- — Lampe à halogène (3 4000 K) de faibles dimensions pour cinématographie d’amateur.
- — Lampe fluorescente 40 W d’efficacité lumineuse
- élevée (3 200 lm) à couleur améliorée par l’emploi d’une substance luminescente spéciale.
- — Lampe à incandescence à remplissage d’hydrogène ; le filament incandescent dissocie l’hydrogène dont les atomes se recombinent sur une substance luminescente spéciale en produisant un apport de lumière ; le cycle se répète et se poursuit durant la vie de la lampe.
- — Lampe à vapeur de césium dans une enveloppe en céramique d’alumine polycristalline ; cette lampe, d’une efficacité lumineuse de 35 lm/W, possède un excellent rendu des couleurs sans l’emploi de substances luminescentes ou autres revêtements.
- Éléments et composés ultra-purs
- Une firme anglaise, la L. Light and Company Limited, vient de rassembler en un catalogue l’essentiel de ses fabrications dans le domaine des produits ultra-purs. Cette extrême pureté est souvent obtenue par la technique de fusion de zone, méthode classique aujourd’hui tout au moins dans son principe car sa mise en œuvre suppose une certaine expérience, fruit de recherches et de mises au point patientes. Il serait fastidieux d’énumérer les nombreux corps susceptibles d’être fournis par cette société ; citons à titre d’exemples l’antimoine, le gallium, le plomb, l’argent, le tellure, l’étain, l’indium à 99,9999 pour 100,
- le soufre, le thallium, le germanium à 99,999 pour 100, etc. Presque tous les éléments sont représentés avec des puretés au moins égales à 99 pour 100, le plus souvent bien supérieures. Citons aussi les nombreux composés utilisés en physique du solide : arséniure de gallium, d’indium,, séléniure d’arsenic, antimoniure d’aluminium, etc. Le catalogue comprend aussi des monocristaux de métaux, d’halogénures métalliques, et quelques autres substances d’un grand intérêt dans des domaines variés de la physique moderne : rubis et saphirs synthétiques, alliages d’indium, etc.
- TRANSMISSION DE LA CHALEUR
- PAR
- W. H. Mc ADAMS
- Professeur de Génie chimique,
- Massachusetts Inslitute of Technology.
- TRADUIT DE L’AMÉRICAIN PAR PRÉFACE DE
- A. BEAUFILS M. VÉRON
- Licencié es Sciences, Ingénieur E.S.E.
- 608 pages 16 x 25, avec 225 figures. 2e édition. 1961. Relié toile sous jaquette. 115 NF
- En vente dans toutes les bonnes librairies et chez
- DUNOD Éd iteur, 92, rue Bonaparte, PARIS-6e. DAN. 99-15. PARIS 75-45
- appareils électroniques de mesure
- a
- hautes performances
- QUELQUES POSSIBILITÉS :
- Tensions: 100 pVà50kV R d entrée 1014 fl
- Intensités : 10"*5 j |0-5 ampère R d'entree
- nulle
- Résistances : 101 ? n à 100 pfl • R d'entrée
- nulle
- Capacités : 0,1 pF à 10 000 pF - R. d'entrée
- nulle
- Champs : 0.1 gauss à 10 000 gauss.
- Electrisations : 10 picocoulombs à 1.000 coulombs.
- Pertes en watts des tôles : 0,5 à 5 W. Fluctuations de tension :
- depuis 1 mV 1.000 ou 2 000 V. Intégration : (analogique)
- I seconde à 60 minutes 1 à 20 voies Conductivité : 1 0 à 1.000 M fl (mesure à distance)
- FONDÉ EN 1915
- (EMOUZr.
- Fournisseur de 1.900 laboratoires officiels et privés toutes industries
- 63, rue de CJiarenton, Paris 12* - Tel. DID. 07-74
- 500
- p.500 - vue 498/560
-
-
-
- Le Ciel en Décembre 1961
- SOLEIL : du Ier au 22 (à O11) sa déclinaison décroît de - 2i°44/ à — 23°27/ (minimum), puis revient à — 2303' le 1er janvier 1962 (à oh), la durée du jour passe de 81131111 le Ier à 8hum le 22 (minimum), puis revient à 8hi6m le 31, diamètre app. le 1or = 32^9",6, le 31 = 32'35",o. — LUNE : Phases : N. L.
- le 7 à 23h52m, P. Q. le 14 à 20h6m, P. L. le 22 à oh42m, J). O.
- le 30 à 3h57m ; périgée le 12 à oh, diamètre app. — 32/27" ; apogée le 27 à 1911, diamètre app. — 29'3l". Principales conjonctions : avec Neptune le 5 à ioh, à 3°25/ N ; avec Vénus le 6 à 2311, à 4°I7/ N ; avec Mercure le 7 à 1311, à 5°i8'N ; avec Mars le 8 à 2h, à 5°5" N ; avec Saturne le 11 à oh, à 2°i f N ; avec Jupiter le U à 1411, à l°52' N; avec Uranus le 26 à 2311, à o° 17/ N. Principales occultations : le 1er, de a Lion (mag1. 4,1), immersion à lh20m,6 et émersion à 2h7n\5, le 12, de 45 Capricorne (mag. 5,9), immersion à i8llom,3 ; le 18, de B. D. 11°.445 (mag. 5,9), immersion à I9h44m,8 ; le 19,
- de 179 B. Taureau (mag. 6,0), immersion à 2lh38m,2; le 23,
- de 81 Gémeaux (mag. 5,0), émersion à 23h29m,6 ; le 26, d’Uranus (mag. 5,7), émersion à 2ih56m,2. — PLANÈTES : Mercure est noyée dans le rayonnement solaire ; Vénus, étoile du matin s'effaçant, peu à peu dans l’aurore ; Mars, est inobservable ; Jupiter, dans le Capricorne brille encore le soir plus de 3 heures après le coucher du Soleil ; Saturne, dans le Sagittaire s'efface dans les brumes du couchant à la fin du mois ; Uranus, à i° environ à l’est de Béguins se lève dès la fin de la soirée, le 15, position : iohnm et + l2°o/, diamètre app. 3",8; Neptune, dans la Balance est mieux visible le matin, le 15, position : I4h42m et — 13°56^, diamètre app. 2",4 ; Cérès, dans la région de À puis de p Baleine, mag. 7,7, positions, le Ier : 3hlm e| _j_ 9030', le n : 2h54m et
- + 9°S8, le 21 : 2h49m et -j- lO0^', le 31 : 2h46m et -f- lO°54' ; Vesta, dans la région de E, Taureau puis de X Baleine, non loin à l’est de Cérès, mag. 7,1, positions, le Ier : 3h32m et -f- io^p7, le 11 : 3h23m et -f io°5o', le 21 : 3hi6m et + ii°4', le 31 : 3hi2m et + u°29/. — ÉTOILES VARIABLES : minïma observables d'Algol (2m,2-3111,5) le 8 à 4h,i, le it à Dfo, le 13 à 2lh,8, le 16 à i8h,7, le 28 à 5h,8, le 31 à 2h,6 ; minima de P Lyre (3m,4-4m,3) le 13 à 9h,4 ; le 26 à 7h,7 ; mavima de B Cassiopée (5m,5-13m,o) le 3, de y Cygne (3m,3-14m,2) le 4, de T Céphée (5m,4-11 m,oJ le 5, de B Petit Lion (6m,3-i 3ni,2) le 13. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.). : le Dr : 4h47m47s, le 11 : 5h27mi3s, le 21 : 6h6m39s, le 31 : 6h46m4s.
- Phénomènes intéressants : Solstice d’hiver le 22 à 2h2cm. — Surveiller l’activité solaire. — Du Ier au 5, lumière cendrée de la Lune, le matin. — On pourra encore observer à la jumelle les mouvements rétrogrades des astéroïdes Cérès et Vesta aux positions indiquées ci-dessus. — Suivre le mouvement de la planète Uranus à l’est de Régulus et ne pas manquer l’occultation de cet astre le 26. — Étoiles filantes : du 9 au i3, Géminides (maximum le 12), radiant Castor. — On observera les belles constellations d’hiver : Taureau, Gémeaux, Cocher, Orion, Grand et Petit Chiens.
- il eures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tautois.
- LES LIVRES
- O U V E A U X
- La règle à calcul, par A. ilosr. 1 vol. 15 x 21, 56 p., 17 fig. Collection Bibliothèque professionnelle. Dunod, Paris, 1961. Prix, broché : 5 NF.
- Exposé élémentaire de l’utilisation du prodigieux instrument que constitue la règle à calcul. Fondée sur des règles simples, exposées avec beaucoup de clarté, la méthode que nous propose l’auteur permettra au débutant de résoudre, après quelques heures d’études, les calculs les plus compliqués, avec un placement certain de la virgule.
- Cours de Mécanique, par J. Ferrandon. i vol. 16 X 25, 370 p., 200 fig. Eyrolles, Paris, 1961.
- Ce cours, professé à l’École nationale supérieure des Télécommunications, s’adresse à tous les élèves ingénieurs sortant des classes de mathématiques spéciales, pour lesquels il doit constituer un complément d’instruction scientifique en vue des applications pratiques de la mécanique. Il traite successivement des systèmes indéformables puis des systèmes continus et déformables en insistant sur l’étude de la propagation par ondes et sur celle des vibrations. Exercices, avec ou sans solution.
- Physique et Philosophie. La science moderne en évolution, par Werner Heisenberg, Prix Nobel. Trad. de l’anglais par Jacqueline Hadamard. 1 vol. 13 X 20, 254 p. Collection Les savants et le monde. Albin Michel, Paris, 1961. Prix : 9 NF.
- Les chapitres les plus intéressants de ce livre sont ceux où l’illustre physicien analyse les fondements de la mécanique quantique et donne son avis sur les tentatives qui sont faites pour réintroduire une substructure déterministe, tentatives qu’il tient pour inutiles. Il pense que les contradictions qui existent entre la relativité et la mécanique ondulatoire pourraient être résolues si l’on aboutissait à une sotte de quantification de l’espace-temps. Il y aurait alors des dimensions, plus petites que les noyaux atomiques, où les
- concepts classiques d’espace-temps ne seraient plus adéquats. Outre la vitesse de la lumière et le quantum d’action de Planck, il y aurait une troisième constante universelle ayant la dimension d’une longueur, de l’ordre de io~12 mm. Un système de 3 constantes (vitesse, énergie, longueur) est d’ailleurs nécessaire pour fixer les masses et les autres propriétés des particules élémentaires.
- PRECIS DE GÉOGRAPHIE HUMAINE
- I MAX DERRUAU
- I
- H 572 pages, 6 photos
- i(j 46 figures au trait. 54 NF
- il
- 1 Collection j| Armand Colin
- LA TUNISIE
- II
- i
- y
- WL
- M. Hciscnbcrg veut donc nous préparer à de nouveaux abandons de notions classiques.
- Initiation au calcul opérationnel et à ses applications techniques, par F. Salles, i vol. 16 x 25, 76 p., 76 fig. Dunod, Paris, 1961. Prix, broché : 4,80 NF.
- Exposé mathématique simple de la transformation de Laplace et de l’algébrisation des équations différentielles. Nombreux exemples pratiques et exercices.
- The cathode ray tube memory of the high speed electronic computer of the U.S.S.R. Academy of Sciences, par V. N. Laut et L. A. Lyubovich. i vol. 16 X 26, 90 p., 71 fig. Pergamon Press, Oxford, Londres, New York, Paris, i960. Prix, relié : 35 sh.
- Exposé, à un niveau élevé, de la mémoire à tube cathodique utilisée dans l’ordinateur BESM de l’Académie des Sciences de l’U. R. S. S.
- Électrotechnique à l’usage des ingénieurs, par
- A. Fouillé. Tome II : Machines électriques. 1 vol. 16 x 24, 440 p., 615 fig. Dunod, Paris, i960. Prix, broché : 18 NF ; relié : 21 NF.
- Cinquième édition d’un ouvrage désormais classique s’adressant à l’étudiant comme à l’ingénieur de fabrication qui, dans le domaine des machines électriques, a besoin de retrouver rapidement les connaissances de base. Cette réédition ne comporte que quelques additions : méthode symbolique appliquée en transformation, diagramme de Potier, index alphabétique. Elle a été adaptée, comme le tome I, au système MKSA rationalisé.
- Computer engineering, édité par S. A. Lebedev. 1 vol. 15 X 24, 184 p., nomb. fig. Pergamon Press, Oxford, Londres, New York, Paris, i960. Prix, relié : 63 sh.
- Recueil de communications de spécialistes russes sur les méthodes et la technologie des
- 501
- p.501 - vue 499/560
-
-
-
- LA GRAVURE
- Une lithographie en couleurs n’est pas une reproduction. C’est une œuvre originale conçue et réalisée par l’artiste. Tous nos tirages sont limités, numérotés et signés par les artistes. Prix : de 45 à 150 NF
- J. EVE. — Rouquet.
- Lithographie 8 couleurs. 165 Ex
- DÉCOREZ vos murs avec les lithographies originales
- -----:—.----- en couleurs des meilleurs peintres de notre époque,
- tels que CA R ZOU, BUFFET, JANSEM, BRAYER, HUMBLOT, AIZPIRI, L. FINI, LURÇAT, etc...
- Catalogue N, sur demande
- EXPOSITION PERMANENTE
- 41, Rue de Seine, PARIS VIe DANton 05-44
- •N*** i
- ' : '4
- ' « - •'t,
- A. PLANSON. — Pêcheurs.
- Lithographie 6 couleurs. 220 Ex.
- machines à calculer électroniques : nouveaux éléments et circuits, mémoires à tores de ferrite, dictionnaire pour les machines à traduire, terminologie, etc.
- Automatisation industrielle, par W. Uornauer. Traduit de l’allemand par À. Huchet. t vol. 14 X 22, 236 p., 172 fig. Dunod, Paris, 1959. Prix, relié : 22 NF.
- Excellent ouvrage destiné moins au spécialiste qu’à l’ingénieur qui éprouve le besoin d’une documentation claire et objective sur les possibilités de l’automatisation. Après une partie d’introduction consacrée au rappel des notions de base et des définitions, on décrit les moyens technologiques mis en œuvre dans les diverses catégories d’automatismes industriels, les équipements électriques, pneumatiques ou hydrauliques. La 3e partie est consacrée aux applications. Quelques exemples de commande automatique, dans les ensembles industriels sont donnés. L’auteur a su toujours rester très clair, revenant sans cesse à des exemples concrets pour expliquer les techniques fondamentales de l’automatisation. — R. R.
- L’hydrologie de l’ingénieur, par G. Réménié-ras. i vol. 16 X 25, 414 p., 198 fig., 47 tableaux. Collection du Laboratoire national d’Hydrau-lique. Eyrolles, Paris, 1960. Prix, relié : 40 NF.
- L’auteur, Chef du Service des études hydrauliques à l’Électricité de France et professeur à l’École nationale du Génie rural, s’est attaché à présenter méthodiquement les données hydrologiques sur lesquelles doit se fonder l’ingénieur, face aux problèmes d’équipement hydroélectrique, de drainage, d’irrigation, de navigation, etc. Son ouvrage est divisé en deux parties : i° facteurs qui influencent le débit des cours d’eau (hydrométéorologie, précipitations, topographie, température, évaporation), z° régime des cours d’eau (jaugeage, débits, crues, etc.).
- Programmes de bourses et d’échanges en sciences nucléaires. 1 brochure 15 X 21, 40 p. Agence internationale de l’Énergie atomique, Vienne, i960.
- Brochure destinée à faire connaître l’activité de l’Agence internationale de l’énergie atomique en matière de bourses et d’échanges de spécialistes entre les divers états membres. Règlements divers, formalités à accomplir, liste des bourses offertes, etc.
- La dynamique des processus industriels, par D. P. Campbell. Traduit de l’américain par P. Strack. 1 vol. 16 X 25, 320 p., 135 fig. Dunod, Paris, 1961. Prix, relié : 56 NF.
- L’industrie est essentiellement caractérisée par une succession continue d’opérations où se modifie l’état physique ou chimique de la matière et de transports ou manutentions qui ponctuent ces opérations. Chacun de ces éléments est en général analysé isolément et raccordé ensuite au contexte. Il était plus juste et plus réaliste de considérer les différents processus sous leurs aspects dynamiques, en les classant logiquement en plusieurs rubriques : i° manutention, stocks, mélanges ; z° fluides en mouvement ; 30 formage, entraînement et guidage ; 40 processus thermiques ; 50 transferts moléculaires ; 6° processus chimiques. Cette dynamique est, bien entendu, exprimée en langage mathématique et plus particulièrement en équations différentielles. Quelques problèmes, à la fin de l’ouvrage, sont soumis à la sagacité du lecteur.
- Introduction à l’étude des parfums. Matières premières aromatiques d’origine naturelle et de synthèse, par T. Bassiri. i vol. 16 x 24, 278 p., 2 fig. Masson, Paris, i960. Prix, broché : 38 NF.
- Le monde des parfums se situant à la frontière de la science et de l’art, avec tout ce que cela
- comporte de nuancé et de subjectif, le jeune chimiste peut se trouver désorienté devant une technique qui fait appel aussi bien au goût qu’à des notions complexes, empruntant à la chimie, à la botanique, à la physiologie. Or il n’existe pas en France, pays par excellence créateur de parfums, de cours destiné au candidat parfumeur. Voici cette lacune en partie comblée. Après des chapitres consacrés au métier de parfumeur, à l’odeur, à la définition et à la classification des parfums, on trouvera ici un recueil des essences et principaux produits utilisés en parfumerie. On regrettera seulement qu’il ne soit pas fait mention de techniques nouvelles comme la chromatographie en phase gazeuse, la spectrographie infrarouge, pourtant fondamentales dans cette chimie.
- La Vie, fondement, maintien, reproduction.
- Tome IV de VEncyclopédie française, publié sous la direction de Pierre-P. Grasse, de l’Institut, professeur à la Sorbonne, directeur du Laboratoire d’Évolution des êtres organisés. Préface de Gaston Berger, président du Comité de l’E. F. 2 vol. 25 x 31, chacun 380 p., nombreux dessins et photos. Larousse, dépositaire général, Paris, i960. Prix : 185 NF les 2 vol.
- Une ir0 édition de ce tome IV de Y Encyclopédie-française avait paru en 1937 sous la direction d’André Mayer ; elle demandait évidemment une refonte complète, car depuis un quart de siècle les progrès de la biologie ont été considérables. Us sont dus en premier lieu aux nouveaux moyens-que l’on peut appeler « d’information visuelle », principalement au microscope à contraste de phase et au microscope électronique, qui ont permis des découvertes comme celles des dictyosomes dans les cellules végétales, du noyau chez les bactéries, de la structure fine des mitochondries, des images précises de nombre de virus, etc. Les biochimistes ont fait des progrès peut-être plus étonnants encore. Non seulement quantité de substances qui
- 502
- p.502 - vue 500/560
-
-
-
- A PARAITRE PROCHAINEMENT CHEZ
- VEB GUSTAV FISCHER VERLAG
- IÉNA
- Meeres - microbiologie
- (Microbiologie de la mer)
- par le professeur Dr. A. E. Kriss, de l’Institut de Microbiologie de l'Académie des Sciences de f'U.R.S.S., Moscou. Édition allemande revue et complétée par l'auteur, compte tenu des derniers résultats des recherches dans ce domaine. Traduction autorisée de Brigitte Fecher, Berlin, d'après la première édition russe revue. 560 pages environ, 147 illustrations, 4 planches en couleurs et 134 tables, 16,7 x 24 cm, 1961, relié toile.
- Prix : environ DM 67.
- Le présent ouvrage expose les résultats des travaux de l’auteur et de ses collaborateurs, en liaison avec les phénomènes antérieurement connus. Après un compte rendu sommaire des méthodes pratiquées, l’auteur relate les corrélations quantitatives des micro-organismes hétérotrophes du Pacifique, de l’Océan Indien, de l’Atlantique, de l’Océan Glacial Arctique, et des Mers Noire et Caspienne. Le troisième chapitre est consacré à la taxonomie des micro-organismes découverts. Les chapitres suivants donnent des détails intéressants sur les manifestations de la vie des micro-organismes et de leur importance pour les conditions écologiques particulières de la Mer Noire, sur la densité de peuplement, la masse biologique et la vitesse de multiplication des microbes dans les océans et les mers, ainsi qu’une caractéristique morphologique. Les deux derniers chapitres traitent des rapports entre la productivité biologique des bassins et les micro-organismes, de l’importance des micro-organismes en tant qu’indicateurs des phénomènes hydrologiques et des prochaines tâches de la biologie marine.
- profitez du prix de faveur de souscription
- Une passionnante enquête sur tous ses mystères, menée par Jean ROSTAND, de l’Académie française, et Andrée TÉTRY, directeur adjoint à l’École des Hautes Études : cellule, sexualité, parthénogenèse, fécondation, génétique, hérédité, eugénique, origine et avenir de l'Homme, etc...
- Ouvrage sans équivalent dans l’Édition française, tant par la prestigieuse qualité de ses auteurs, que par l'originalité de sa conception, et de sa présentation.
- Très abondante illustration en noir et en couleurs.
- paraît actuellement par fascicules
- Le volume, relié (21 x30 cm), sous jaquette, comprendra 430 pages, 700 illustrations en noir, 16 hors-texte en couleurs.
- chez tous les libraires
- dans la collection in-cguarto
- LAROUSSE
- 503
- p.503 - vue 501/560
-
-
-
- ouent un rôle important dans le métabolisme ont été identifiées, isolées, analysées et bien souvent partiellement ou totalement synthétisées ; mais surtout le fonctionnement chimique intime de la machine vivante a commencé à livrer ses secrets. Nous commençons à entrevoir la succession, la hiérarchie de ces substances, comment elles s’édifient, se commandent les unes les autres, et comment l’énergie, finement divisée, est stockée, libérée, transportée dans leurs réactions. La biochimie tient donc une grande place dans ce tome IV et nombre de chapitres qui suivent en sont éclairés. Quantités de questions ont été traitées dans un esprit tout à fait moderne, et M. Grasse lui-même, à propos de l’intelligence et de l’instinct par exemple, a pris soin d’exorciser des préjugés classiques. On n’en regrette que davantage qu’un chapitre comme celui qui traite du larynx et de la phonation soit obscur et imprécis, négligeant les importants travaux qui depuis quelques années ont renouvelé la question. Mais dans l’ensemble ces deux volumes sont une réussite ; les 70 auteurs ont fait un effort remarquable pour être à la portée des non-spécialistes et pour nous présenter un tableau vivant et à jour de la biologie. Index alphabétique. — J. G.
- Botanique, par Fernand Moreau, i vol-10,5 X 17,5 de l'Encyclopédie de la Pléiade, 1 534 p., 811 fig. Gallimard, Paris, i960. Prix, cartonné : 49 NF.
- li ne s’agit pas d’un traité de botanique, ni même du condensé d’un tel traité. D’autres volumes de cette encyclopédie devant être consacrés à la cytologie, à la biochimie, à la génétique, à l’histoire de la botanique, à ses applications médicales et agricoles, à la phytotechnie enfin, il restait au professeur Moreau à présenter la morphologie et l’anatomie végétales, les grands traits de la classification des plantes, des notions d’écologie et de géographie botaniques, bref à peu de choses près la matière du certificat de botanique de nos universités, y compris quelques notions sur les bactéries. On louera l’auteur d’avoir introduit quelques acquisitions nouvelles, comme celles qui concernent les hélices foliaires et l’ontogénie de la fleur. Peut-être aurait-il pu développer un peu plus la biologie en sacrifiant quelques descriptions de genres et d’espèces, facilement trouvées ailleurs. Dans l’ensemble, un excellent ouvrage d’initiation. Bibliographie utile. Lexique. Tables très complètes.
- Morphologie et physiologie animales, par
- Georges Bresse, agrégé de l’Université, inspecteur général des musées d’histoire naturelle de province. 3e édit. 1 vol. 16 x 24, 854 p., 638 fig. Larousse, Paris, i960. Prix, cartonné : 44 NF.
- Dans ce livre destiné surtout aux élèves qui préparent les grandes écoles, l’auteur applique
- ------ A NOS LECTEURS --------------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- un principe qui nous paraît excellent. Observant que résumer n’est pas simplifier, il fait un choix délibéré, et ce choix fait, il donne aux notions traitées un développement suffisant pour leur conserver leur valeur et leur intérêt. Sans changement du plan de l’ouvrage, cette 3e édition a subi quelques additions utiles. Le chapitre sut les neurones, complètement remanié, tient compte des récentes expérimentations sur un neurone unique. On trouve de nouvelles précisions sur les pigments rétiniens. Le chapitre sur les vitamines est considérablement augmenté, les principales vitamines étant traitées avec quelque détail et leur mécanisme d’action approfondi. Dans le chapitre sur la régulation thermique, l’auteur a tenu compte des récents travaux sur l’hibernation. Rédaction claire et agréable.
- Culture methods for invertebrate animais, par
- Frank E. Ltrrz, Paul L. Welch, Paul S. Galt-soi-e, James G. Needham. i vol. 13,5 X 20, 590 p., 84 fig. Nouv. édit. Dover Publications, New York, i960. Prix : 2,75 dollars.
- Si l’on n’a pu encore élever artificiellement qu’un nombre infime d’espèces au regard de la diversité naturelle, c’est que la définition et la conservation d’un optimum écologique rencontrent de grandes difficultés au laboratoire. Maintes espèces d’invertébrés sont aujourd’hui « cultivables » ; mais la pratique de leur élevage est l’apanage de biologistes très spécialisés. Cet ouvrage est le fruit de la collaboration d’un grand nombre d’ « éleveurs » ; c’est plus une somme qu’un « digest ». Il embrasse tous les groupes d’invertébrés et intéresse tous ceux qui travaillent sur des populations animales.
- Revue géographique de l’Est. Revue trimestrielle publiée par les Instituts de Géographie des Facultés de Dijon, Besançon, Nancy et Strasbourg (secrétaire général, André Blanc, professeur à l’Université de Nancy). Association des Géographes de l’Est, C. C. P. Nancy 16578. Abonnement, 1 an : 12 NF ; étranger : 16 NF.
- Cette nouvelle revue publiera des études concernant l’Est de la France et les pays d’Europe centrale et orientale, ainsi que l’aménagement régional. Au sommaire du n° 1 : des études sur l’Alsace, Vienne, la démographie, la morphologie des massifs anciens et une très intéressante chronique de la C. E. C. A.
- La fabrication des produits alimentaires au miel, par Pierre Paillon, de la Chambre &yn-dicale des conseillers techniques et experts des industries alimentaires. 1 vol. 14 X 22, 240 p., 41 fig. et tableaux. Librairie des Sciences Girar-dot, Paris, 1959. Prix, cartonné : 24 NF ; franco : 26,50 NF.
- Après un chapitre sur le miel, sa composition, ses variétés, ses vertus, l’auteur traite de tous ses usages industriels ou artisanaux : biscuits, pains d’épice, confiserie, nougats, pâtisserie, cuisine, entremets et desserts, glaces et boissons. Deux chapitres sont consacrés à la réglementation, aux essais et analyses, à la détermination des opérations frauduleuses. Lexique des termes techniques. Index des substances complémentaires. Nomenclature des brevets d’invention concernant le miel.
- Les premiers hommes sur la Lune, par Wern-her von Braun. Trad. de l’américain par Catherine Imbert. Dessins de Fred Freeman, i vol. 17 X 23,5, 96 p., 90 photos, nombreux dessins. Albin Michel, Paris, 1961. Prix : 9,75 NF.
- Le célèbre ingénieur s’est amusé à faire, avec grand talent d’ailleurs, un récit d’anticipation qui est en même temps d’excellente vulgarisation. Après un dur entraînement, deux astronautes américains sont lancés vers la Lune, ils « alunissent », se livrent à une courte exploration et reviennent sur terre. Texte et dessins nous apprennent comment, et avec quelles péripéties. Mais les premiers Sélénites seront-ils des Américains ?
- A short history of Technology, from earliest times to A. D. 1900, par T. K. Derry et Trevor L. Williams, i vol. 15 X 22, xvm-782 p., 353 fig. Clarendon Press, Oxford Uni-versity Press, Londres, i960. Prix, relié : 38 sh.
- Cette histoire de la technique est divisée en deux parties : la première s’étend des premiers âges à 1750, date qui marque le début de la révolution industrielle en Grande-Bretagne ; la seconde s’étend de 1750 à 1900. Au delà, les auteurs ont pensé que le recul manquait pour juger de l’importance réelle des diverses découvertes. Ils se sont limités au proche Orient, à l’Europe occidentale et à l’Amérique du Nord, renvoyant le lecteur à des ouvrages plus spécialisés pour les autres civilisations. En dépit de ces limitations, l’ouvrage constitue une vaste fresque remarquablement documentée du progrès technique au cours des siècles. De la domestication des animaux au cinématographe en passant par les transports, l’industrie chimique, etc., tous les sujets sont traités avec une grande clarté et un choix judicieux des exemples et des faits.
- La Révolution française et ia Science (1789-I795 )> Par Joseph Fayet. Ouvrage publié avec le concours du C. N. R. S. 1 vol. 14 X 22,5, 498 p. Marcel Rivière et Cie, Paris, i960. Prix : 20 NF.
- Ouvrage qui nous montre comment l’héritage scientifique de la fin du xvme siècle, grande époque pour la science française, se trouve absorbé, transformé et en quelque sorte renouvelé par la tourmente révolutionnaire. Des académies sombrent, le Jardin du Roi survit, l’École Polytechnique paraît ; d’autres initiatives eurent un destin éphémère. L’auteur nous montre encore la naissance du Conservatoire des Arts et Métiers, celle du Bureau des Longitudes et la régénération des académies dans l’Institut. L’ouvrage, ce faisant, révèle les destinées individuelles de maints savants emportés dans le torrent des passions politiques.
- Histoire naturelle des sottises, par Bergen Evans. Traduit de l’américain par Jean Mer-gault et Bernard LIeuvelmans. i vol. 14,5 x 19,5, 426 p., 32 ill. hors texte. Collection D’un monde à l’autre. Plon, Paris, i960. Prix, cartonné souple : 18,50 NF.
- Un recueil amusant d’opinions où l’auteur, dans ses meilleurs passages, nous fait sentir que nous sommes souvent aussi crédules que Pline dans son Histoire naturelle. On pourrait reconnaître parfois la survivance des imaginations antiques dans les préjugés qui infestent le fond culturel de tant de nos concitoyens. L’ouvrage de M. Evans est curieux, critique et quelque peu décousu ; il faut dire que l’auteur a choisi de traiter en un seul ouvrage d’un sujet infini.
- Températures et pourcentage. — Dans notre article « Baignades méditerranéennes tièdes ou froides selon le régime des vents» (juillet 1961, p. 296) on peut lire : « ... on voit la température passer de 13 à 240 C, ce qui correspond à des variations de 85 pour 100 ». Des lecteurs nous ont fait pertinemment observer qu’un pourcentage n’aurait de sens physique que si la température était exprimée en degrés absolus. En l’occurrence il est de 3,85 pour 100 et ne joue d’ailleurs aucun rôle utile. Nous nous excusons auprès de nos lecteurs physiciens, et surtout des autres, qui ne songeaient peut-être pas à rectifier d’eux-mêmes 1
- PETITES ANNONCES
- (3 NK la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légae : 4e trimestre 1961, n° 3737. — Imprimé en France.
- imprimerie barnéoud s. a. (3io566), laval, n° 433y. — 11-1961.
- 504
- p.504 - vue 502/560
-
-
-
- Récits et documents bien pesés
- Que savons-nous vraiment
- du Yéti ? par H. - V. Vallois,
- de l’Académie de Médecine.
- Après d’innombrables articles sur le thème aujourd’hui bien périmé du grand Serpent de mer ou sur celui, plus récent, du monstre du Loch Ness, les quotidiens et les illustrés à grand tirage gratifient maintenant de temps à autre leurs lecteurs de sensationnels reportages sur le Yéti ou « abominable Homme des neiges » de l’Himalaya. Sorte d’homme-singe de très grande taille, bipède mais dépourvu de la parole, au corps couvert de poils roussâtres, ne circulant que la nuit, cet être vivrait dans la zone de neiges et de glaciers comprise entre 4 000 et 6 000 m d’altitude. Dangereux et féroce, il serait particulièrement redouté des montagnards de cette région. De nombreuses légendes circulent sur son compte. Plusieurs expéditions européennes pensent en avoir rencontré les traces ; des enquêtes récentes ont conduit certains auteurs à supposer qu’il existe aussi, ou du moins aurait existé, dans un large territoire au Nord de l’Himalaya, en particulier en Mongolie. S’agit-il là d’un Singe géant ?
- Fig. 1. — Dans le domaine supposé du Yéti, au Népal : le pic Jean-Couzy (4 450 m).
- (Photos prises au cours de l’Expédition française de 1959 dans l’Himalaya, aimablement communiquées par la Fédération française de la Montagne).
- Serait-ce un Homme primitif miraculeusement conservé et qui n’avait pas encore acquis la parole ? Ou est-ce vraiment un Homme-Singe ? Les avis sont d’autant plus partagés que la grande majorité des données que nous possédons sur lui sont d’une désespérante imprécision. Plusieurs savants cependant n’ont pas hésité à dire que c’était là le représentant, ou tout au moins le descendant, d’un fossile encore énigmatique, le Gigantopithecus blacki, Primate géant qui vivait au Pléistocène moyen dans le Kouang-Si (Chine méridionale) et dont on ne connaît encore que les dents et la mâchoire inférieure. Mais la nature exacte de ce Primate est elle-même discutée (x) et il n’est guère douteux en tout cas qu’il ne s’agit pas là d’un pré-Homme comme l’avait cru l’anthropologiste Weidenreich, mais d’un Anthropoïde d’une espèce nouvelle. Son existence n’éclaircit pas la question du Yéti.
- Et, du reste, le Yéti existe-t-il vraiment et les soi-disant preuves accumulées à son sujet ont-elles une valeur scientifique ? Beaucoup de mammalogistes et d’anthropologistes n’hésitent pas à donner une réponse négative. Il pourra
- 1. Voir à ce sujet : Les Singes géants fossiles de la Chine quaternaire, par H.-V. Vallois ; La Nature, octobre 1957, p. 386-390.
- 505
- p.505 - vue 503/560
-
-
-
- donc paraître intéressant aux lecteurs de cette revue de prendre connaissance des principales au moins de ces preuves et de chercher, au cas où elles paraîtraient fondées, quelles conclusions on peut en tirer sur la nature de ce mystérieux habitant des neiges himalayennes.
- Disons d’abord que la preuve catégorique que serait la vue même d’un Yéti par un observateur impartial fait défaut. Certains indigènes affirment bien en avoir rencontré mais on verra que leurs récits sont imprécis et souvent contradictoires. Quant aux Européens, deux ou trois ont cm voir dans la nuit une masse noire qui fuyait et que les sherpas leur ont dit être un Yéti. Mais pour diverses causes, ils n’ont pu s’en approcher et, à plus forte raison, le capturer ni même le photographier. On doit donc s’en tenir à des preuves indirectes. Elles se laissent répartir en trois catégories : i° données folkloriques avec éventuellement représentations anciennes ; z° empreintes de pas dans la neige ; 30 étude scientifique de pièces données comme provenant des Yétis. Dans la revue que je vais donner ici de ces preuves, je ferai essentiellement état de celles relevées au cours d’enquêtes ou de missions récentes, laissant de côté les récits incomplets ou manifestement erronés rapportés par des explorateurs trop crédules.
- Récits et traditions locales
- C’est uniquement sur le versant méridional de l’Himalaya, dans le Népal et le Sikkim, que les traditions locales mentionnent le Yéti proprement dit. Le nom d’ « abominable Homme des neiges » qui lui a été donné par quelques Européens semble résulter d’une confusion. Entre différents termes appliqués à cet être par les villageois se trouve en effet celui de Miteh, que nous retrouverons plus loin, et qui signifie homme-ours mais qui, par méprise, a été traduit comme voulant dire « repoussant » ou encore « abominable ». Souvent d’autre part au mot Miteh se trouve associé celui de Kang-mi, qui veut dire « Homme des neiges ». L’expression d’abominable Homme des neiges employée en français comme en anglais n’est donc que la traduction erronée du terme Miteh Kang-mi ; or elle préjuge beaucoup trop de la nature humaine de celui auquel elle s’applique pour qu’il soit prudent de l’employer. Comme le fait très justement remarquer l’abbé Bordet, mieux vaut, avec la grande majorité des indigènes, dire simplement « Yéti ».
- Tous les habitants du versant indien de l’Himalaya sont absolument persuadés de l’existence du Yéti. Tous signalent sa grande taille et sa force. Ils le décrivent comme bipède. Ils savent les endroits qu’il fréquente. Ils affirment l’avoir entendu hurler et prétendent pouvoir distinguer entre ses divers cris. Ils disent qu’il rôde la nuit autour des villages, les empreintes qu’on trouve le lendemain sur la neige attestant la réalité de son passage. Tous ont de lui une peur intense. Ils n’en parlent qu’avec effroi. Quand, dans leurs déplacements, ils rencontrent ses traces, ils éprouvent une vive terreur et s’éloignent aussitôt. Une des causes de cette peur est que le Yéti dévore les hommes, mais il s’y mêle certainement aussi l’effroi inspiré par un être en partie surnaturel et dont la vue seule risque déjà de porter malheur.
- On comprend que, dans ces conditions, ceux qui disent l’avoir rencontré soient extrêmement rares. C’est ainsi
- que Sir Edmund Hillary, directeur d’une expédition patronnée par le World Book Encyclopedia de Chicago et dont le but était de recueillir sur le Yéti des documents vraiment scientifiques (2), note dans son rapport, que dans le village de Thyangboche, « source traditionnelle du folklore et des prétendues apparitions du Yéti », il n’a pu trouver un seul habitant qui puisse dire en avoir vu un. Même des lamas vivant dans le monastère depuis plus de 40 ans n’avaient jamais eu connaissance d’une telle rencontre. Dans toute la région, un seul sherpa s’était vanté d’avoir vu un Yéti il y a une dizaine d’années, mais un interrogatoire un peu poussé lui a fait reconnaître que cette rencontre avait eu lieu après plusieurs jours de sérieuses libations. On peut se demander si les récits faits par les montagnards à divers explorateurs reposent sur des bases plus sérieuses ? Et d’ailleurs, il est bien connu des ethnologues que, lorsqu’on interroge avec insistance des indigènes sur un fait pour lequel ils n’ont guère de données, leur désir de faire plaisir à l’enquêteur, souvent avivé par l’espoir de quelque rémunération substantielle, excite suffisamment leur imagination pour que l’enquêteur soit bientôt satisfait, et au delà même de ses désirs. On peut penser qu’un tel processus a souvent joué dans les histoires du Yéti.
- L’imprécision des récits concernant cet être est du reste telle que, tandis que beaucoup de montagnards n’en mentionnent qu’une seule variété, d’autres en distinguent plusieurs. Les sherpas du village de Beding, rapporte Sir Edmund Hillary, reconnaissent ainsi trois sortes de Yéti :
- — le Shuteh, être de plus de z m de haut, complètement couvert de poils noirs ; végétarien, il serait de mœurs relativement paisibles ;
- — le Miteh, haut de 1,20 à 1,50 m, au crâne haut et pointu ; de caractère agressif, il attaque et dévore les hommes qu’il rencontre ;
- — le Thelma, qui bien qu’ayant l’aspect humain, n’atteint pas 60 cm ; il vit dans les jungles, bien au-dessous de la limite des neiges.
- On peut faire abstraction de la troisième catégorie, qui s’applique probablement aux petits Singes des contre-forts himalayiens et ne répond en rien au Yéti classique. Les deux autres, au contraire, se partagent les caractères de celui-ci, encore que le terme de Miteh paraisse, dans d’autres régions, le seul employé pour le désigner. Que les indigènes soient au fond assez mal fixés sur l’aspect de cet être ressort du reste du récit fait récemment par P. Le Scour (Le Yéti au Musée de l’Homme. Objets et Monde, revue du Musée de l'Homme, t. 1, 1961, p. 43-46) du passage au Musée de l’Homme d’un sherpa du village de Khumjung, venu accompagner le scalp de Yéti dont il sera parlé plus loin. Lorsqu’on lui présenta une peinture tibétaine de ce Musée où se trouvait figuré un personnage à corps humain et à tête de chien en train de dévorer un homme, le sherpa dit sans hésiter : « Yéti, il mange les Hommes ». Ainsi le Yéti, pour le montagnard népalais, était la même chose que cet animal mythique.
- 2. Un premier rapport sur cette mission a été distribué par les soins d'Opéra Mtindi en janvier 1961. Ce rapport a, en particulier, été publié par le Sunday Times. Il sera beaucoup emprunté dans cet article aux observations extrêmement précises qui y sont consignées.
- 506
- p.506 - vue 504/560
-
-
-
- « Almass » et Hommes-sauvages
- Toutes les traditions rapportées jusqu’ici sur le Yéti proviennent du versant Sud de l’Himalaya. Mais sur le versant Nord de cette chaîne et dans le Tibet, voire plus loin encore en Asie centrale, parle-t-on aussi de lui ? La question a été posée récemment à l’Académie des Sciences de l’U. R. S. S. Celle-ci pour y répondre a entrepris de réunir tous les témoignages, traditions populaires ou récits de voyageurs, qu’elle pourrait trouver sur la question. Les données ainsi recueillies ont déjà fait l’objet de quatre brochures (Informâtsionnyiê Komissii po iqou-tchêniou voprosso o sniejnom Tcbélovekié [Documents d’information de la Commission chargée de l’étude du problème de l’Homme des neiges]. Académie des Sciences de l’U. R. S. S., Moscou, 1957, 1958 et 1959). Un résumé critique en français des deux premières brochures a été tout récemment écrit par le professeur E. Schreider {JJAnthropologie, t. 62, I959> P- 575-579)-
- Les plus importantes de ces données concernent la Mongolie. Il ne s’agit d’ailleurs pas d’Hommes des neiges à proprement parler, mais de sortes d’Hommes-sauvages que les Mongols désignent sous plusieurs noms dont le plus commun est celui & almass. La description de ces almass est assez imprécise ; dans l’ensemble, cependant, elle rappelle celle des Yétis : êtres bipèdes à figure humaine, au corps couvert d’un pelage brunâtre avec une chevelure abondante, un genre de vie nocturne. Dépourvus de la parole, les almass vivent nus et n’utilisent pas d’instruments. Mais, à la différence des Yétis et bien que peu sociables, ils ne seraient guère dangereux.
- En Mongolie, les almass sont connus depuis longtemps. Déjà au xme siècle, Paolo Carpini, envoyé du pape dans ce pays, en avait fait mention. A son retour en Europe en 1427, après un très long séjour en Asie, le Bavarois Johann Schilberger dit avoir vu chez le chef de la Horde d’Or un couple d’Hommes-sauvages au corps velu ; ces hommes, ajoute-t-il, vivent dans des montagnes qui pourraient être l’Altaï. Le grand explorateur russe Prje-valski, à la fin du siècle dernier, note que les Mongols lui ont souvent parlé d’Hommes-bêtes au visage humain, au corps couvert de poils noirs et aux membres munis de griffes. Ce dernier détail fait penser à des ours et de fait, dans un monastère bouddhique, un soi-disant corps d’Homme-sauvage fut montré à Prjevalski en 1872 : ce n’était qu’un ours empaillé !
- Encore aujourd’hui cependant, s’il faut en croire l’ethnographe Rintchen, d’Oulan-Bator, la croyance aux Hommes-sauvages est restée la même qu’autrefois, à cela près qu’à l’inverse de ce qui avait été dit à Prjevalski, on leur attribue des ongles et non des griffes. On peut ainsi distinguer leur piste de celle des ours ; d’ailleurs, spécifie-t-on, dans certaines des régions où vivent les almass, il n’existe pas d’ours. M. Rintchen a recueilli divers récits sur des rencontres d’indigènes avec ces Hommes-sauvages. Il a rappelé qu’un rapport favorable à leur existence avait déjà été écrit en 1930 par le professeur Jamtsarano, mais tous les témoignages rassemblés par ces auteurs sont des témoignages de seconde main ; aucun n’apporte de preuves directes. A signaler en tout cas le fait que les almass se trouveraient de préférence dans la partie inhabitée du désert de Gobi, au voisinage de la frontière chinoise.
- Fig. 2. — L’ « Homme-sauvage » dans l’édition de Pékin du Dictionnaire anatomique tibétain.
- (.D’après la reproduction de E. Vlcek).
- On ne peut vraiment là parler d’Hommes des neiges !
- Des représentations d’almass sous forme de peintures murales auraient existé dans plusieurs lamaseries, celle d’Erden Zou en particulier. Mais ces fresques sont aujourd’hui presque toutes disparues ou du moins extrêmement détériorées. Quelques figures livresques ont été signalées. Au cours d’un voyage en Mongolie en 1958, l’anthropologiste tchèque E. Vlcek a trouvé, dans la bibliothèque de l’ancienne Université lamaïque de Gandan, un livre tibétain imprimé à Pékin vers la fin du xvme siècle et intitulé Dictionnaire anatomique pour le diagnostic des diverses maladies. Dans ce livre, et à propos d’une discussion sur la faune du Tibet et des régions voisines, une planche représente un Homme-sauvage sur un rocher à côté d’un groupe de Singes. Relevée par le Dr Vlcek (Old literary evidence for the existence of the « Snow Man » in Tibet and Mongolia. Man, vol. 59, août 1959), l’image de cet Homme est reproduite dans la figure 2. Il apparaît debout et couvert d’un épais pelage qui rappelle plus ou moins celui d’un ours, mais ses mains et ses pieds ont un aspect humain. Une édition du même livre publiée un siècle plus tard à Ourga redonne cette figure avec certaines modifications : le pelage est beaucoup plus atténué, la partie médiane du visage est complètement dépourvue de poils et les mains et les pieds portent des griffes visibles. La légende de cette seconde figure est la suivante : « L’Homme sauvage qui vit dans les montagnes ; son origine est voisine de celle de l’ours ; son corps ressemble à celui de l’homme et il a une, force colossale. Sa viande peut être utilisée pour soigner les maladies nerveuses et sa bile guérit la jaunisse. »
- M. Vlcek considère ces deux figures comme une preuve en faveur de l’existence de l’Homme des neiges. A l’appui
- 507
- p.507 - vue 505/560
-
-
-
- de cette affirmation, il note que tous les animaux représentés dans les diverses planches de l’ouvrage sont des animaux connus et dont les dessins sont très exacts. Une telle preuve cependant n’est guère convaincante. Divers traités d’Histoire naturelle .du Moyen Age représentent semblablement des licornes à côté d’animaux connus et dont la figuration ne laisse rien à désirer. Qui voudrait en conclure à l’existence des licornes ?
- Un masque rituel mais irréel
- C’est encore dans la catégorie des reproductions qu’il faudrait, d’après M. Uspenski, de l’Université de Moscou (une figuration inconnue de l’Homme des neiges. Medica, n° 15, 1961, p. 24-26), ranger un masque rituel bouddhique qui se trouve au Musée des Poupées de Moscou et provient d’une lamaserie de Mongolie (fig. 3). Ce masque, pour lui, aurait été modelé d’après une tête momifiée d’Homme des neiges. Mais cette supposition est purement gratuite : la disposition des dents avec 4 canines supérieures et 3 incisives en haut et 3 en bas suffit déjà à révéler de la part de l’auteur du masque une insouciance complète de la réalité. Le masque, pour M. Uspenski, serait d’origine tibétaine. Des masques identiques ne paraissent cependant avoir jamais été signalés au Tibet.
- En dehors de la Mongolie, les rapports de l’Académie des Sciences de l’U. R. S. S. font encore état d’un Homme-sauvage rencontré en 1941 sur le versant européen du
- Fig. — Masque tibétain du Musée des Théâtres de Poupées de Moscou, supposé représenter le crâne de l’Homme des neiges.
- Caucase où il vivait, nu, dans les montagnes enneigées du Daghestan. Il ne savait pas parler et son corps était velu. Une observation assez précise en a été faite par un médecin et il ne fait guère de doute qu’on n’ait là un de ces cas d’Hommes abandonnés et revenus à la nature comme on en a souvent signalé autrefois en Europe. Son existence n’aurait pas d’intérêt direct pour la question de l’Homme des neiges si le professeur Schreider n’avait fait remarquer à cette occasion que l’expression employée au Caucase, en langue cabardine, pour désigner des êtres d’apparence humaine mais couverts d’une épaisse toison n’était le mot aimas s ty qui rappelle curieusement le terme almass des Mongols. Mais peut-être, comme le dit lui-même M. Schreider, n’y a-t-il là qu’une simple coïncidence ?
- Revenant maintenant à l’Asie, il faut enfin signaler que, d’après le professeur Khoou-Waï-Lou, directeur du 2e Institut d’Histoire de la République populaire de Chine, la croyance aux Hommes-sauvages existe également dans ce pays. De tels êtres seraient relativement fréquents dans les montagnes au Sud du Chensi. Ne différant des autres Hommes que par leur grande pilosité, ces Hommes-sauvages seraient dépourvus de la parole et vivraient complètement nus. Les paysans chinois, avant la révolution, les chassaient et les réduisaient en esclavage, M. Khoou-Waï-Lou affirme en avoir vu un en 1954. Il pense que, sans leur être absolument identiques, ces Hommes appartiendraient au même groupe que les Hommes des neiges de l’Himalaya.
- Que faut-il retenir de tout ceci ? En ce qui concerne le Yéti proprement dit, on voit que les données sont loin d’être satisfaisantes. Les descriptions que l’on en fait varient ; les rares récits de rencontre avec lui sont sujets à caution ; les précisions que l’on donne sont incontrôlables. On a souvent l’impression qu’autant que d’un être en chair et en os, il s’agit là pour les montagnards d’un être surnaturel. Un tel fait ne peut étonner car on sait à quel point, chez beaucoup de peuples, s’interpénétrent les domaines de la réalité et du mythe : ce n’est pas une telle intrication qui nous aidera à connaître la vérité.
- Les rapports de l’Académie des Sciences de l’U. R. S. S. ont eu le grand avantage d’élargir d’une façon inattendue le domaine du Yéti ou du moins des Hommes-sauvages puisque, même en laissant de côté le cas facilement explicable du Daghestan, on voit que ceux-ci ont été signalés en Mongolie et en Chine. Mais, loin d’éclaircir le problème, cette extension ne fait que le compliquer, car rien ne prouve qu’Almass et Yéti soient la même chose. Et un fait surtout paraît étonnant : s’il est un endroit en Asie centrale où on devrait s’attendre à trouver le Yéti, c’est sur le versant septentrional de l’Himalaya, c’est dans le Tibet lui-même, pays de très haute altitude, qui continue directement l’Himalaya au Nord et est enneigé une grande partie de l’année. Or, abstraction faite du livre signalé par Vlcek, quand on passe au Tibet les traditions s’arrêtent brusquement pour ne reparaître que plus de 1 000 km plus loin, en Mongolie ! Une telle lacune est vraiment bien curieuse...
- Fig. 4. — A l’assaut du Mont Januu (7 710 m).
- Des membres de l’Expédition française de 1959, entre le camp III et le camp IV (6 400 m), dans le « couloir Terray ».
- 508
- p.508 - vue 506/560
-
-
-
- 'w*
- / , . s:
- '^>i^f "1$^# ' ’ ’ ""• ;,? |
- 1i;; f.r M
- W{
- ''W3V'« s a /.::
- " M V ,, il '<h VÂW/Aà, / >>
- . • ^v/>:/ ; H 4p-A
- /Si,/ /-x
- "Va
- 'w«i
- AV
- Vr-v
- <
- ?$V V,
- p.509 - vue 507/560
-
-
-
- Empreintes de pas dans la neige
- Par opposition aux traditions et aux récits trop imprécis des indigènes, l’observation dans la neige d’empreintes de pieds nus plus ou moins comparables à celles de l’Homme ou de grands Singes mais de beaucoup plus grandes dimensions a été longtemps considérée comme un argument vraiment objectif et qui prouvait l’existence du Yéti. Localisées à la zone de très hautes montagnes qui, sur une longueur de plus de 150 km, va du Karakoroum à l’Ouest au Sikkim à l’Est, de telles traces ont été signalées pour la première fois dans le Sikkim en 1889. Elwes, en 1906, en rencontrait à nouveau, puis Gent en 1915. Dès ce moment, les observations se multiplient et une vingtaine d’Européens actuellement ont dit ou écrit avoir vu ces empreintes, que certains ont photographiées, voire sommairement décrites. Le dernier en date est sans doute Sir Edmund Hillary, au cours de son expédition de i960.
- Parmi diverses descriptions publiées, je citerai d’abord, en raison de sa précision, celle de l’abbé Bordet, qui avait accompagné en tant que géologue les deux expéditions françaises au Makalu en 1954 et 1955 (Bulletin du Muséum national dy Histoire naturelle, 1955, p. 433-439). C’est dans un des cols du Barun, vers 4 000 ou 4 500 m d’altitude, que M. Bordet a rencontré les traces. Croisant transversalement le col, elles ont aussitôt été identifiées par les sherpas qui l’accompagnaient comme étant dues au Yéti. Toutes fraîches et n’ayant pas été vues le jour d’avant par un porteur de courrier qui avait passé le col, elles devaient avoir été faites la veille au soir ou le matin même. Suivies pendant un kilomètre et demi, elles se présentaient toutes de la même manière (fig. 5) :
- « Il s’agit, dit l’abbé Bordet, de la trace profonde d’un pied ayant une certaine ressemblance ayec le pied humain. La plante du pied est grossièrement elliptique et arrondie en dessous. Devant elle se trouvent les empreintes à peu près circulaires de quatre doigts (et non pas cinq), le premier vers l’intérieur est plus gros que les autres et peut-être légèrement en retrait, les trois autres sont disposés sur le pourtour antérieur de la plante du pied et très près de celle-ci. Ces doigts sont beaucoup plus gros que des orteils humains. Il n’y a pas de traces de griffes. Ce que l’on pourrait prendre pour tel sur les photos correspond à des traces faites par les doigts au moment où l’animal a retiré son pied du trou que celui-ci avait creusé dans la neige. Dans les meilleures traces, il existait encore de petits septa de neige entre les traces des doigts, ce qui montre que ceux-ci ne sont pas tout à fait jointifs au cours de la marche. La longueur de l’empreinte est d’environ vingt centimètres (le couteau visible sur la photo mesure 19 cm).
- « L’animal marche avec les pieds parallèles mais légèrement écartés. La longueur des pas était de l’ordre de cinquante centimètres, légèrement inférieure à celle des miens sur ce terrain glissant. D’ailleurs, la marche paraissait hésitante, l’animal n’était manifestement pas pressé et nullement inquiet. Le fait d’avoir croisé la trace des hommes ne l’avait pas ému. Il n’y avait aucune trace de queue. »
- Un fait étonnant dans cette description est que toutes ces traces ne portaient que quatre doigts, mais ce n’est pas toujours le cas. Dans son livre sur l’expédition de 1951 à l’Everest, E. Shipton (Up that mountain, Londres, 1956)
- Fig. J. — Empreinte du pied du Yéti sur un des cols du Barun.
- Le couteau a 19 cm de long.
- (Photo Abbé Bordet, Expédition française au Makalu).
- publie une photographie d’une empreinte de pied nu dans la neige qu’il attribue au Yéti. Grâce à l’excellence du cliché, un zoologiste anglais, M. Tschernezky, a tenté une reconstitution en plâtre de la semelle plantaire qui avait produit l’empreinte. Il en a fait une étude anatomique dont les conclusions essentielles ont été récemment présentées aux lecteurs de L,a Nature (3). La figure 6 montre que l’empreinte apparaît fort différente de celle relevée par l’abbé Bordet. Elle correspond à un pied beaucoup plus volumineux : 31 cm de long sur 18 cm de large. Il y a cinq orteils dont le deuxième, qui est le plus long, est extrêmement massif : aussi large à lui seul que les trois suivants réunis. Le gros orteil, bien séparé du précédent, est nettement en retrait sur lui, non oblique comme c’est le cas chez les Singes. Les orteils 3 à 5 sont semblables à ceux de l’Homme actuel et plus ou moins accolés.
- Que faut-il penser de telles empreintes ? M. Tschernezky fait appel à des comparaisons avec le pied du Gorille ou avec celui de l’Homme de Néandertal, qui sont insoutenables, mais le fait essentiel paraît être qu’aussi bien celle étudiée par lui que celles relevées par l’abbé Bordet, et que d’autres encore plus ou moins sommairement décrites dans la littérature, offrent toutes cette particularité de n’être vraiment identiques à rien de connu. Des empreintes d’ours devraient présenter des traces de griffes. Les empreintes du grand Semnopithèque de l’Himalaya, auquel on a pensé, seraient beaucoup moins volumineuses et le gros orteil serait beaucoup plus en retrait sur le bord externe du pied que ce n’est le cas sur la figure 6 ; ces Singes d’ailleurS semblent rester le plus souvent au-dessous de la limite des neiges. Les empreintes humaines enfin ont, on le sait, un aspect quelque peu différent. Ceci conduit à se demander si la forme atypique et d’ailleurs curieusement
- 3. Voir La Nature, juillet i960, p. 277. J’avais par ailleurs publié antérieurement dans L'Anthropologie, t. 64, i960, p. 382, une étude critique de ce moulage.
- 510
- p.510 - vue 508/560
-
-
-
- variable des empreintes attribuées au Yéti ne serait pas due à des déformations secondaires.
- Tous ceux qui ont fait de l’alpinisme dans la neige ont pu avoir l’occasion de constater que les traces qu’ils avaient laissées à l’aller et qu’ils retrouvaient sur leur chemin de retour avaient, dans l’intervalle, changé de forme. Le fait s’explique par l’action successive du soleil et du gel : sous l’influence du premier, la neige qui limite les bords de l’empreinte fond, si bien que l’empreinte s’agrandit, souvent irrégulièrement ; lorsque le soleil disparaît, le gel consolide les bords dans leur nouvelle situation. De telles modifications, qui ne sont jamais très prononcées dans les Alpes, paraissent prendre aux très hautes altitudes de l’Himalaya une ampleur parfois considérable. C’est ainsi que S. Pranavananda (Indian Geographical Journal, t. 30, 1955, p. 99) signale le cas de bergers qui surveillaient un ours rôdant au voisinage de leurs troupeaux à 4 500 m d’altitude. Repérant ses traces, ils constatèrent que les empreintes laissées par lui sur la neige et datant de quelques jours étaient une fois et demie plus longues et plus larges que celles faites en des endroits où le sol était dépourvu de neige ; en même temps, les lignes de séparation des orteils avaient disparu. Le même auteur, traversant en 1941 le col du Khandosanglam, vit dans la neige des empreintes de pied de près de 60 cm de long qu’il put identifier comme étant celles d’un lama passé là 25 jours plus tôt. Il note que non seulement le soleil peut changer les dimensions des empreintes, mais que les tempêtes de vent ont les mêmes effets et qu’en outre divers détails sont susceptibles de disparaître. Mais une observation encore plus catégorique est celle rapportée par Sir Edmund Hillary à la suite de son expédition à la recherche du Yéti.
- Traversant en octobre i960 le glacier du Ripimu sur les contreforts de l’Everest, entre 5 400 et 5 700 m d’altitude, et se trouvant dans une partie ensoleillée, il observa des empreintes que les sherpas déclarèrent sans hésiter être celles du Yéti. Larges et présentant des marques d’orteils, elles en avaient en effet le type général. Mais en suivant celles-ci, Hillary arriva sur une zone orientée au Nord et qui, protégée du soleil par un rocher, était restée à l’ombre : là, il eut la surprise de voir les traces devenir beaucoup plus petites et changer totalement de forme
- pour se continuer par une piste de petit carnivore, renard ou chien sauvage ! L’action du soleil avait non seulement déformé les empreintes mais amené par place la fusion de deux ou trois d’entre elles en une seule beaucoup plus large : ainsi était née une piste de Yéti. Or lè glacier de Menlung, sur lequel E. Shipton avait pris ses photographies, n’est qu’à 3 km de celui de Ripimu, et le compagnon de Shipton, le Dr Ward, avait justement noté que sur le premier de ces glaciers il y avait des pistes de divers mammifères. Avec juste raison, Hillary se demande si un phénomène identique ne se serait pas produit là aussi.
- Les preuves fournies par l’existence de prétendues empreintes de pieds de Yéti sont donc, on le voit, loin d’être catégoriques. Ces empreintes se présentent sous des formes et avec des dimensions très diverses ; qui plus est, elles ne se laissent ranger dans aucune catégorie connue, qu’on évoque des pieds de plantigrade comme l’ours, des pieds de Singes ou des pieds humains ; la plus extrême fantaisie paraît avoir présidé à leur disposition. Tout cela donne à penser que la théorie d’une déformation secondaire est très vraisemblable : les soi-disant empreintes de Yéti pourraient bien n’être que les traces de petits carnivores, de léopards des neiges ou d’ours, voire même d’Hommes, modifiées par l’action du soleil et éventuellement du vent, puis secondairement regelées. Ce ne sont pas elles certainement qui nous apporteront la certitude demandée.
- Les restes de Yéti
- On a vu plus haut qu’un prétendu almass, conservé en Mongolie et qui fut montré à Prjevalski, n’était qu’un ours empaillé. Dans plusieurs monastères bouddhiques du même pays, il y aurait eu autrefois d’autres restes d’almass, surtout sous forme de scalps. Une enquête faite tout récemment (1959) par les docteurs Dementiev et Zevegmid, de Moscou, au cours d’une mission zoologique en Mongolie, ne leur a pas permis d’en retrouver un seul. Les seules pièces actuellement existantes sont celles, attribuées au Yéti proprement dit, qui se trouvent dans des monastères du Népal et du Sikkim, c’est-à-dire dans la région où cet être est supposé vivre. C’est grâce
- Fig. 6. — Reconstitution en plâtre de la semelle plantaire du Yéti (à gauche) et empreinte obtenue dans la neige avec le modèle (à droite).
- La photographie de l’empreinte, à de minimes détails près, serait semblable à celle prise dans l’Himalaya par E. Shipton et d’après laquelle a été reconstituée la semelle plantaire.
- Photos aimablement communiquées par W. Tschernezky).
- su
- p.511 - vue 509/560
-
-
-
- à Sir Edmund Hillary, grâce à sa sagacité et à sa ténacité, qu’a pu être faite une étude sérieuse des principaux de ces documents.
- Dans trois localités différentes, Hillary avait su qu’il existait des peaux de Yéti. Non sans difficulté, il a pu se les procurer. Comme pour l’almass de Prjevalski, il s’agissait chaque fois d’une peau d’ours, et d’une variété rare de celui-ci, l’ours bleu tibétain. Les sherpas néanmoins ne voulurent jamais convenir qu’on avait là des ours ; tous unanimement déclarèrent que c’étaient des peaux du Shuteh, le plus grand des trois Yétis.
- A maintes reprises, les explorateurs de l’Himalaya avaient entendu parler de scalps de Yéti t}ui auraient été conservés dans divers monastères du Népal, mais personne jusqu’ici n’avait pu en faire une étude précise, à plus forte raison les transporter en un lieu où ils auraient pu être examinés scientifiquement. Sir Edmund Hillary a réussi à obtenir cet exceptionnel privilège. Un scalp, provenant du monastère de Khumjung, et réputé vieux de 250 ans au moins, lui a été prêté par les autorités du village. Accompagnée par un des notables de celui-ci, la précieuse pièce a été transportée successivement à Paris, à Londres et à Chicago. Elle a, dans chacune de ces villes, été examinée par un groupe spécialement convoqué d’anthropologistes et de mammalogistes. Le rapport détaillé de ces examens n’a pas encore été publié, mais les opinions de tous ceux qui y ont participé sont formelles : ce n’est pas là un scalp.
- La pièce de Khumjung (fig. 7) se présente comme un
- dôme aplati et couvert de longs poils qui a une vague ressemblance avec le cimier qui surmonte la tête de certains Gorilles mâles. Mais les poils qui la revêtent entièrement sont d’un aspect totalement différent de ceux d’un quelconque Primate. Us sont très épais, durs et raides, et de couleur noire avec par places des reflets rouges accentués ; en certains endroits, leurs extrémités sont blanches. Détail caractéristique : ils ne sont pas ordonnés par rapport à une zone centrale (le tourbillon du vertex) comme c’est le cas des cheveux de l’Homme et des Primates supérieurs, mais ils divergent à droite et à gauche de la ligne médiane du cimier, comme le font les poils de part et d’autre d’une échine de quadrupède. Et en fait, le soi-disant scalp n’est qu’un segment de la peau du dos d’un Ongulé, une espèce assez rare de Daim que Sir Edmund Hillary a pu identifier comme le Serow (Capricornis sumatrensis). Une preuve décisive en a été donnée par un des sherpas de l’expédition qui, prenant une peau de Serow et la ramollissant, puis la faisant sécher sur un bloc de bois taillé en forme de cimier, a pu lui donner un aspect qui concordait absolument avec celui de la pièce de Khumjung. Celle-ci n’était donc qu’un habile truquage.
- Une autre pièce aussi méritait investigation : une main desséchée et en grande partie réduite à son squelette, conservée dans le monastère de Pangboche et, elle aussi, attribuée au Yéti. Certains des Européens qui l’avaient vue avaient estimé que, tout en étant fondamentalement humaine, elle présentait néanmoins quelques caractères
- 512
- p.512 - vue 510/560
-
-
-
- Le Yéti, un mythe ?
- Fig. 8. — Squelette d’une prétendue main de Yéti.
- C’est la face dorsale d’une main gauche.
- (Croquis d’après une photographie de Sir Edmund Hillary).
- de Singe. Cette pièce n’a pas été transportée en Europe mais Sir Edmund Hillary a pu en prendre des photographies. Un dessin d’après l’une de celles-ci est représenté sur la figure 8.
- Son examen montre immédiatement que c’est là une main humaine. La forme des phalanges, leurs longueurs les unes par rapport aux autres et par rapport aux métacarpiens, la situation et les dimensions du pouce n’évoquent en rien ce que l’on observe chez les Singes et particulièrement chez les grands Anthropoïdes. Chez ceux-ci, par exemple, le pouce est plus ou moins atrophié, si bien que son extrémité atteint tout juste la base de la première phalange de l’index ou même reste en deçà de celle-ci : rien de pareil ne s’observe sur la main de Pangboche. Celle-ci, en outre, n’a pas du tout les grandes dimensions qui devraient être caractéristiques d’une main de Yéti ; c’est même le contraire, car elle est plus petite qu’une main d’Européen qui se trouve à côté d’elle sur la photographie originale. Et comme l’aspect des os montre que la pièce est une main d’adulte, on ne peut attribuer ses plus faibles dimensions à ce qu’on aurait eu là un enfant. L’examen ne laisse aucun doute : il s’agit d’une main d’adulte humain de petite taille.
- L’examen critique, auquel nous venons de nous livrer, des différentes preuves apportées en faveur du Yéti aboutit, on le voit, à un résultat presque entièrement négatif. Les preuves formelles que l’on avait espéré tirer de l’étude des pièces anatomiques attribuées à cet être se sont montrées complètement erronées. Les preuves tirées de l’étude des empreintes de pas peuvent être interprétées d’une autre façon et perdent par là la plus grande partie de leur valeur. Les traditions locales se montrent trop inconsistantes pour qu’on puisse s’appuyer sur elles, et d’ailleurs des arguments de cet ordre ne pourraient guère être considérés comme des preuves proprement dites, mais simplement comme des indications. La conclusion, c’est que dans l’état actuel de nos connaissances non seulement la preuve de l’existence du Yéti n’a pas été apportée, mais tout porte à conclure à sa non-existence. Comment une telle croyance a-t-elle donc pu se développer ?
- Il n’est guère douteux qu’un élément essentiel dans ce phénomène ait été ce fond mythique qui entre en jeu chez la plupart des populations primitives au contact des grands phénomènes de la nature et les pousse à les interpréter par l’intervention d’êtres extra-humains. Sur le versant Sud de l’Himalaya, que vient périodiquement battre la mousson d’été, il y a des orages et des tempêtes ; le vent hurle la nuit dans la montagne ; des avalanches s’écroulent dont le bruit se répercute à des kilomètres ; des ouragans soulèvent des tourbillons de neige qui risquent d’ensevelir les voyageurs. Quoi d’étonnant que, dans ce déchaînement des éléments, les montagnards croient à l’action d’êtres surnaturels dont ils entendent les voix dans les sifflements du vent, auxquels ils attribuent les morts dues aux chutes de roches ou aux avalanches ? Dans le même ordre d’idées, les nomades du désert d’Arabie ne croient-ils pas aux Djinns, dont ils entendent battre les ailes lorsque souffle sur eux le vent du désert ? Mais dans le cas de l’Himalaya il semble que, sur cette trame mythique, se soient greffés des êtres réels dont l’apparence plus ou moins humaine a "donné naissance à l’idée de l’Homme des neiges. De nombreuses raisons incitent à penser qu’en l’occurrence, il faut incriminer les ours.
- Un ours, dans le brouillard...
- Ces carnassiers sont relativement fréquents dans les régions où on dit trouver le Yéti et on en a signalé jusqu’à près de 6 ooo m d’altitude. Or il est bien connu que l’ours peut prendre de lui-même la posture bipède. Le Dr S. Prana-vananda, dans l’article que j’ai cité plus haut, relate qu’à maintes reprises des Népalais ou des Tibétains ont vu marcher ainsi, debout sur ses pattes postérieures, la variété dite « ours rouge » que certains appellent miteh, c’est-à-dire d’un des noms du Yéti. Un berger du Tibet oriental, qui avait eu, raconte le même auteur, son troupeau attaqué par un ours à 4 500 m d’altitude, vit l’animal, après qu’il eut tiré sur lui, se dresser et s’approcher debout ; il avait alors à peu près la hauteur d’un homme. D’autres bergers, près de Tomomopo, à 4 500 m d’altitude, rencontrèrent également un ours qui tantôt marchait sur ses quatre pattes, tantôt seulement sur les deux de derrière. Dans cette
- 513
- p.513 - vue 511/560
-
-
-
- seconde posture il était, dirent-ils, un peu plus grand qu’un homme de haute taille.
- Certes, dans tous ces cas, les observateurs indigènes ont bien vu qu’il s’agissait d’ours, mais en a-t-il toujours été de même ? Les brouillards sont fréquents sur le versant Sud de l’Himalaya et l’on sait à quel point, sur la neige et dans un brouillard éclairé par le soleil, on perd la notion des distances et des formes ; les êtres peuvent alors apparaître sous un aspect fantomatique. De nombreux cas en ont été signalés par les explorateurs arctiques ; il serait bien étonnant qu’il n’en soit pas de même dans l’Himalaya. Que dans un demi-brouillard qui déforme les objets un montagnard se trouve brusquement en face d’un ours qui, le voyant venir, se dresse sur ses pattes de derrière, et l’homme croira avoir en face de lui un Homme-ours, un miteh sur lequel se concrétisera sa croyance en des êtres surnaturels et maléfiques.
- Ainsi sans doute est née l’idée du Yéti. Qu’elle se soit développée est dans le cours normal des choses. Des montagnards ont ensuite déclaré avoir vu des Yétis au grand jour ; cela n’a rien d’étonnant : il y a à peine deux ou trois siècles, il y avait bien en France maintes gens qui affirmaient avoir rencontré des loups-garous ou des lutins ; des femmes, qui, n’ignorant rien du châtiment terrible qu’entraîneraient leurs déclarations, n’hésitaient pas à affirmer qu’elles s’envolaient la nuit pour assister au sabbat ; et, même aujourd’hui, ne dit-on pas qu’il y a encore en Grande-Bretagne des personnes qui sont persuadées d’avoir rencontré des fantômes ? Pourquoi l’imagination des sherpas népalais serait-elle moins fertile ?
- L’idée qu’une confusion volontaire ou involontaire avec l’ours est à la base de la notion de Yéti explique beaucoup de ses caractères : son épais pelage, sa force monstrueuse, sa férocité. Elle explique .pourquoi les prétendus Yétis présentés à Sir Edmund Hillary n’étaient que des peaux d’ours que les villageois se refusaient cependant à reconnaître comme telles. Elle explique peut-être aussi un certain nombre des empreintes de pied. Déjà l’anatomiste anglais Wood Jones, dans un livre paru il y a trois ans (Hallmarks of Mankind, Londres, 1958), avait signalé que l’animal dont les traces sont le plus souvent confondues avec les nôtres est l’ours. Il avait rappelé à ce propos le cas tout récent de l’énigmatique « Orang pendek » de Bornéo, nom créé pour des empreintes de pas qu’on attribuait à une tribu encore inconnue de Pygmées de très petite taille ; on ne devait pas tarder à reconnaître qu’il s’agissait de traces d’ours malais. Cherchant les débris alimentaires jetés à côté des maisons, l’ours de l’Himalaya vient sans doute la nuit rôder autour des villages et laisse sur la neige des traces qui, rapidement déformées, sont interprétées le lendemain comme celles d’un Yéti.
- Nous avons vu que ce n’est que sur le versant sud de l’Himalaya que l’on parle de cet être ; c’est sur ce versant en effet, où des chaînes, dont les sommets dépassent 8 000 m,
- se dressent brusquement au-dessus de la plaine, que la montagne avec ses pentes abruptes, ses profonds ravins, ses avalanches, les brouillards dus à la mousson, revêt l’aspect le plus tragique, le plus susceptible de frapper l’imagination humaine. Sur le versant nord, la dénivellation est de plus de moitié plus faible, le passage aux hauts plateaux du Tibet est beaucoup plus progressif. Si le climat reste aussi inhospitalier, les conditions géographiques sont bien différentes et ceci explique sans doute que les histoires de Yéti n’aient plus cours. Quant aux récits recueillis en Mongolie, certains d’entre eux doivent relever de la même explication que le Yéti si l’on en juge par l’ours montré à Prjevalski. Mais il est plausible qu’ici, et pareillement en Chine, le terme d’almass couvre aussi certaines tribus très primitives réfugiées dans les montagnes. A part leur forte pilosité, ceux qui furent vus au xve siècle par Schilberger comme celui qui fut montré à Khoou-Waï-Lou sont décrits en effet comme pareils aux autres Hommes. Aurait-on en eux des vestiges d’un groupe apparenté aux Aïnou du Japon, race remarquable par sa pilosité et dont on n’a pas encore trouvé de représentants sur le continent asiatique, race qui justement pratique le culte de l’ours ? Il est difficile de répondre.
- L’Homme des neiges en tant que tel paraît donc un mythe. Cette conclusion pourra sembler excessive à certains. On a fait à juste titre remarquer que les Pygmées du Centre de l’Afrique, cités par les anciens Grecs, ont été longtemps considérés comme une fable jusqu’à ce que, en 1870, ils aient été retrouvés par des explorateurs européens. On a cité le cas de l’Okapi, signalé par les Noirs de la forêt congolaise et cependant regardé comme un être imaginaire jusqu’à ce qu’on en ait tué un. Mais le cas de l’Okapi est unique et, en ce qui concerne les Pygmées, il ne faut quand même pas oublier que ceux mentionnés par les Grecs auraient eu 30 cm de haut, alors que ceux que nous connaissons ont de 1,40 m à 1,50 m ; la réalité est donc bien différente de la tradition. Et combien d’autres Hommes étranges ont été décrits que nous savons maintenant n’avoir certainement pas existé : les ogres et les géants d’un folklore presque universel, les kobolds et les gnomes de l’Europe occidentale et nordique, les Hommes à queue que divers explorateurs affirmaient avoir vus en Afrique et en Asie, sans compter des animaux comme la licorne ou le phénix de l’existence desquels on n’a pas douté pendant longtemps, ou les êtres mi-humains mi-animaux qu’étaient les centaures et les satyres. Autant de croyances périmées qui donnent le droit d’être sceptique !
- Certes, théoriquement, le Yéti pourrait exister, comme pourrait exister le grand Serpent de mer, comme rien ne s’oppose anatomiquement à ce qu’existe une race d’Hommes à queue, mais tant que nous n’avons pas vu les uns ou les autres nous avons le droit de ne pas y croire. C’est là, semble-t-il, la seule attitude scientifique convenable.
- H.-V. Vallois,
- de l’Académie de Médecine,
- Directeur honoraire du Musée de l’Homme.
- 514
- p.514 - vue 512/560
-
-
-
- Les prix Nobel de Sciences 1961
- par Fernand Lot
- Physiologie et Médecine :
- Georg von Bekesy
- Explorateur de l’oreille interne, Georg von Bekesy 0 a reçu pour ses travaux le prix Nobel de Physiologie et de Médecine.
- On célèbre plus volontiers l’œil que l’oreille, quand on veut donner un exemple des réalisations les plus miraculeuses de la nature. Notre oreille, pourtant, est aussi un merveilleux chef-d’œuvre instrumental, d’une sensibilité exquise, d’ailleurs sagement limitée, car si elle possédait une finesse plus grande encore, il serait fort importun d’entendre perpétuellement le bruit de fond dû à l’agitation thermique des molécules de l’air.
- Ne nous attardons pas au pavillon, orientable chez beaucoup de mammifères, permettant ainsi de capter le maximum d’énergie vibratoire et de la mieux conduire au tympan qui, vers l’intérieur, ferme le conduit auditif. En pénétrant dans l’oreille moyenne, on gagne l’important ; et ici règne la complexité. Rappelons que, cavité remplie d’air, elle communique avec le pharynx par la trompe d’Eus-tache. C’est un organe de transmission reliant le tympan à l’oreille interne. Le tympan, membrane élastique, porte le marteau, premier élément de la chaîne des osselets. Entraîné par les vibrations du petit tambour tympanique, le marteau agit sur l’enclume, deuxième osselet, articulé au troisième et dernier, l’étrier, lequel retentit à son tour sur la membrane élastique fermant la fenêtre ovale ménagée dans la paroi osseuse de l’oreille interne. Celle-ci contient les canaux semi-circulaires qui constituent, avec l’utricule et le saccule, l’organe de l’équilibration. Le saccule se continue en un long canal enroulé sur lui-même, le limaçon ou cochlée, qui contient les cellules sensorielles dont l’excitation provoque la sensation auditive. L’oreille interne a reçu le nom de labyrinthe. Elle le mérite bien.
- Les divers organes qui viennent d’être mentionnés baignent dans un liquide légèrement visqueux, la périlymphe, et en renferment un autre, l’endolymphe. Les vibrations sonores, arrivées sur la fenêtre ovale par l’intermédiaire du tympan et de la chaîne des osselets, se propagent dans la périlymphe qui baigne le limaçon, à l’intérieur duquel la membrane basilaire supporte l’organe de Corti. Ce dernier transforme les vibrations en potentiels nerveux cheminant vers l’écorce cérébrale, où ils déclenchent la sensation sonore.
- De Vésale, au xve siècle, à Helmholtz, au xixe, on passa de la première description anatomique de l’oreille à la
- i. Voir : Les théories de l’audition, par André Gribenski, La Nature, avril, mai, juin, juillet et août 1954. Le quatrième article expose les expériences et les résultats de M. von Bekesy (juillet 1954, p. 263-268).
- première explication physiologique du mécanisme de la transmission des sons, Helmholtz ayant abordé la question tout à la fois en physiologiste, en physicien et en mathématicien. Au cours du dernier demi-siècle, on a vu se multiplier les expériences et s’approfondir les théories. Et l’on doit ici un apport considérable à Georg von Bekesy qui, pour sa part, a œuvré en physicien et en mathématicien, ainsi qu’en expérimentateur.
- Né en Hongrie le 3 juin 1899, ^ étudia d’abord en Suisse, à l’Université de Berne, puis passa sa thèse de doctorat ès sciences à Budapest, en 1923. Devenu ingénieur spécialisé dans les techniques de communication, au laboratoire de recherches de la Compagnie hongroise des téléphones, il commença de s’intéresser à l’acoustique physiologique. Après un séjour à Berlin, il devint en 1939 professeur à l’Université de Budapest. Ayant quitté sa chaire en 1946, il alla s’établir à Stockholm, où il poursuivit ses travaux à l’Institut Carolin. Peu après, en 1947, il devenait maître de conférences au laboratoire de psycho-acoustique de l’Université de Harvard, où il réside toujours. L’importance de ses découvertes lui a déjà valu plusieurs hautes récompenses, notamment le prix Denker d’otologie (1931), la médaille de l’Académie Leibnitz (1937), la médaille de la Société américaine d’otologie (1957).
- Au départ, il y a plus de trente ans, s’interrogeant sur les énigmatiques phénomènes qui se produisent dans l’oreille et sur les propriétés mécaniques des membranes qui interviennent en ces processus, il s’attaqua à la question en s’appuyant, étant donné le rôle capital joué par le liquide labyrinthique, sur des considérations hydrodynamiques. Pour ses recherches expérimentales, il construisit un modèle de limaçon, figurant une cochlée simplifiée, agrandie cinq fois, pourvue de membranes de caoutchouc qui simulaient la membrane basilaire ainsi que les membranes par lesquelles sont obturées fenêtre ronde et fenêtre ovale, tandis que l’équivalent de l’étrier était mû par un diapason entretenu électriquement. Quant au liquide labyrinthique, il en obtint le similaire avec une solution de glycérine à la viscosité convenable, dont les mouvements, matérialisés au moyen de fines particules de charbon en suspension, purent être étudiés. Ce modèle, et d’autres analogues, allaient permettre des observations du plus grand intérêt et, même, conduire à expliquer le fait curieux que la discrimination des fréquences n’est pas modifiée par les maladies de l’oreille moyenne.
- L’expérimentateur devait ensuite mener ses investigations sur des cochlées fraîchement prélevées post mortem et préparées selon une technique toute spéciale. Un étrier artificiel étant, ici encore, adapté à la fenêtre ovale et mû par un dispositif électrique, l’observation des membranes naturelles, rendues visibles par de très fins grains d’argent,
- 515
- p.515 - vue 513/560
-
-
-
- était effectuée au microscope sous un éclairage strobosco-pique.
- Georg von Bekesy est ainsi parvenu à préciser le rôle de transformateur d’énergie que joue le limaçon dans l’oreille de l’homme, celle-ci ayant mission, selon des processus mécaniques et vibratoires complexes, d’exécuter cette opération d’une difficulté singulière : distribuer de façon telle, en l’intimité de ses délicats organes, l’énergie des vibrations reçues par le tympan, que cette énergie, malgré la différence entre le milieu vibrant externe (l’air) et le milieu interne (liquide labyrinthique), soit finalement restituée avec les valeurs relatives exactes de ses composantes.
- Chercheur solitaire et discret, Georg von Bekesy ne se repose de ses travaux que pour s’adonner à l’archéologie, en s’intéressant particulièrement à l’art pré-colombien.
- , Physique :
- R. Hofstadter et R. Mossbauer
- Le prix Nobel de Physique a été partagé entre deux physiciens travaillant tous deux Outre-Atlantique, l’un américain, Robert Hofstadter, l’autre allemand, Rudolf Mossbauer.
- Robert Hofstadter est âgé de 46 ans. Diplômé de l’Université de Princeton en 1938, il est devenu professeur à l’Université de Stanford. Et on l’a vu suivre la voie royale ouverte par Rutherford et Niels Bohr.
- Entre autres grands problèmes posés aux physiciens nucléaires, il y a celui qui concerne la répartition de la charge des particules électrisées. En recourant au puissant accélérateur linéaire d’électrons de Stanford, qui peut communiquer aux particules une énergie d’un milliard d’électron-volts, Robert Hofstadter a bombardé des noyaux d’hydrogène, c’est-à-dire des protons, étudié la diffusion des projectiles, et pu établir que la charge du proton n’est pas ponctuelle : elle s’y répartit de façon non homogène. Le proton apparaît ainsi comme ayant une structure complexe.
- Il y a des raisons de penser qu’il en va semblablement pour la charge de l’électron, mais de nouveaux dispositifs expérimentaux seront nécessaires pour étudier cette charge, car il est extrêmement difficile de faire diffuser un électron par un autre électron, étant donné l’extrême ténuité de la particule et les vitesses énormes auxquelles il faut l’accélérer, qui rendent les chances d’impact excessivement rares. On recourra ainsi à des « anneaux de stockage », dans lesquels les électrons iront s’accumulant en quantités suffisantes pour produire des collisions révélatrices.
- Expérimentant sur des noyaux plus lourds que le noyau d’hydrogène, c’est-à-dire constitués d’un certain nombre de protons et de neutrons, le professeur Hofstadter a pu également préciser la répartition de leur charge, qui occupe alors un plus grand volume, celui-ci étant proportionnel au nombre des nucléons présents dans le noyau.
- En ce domaine étonnamment subtil, l’intérêt fondamental des recherches est tel qu’il a justifié la coûteuse construction, en France, à la Faculté des Sciences d’Orsay, d’un grand accélérateur linéaire d’électrons, lequel est en passe de devenir le plus puissant instrument de ce type dans le monde. Notons que les accélérateurs linéaires d’électrons présentent sur les accélérateurs circulaires (synchrocyclo-trons, synchrotrons à protons) l’avantage suivant : ils font
- intervenir des particules qui ne peuvent avoir que des effets purement électromagnétiques. Us ne mettent pas en jeu les forces nucléaires. Les électrons n’ont, en effet, avec les noyaux d’autre interaction que celle due à leur charge et à leur moment magnétique, ce qui permet de couvrir un domaine fondamentalement plus simple. Avec, d’une part, le neutron, qui interagit par des forces purement nucléaires et, d’autre part, l’électron, on dispose de deux « sondes » différentes pour l’exploration profonde de la matière.
- *
- * *
- Né le 31 janvier 1929 en Bavière, Rudolf Mossbauer n’a donc que trente-deux ans (il a toutefois, dans l’ordre du Nobel, des « cadets » : les deux théoriciens sino-américains Tsung Dao Lee et Chen Ning-Yang, âgés respectivement de 31 et de 35 ans, qui furent couronnés en 1957). Après avoir fait ses études à l’Institut Technique de Munich,, dont il fut diplômé en 1955, R. Mossbauer était invité, en i960, à poursuivre ses travaux à l’Institut de Technologie de Pasadena, dans les laboratoires de recherche nucléaire. Mais c’est en 1958, alors qu’il se trouvait encore en Allemagne, qu’il obtint les résultats que récompense aujourd’hui le prix Nobel.
- Ces travaux ont porté sur le phénomène de la résonance nucléaire. On sait que les noyaux d’atome peuvent être « excités », c’est-à-dire exister dans des états d’énergie supérieure à celle de leur état stable, dit encore « état fondamental ». Par exemple le fer 57, dans l’état d’énergie immédiatement supérieur à celui de l’état fondamental, redevient stable en émettant un ' photon y d’une énergie de 14,4 kiloélectron-volts, et les photons de cette énergie sont électivement absorbés par les noyaux de Fe 57, qui deviennent alors excités, et réémettent à leur tour sur la même longueur d’onde.
- Mais dans les conditions ordinaires, cet effet de résonance est pratiquement inobservable. Lors de l’émission d’un y le noyau recule (comme un canon qui tire) et l’énergie du y est diminuée de l’énergie cinétique du noyau. En outre, l’agitation due à la température fait varier l’énergie des photons par effet Doppler. Il en résulte que très peu de photons y ont l’énergie qui correspond au maximum d’absorption par les noyaux stables.
- Robert Mossbauer a triomphé de ces difficultés en utilisant des réseaux cristallins assez réguliers pour que les noyaux, fortement liés, ne puissent avoir de recul notable, et refroidis à la température de l’azote liquide pour supprimer l’effet Doppler. Et grâce à un ingénieux dispositif il a pu mettre en évidence l’absorption de résonance nucléaire de l’iridium 191. Ces expériences, dit le communiqué de l’Académie suédoise, ont été « magnifiquement conçues et interprétées », accomplies « avec des appareils remarquablement simples et pourtant efficaces ».
- Cette apparition de la résonance nucléaire constitue 1’ « effet Mossbauer », dont l’importance est considérable. Non seulement il permet de préciser les durées de vie et la structure hyperfine des transitions nucléaires et apporte des possibilités nouvelles d’investigation en physique des solides, mais il met à la disposition des physiciens une « horloge » d’une sensibilité inégalée, en autorisant la mesure de différences de fréquence extraordinairement petites. Telle est l’acuité atteinte ici qu’il est devenu possible de vérifier au laboratoire la Relativité générale.
- 516
- p.516 - vue 514/560
-
-
-
- En vertu des propriétés métriques de l’espace-temps, tel que le conçoit la Relativité générale, on doit prévoir le ralentissement des horloges dans un champ de gravitation, c’est-à-dire un certain allongement des intervalles de temps. C’est cet effet qui joue dans le cas du déplacement de tout le spectre vers le rouge, pour la lumière d’une étoile hyper-dense (naine blanche).
- Cet effet doit pouvoir être mis en évidence au moyen d’une horloge terrestre dont la variation avec l’altitude serait mesurable. En recourant aux plus précises des « horloges » réalisées jusqu’à présent, horloges atomiques et moléculaires, il aurait fallu pour cela effectuer des mesures, avec deux de ces appareils très délicats, sur une base verticale de dix kilomètres au minimum, ce qui est actuellement irréalisable.
- Or, dans l’expérience instituée aux États-Unis, à l’Université Harvard, par Robert Y. Pound et Glen A. Rebka, c’est à 22 mètres qu’a pu être réduite la longueur de cette verticale, par le recours à l’effet Môssbauer. Cette expérience, qui a d’ailleurs été réalisée dans divers pays, avec des variantes, a permis de mettre en évidence l’effet qu’avait prévu Einstein (voir à ce sujet ~L,a Nature, novembre i960, p. 449-45 5)-
- Chimie : Melvin Calvin
- Né à Saint-Paul (Minnesota) le 7 avril 1911, le professeur Melvin Calvin passa son doctorat en chimie en 1935, dans sa ville natale. Après avoir été boursier de la Fondation Rockefeller, pendant deux ans, à Manchester, il a été attaché à l’Université de Californie, où il continue de travailler. Le prix Nobel de Chimie lui a été attribué pour ses travaux sur la photosynthèse. C’est là un problème-clé de la biochimie, puisqu’il s’agit de l’utilisation de l’énergie solaire par les plantes vertes. Par cette opération cardinale, permise grâce à leur chlorophylle, les végétaux fabriquent, à partir du gaz carbonique et de l’eau, les substances complexes nécessaires à leur vie, en premier lieu les sucres et les protéines. La complète connaissance de ce mécanisme représenterait pour l’humanité une de ses plus décisives conquêtes, car elle permettrait peut-être d’utiliser l’énergie solaire pour des synthèses organiques mieux que ne le font les plantes dans les conditions naturelles.
- Or, il s’agit ici d’une opération incroyablement compliquée. Les photons solaires tombent sur les pigments végétaux qui en répercutent l’énergie vers les enzymes par lesquelles s’effectue la fixation de l’hydrogène de l’eau sur le gaz carbonique, et deux étapes sont à distinguer : une « phase lumineuse », captation de l’énergie de la lumière ;
- une « phase sombre », utilisation de cette énergie dans les synthèses chimiques. Le grand œuvre du biochimiste, ici, consiste à découvrir les multiples et fugaces corps intermédiaires produits, car c’est par un chemin très compliqué, et parcouru à une fulgurante allure, que l’on va du gaz carbonique à la matière vivante. La nature prestidigitatrice enchaîne ses réactions si rapidement qu’il s’en déroule une longue série en l’espace d’une seconde, et il n’est pas aisé de surprendre au vol le secret de ses tours de passe-passe chimiques...
- Avec son équipe du Laboratoire des Radiations de Berkeley, en particulier avec la collaboration de J. A. Bas-sham, le professeur Calvin a fait faire à ces recherches les progrès les plus décisifs, en conduisant de multiples expériences, dans des conditions très variées, sur des algues unicellulaires et sur des feuilles de plantes supérieures, et en mettant au point des analyses chimiques d’une grande délicatesse. Par l’emploi, notamment, d’ingénieux appareils où des algues peuvent être illuminées (et éventuellement laissées ensuite à l’obscurité) pendant des temps très courts, en présence de doses rigoureusement contrôlées de COa marqué au carbone 14 radioactif, puis aussitôt engagées dans les processus d’analyse aboutissant à la chromatographie sur papier et à l’autoradiographie des chromato-grammes, M. Calvin a pu déterminer un grand nombre de substances intermédiaires, notamment de sucres divers, l’ordre dans lequel ils apparaissent, et définir un « cycle de réduction photosynthétique du carbone » où interviennent toute une série d’enzymes. Il a notamment établi que le premier corps synthétisé était l’acide 3-phospho-glycérique (2).
- Le professeur Calvin s’intéresse beaucoup à la question de la possibilité de la vie sur d’autres planètes. Ayant procédé à l’analyse chimique de divers échantillons de météorites, il aurait pu y reconnaître la présence de nucléotides. Considérant que les planètes du système solaire sont vieilles d’environ 5 milliards d’années, que sur certaines d’entre elles, l’eau, l’azote, l’ammoniac, le méthane et l’hydrogène ont probablement suivi une même évolution moléculaire que sur la Terre, et que l’apparition de l’Homme sur celle-ci ne remonte guère à plus d’un million d’années, il pense que l’on doit s’attendre à trouver les traces d’une vie cellulaire à la surface de plusieurs de ces planètes. Sur ce point, les explorations spatiales de demain nous apporteront, sans doute, une réponse.
- Fernand Lot.
- 2. Voir Le cycle du carbone dans la photosynthèse, par J. A. Bassham et M. Calvin, i vol. 11 x 17, 112 p., 22 fig. Monographies Dunod, Paris,1959.
- 220 C à la surface de Jupiter ?
- Selon un chercheur de l’Université de Californie, Cari Sagon, îl régnerait à la surface de Jupiter une température de l’ordre de 220 C alors qu’on pense communément que les températures sont beaucoup plus basses en raison de l’éloignement de cette planète du Soleil (778 millions de km). La cause en serait un effet de serre dû aux nuages d’ammoniac qui recouvrent la surface de Jupiter.
- Ce chercheur a également procédé à plusieurs expériences
- reproduisant les conditions atmosphériques qui existent sur cette planète et a montré que des molécules organiques simples pouvaient se créer grâce à l’action combinée des rayons ultraviolets de la lumière solaire et des décharges électriques atmosphériques. M. Sagon estime même que ces molécules, une fois dissoutes dans les mers de Jupiter, créeraient des conditions favorables à la production des réactions organiques complexes permettant la naissance de la vie. Mais c’est là une autre histoire...
- 517
- p.517 - vue 515/560
-
-
-
- Projet Mohole : percer l’écorce terrestre sous les océans
- par Jacques Fouchet et Yves Mériel
- Au bout de plusieurs siècles d’existence, la science géologique est parvenue inopinément devant une sorte de fossé qu’il lui faut franchir pour relier les connaissances déjà acquises et confirmées à une série de connaissances nouvelles qui risquent de bouleverser certaines théories traditionnelles.
- Toutes les hypothèses en effet qui ont eu cours jusqu’à présent sont principalement fondées sur l’observation des continents, observation enrichie graduellement par une abondante quoique insuffisante suite de, sondages. Ces sondages terrestres ont percé de puissantes assises sédi-mentaires, prouvant par là qu’une partie importante des continents a été immergée à différentes époques. D’où la conclusion (qui reste d’ailleurs à vérifier) que la plupart des phénomènes géologiques se sont produits sous les mers, c’est-à-dire dans le milieu qui, par la force des choses, n’a pu être atteint que très sporadiquement dans son état présent par l’investigation des géologues.
- On en a été réduit en somme à des reconstitutions qui peuvent être plausibles, mais dont la valeur serait évidemment beaucoup plus grande si elles pouvaient être fondées sur une large prospection du milieu océanique, sous l’angle de la géologie dynamique. Au lieu de la seule observation des vestiges fossiles, on ferait porter le poids de la science géologique sur une documentation bien plus actuelle, puisqu’elle serait recueillie là où, selon toute vraisemblance, les phénomènes sont en train de se produire. Parmi ces phénomènes, nous citerons : la sédimentation, la diagenèse (évolution lithologique des sédiments) et tous les phénomènes tectoniques relevant de l’orogénie (genèse des montagnes), de l’épirogénie (genèse des continents), du volcanisme, etc. Rien de surprenant dès lors si le champ d’action des géologues tend à s’élargir vers les océans, peut-être même, à une certaine échéance, à se concentrer sur l’observation et le sondage des fonds marins.
- Nous aurons d’ailleurs l’occasion de signaler que le sondage sous-marin, si l’on en croit certaines données gravimétriques, aurait plus de chances que le sondage continental de traverser l’écorce solide de la Terre et d’atteindre ainsi le manteau (zone où les roches sont à l’état fluide) et d’y trouver la clef des phénomènes géologiques.
- Chaînes et sillons sous-marins
- Il se trouve, ce dont on ne saurait être surpris, que l’exploration purement géologique des océans a été précédée par une exploration topographique, devenue bien plus vaste et plus détaillée depuis l’utilisation, sur les navires, des écho-sondeurs. C’est grâce à ces appareils que les océanographes ont eu la surprise de voir se dessiner, à travers tous les océans, une structure montagneuse qui semble conserver presque de bout en bout la même allure.
- Dans l’Atlantique, çette chaîne paraît occuper, fort curieusement, une position équidistante par rapport aux continents qui bordent cet océan. Elle se présente sous une forme nettement caractéristique. Surgissant au milieu de la vaste plaine océanique, elle est formée de deux rubans montagneux parallèles dont les crêtes ne sont séparées de la surface que par des hauteurs d’eau de i 200 à 2 400 m. Entre les deux rubans de la chaîne s’ouvre un sillon central (rift valley) dont le fond atteint des profondeurs qui varient entre 3 000 et 5 000 m et dont la largeur est de 12 à 45 km (fig. 2, à droite).
- Ce profond sillon selon l’axe de la chaîne atlantique a suggéré une « hypothèse de travail » selon laquelle les grandes chaînes sous-marines dessineraient un réseau continu de fractures de l’écorce terrestre, réseau qui engloberait au moins une grande ligne de fracture continentale, celle qui affecte l’Afrique orientale. Sur la figure 1, dessinée d’après une carte établie par M. Bruce E. Eleezen, on peut suivre le tracé de ce réseau. Prenant arbitrairement comme point d’origine le tronçon atlantique, situé, avons-nous dit, sur l’axe géographique de l’océan, on le voit se prolonger au sud de l’Afrique par une chaîne qui se raccorde, dans l’Océan Indien, à la chaîne de Carlsberg (plus anciennement connue) et qui, remontant vers le nord, se divise à l’entrée de la Mer Rouge. Un tronçon borde la côte sud de l’Arabie en direction du golfe du Bengale. Un deuxième tronçon se raccorde à la longue zone de fractures qui s’étend à travers le continent africain, en suivant la ligne des grands lacs africains, et aboutit à la partie septentrionale de la Mer Rouge.
- Un autre embranchement qui prend son origine à l’est
- 518
- p.518 - vue 516/560
-
-
-
- Chaînes montagneuses I sous-marines /
- W
- grcenland
- AMÉRIQUE
- ISLANDE
- ^20°
- W
- Canal ' Lynn \
- Faille
- San Andréas
- O U
- .1
- OCEiAN
- EUROPE
- NQBO
- OCEAN \
- Plateau\
- A E
- Lquateur
- Albatross
- \
- V"'
- AMERIQUE DU
- luDii
- PA C I F (I Q U E
- \
- s._
- 1G0=
- 120°
- I /
- >
- ATLANTIQ
- /
- \
- \
- \
- ASIE
- R I Q U Ef y
- ......d'Aden^i
- Equateur
- iîFente de I rî'üiïhSnr, S^I'Ëst africainf Carlsberg
- 1 Locéan
- f\
- * \
- y '
- /' I n\d I E
- / -V
- Australie
- N
- ZELANDE
- V /
- V_.
- 80°
- JF/jr, J. — Tracé approximatif du réseau de fractures qui aurait déterminé la formation des chaînes sous-marines. Explications dans le texte.
- (Imité de Bruce E. Heezen, dans Scientific American).
- de Madagascar se dirige vers l’est, se divise à nouveau en deux branches dont l’une s’arrête à la Nouvelle-Zélande. L’autre contourne le continent antarctique puis remonte vers le nord, traçant tout d’abord un demi-cercle à travers le Pacifique pour rejoindre ensuite les abords du continent nord-américain qu’elle recouperait en partie, par le golfe de Californie, dont l’aspect linéaire rappelle d’ailleurs celui de la Mer Rouge.
- Si l’on en croit Heezen et Tharp, cette structure, qui ceinture toute la planète en un tracé sinueux, serait donc une zone de fractures, ce que justifieraient à la fois la nature volcanique des deux chaînes sous-marines parallèles et le fait que, pour la plupart, les épicentres des secousses séismiques observées dans les océans ont pu être localisés dans ces régions. Cette interprétation est en majeure partie issue d’une observation de l’Océan Atlantique, mieux étudié que les autres océans.
- Jusqu’ici, les carottes prélevées par les navires océanographiques paraissent justifier cette opinion : les chaînes montagneuses sous-marines livrent des échantillons de matériaux (roches et débris) nettement volcaniques. Quant au sillon médian, on peut l’assimiler à une zone
- d’effondrement, analogue tectoniquement à la Limagne et à la vallée du Rhin entre Vosges et Forêt-Noire. Cette assimilation est d’ailleurs superficielle, car les zones d’effondrement terrestres affectent des régions où la nature des roches est entièrement différente de celle des roches sous-marines et où le volcanisme est souvent absent, ce qui est le cas pour la plaine d’Alsace.
- Le sillon, a-t-on supposé, pourrait provenir d’une distension générale de l’écorce terrestre qui aurait favorisé la remontée marginale du magma fluide sous-jacent, solidifié par la suite sous forme de roches volcaniques Q). On assisterait ainsi à la formation d’une sorte de cicatrice, béante en son centre et bordée latéralement par deux bourrelets. Cela serait dû à une particulière minceur de l’écorce (5 à 7 kilomètres seulement contre une trentaine sous les continents). Quant à la distension, elle pourrait être attribuée à certains mouvements de convection interne du magma, dont l’interprétation mécanique est d’ailleurs encore très conjecturale.
- Cette série d’hypothèses est confrontée avec la théorie de Wegener selon laquelle les continents, masses solides « flottant » sur le magma visqueux, se sont déplacés à travers les âges géologiques, ce que tendraient à prouver les
- 1. Il est à remarquer qu’au milieu d’autres roches basiques et ultrabasiques (diabases, gabbros, serpentines), on a également rencontré une roche semi-basique, de composition voisine de celle de Yêclogite, rencontrée dans les massifs montagneux des continents.
- 519
- p.519 - vue 517/560
-
-
-
- recherches paléomagnétiques (voir La Nature, septembre 1958, p. 350) qui démontrent des changements importants de la position géographique des continents par rapport aux pôles. On sait que Wegener en a induit que les continents, autrefois assemblés en un seul bloc, seraient partis à la dérive, s’éloignant progressivement les uns des autres.
- Cette théorie de Wegener ne conserve que peu d’adeptes et de nouveaux exégètes, se fondant sur la présence des sillons sous-marins, inclineraient plutôt vers une interprétation toute différente : au lieu d’une dérive de large amplitude des continents, on assisterait à une expansion générale de l’écorce terrestre qui se traduirait en effet par une distance plus grande entre les continents, mais cette « prise de distance » serait d’une échelle beaucoup plus modeste. Elle se mesurerait en effet par les 12 à 45 km du sillon océanique, plaie linéaire dans laquelle seraient venues se solidifier les roches du magma, en majorité basaltiques et associées localement à des péridotites ou autres roches ultrabasiques (voir La Nalure, février 1959, p. 63).
- On peut se rendre compte que cette nouvelle théorie, en train de s’ébaucher, est à peine mieux fondée que celle de Wegener. Pourquoi la Terre tendrait-elle à augmenter de volume ? Des explications qui ne convainquent pas tout le monde ont été avancées : diminution de valeur de la constante de gravitation au cours de l’évolution géophysique, changements internes de densité résultant de phénomènes où interviendrait la radioactivité.
- Où percer l’écorce ?
- Ne s’est-on pas aventuré un peu loin, en prenant pour base du raisonnement un seul élément du relief sous-marin, à savoir la double chaîne montagneuse atlantique et son sillon médian ? La tectonique dynamique que révélera, espère-t-on, l’observation des fonds océaniques peut être éclairée par d’autres phénomènes, comme par exemple les culots ou guyots volcaniques sous-marins, relevés eux aussi par des sondages et que recouvrent d’une manière énigmatique des matériaux d’apparence continentale. Les îles volcaniques, surmontées de récifs coralliens, seraient peut-être des culots analogues, exhaussés jusqu’à
- l’émersion. Par ailleurs, on tend à considérer certains archipels, tels que les Antilles, moins éloignés du plateau continental, comme des chaînes de montagnes en formation où se retrouveraient les caractères orogéniques des chaînes anciennes, étudiées sur les continents.
- En bref, toute l’étude de l’écorce terrestre est à reprendre à la base et c’est ce qui justifie le projet « Mohole » qui instaure une première série de forages sous-marins. Ces forages seraient exécutés dans des zones où l’écorce est supposée la plus mince, avec l’espoir de percer de part en part la couche solide et d’atteindre ainsi le magma dont est composé le manteau.
- Rappelons quelle serait, selon des hypothèses fondées elles-mêmes sur la propagation différentielle des ondes séismiques, la succession des couches qui se superposent à travers l’épaisseur du globe terrestre. En partant de la surface, on trouve :
- — L’écorce, essentiellement formée de roches solidifiées, mais de natures différentes : acides dans les masses continentales où elles supportent, sous forme principalement de granités, les assises de sédiments ; basiques et ultra-basiques sous les océans ; les continents, « îles flottantes » que l’on compare souvent à des icebergs, atteindraient une épaisseur d’environ 30 km ; sous les océans, l’écorce basique et ultrabasique s’amincirait jusqu’à seulement 5 km ;
- — Le manteau ultrabasique, descendant jusqu’à 2 900 km ;
- — Le noyau, de composition indéterminée, où se mêleraient différents corps de plus grande densité (de 2 900 à 5 000 km) ;
- — La graine enfin, correspondant à ce qu’on appelait précédemment le nife (association de fer et de nickel, analogue à celle qu’on retrouve dans les météorites) et qui aurait 1 300 km de rayon.
- Les densités, évaluées d’après les vitesses ou l’absence de propagation des ondes séismiques, s’échelonneraient
- Fig. 2. — Coupe schématique de l'écorce terrestre.
- Cette coupe est destinée à synthétiser et illustrer les hypothèses présentées dans le texte ; elle ne doit pas être considérée comme l’expression d’une réalité qui reste à découvrir.
- {Inspiré de Scientific American).
- Chaîne, montagneuse 10 km de
- Plateau tubes de
- continental forage
- Chaînes sous-marines
- Epaisseur du socle: 15km
- Profondeur marine: 4 km
- Continent
- ^Soclè^ 'insulaire
- Basaitè
- :Sillon central d'ou la: distance vers le man-i teau serait peut-être i; très faible
- Epaisseur de Pécorce-abyssale 5km
- + + «s
- + Granité +
- Discontinuité de Mohorovicic1
- Manteau:
- Manteau
- 520
- p.520 - vue 518/560
-
-
-
- comme suit : écorce 2,5 ; manteau 5,5 ; noyau 10 à 12 ; graine 13 à 22.
- En raison de la discontinuité qui a été constatée de longue date dans la propagation des ondes séismiques, le géologue yougoslave Mohorovicic a été le premier à signaler, en 1909, la brusque augmentation de densité qui intervient à la hauteur de la zone de contact entre l’écorce et le manteau. C’est cette zone que les forages se proposent d’atteindre. Elle est actuellement désignée sous le nom de discontinuité de Mohorovicic. Et le projet dont nous allons décrire les aspects techniques a été baptisé à son tour « Mohole », ce mot étant issu de la réunion des quatre premières lettres du nom de Mohorovicic et du mot anglais hole qui signifie trou, car il s’agit de percer des trous pour atteindre cette zone !
- Fig. J. — Examen d’une carotte recueillie dans un sondage sous-marin. La carotte, formant un long cylindre, a été extraite de l’appareil de sondage qui termine les tubes de forage. L’un des savants embarqués à bord du navire américain Cuss I examine un échantillon prélevé sur la carotte.
- f Photos U. S. I. S., aimablement communiquées par le Centre culturel américain).
- De ce qui précède, il est facile de comprendre en quels points de l’écorce on peut raisonnablement espérer que la discontinuité sera le plus vite rencontrée par des forages. A cet égard, il est intéressant de se référer à la figure 2 qui donne une représentation très schématique de l’écorce terrestre. On voit du premier coup d’œil que la « percée » continentale, à travers les 30 km probables du socle granitique, se heurte à des difficultés extrêmes. Ces difficultés, atténuées dans les îles, y restent cependant considérables, car l’épaisseur de la croûte a enfoncé le niveau de la discontinuité jusqu’à une profondeur qui peut être estimée à 15 km. Les plaines abyssales des océans se présentent au contraire favorablement, tenant compte de l’hypothèse très admissible selon laquelle les roches de l’écorce solide n’y dépasseraient pas une épaisseur de 5 km (sans compter les sédiments).
- Sur quoi cette hypothèse est-elle fondée ? Les mesures gravimétriques pratiquées en différents points du globe ont révélé (contrairement à ce que peuvent penser les profanes) que ce n’est pas dans les massifs montagneux que le champ de la pesanteur est le plus intense : c’est au contraire
- p.521 - vue 519/560
-
-
-
- Pompage d'eau de mer comme fluide de forage
- -1km
- 4 moteurs hors- bord gardant
- le navire au cen de bouées qui constamment sa position par
- tre d'un cercle renseignent „ le pilote sur radar et sonar
- -2km
- kkm de tubes s'écarter de la verticale que le forage
- - Cable -coaxial-
- pouvant__ 200m de pendant _ se poursuit
- -3km
- Inc/inomètre j la courbure ' au voisinage conique du
- mesurant des tubes du guide fond
- - 4km
- i Socle
- FOND, Er
- DE L'OCEAN rh Sb
- Guide de Ancrage ^fond r~v^
- SEDIMENTS:
- DEUXIÈME COÙCDÉ
- W \/ \/\/ W s > / N/- S / - . < / \ / '
- (Composition inconnue) ; \ / > o.'
- v Çàlïiep de forage \ \ y
- ; .;;ÿ de 13 tonnes}.
- *0), Joints coulissants pour y-yTT suivre les soulèvements X 's C 'du navire dus à la houle
- (Imité de la revue Time).
- dans les océans. Cette apparente anomalie s’explique ainsi : les couches denses du manteau y sont plus proches des appareils de mesure et exercent donc sur eux une action plus rapprochée qu’à travers l’épaisseur des socles continentaux de moindre densité. Deuxième raison pour présumer de la minceur de l’écorce sous les océans : le flux thermique issu du magma produirait sur les fonds océaniques une température relativement élevée, qui serait difficile à expliquer si l’épaisseur de la couche solide était grande.
- Quoi qu’il en soit, les plaines abyssales ont été « sélectionnées » pour servir de lieu aux forages profonds et, selon Willard Bascom, c’est un point situé dans l’Atlantique à 300 km à l’est de Porto-Rico qui serait particulièrement propice. La profondeur de l’océan y atteint 4 200 m ; l’intervalle entre le fond océanique et la discontinuité ne dépasserait pas 5 400 m.
- Les premiers forages
- C’est un navire américain, le Cuss I (fig. 5), spécialisé dans les forages sous-marins, qui a exécuté les premiers essais dans le cadre du projet Mohole. Jusqu’à ces dernières années, à vrai dire, le Cuss I n’avait foré que dans le plateau continental, en vue d’y atteindre des gisements pétroliers. La profondeur de l’eau ne dépassait pas quelques dizaines de mètres.
- L’outillage du navire a dû être remanié afin de lui permettre de traverser plusieurs kilomètres d’eau, ce qui pose évidemment de difficiles problèmes de guidage. Ils ont été récemment résolus et le Cuss I a pu entreprendre en mars 1961 une campagne au cours de laquelle des forages à grande profondeur ont été réussis. D’abord, au large de San Diego, dans le Pacifique, où les tubes de forage ont pénétré de plus de 100 m dans la couche sédimentaire par 1 000 m de fond (fig. 3). Ensuite, aux environs de l’île Guadalupe (également dans le Pacifique) où les tubes, après avoir atteint la plaine abyssale à 4 000 m sous la surface, ont traversé une couche sédimentaire de 200 m d’épaisseur. Le trépan a rencontré alors une couche basaltique très dure dans laquelle il a pénétré d’une quinzaine de mètres avant d’être remonté. La température mesurée au fond du trou aurait été trouvée anormalement élevée, indiquant une activité volcanique peu favorable dans cette région à une éventuelle pénétration dans le manteau. Deux autres tentatives, faites en des points voisins, ont donné des résultats analogues.
- La voie paraît maintenant ouverte à des forages plus profonds mais on compte utiliser un navire de tonnage supérieur, capable de transporter un appareillage de poids élevé. Les tubes devront être à la fois plus robustes et plus
- Fig. 4. — Schéma de l’opération Mohole.
- On retrouve ici les différents organes mentionnés dans le texte, ainsi que la partie supérieure de la coupe supposée des terrains que l’on se propose de forer sous l’océan. On remarque que le « guide de fond » émerge de 12 m au-dessus du fond, formant un tubage de plus grand diamètre ; ce guide a une certaine flexibilité pour éviter la rupture du tube de forage à sa base par suite des déplacements inévitables du navire. Il est entouré d’un « socle », qui doit être une fondation bétonnée, coulée sur le fond de l’océan ; dans les premiers essais il a été remplacé par d’épaisses plaques d’acier. Deux seulement des six bouées munies de sonar ont été figurées sur ce schéma ; elles sont situées, en réalité, beaucoup plus loin du navire (350 m).
- 522
- p.522 - vue 520/560
-
-
-
- Fig. J. — Le navire américain Cuss J, spécialement aménagé pour les sondages du fond océanique à grande profondeur.
- On remarque, au milieu du bâtiment, le derrick de 32 m de haut qui soutient le train de tiges de forage. A l’arrière, l’empilement des tubes en réserve. A tribord avant, un des moteurs hors-bord de 200 ch est en action (remous dans l’eau) afin de maintenir le navire à la verticale du forage.
- {Photo U. S. I. S.).
- 523
- p.523 - vue 521/560
-
-
-
- Fig. 6. — Le guide conique des tubes de forage.
- Ce « guide de coque » d’où débouche le train de tiges de forage (voir fig. 4) permet aux tubes une courbure de 150 quand le navire est affecté de roulis.
- nombreux puisqu’ils devront cette fois atteindre une longueur totale de 10 km, en tenant compte de la profondeur marine. Le fait de rencontrer des roches très dures ne constituerait pas un obstacle insurmontable, puisque des forages pétroliers réalisés à partir de la surface du sol y ont pénétré de 7 km. La chaleur des couches profondes ne devrait pas non plus poser de problème : on pense que dans des
- régions normales, non volcaniques, la température du manteau n’excéderait pas 150 à 200° C au voisinage de l’écorce.
- Les réussites récentes du Cuss I sont dues à de nouveaux aménagements qui serviront sans doute de modèle à un navire de plus fort tonnage. Le Cuss I porte un derrick de 32 m de haut (fig. 5), utilisant des tubes de forage classiques où est pompée de l’eau de mer pour lubrifier le trépan et entraîner les débris. Les tubes passent à travers la coque du navire dans un guide conique qui leur permet, en cas de roulis, de supporter des courbures d’un angle de 150 (fig. 4 et 6). Un autre guide accompagne le trépan jusqu’au fond et s’insère dans le trou de forage, jusqu’au niveau d’un épaulement formant socle, qui prend appui sur le sol marin. Mais les tubes restent libres sur toute l’épaisseur d’eau qui sépare le guide de coque du guide de fond et il est évident qu’ils prennent des courbures importantes. Par des profondeurs de 4 000 m, la ligne des tubes peut s’écarter de 200 m de la verticale sans que sa rotation soit pour cela empêchée.
- Cependant, quoique la courbure des tubes ait l’avantage de leur donner du « mou », le problème principal consiste à maintenir le navire aussi exactement que possible au-dessus du guide de fond. Il est clair qu’un ancrage est inopérant, les câbles ne pouvant acquérir une tension suffisante dans une épaisseur d’eau de plusieurs kilomètres. Le Cuss I a donc été muni de quatre moteurs hors-bord de 200 ch (fig. 5), situés en opposition autour de la coque, qui permettent au pilote de maintenir le navire au point fixe par rapport à un cadre de référence, défini par six bouées sous-marines (fig. 7). Ces bouées, noyées à 70 m de profondeur, sont reliées à des cibles radar qui flottent en surface et forment autour du navire un cercle de 350 m de rayon. Comme la distance de ces cibles est constamment connue par échos électromagnétiques, le pilote peut corriger sa position et il le fait en agissant sur un manche à balai qui commande le régime relatif des moteurs. D’ailleurs, pour parer à une défaillance possible de l’appareillage radar, celui-ci est doublé par un système sonar chargé de contrôler par ultrasons la distance des bouées sous-marines. En effet, un déplacement accidentel du navire entraînerait la rupture et la perte de tout le dispositif de forage. Les bouées sous-marines peuvent être considérées comme fixes parce qu’elles sont placées assez profondément pour être à l’abri de l’agitation de la surface et qu’elles sont assez grosses pour tendre efficacement leurs filins d’ancrage. Quant aux cibles radar qui y sont amarrées, elles sont trop légères pour déplacer les bouées.
- La courbure des tubes de forage au voisinage du fond est contrôlée par un inclinomètre relié électriquement au navire par un câble coaxial. De plus, des joints de liaison coulissants sont prévus entre les tubes inférieurs pour parer aux soulèvements du navire, dus à la houle. On utilise un trépan à revêtement de diamant, de 22 cm de diamètre, percé en son centre. Il suffit de le remonter légèrement pour qu’il livre passage à une sonde de carottage destinée à recueillir des échantillons au fond du trou de forage.
- Il s’agit là du dispositif qui a déjà fait ses preuves aux environs de Guadalupe, mais des améliorations non encore divulguées y seront sans doute apportées quand il faudra atteindre et dépasser la discontinuité de Mohorovicic pour pénétrer dans le manteau.
- 524
- p.524 - vue 522/560
-
-
-
- Documents attendus
- Les objectifs de l’exploration Mohole, une fois qu’elle battra son plein, sont de plusieurs sortes. On espère, en premier lieu et d’une manière générale, vérifier les hypothèses sur lesquelles le projet a été fondé. On s’attend d’autre part à recueillir une abondante documentation grâce aux carottes prélevées à différentes profondeurs. Les échantillons pourraient être soumis en laboratoire à la série des analyses chimiques et physiques, y compris la composition minéralogique, le degré de radioactivité, la densité, la conductibilité thermique et électrique. Parmi les problèmes que l’on compte résoudre figurent : la struc-
- ture et l’état physique des roches soumises à de fortes pressions et de hautes températures ; l’âge des roches en fonction des isotopes radioactifs qu’elles contiennent ; la superposition des différentes couches, etc.
- On s’attend à trouver en partant de la surface une série de sédiments d’une nature très différente de celle des roches sédimentaires connues et qui, pense-t-on, sont issues du plateau continental. Ces sédiments marins, déposés de manière continue à des époques dont certaines remonteraient bien au delà du Cambrien (débuts de l’ère primaire), pourraient révéler la présence d’organismes intermédiaires entre ceux déjà nettement évolués de cet étage géologique et les organismes primitifs qui se sont déve-
- Fig. 7. — Immersion d’une des bouées sous-marines du Cuss I.
- Ces bouées, noyées à 70 m de profondeur (voir fïg. 4) sont maintenues en position, à 350 m du navire, par des câbles ancrés sur le fond. Elles sont surmontées directement de l’équipement sonar et, au-dessus de la surface de l’eau, de l’appareillage radar. Grâce aux signaux transmis par les cibles radar et les réflecteurs sonar, le pilote possède les informations nécessaires pour maintenir le navire en place, au moyen des quatre moteurs hors-bord.
- {Photos U. S. I. S., aimablement communiquées par le Centre culturel américainJ.
- p.525 - vue 523/560
-
-
-
- Fig. 8. — Sur le pont du Cuss 1.
- Au centre du derrick on voit le palan qui supporte le train de tiges de forage. A l’arrière-plan les tiges en réserve.
- loppés dans les premiers âges qui ont suivi immédiatement l’apparition de la vie. Mais les sédiments profonds n’ont-ils pas subi une diagenèse telle que toute trace animale ou végétale y ait disparu ? On peut également craindre que ces sédiments, en s’enfonçant, ont été repris par le manteau tout proche et ont été « digérés » par lui. On peut néanmoins espérer que les teneurs des différentes couches en carbonate de calcium puissent renseigner sur les fluctuations climatiques du globe aux époques les plus reculées.
- Ce n’est évidemment pas un seul « trou » qui livrera
- toutes ces informations. Il est souhaitable en particulier que les forages soient exécutés dans des zones hétérogènes, depuis les calmes plaines abyssales jusqu’aux reliefs montagneux, signalés au début de cet article.
- Notons enfin que les géologues-océanographes font état, entre les sédiments marins et le socle basaltique, d’une « deuxième couche » dont la nature est encore totalement indéterminée, de même que celle de la transition entre la « province basique » de l’océan et la « province acide » des masses continentales.
- Faisant abstraction des hypothèses et des différentes attentes, les forages pourront encore mettre à jour l’élément souvent le plus précieux de la connaissance, à savoir l’inattendu !
- Jacques Fouchet et Yves Mériel.
- 526
- p.526 - vue 524/560
-
-
-
- Au Congrès de Médecine aéronautique
- Fuseaux horaires
- et rythme de vie
- des aviateurs long-courriers
- par Gaston Cohen
- Le dixième Congrès international de Médecine aéronautique et cosmonautique qui s’est tenu à Paris du 26 au 30 septembre 1961 devait évidemment éveiller le plus grand intérêt auprès d’un public surtout braqué sur les inconnues physiologiques du vol spatial.
- Peu de révélations cependant ont été enregistrées dans ce domaine sinon le malaise (léger, semble-t-il) éprouvé par le second cosmonaute Titov. Ce malaise d’ailleurs — les participants soviétiques au Congrès l’ont judicieusement souligné — ne prouve rien, car il était difficile d’en préciser la cause et que, somme toute, il n’a pas eu de conséquences graves.
- Le fait est que la médecine cosmonautique ne possède encore que de faibles données et c’est pourquoi l’accent devait nécessairement porter sur la médecine aéronautique qui lui est étroitement apparentée et repose au contraire sur une déjà longue expérience. Il s’agit là, bien entendu, de toute la série d’observations que les cliniciens, aidés par les laboratoires, ont pu faire sur les différents personnels navigants civils et militaires. Observations qui ont été le plus souvent conduites dans un but purement médical, avec le double objectif d’assister au mieux la profession des aviateurs et d’enrichir une branche de la médecine, certainement destinée à connaître un élargissement progressif.
- Vue sous cet aspect, la médecine aéronautique, en dépit de l’intérêt qu’elle suscite, semblerait ne pas se différencier des autres spécialités médicales. Simple apparence, car, à tous moments, au cours du Congrès, on a pu s’apercevoir que la recherche médicale se heurte là à un problème d’un ordre inhabituel en médecine courante : l’adaptation physiologique et psychologique de l’homme à des conditions dures et parfois nettement hostiles.
- L’adaptation se réalise néanmoins en de très nombreux cas. Est-elle toujours parfaite ? Est-elle définitive ? On peut d’autant mieux poser cette double interrogation que les appareils deviennent plus puissants et plus rapides, que les circuits parcourus sont plus larges et que le recrutement s’étend à un nombre toujours croissant d’individus.
- Adaptation physiologique
- Nous citerons, à titre de simple exemple, un phénomène d’adaptation purement physiologique. C’est celui de l’hyperventilation des poumons qui vient compenser l'hypoxie, ou déficit physiologique en oxygène, résultant de la raréfaction de l’air. Un mécanisme se déclenche qui accroît le nombre et l’amplitude des mouvements respiratoires, de manière à admettre davantage d’oxygène. Ceci est connu de longue date. La suite du processus l’est moins : l'hyperventilation provoque l’ouverture de nombreux alvéoles pulmonaires généralement fermés. Des capillaires entrent en fonctionnement. La surface de contact entre l’air et le sang augmente considérablement. On assiste parallèlement à une baisse de tension du COa dans les alvéoles et à une hausse de la pression partielle de Oa. Tout ceci va de pair, bien entendu, avec une accélération de la masse sanguine. Mais ce mécanisme a des retentissements multiples sur d’autres organes et d’autres fonctions : le système nerveux, les reins, le pH, les sécrétions digestives, etc. Et l’on doit considérer que cette adaptation à un seul facteur (raréfaction en oxygène) est en interférence avec d’autres facteurs tels que l’accélération, le bruit, les vibrations, les perturbations optiques.
- On comprend dès lors le nombre imposant d’études de détail que suscitent les cas de perturbations, dues à des adaptations difficiles ou bloquées par des causes diverses.
- Adaptation psychologique
- Les vols, même pour les professionnels de l’aviation, n’occupent dans leur vie qu’un temps limité. Les adaptations physiologiques sont donc discontinues, bien qu’elles .puissent avoir des effets permanents. Il faut en tout cas que l’aviateur soit en mesure de passer sans dommage, chaque fois que son service l’exige, des conditions du milieu terrestre à celles du milieu aérien. Ce problème, semble-t-il, est résolu par « tout ou rien », aptitude ou inaptitude.
- 527
- p.527 - vue 525/560
-
-
-
- L’Empire State Building à New-York.
- {Photo U. S. I. S.).
- L’aéroport d’Orly. Photo Air France).
- Carte des fuseaux horaires.
- On a adopté tout d’abord pour chaque pays un temps civil national sur lequel toutes les montres sont réglées. Par la suite, pour éviter des décalages horaires irréguliers d’un pays à l’autre, une convention internationale a établi le système des 24 fuseaux horaires (numérotés de o à 23) qui est reproduit sur la carte ci-dessus. Le fuseau o est délimité par deux méridiens, situés de part et d’autre et à égale distance du méridien de Greenwich qui fournit le temps universel. Chacune des heures, dans tous les pays, sont obtenues par l’addition de 1 à 23 unités au temps universel. Il subsiste toutefois un certain nombre de territoires où le système n’est pas en vigueur ; ils sont pochés en noir sur la carte. 11 est évident que de part et d’autre du fuseau où les horloges marquent minuit, on trouve deux dates consécutives, par exemple, le 20 décembre à l’ouest, le 21 décembre à l’est. Il faut donc nécessairement que la date change également sur un autre méridien. On est donc convenu d’établir une ligne de changement de date, représentée ici en trait interrompu, qui recoupe du sud au nord l’Océan Pacifique, à 1800 en moyenne du méridien de Greenwich. Si l’on se trouve au 20 décembre à l’est de cette ligne, on passe au 21 décembre en la franchissant. Si on passe d’ouest en est, il faut au contraire reculer d’un jour dans le calendrier. Un avion qui irait d’est en ouest aussi vite que le Soleil resterait toujours à la même heure et devrait arracher une page à son calendrier chaque fois qu’il franchirait la ligne de changement de date.
- {Imité de l’Astronomie populaire Camille-Flammarion).
- Une rue de Tokio {Photo Air France).
- 528
- 529
- p.dbl.528 - vue 526/560
-
-
-
- Très différent est le problème psychologique, car au niveau des fonctions cérébrales, il apparaît que l’adaptation doit s’étaler sur une bien plus grande longueur de temps : avant, pendant et après le vol. Et il est d’autant plus intéressant de constater, d’après le rapport de Mis-senard et Gelly, que souvent une adaptation qui paraissait satisfaisante au début arrive à s’altérer assez rapidement.
- Plusieurs aspects de l’inadaptation à retardement ont été étudiés dans ce rapport. Il y est signalé que ce phénomène est avant tout d’ordre psychique : le jeune aviateur a abordé sa profession à la suite d’une attirance sur laquelle s’est greffée une sorte d’idéal. Base fragile chez certains qui, perdant le « goût du vol », se trouvent livrés à de funestes conflits intérieurs. C’est alors qu’apparaissent différents symptômes cliniques dont il est facile d’apprécier le danger, tant pour le pilote que pour ses passagers éventuels. Citons : i° les réactions émotionnelles créées par certaines situations et qui se concrétisent soudainement en une désorganisation de la personnalité, une inhibition intellectuelle bloquant toute décision et entraînant même une crispation des muscles ; 20 une « peur du vol » qui n’est pas une réaction épisodique, mais dont l’apparition est progressive jusqu’à dégénérer en une véritable phobie ; 30 des désordres psychiques caractérisés qui vont de la névrose réversible à la psychose aiguë, d’ailleurs assez rare. Mais en dehors de tels cas bien définis, les rapporteurs admettent que l’inadaptation déclenche assez souvent des syndromes psycho-somatiques qui vont de malaises transitoires à des troubles dyspeptiques chroniques. Plusieurs symptômes organiques peuvent être souvent interprétés comme le signe d’un affaiblissement, d’une psychasthénie et sont révélateurs d’un état d’angoisse presque constant.
- Les conséquences de ces divers troubles psychiques et psycho-somatiques sont considérées avec la plus grande attention. Des statistiques démontrent en effet que le taux des accidents dus au « facteur humain » varie peu. Ce serait l’indice que l’inadaptation, constatée ou non, est un phénomène relativement fréquent.
- Le rythme nycthéméral
- Ces vues, sans doute trop générales, sur un domaine particulièrement complexe risqueraient de mal refléter les travaux du Congrès où nombre de problèmes ont été étudiés de très près. Nous en choisissons donc un qui a été approfondi dans le rapport de Bénitte et Lefebvre des Noëttes. Il s’agit de l’inversion du rythme nycthéméral et de ses conséquences physiopathologiques.
- Cette étude s’inscrit dans la longue série des travaux consacrés aux rythmes biologiques et dont certains ont été récemment évoqués dans notre revue (février 1961, p. 76-79). A vrai dire, la très grande majorité des observations ont été faites sur des végétaux ou des animaux à sang froid qui subissent directement l’effet des variations diurnes ou saisonnières de la température. Les rapporteurs ont fait remarquer fort justement que l’homme et les autres homéothermes ont la faculté de se rendre plus ou moins indépendants des fluctuations de la température. Leur activité, en tout cas, n’en est pas profondément affectée. Il est d’autant plus intéressant de constater qu’ils obéissent néanmoins à certains rythmes, parmi lesquels
- d’ailleurs se détache un rythme thermique. Des expériences déjà anciennes de Volker ont montré que la température de l’homme oscille entre un minimum de 36,7° C (entre deux et cinq heures) et un maximum de 37,5° C (entre quinze et dix-neuf heures), cette oscillation étant indépendante de l’activité déployée.
- La température interne a par contre une influence certaine sur les modulations de cette activité. On signale en particulier que les rendements ouvriers sont meilleurs aux heures où la température est élevée, mais c’est aussi à ces mêmes heures que les accidents du travail sont les plus fréquents. De nuit, les ouvriers « sous-voltés » sont en état de réceptivité moindre, travaillent de manière plus automatique, ce qui éliminerait les risques.
- Cette observation industrielle doit être jointe à toutes celles qui ont été faites par les physiologistes et qui confirment l’existence d’un rythme dont la période est de 24 heures. On lui a donc donné le nom de rythme nycthéméral. Il peut être détecté dans toutes les fonctions biologiques : respiration, circulation, digestion, pression sanguine, taux métabolique, tonus musculaire, etc. La plupart des êtres humains en ont d’ailleurs pleine conscience et savent même qu’ils ont à pâtir lorsque ce rythme est perturbé.
- Perturbations expérimentales
- Quels peuvent être les effets de cette perturbation ? Aucune expérimentation poussée à l’extrême ne pouvant être faite sur l’homme, on a recherché le sujet animal dont l’activité est répartie à peu près de même façon dans la période des 24 heures. C’est le singe qui réalise cette condition, malheureusement ... pour les trois Papio hamadryas auxquels Tcherkovitch a imposé en 1959 le traitement que voici, réglé selon les méthodes pavloviennes :
- Les singes ont d’abord été soumis à un apprentissage de signaux lumineux et sonores, afin d’acquérir des réflexes alimentaires conditionnés. Le rythme nycthéméral normal, ponctué par les repas et le sommeil, a été maintenu quelque temps. Puis le rythme a été brusquement inversé (le jour devenant la nuit et vice versa), grâce à un décalage de l’obscurité et des repas. Non moins brusquement, on est passé à un rythme diphasé (deux nuits et deux jours en 24 heures). Ensuite décalage de six heures sur ce même rythme ; obscurité pendant 24 heures ; éclairement pendant 24 heures, etc.
- La névrose ainsi provoquée (comme on pouvait s’y attendre) s’est traduite par une excitation chez un des sujets, une prostration totale chez le second, un désappren-tissage des sonneries chez le troisième. Ces troubles subsistèrent longtemps après l’arrêt des expériences. L’un des singes, atteint de tremblements, devait mourir au bout de 64 jours d’une coronarite aiguë.
- Les expériences sur l’homme ont été moins sévères. Profitant de l’été arctique, Kleitman a fait vivre des sujets pendant trois semaines à un rythme de 18 heures, puis pendant la même période à un rythme de 28 heures. Le rythme de la température a été rompu chez certains, maintenu chez d’autres, le rythme cardiaque s’est adapté tour à tour aux 18 et 28 heures.
- Dans une autre expérience, un cycle diphasé de 12 heures a été imposé pendant une période très courte. Aucune perturbation n’a été constatée dans le rythme biologique des 24 heures.
- 530
- p.530 - vue 527/560
-
-
-
- Ce rythme est donc des plus stables et l’exemple des singes démontre que si l’on y porte atteinte les conséquences pathologiques peuvent être graves. Notons toutefois que ce n’est pas dès la naissance que ce rythme se manifeste sous sa forme définitive : pendant les quatre ou cinq premières années, il est polyphasique. On estime que c’est par un réglage progressif que 1’ « horloge » se fixe sur la phase unique de 24 heures. Elle serait logée, pense-t-on, dans la formation réticulée du cerveau. C’est de là en particulier que partiraient les stimulus qui déclenchent le passage de l’état de veille à l’état de sommeil et vice versa, les 24 heures étant normalement découpées en deux tranches : 8 heures pour le sommeil, 16 heures pour la veille.
- Les fuseaux horaires
- Tous les usagers des long-courriers de l’aviation commerciale savent désormais ce que représente pour eux un voyage d’est en ouest ou d’ouest en est, en franchissant plusieurs fuseaux horaires. C’est ainsi qu’en embarquant à 13 h à Orly sur le Boeing d’Air France ils savent par avance qu’ils atterriront à New-York à 15 h (heure locale). Ils auront en effet voyagé en sens inverse de la rotation de la Terre, ne prenant ainsi qu’un retard de deux heures sur le soleil. Néanmoins, pour leur « horloge » personnelle, le voyage aura duré 8 heures. Ils auront beau régler leur montre sur l’heure de New-York et y lire 15 heures, cette division du cadran n’en signifiera pas moins (pour eux) 2i heures et ils ne tarderont pas à avoir envie de dormir. Leur rythme est décalé de six heures par rapport à la vie américaine, à laquelle ils vont devoir s’adapter.
- Au retour, ils constateront un phénomène similaire bien qu’opposé, l’avion décollant à 19 h et atterrissant à 7 h 55, ce qui, selon l’adaptation new-yorkaise, signifiera biologiquement 3 h du matin. A la fin de la journée, ils pourront trouver abusif de se mettre au lit à 23 h, heure qui correspond à 18 h de leur horloge interne.
- Le rythme nycthéméral a donc été perturbé deux fois, ce qui ne comporte d’ailleurs pas d’inconvénients graves si cette épreuve ne se répète pas trop souvent. Elle serait plus sévère s’il fallait accomplir d’un seul bond le parcours Paris-Tokio, en franchissant 9,5 fuseaux horaires ou Paris-Nouméa (ix fuseaux).
- Tout autre est évidemment le cas du personnel navigant, obligé professionnellement à supporter, tout le long de l’année, des décalages constants du rythme nycthéméral, sans jouir évidemment des mêmes conditions de quiétude et de confort que les passagers. Une enquête citée par les auteurs du rapport au Congrès de médecine aéronautique a révélé l’importance, dans ce personnel, des troubles du sommeil, phénomène qu’il n’est évidemment pas besoin de commenter. De même pour les troubles digestifs (pertes d’appétit, fringales nocturnes), liés au bouleversement des sécrétions digestives, réglées normalement par une série de réflexes conditionnés. On conçoit également que puisse apparaître une désorientation temporelle, sentiment pénible de ne pas comprendre pourquoi il fait jour quand il « devrait » faire nuit, avec la perte momentanée de ce sens du temps qui permet à chacun de nous de se situer mentalement à telle ou telle heure de la journée, avec une approximation d’ailleurs différente selon les individus.
- Les physiologistes signalent en outre des phénomènes
- moins apparents que l’on doit rechercher dans le fonctionnement des glandes endocrines (en particulier la thyroïde et les corticosurrénales) qui obéissent, elles aussi, au rythme nycthéméral. C’est dans la journée, à l’état de veille, que leurs sécrétions sont maximales. Si le rythme est décalé, une adaptation est nécessaire. Elle n’apparaît pas spontanément et semble n’être obtenue que lentement, au niveau sans doute de l’hypothalamus. La durée et les modalités de ce processus ne sont pas encore pleinement élucidées.
- Aménagement des rotations
- En l’absence de travaux exhaustifs sur ce problème, les compagnies aériennes se sont efforcées de pallier les inconvénients que comportent les perturbations répétées du rythme nycthéméral. C’est ainsi que, sur la ligne Paris-New-York, le choix est laissé au personnel : prendre un temps de repos à New-York ou bien accomplir l’aller et le retour dans le délai le plus bref. Il est évident qu’en ce cas le rythme nycthéméral habituel sera conservé : la fatigue du double voyage sera compensée par un temps de repos plus long, passé dans le fuseau horaire auquel l’aviateur reste adapté une fois pour toutes.
- Le service Paris-Tokio est au contraire étalé de manière à ménager une série d’adaptations successives, grâce à un fractionnement du voyage. Les étapes sont les suivantes : Paris-Téhéran (2,5 fuseaux); Téhéran-Bangkok (3,5 fuseaux) Bangkok-Tokio (2 fuseaux). A chaque escale, un repos de 48 h est prévu. Il en est de même pour le retour, suivi d’un repos de 6 à 7 jours. La rotation totale, en y incluant tous les temps de repos, est finalement d’environ trois semaines.
- Précisons que chaque étape est marquée par de brèves escales intermédiaires. Entre Paris et Téhéran : Rome et Athènes. Entre Téhéran et Bangkok : Karachi et Calcutta. Entre Bangkok et Tokio : Pnom-Penh et Hong-Kong.
- Expérience proposée
- Ces aménagements dans le service des long-courriers semblent pouvoir résoudre pratiquement, dans une certaine mesure, le problème des perturbations du rythme. Mais ils n’en facilitent pas l’approche scientifique. MM. Benitte et Lefebvre des Noëttes ont donc proposé qu’une expérience soit faite, dans des conditions telles que les décalages soient maximaux. Un groupe d’une vingtaine de personnes serait acheminé sur la Nouvelle-Calédonie, c’est-à-dire aux antipodes. Après un séjour d’environ un mois, pendant lequel différents examens seraient pratiqués, le groupe serait rapatrié d’une seule traite, afin d’obtenir une inversion totale du rythme. Alors auraient lieu les examens approfondis, dont les résultats seraient confrontés avec ceux que les sujets auraient subis avant leur départ.
- Cette méthode permettrait vraisemblablement de recueillir statistiquement de précieuses informations sur la réadaptation des sujets après deux inversions successives. Nous ne nous étendrons pas sur la nature des examens proposés, à l’exception toutefois d’un test qui mesure avec une assez grande exactitude le degré d'éveil des individus.
- Il s’agit du test d'évaluation des durées brèves dont l’auteur
- 531
- p.531 - vue 528/560
-
-
-
- est Angiboust. Le sujet est invité à estimer l’intervalle d’une seconde (cela pendant 40 secondes, durée de l’épreuve). On a pu constater que cette estimation est dissemblable selon .les personnes mais qu’elle est, en moyenne, caractéristique de chacune d’elles. Cependant cette même personne a des estimations plus brèves quand elle est pleinement éveillée, moins brève lorsqu’elle est dans un état de veille relatif.
- On conçoit qu’il puisse être intéressant de constater les différences entre les résultats de ce test avant et après
- le bouleversement probable, dû à l’inversion du rythme nycthéméral. Ajoutons que des données plus précises sur les perturbations de ce rythme sont évidemment souhaitables, alors que les parcours aériens à longue distance se multiplient, augmentant du même coup l’effectif mondial du personnel navigant. On remarquera d’ailleurs que le même problème se posera sous d’autres formes, mais avec infiniment plus d’ampleur, à propos de la navigation cosmique.
- Gaston Cohen.
- A. propos des
- Nous avons signalé récemment (mai 1961, p. 207) la réalisation, par une firme britannique, d’un abri en toile de nylon gonflable et son application à la construction du premier étage d’une maison, qui peut ainsi se faire même par mauvais temps.
- A la suite de cet article, les Établissements Bessonneau, d’Angers, nous ont informé qu’ils construisaient depuis i960 des abris analogues dans leur principe mais dont les dimensions peuvent être beaucoup plus grandes. C’est ainsi que récemment, une structure gonflable de 67 m de long, 42 m de large et 18 m de haut a été présentée au public (fig. 1). Il s’agit, selon toute vraisemblance, du record mondial en la matière.
- Les abris gonflables de cette firme sont constitués par une enveloppe de nylon enduit de chlorure de polyvinyle. Cette enveloppe est fixée au sol par un ancrage qui le rend étanche. La pression d’air est fournie par un ou plusieurs ventilateurs et elle est maintenue constante par un système de soupapes. Le montage d’une structure de 24 x 12 x 6 m est effectué par deux spécialistes en moins de deux heures. Plusieurs manifestations ont déjà eu lieu sous de tels abris : tournoi de tennis, expositions, etc.
- Fig. 1. — Un petit abri de 24 x 12 x 6 m lui-même abrité sous la structure record de 67 X 42 X 18 m.
- (Photo Bruel, Angers).
- p.532 - vue 529/560
-
-
-
- Un anneau d’épingles satellites inquiète fort la radioastronomie
- par Nicolas Vichney
- L’Armée de l’Air américaine a cherché, à la fin du mois d’octobre, à mettre en place autour de la Terre une ceinture d’épingles de cuivre. L’opération, dont le caractère original est indiscutable, avait pour but de mettre à l’épreuve un nouveau système de communication à longue distance. Mais en la lançant les techniciens d’Outre-Atlantique ont soulevé un vif émoi dans les milieux scientifiques, tout spécialement chez les astronomes et les radio-astronomes.
- Cette expérience a été mise au point en collaboration par les spécialistes de l’Armée de l’Air et les chercheurs du Massachusetts Institute of Technology, le célèbre M. I. T. Plus précisément, les études préliminaires ont été effectuées dans certains laboratoires du M. I. T. qui se trouvent installés à Westford. Aussi le projet, d’abord appelé « Needles Project » (projet Épingles), a-t-il reçu la dénomination définitive de « projet Westford ». Il consistait essentiellement à faire graviter autour du globe un semis d’épingles microscopiques qui joueraient le rôle de « dipô-les ». Un émetteur « travaillant » sur des longueurs d’onde inférieures (en gros, de 8 ooo à 20000 mégacycles/seconde) « illuminerait », et un récepteur, situé en un autre point du globe, capterait l’énergie ainsi rayonnée. Naturellement cette énergie serait d’autant plus grande que le semis d’épingles serait plus dense : la relation entre l’énergie diffusée et la densité est linéaire.
- L’expérience tentée ne devait constituer qu’un essai : la densité des épingles, était-il prévu, serait tellement faible que seuls des récepteurs très sensibles seraient à même de capter l’énergie diffusée par les « dipôles ». Selon certains, elle aurait fourni des résultats concluants et on envisagerait de mettre sur orbite un plus grand nombre d’épingles, de façon que les signaux ainsi réfléchis puissent être reçus par des récepteurs ne disposant pas d’une extrême sensibilité.
- C’est cette seconde phase de l’opération qui préoccupe surtout les radioastronomes. En effet, le semis d’épingles ne pourra pas ne pas diffuser l’énergie thermique reflétée par le globe ; les grands récepteurs utilisés en radioastronomie ne pourraient pas ne pas détecter cette énergie diffusée ; il en résulterait une sorte de brouillage qui gênerait considérablement l’étude des radiosources astronomiques. De plus chaque point « illuminé » par un émetteur se comporterait comme une radiosource artificielle qui viendrait inopportunément s’ajouter aux radiosources naturelles. Cependant, aucun de ces graves inconvénients n’est à redouter pour la première phase de l’opération : le satellite, un Midas, chargé de la mise en place de la ceinture d’épingles, n’a semé que 30 kilogrammes d’épingles pesant chacune quelques microgrammes (longueur, 1,77 cm ; épaisseur, 3 microns) qui, après dispersion,
- devaient se trouver écartées les unes des autres de quelque 375 mètres en moyenne. Ainsi le semis d’épingles (au nombre de 3,5 millions) devait, en définitive, revêtir quelques kilomètres de largeur et d’épaisseur et dessiner autour de la Terre un anneau « polaire », circulaire et situé à une altitude d’environ 3 000 km. Dans ce cas, et compte tenu de ce que la Terre rayonne vers l’espace comme un corps noir dont la température serait de 200 C, l’énergie diffusée par l’anneau pouvait être évaluée à un centième de degré absolu ; c’est beaucoup moins que ne peuvent détecter les radiotélescopes.
- Les radioastronomes, qui avaient été tenus informés de la nature de cette première expérience, s’élevèrent avec vigueur contre le projet. Les protestations formulées par les instances scientifiques internationales visaient surtout les conséquences de ce premier essai : s’il était entrepris, faisait-on remarquer dans les milieux intéressés, ce serait uniquement pour s’assurer que le dispositif peut donner satisfaction ; si l’Armée de l’Air américaine obtenait une réponse positive à cette question, elle mettrait le plus rapidement possible en place un anneau plus dense et alors le préjudice serait irrémédiable.
- Certes, les techniciens d’Outre-Atlantique ont fait remarquer que d’après leurs calculs la durée de vie de cette ceinture d’épingles devrait être limitée à quelques années. A la rigueur les astronomes pourraient s’accommoder d’une gêne même sérieuse dans leurs observations s’ils étaient assurés que cette gêne serait seulement temporaire. Mais rien ne vient assurer que les calculs effectués par les Américains seront vérifiés : il est possible que le séjour des petits dipôles dans l’environnement terrestre se prolonge plus que ne le fait supposer l’estimation des effets de la pression de radiation sur les épingles. D’autre part, on verrait mal pourquoi, après avoir établi un système qui leur donne satisfaction, les dirigeants de l’Armée de l’Air accepteraient soudain de s’en passer... Il est bien évident que l’initiative de mettre en place une ceinture « expérimentale » et d’aller de ce fait au devant du mécontentement bien fondé des astronomes et des radioastronomes-a été prise pour des raisons qui n’ont rien à voir avec la-recherche scientifique. Il s’agit d’une opération à buts-militaires dont la tension internationale a, semble-t-il, brusqué la réalisation. Faut-il croire qu’une fois les épingles-d’un anneau redescendues, les circonstances seront telles qu’un dispositif aujourd’hui jugé indispensable cessera, alors de paraître nécessaire ?
- Le caractère militaire de la ceinture d’épingles, qui ne peut faire de doute pour personne, présente une seconde conséquence : dans ce domaine, toute initiative appelle une parade. On peut en imaginer deux : mettre en place un second anneau, au-dessous du premier et plus large
- p.533 - vue 530/560
-
-
-
- que lui, ou « illuminer » tout l’anneau en dirigeant vers lui un flot de signaux. Rien n’est plus facile que de mettre ces deux procédés en œuvre : il suffit, dans le premier cas, de lancer un satellite porteur d’un lot suffisamment important de « dipôles » ; dans le second de diriger vers l’anneau un certain nombre d’émetteurs qui lanceront des signaux sans discontinuer. Quelle qu’elle soit, la parade aboutirait à condamner définitivement toute observation de radioastronomie.
- N’était-il pas possible de découvrir un autre procédé qui offre aux militaires les mêmes avantages sans causer le même préjudice aux hommes de science ? Peut-être les satellites de communication passifs seraient-ils capables de jouer un rôle comparable... Mais il est difficile de se prononcer en toute certitude sur ce point, les Américains n’ayant pas, comme de juste, fait connaître de façon précise à quels usages ils entendaient employer leur anneau.
- D’ailleurs, ils n’ont pas non plus, jusqu’à présent, fait connaître les caractéristiques de l’orbite suivie par le nuage
- d’épingles, ce qui est contraire aux engagements qu’ils avaient pris, notamment lors de la réunion de l’Union astronomique internationale tenue à Berkeley au mois d’août dernier. Ainsi, au lieu de pouvoir éventuellement être mis à profit par les chercheurs des autres pays, l’anneau d’épingles demeure la propriété exclusive du gouvernement américain... Mais peut-être y a-t-il une autre explication. On peut supposer que l’expérience ne s’est pas déroulée comme il avait été prévu. Les épingles ont pu ne pas se répartir uniformément comme calculé, la densité de l’énergie diffusée par les dipôles étant alors trop faible pour pouvoir être enregistrée par les récepteurs à haute sensibilité.
- C’est pourquoi, en continuant à s’élever contre un projet qui leur paraît nuisible, les hommes de science espèrent encore convaincre les dirigeants américains non seulement de ne pas mettre à exécution la seconde phase de l’opération, mais même de renoncer à procéder à des essais préliminaires.
- Nicolas Vichney.
- Premier essai de la fusée Saturne C-i
- destinée à satellitiser en 1964 un équipage de trois hommes
- Les techniciens de la N. A. S. A. ont procédé le vendredi 27 octobre au premier lancement de la fusée Saturne C-i destinée à mettre en orbite une charge utile de 10 tonnes. L’opération, qui s’est déroulée à la base de Cap Canaveral, a été couronnée d’un succès complet.
- Ce premier tir avait uniquement pour but de mettre à l’épreuve le premier étage de l’engin qui doit normalement en comprendre trois. Aussi, les deux étages supérieurs étaient-ils « factices » et seulement lestés avec de l’eau. Le premier étage, dénommé S-i, comporte huit moteurs H-i dérivés des moteurs qui équipent déjà les fusées Jupiter et Thor. Le H-i a été mis au point par la firme Rocketdyne. Ces huit moteurs doivent développer une poussée de 750 tonnes, mais le premier essai n’a pas été effectué à pleine puissance. Ils sont alimentés par neuf réservoirs dont huit, contenant du kérosène, sont analogues à ceux dont sont munies les fusées Jupiter ; le neuvième, contenant l’oxygène, est analogue à celui des fusées Redstone. Ces précisions illustrent le principe qui a présidé à la conception de ce premier étage : n’y employer que des matériels qui ont déjà été éprouvés dans d’autres engins, de façon à pouvoir faire porter toute l’attention sur les délicats problèmes posés par le « couplage » des moteurs. Par contre, les deux étages supérieurs, S-4 et S-5, seront dotés de systèmes de propulsion « avancés » utilisant comme carburant de l’hydrogène liquide. Le Saturne cependant ne
- sera pas la première fusée américaine à faire appel à ce nouveau combustible : en principe avant la fin de l’année doit être lancé le premier exemplaire d’une fusée Atlas-Centaure à deux étages dont le second étage utilisera déjà l’hydrogène liquide.
- La fusée Saturne C-i dans sa version définitive mesurera 66 mètres de haut et pèsera au décollage quelque 800 tonnes, dont 500 t de carburant. Elle a été conçue et réalisée sous la direction du Dr. Wernher von Braun au George Marshall Space Flight Center, à Hunstville (Alabama). C’est en 1958 que l’ordre a été donné de commencer les travaux. On estime que la période de mise au point de l’engin, commencée en octobre 1961, se prolongera jusqu’en 1964 et nécessitera neuf autres tirs d’essai.
- L’engin sera alors à même de « satellitiser » la capsule Apollo contenant un équipage de trois hommes. C’est dans ce but qu’elle a été conçue, mais on la destine déjà à d’autres missions et plusieurs expériences portant sur l’exploration de la Lune et des planètes proches doivent en principe être entreprises grâce à elle.
- A la fusée Saturne succédera alors un autre engin dérivé par adjonction d’un étage supplémentaire : le Saturne C-2, dont les plans sont déjà arrêtés. Le Saturne C-2, espère-t-on, pourra devenir opérationnel en 1966.
- N. V.
- Pour photographier en plein jour engins et planètes
- Selon une information du Centre culturel américain, l’Armée de l’Air des États-Unis vient de terminer la mise au point d’une caméra géante, qui permet de prendre en plein jour des photographies extrêmement précises des missiles et satellites, et même des planètes. Cette caméra se compose de 19 télescopes de 127 mm d’ouverture, chacun d’eux étant couplé à un tube de prise de vues du type de ceux qui sont employés en télé-
- vision. Après amplification, les images sont projetées sur un écran où elles sont photographiées par une caméra de précision. Le nouvel appareil, essentiellement destiné à suivre, quelle que soit la luminosité, la trajectoire des missiles, satellites et autres engins circulant dans l’espace, a permis d’ores et déjà de prendre une série ininterrompue d’images de Jupiter et de Vénus.
- 534
- p.534 - vue 531/560
-
-
-
- Le mécanisme du repérage
- par ultrasons
- chez les chauves-souris
- par Jean Grive
- Il est bien connu, depuis un quart de siècle, que les chauves-souris, du moins les petites espèces réunies sous le nom de Microchéiroptères, et qui sont les plus nombreuses, se guident dans l’obscurité en faisant du repérage par ultrasons. De nombreux travaux ont établi ce fait par des expériences convaincantes. Cependant le mécanisme de ce guidage a donné lieu à des hypothèses qui ne sont pas entièrement satisfaisantes. Un savant britannique, M. Pye, vient d’en faire un examen critique dans la revue Endeavour et il en propose une nouvelle interprétation qui semble propre à lever pas mal de difficultés.
- C’est le fameux abbé Spallanzani, si fertile en idées nouvelles, qui dès la fin du xvme siècle entrevit la vérité. Il notait que des chauves-souris aveugles volent dans une chambre sans se heurter à aucun obstacle, pas même à des fils de soie que l’on tend à travers la pièce, et il en déduisit que ces animaux se guident uniquement par l’ouïe. Peu après, on montra que si l’on crève le tympan d’une chauve-souris, elle devient incapable de s’orienter. Depuis lors, ces expériences ont été maintes fois reprises dans les conditions les plus diverses et il devint incontestable que les chauves-souris se guidaient sur l’ouïe non seulement pour éviter les obstacles dans l’obscurité, mais pour repérer les insectes en plein vol et s’en saisir.
- On sait que pendant la première guerre mondiale, Paul Langevin eut l’idée d’utiliser les ultrasons pour repérer les sous-marins ennemis. Langevin inventa un appareil qui pouvait à la fois émettre des ultrasons et enregistrer leur retour après qu’ils s’étaient réfléchis sur un obstacle. La mesure du temps écoulé entre l’émission et la réception de l’écho en retour donne la distance à laquelle se trouve l’obstacle, en l’occurrence le sous-marin que l’on recherche. On comprit alors que les chauves-souris employaient un procédé analogue, qui fut appelé écholocation.
- Griffin, en collaboration avec Pierce, puis avec Galam-bos, est le premier à avoir étudié en détail l’émission des ultrasons par les chauves-souris. Les fréquences émises, qui varient selon les espèces, vont de 30 à 120 kilocycles par seconde, c’est-à-dire qu’ils se situent au minimum à une octave au-dessus des sons qui nous sont audibles. Ces ultrasons sont émis par la chauve-souris par impulsions très brèves mais de façon incessante. Chacun des sons dure au plus un deux-centième de seconde et, quand il chasse les insectes, l’animal peut en émettre jusqu’à 60 par seconde. L’émission peut atteindre un très haut degré d’énergie,
- Fig. 1. — Tête d’une chauve-souris de la famille des Vespertilionidés, le Murin commun (Myotis myotis).
- Les Vespertilionidés émettent les ultrasons par la bouche. Leurs oreilles (dont on remarque le « tragus » très développé en forme de languette dressée) ne sont pas orientables au même degré que celles des Rhinolophidés (fig. 4) de sorte que s’ils sont privés de l’usage d’une oreille, ils ne peuvent plus chasser les insectes ni éviter les petits obstacles (par exemple un fil tendu).
- {Photo Hubert Lassus).
- 535
- p.535 - vue 532/560
-
-
-
- p.536 - vue 533/560
-
-
-
- jusqu’à no décibels à quelques centimètres de la tête, c’est-à-dire un niveau égal à celui qu’obtiennent les plus puissants chanteurs d’opéra.
- On comprend très bien la nécessité d’employer des ultrasons pour localiser des obstacles aussi petits que les insectes dont se nourrissent les chauves-souris. Une vibration acoustique ne peut se réfléchir sur un obstacle que si la longueur d’onde est d’un ordre de grandeur au plus égal à la taille de cet obstacle. Précisément les ultrasons de 30 à 120 kc/s ont des longueurs d’onde qui s’échelonnent entre 15 et 3 mm.
- Voyons maintenant comment on a cherché à expliquer le mécanisme de l’écholocation. On sait depuis quelques années que l’émission des ultrasons par les chauves-souris se fait de deux façons différentes. Il faut distinguer deux
- Fig. 2. — Un Verspertilionidé aux oreilles démesurées : l’Oreillard (Plecotus auritus).
- (Photo Hubert Lassus).
- Fig. 3. — Un Oreillard dont les oreilles sont en position de repos.
- Les oreilles prennent la même position lorsque l’animal est en état d’hibernation.
- (Photo Hubert Lassus).
- types : le type Vespertilion et le type Rhinolophe. Les chauves-souris de la famille des Vespertilionidés (étudiées par Griffin) émettent des sons par la bouche. Ces sons, malgré leur très grande brièveté, sont modulés en fréquence ; le cri très court contient une série de fréquences différentes qui se succèdent toujours de la même façon. D’autre part les oreilles ne sont pas mobiles ; si l’on prive un Vespertilion de l’une de ses deux oreilles, il ne se guide guère mieux que s’il était sourd. On suppose donc que la différence de temps que met l’écho pour parvenir à l’une et à l’autre oreille indique la direction de l’obstacle, de même que nous localisons ainsi la direction d’un bruit. Quant à la distance de l’obstacle, elle serait déterminée (comme dans le radar) par le temps de retour des ondes.
- 537
- p.537 - vue 534/560
-
-
-
- Fig. 4. — Tête de Rhinolophe vue de face (Rhinolophus hipposideros).
- Les narines des Rhinolophidés sont entourées de formations tégumentaires de forme souvent compliquée, appelées feuilles nasales ou feuillets nasaux. Les concavités de ces organes ont pour effet de canaliser les faisceaux d’ultrasons qui, dans ce groupe, sont émis par les narines. Les oreilles sont très mobiles.
- {Photo Hubert Lassus).
- Une difficulté : le « brouillage »
- Mais il y a là une difficulté sérieuse : comment la chauve-souris peut-elle percevoir un écho qui doit être très faible alors qu’elle est assourdie par la force de son cri ? Pour répondre à cette objection, on a imaginé qu’une contraction des muscles de l’oreille moyenne pourrait amortir la sensibilité auditive pendant le bref temps de l’émission du son. Cela paraît peu vraisemblable et d’autres explications physiologiques ne sont pas plus convaincantes. En outre, pour des obstacles très rapprochés, comme les insectes que la chauve-souris s’apprête à saisir, le début de chaque impulsion ultrasonore doit être revenu à l’oreille avant que l’émission ne soit terminée, et l’animal ne peut se priver de
- cet écho. Nous verrons comment M. Pye résout ces difficultés.
- Les chauves-souris de la famille des Rhinolophidés. usent d’un dispositif différent, plus récemment découvert par Môhres. Ces animaux émettent les sons, non jaar la bouche, mais par les narines. Il se produit des interférences entre les émissions des deux orifices, et le résultat en est un pinceau ultrasonore plus étroit et dirigé vers l’avant. Les-oreilles ne sont pas fixes, comme celles des Vespertilions. Elles sont extrêmement mobiles et peuvent s’orienter avec vitesse et précision sur le pinceau d’ultrasons qui est réfléchi, par l’obstacle. La direction de l’obstacle est donc facilement déterminée par une seule oreille, et un Rhinolophe qu’on a privé d’une de ses oreilles ne devient pas complètement incapable de s’orienter. Pour l’évaluation de la distance, Môhres ne croit pas au système du radar, c’est-à-dire à la mesure du temps de retour de l’écho. Il pense qu’elle se fait par une sorte de triangulation, c’est-à-dire par l’appréciation de la direction de l’écho en deux points de réception différents, même dans une seule oreille.
- Une grande difficulté subsiste néanmoins, la même que pour les Vespertilionidés, et elle est ici encore plus grande. Comment l’animal n’est-il pas assourdi par la force de son cri et comment peut-il en percevoir l’écho très affaibli ? Le
- 538
- p.538 - vue 535/560
-
-
-
- r
- son émis par le Rhinolophe n’est pas modulé comme celui du Vespertilion, il est beaucoup plus uniforme et sa durée est plus longue, de sorte que la plus grande partie de l’écho doit en être complètement brouillée.
- Effet Doppler et battements
- Mais c’est cette difficulté même qui a suggéré à M. Pye une solution possible. Cet auteur remarque que la distance à laquelle les chauves-souris paraissent localiser les obstacles est précisément la distance pour laquelle l’émission du cri et son écho se recouvrent partiellement. Or il est un facteur dont on n’a pas tenu compte jusqu’ici, c’est l’effet Doppler. On sait que lorsque la source d’une vibration se rapproche de nous, la fréquence de cette vibration est augmentée. L’écho que reçoit la chauve-souris est donc d’une fréquence plus grande que celle du son qu’elle émet. Ces deux sons interfèrent et, étant de longueurs d’onde différentes mais voisines, ils produisent ce qu’en acoustique on appelle un battement, c’est-à-dire une modulation d’intensité sonore dont la fréquence est la différence entre les fréquences des deux sons. Ainsi un Rhinolophe, se rapprochant par exemple d’un obstacle à la vitesse de xo mètres par seconde et produisant des ultrasons d’une fréquence de ioo kc/s, recevra en écho des ultrasons de 106,5 kc/s. La fréquence du battement sera la différence de ces deux fréquences, soit 6,5 kc/s. Ce n’est donc pas l’écho lui-même que percevrait la chauve-souris, mais les battements entre le son initial et son écho. La fréquence du battement, qui dépend de la vitesse avec laquelle l’animal se rapproche de l’obstacle, le renseignerait donc en outre sur les mouvements de cet obstacle, s’il est mobile.
- La structure très particulière de l’oreille des chauves-souris trouve sans doute ici son utilité, le son originel et son écho prenant deux voies différentes pour parvenir dans l’oreille interne. La vérification de cette intéressante hypothèse, qui d’ailleurs n’exclut pas d’autres phénomènes, demande une nouvelle série d’expériences.
- Jean Grive.
- Fig. J. — Un Rhinolophe (Rhinolophus euryale) surpris en position de repos, suspendu par les doigts des membres postérieurs.
- On remarque la bague qui a été fixée à l’avant-bras et qui servira à identifier l’animal dans ses déplacements.
- (Photo C. Goguyer-Dessagnes).
- Fig. 6 et j. — Des Rhinolophes en position de repos, fixés au plafond d’une grotte.
- A gauche, Rhinolophus euryale ; à droite, Rhinolophus ferrum-equimwt.
- (.Photos C. Goguyer-Dessagnes)
- p.539 - vue 536/560
-
-
-
- Les écrans flottants permettent de réduire les pertes par évaporation des produits pétroliers
- ON a calculé que les pertes par évaporation lors des stockages et des transports entre le puits de pétrole et la pompe du détaillant s’élevaient à 3 pour 100 de la production de pétrole brut. C’est dire les quantités gaspillées, eu égard à la production mondiale de pétrole. Ce fait a amené un ingénieur de la Société française des pétroles B. P., M. A. Champagnat, à concevoir des écrans flottants qui permettent de réaliser des économies de plus de 80 pour 100 sur les pertes ordinaires lors du stockage des produits pétroliers. Le premier écran a été installé en avril 1955 ; depuis cette date, de nombreuses améliorations ont été apportées au prototype du début et la réalisation des écrans flottants a maintenant atteint un état de grande perfection, dont témoigne d’ailleurs le succès remporté par ces dispositifs auprès des sociétés pétrolières.
- On pourrait penser, a priori, qu’il suffit de faire flotter un écran continu à la surface du carburant contenu dans le réservoir, en laissant une étroite couronne annulaire de surface libre sur sa périphérie (fig. 1). Dans ce cas, en effet, le siège de l’évaporation est limité à cette surface libre. Mais les hydrocarbures évaporés ne demeurent pas au-dessus de la couronne périphérique. Ils se répandent immédiatement sur toute la surface de l’écran flottant, de sorte que l’évaporation se poursuit, n’étant pas ralentie par la
- Fig. 1. — Réservoir équipé d’un simple écran sans joint périphérique.
- L’évaporation se poursuit à la surface libre, .non recouverte par l’écran, car elle n’est pas -ralentie par la présence, .au-dessus de la phase liquide, d’une phase vapeur riche en hydrocarbures.
- Vapeurs
- d'hydrocarbures
- liquide
- stocké
- écran
- flottant
- Fig. 2. — Réservoir équipé d’un écran flottant muni d’un joint périphérique en forme de Z.
- X’espace compris entre le liquide et le joint est saturé de vapeurs d’hydrocarbures qui limitent l’évaporation du liquide.
- Vapeurs
- d'hydrocarbures
- écran
- flottant
- présence, au-dessus de la phase liquide, d’une phase vapeur riche en hydrocarbures.
- Supposons alors que les bords de l’écran soient limités par un rebord en forme de Z (fig. 2). On obtient ainsi un écran flottant en forme de soucoupe et l’espace annulaire compris entre le rebord et les parois verticales du réservoir est constamment plein de vapeurs d’hydrocarbures. Cet anneau gazeux se comporte comme un joint déformable qui épouse parfaitement les parois du réservoir lorsqu’on fait varier le niveau du liquide, donc la position de l’écran. L’évaporation est bloquée par l’existence de cette phase gazeuse saturée en vapeurs de liquide stocké, et les pertes ne sont plus de ce fait commandées par la vitesse d’évaporation, qui est considérable, mais par la vitesse de diffusion de l’air saturé de vapeurs d’hydrocarbures vers l’atmosphère libre du réservoir, vitesse qui est très faible.
- De nombreuses mesures ont été effectuées sur des réservoirs munis d’écrans flottants construits sur ce principe, tant en Europe qu’aux Etats-Unis sous les aupices de sociétés productrices ou d’organismes officiels, afin de déterminer l’efficacité du procédé. Les chiffres obtenus présentent, bien entendu, une certaine dispersion, mais on peut dire que ces écrans réduisent les pertes dans la proportion de 80 à 94 pour xoo. Pour donner un exemple précis, disons qu’un écran permet d’économiser 10 m3 d’essence par mois dans un réservoir de 4 000 m3.
- Par ailleurs, les écrans flottants assurent une protection efficace contre les risques d’incendie. En effet, alors que dans les réservoirs à toit fixe sans écran flottant, il existe souvent une zone explosive à la partie supérieure du réservoir, là où justement le personnel peut causer des étincelles lors des opérations de jaugeage et d’échantillonnage et où la foudre peut provoquer l’explosion, dans ceux qui sont équipés d’écrans la zone explosive se trouve localisée au voisinage de l’écran, c’est-à-dire loin du toit, donc des étincelles extérieures possibles, foudre y comprise.
- Les écrans flottants assurent également l’évacuation des charges électriques qui s’accumulent dans les hydrocarbures. On sait en effet que la production d’électricité statique résulte du pompage des hydrocarbures dans les tuyauteries. Des électrons sont arrachés au métal et viennent se fixer sur les molécules d’hydrocarbures. Les tuyauteries ainsi que le réservoir sont donc chargés positivement tandis que l’essence qui entre dans le réservoir est chargée négativement. Ces charges électriques devraient se neutraliser, mais comme les hydrocarbures sont de fort mauvais conducteurs de l’électricité, dans les réservoirs de grand diamètre les charges électriques portées par le carburant situé au milieu du réservoir ne se dissipent que très lentement par les parois. Il se produit alors un champ électrique au-dessus de la surface du liquide, dans la phase
- 540
- p.540 - vue 537/560
-
-
-
- Couronne
- pieds auto-portants
- Nervures
- longerons
- flotteurs
- Fig- 3- — Coupe d’un écran flottant en alliage d’aluminium.
- Deux câbles, fixés au toit du réservoir, empêchent l’écran de tourner.
- vapeur ; elle peut occasionner des étincelles et de là l’explosion du réservoir.
- Lorsqu’au contraire le réservoir est équipé d’un écran flottant métallique (aluminium), relié à la masse du réservoir, il oppose une barrière parfaite au champ électrique et la phase vapeur est définitivement à l’abri des étincelles d’origine électrostatique. Dans le cas des écrans plastiques, on les munit d’un grillage de câbles métalliques relié à la masse du réservoir, ce qui réduit fortement le champ électrique.
- Disons enfin qu’en cas d’explosion, l’incendie est très ralenti par l’écran, ce qui laisse beaucoup plus de temps pour l’intervention que dans le cas des réservoirs ordinaires.
- Les premiers écrans flottants étaient construits en feuilles de chlorure de polyvinyle sous lesquelles étaient soudés un grand nombre de flotteurs. Toutefois, des difficultés d’installation et surtout l’évolution de la constitution des carburants vers une teneur de plus en plus élevée en hydrocarbures aromatiques qui altèrent les matières plastiques ont conduit au remplacement du chlorure de polyvinyle par un alliage d’aluminium. Le joint périphérique en forme de Z est réalisé en résine polyester armée de fibre de verre. L’assemblage des panneaux d’aluminium est effectué par les méthodes traditionnelles de la construction métallique à l’aide d’écrous et de boulons. Des pieds auto-portants sont fixés sous l’écran et le maintiennent
- au-dessus des orifices de remplissage lorsque le réservoir est vide. Ces pieds de repos servent également aux opérations de montage, pendant lesquelles ils supportent l’écran. La flottabilité est assurée à 150 pour 100 du poids de l’écran par des flotteurs en aluminium (fig. 3 et 4).
- Bien qu’ils soient essentiellement utilisés lors du stockage des hydrocarbures, les écrans flottants permettent aussi de protéger les liquides sensibles au contact de l’air, par exemple les huiles végétales, ou de l’humidité : glycérine, glycols, alcools, huiles minérales spéciales, etc. On a également proposé de les utiliser pour couvrir les bassins de décantation des raffineries de pétrole et usines analogues pour réduire la pollution de l’atmosphère.
- Robert Rosset.
- La documentation de cet article, ainsi que la photo, nous ont été aimablement communiquées par la Société Laroche-Bouvier et par M. A. Champa-gnat.
- Fig. 4. — Vue d’ensemble d’un écran flottant installé dans un réservoir de 8 mètres de diamètre.
- p.541 - vue 538/560
-
-
-
- L’élevage des larves à température élevée peut changer le sexe de certains moustiques
- Les sexes des moustiques adultes diffèrent par un certain nombre de caractères qui permettent de les reconnaître au premier coup d’œil. Les antennes et les palpes des mâles sont garnis de longs poils qui en font des appendices remarquablement touffus ; l’extrémité abdominale porte un organe copulateur volumineux. Des différences importantes se montrent aussi entre les pièces buccales des deux sexes : la femelle qui, rappelons-le, est seule capable de piquer et d’aspirer le sang, possède une trompe compliquée, formée de sept pièces ; chez le mâle cet organe se réduit à deux pièces presque sans fonction. Tous ces caractères sont liés au sexe qui est déterminé de façon très précoce et dépend de la formule chromosomique. Il semblerait donc qu’aucune influence externe ne doive apporter de changement dans l’évolution de ces caractères. C’est cependant ce qu’ont obtenu deux entomologistes de l’Université de l’Illinois, MM. R. Horsfall et J. F. Anderson, à la suite d’intéressantes expériences d’élevage à différentes températures des larves d’un moustique commun au Canada et dans le Nord des États-Unis, Y A.edes stimulans. Les populations mélangées de larves venant d’éclore ont été divisées en deux lots, dont l’un a été élevé à la température de 240, l’autre à 290 C. Les résultats de ces élevages sont très différents. A 240 les larves génétiquement mâles (bien que les auteurs n’insistent pas sur ce point, il semble qu’ils aient réussi à distinguer le sexe des larves dès le plus jeune âge ; ils indiquent, en effet, que les larves femelles ne sont pas modifiées par la température) développent tous les organes caractéristiques de leur sexe, tant en ce qui concerne les glandes génitales elles-mêmes que les caractères sexuels secondaires. Au contraire toutes les larves élevées à 290 donnent des individus absolument semblables à des femelles, sauf de petites différences dans la forme des palpes. Ces insectes anormaux ont des organes internes de type féminin parfait, comprenant ovaires, oviductes et spermathèque (réservoir à spermatozoïdes).
- Pour obtenir ce résultat, il faut cependant que l’action de la chaleur soit exercée pendant un certain temps. D’autres expériences ont en effet montré que les adultes provenant de larves soumises à la température de 290 pendant les trois derniers jours de leur vie larvaire seulement ne présentent pas de modifications morphologiques visibles ; cependant on constate, au moment de l’éclosion, que ne se produit pas la rotation de 1800 de l’organe copulateur qui place, chez les mâles normaux, cet organe dans la position favorable à l’accouplement. L’application de la tempéra-
- ture élevée pendant six jours provoque l’apparition dans l’élevage de nombreux intersexués. On sait qu’on désigne sous ce nom les individus qui montrent un mélange de caractères sexuels mâles et femelles. Enfin, à partir de sept jours et plus, tous les individus ont l’apparence de femelles ; certains ont pu être fécondés par des mâles normaux et, à la dissection, on a trouvé leur spermathèque contenant des spermatozoïdes.
- Ces résultats intéressants ne sont cependant pas tout à fait imprévus. L’existence d’intersexués chez les insectes n’est pas rare dans la nature et leur production a été bien étudiée expérimentalement chez le Phasme des laboratoires (Carausius morosus). Il s’agit d’un insecte à reproduction normalement parthénogénétique, c’est-à-dire dont les œufs se développent sans être fécondés et dont presque tous les exemplaires sont des femelles, les mâles étant de véritables raretés. Dans une étude assez récente (C. R. Ac. Sc., 1958), Bergerard a fait connaître les résultats de l’application de températures élevées aux œufs de Carausius dès le début de l’incubation. Entre 270 et 30° C, il y a une forte mortalité, mais les larves qui subsistent manifestent toujours une intersexualité, d’autant plus marquée que la température est plus élevée. Quelques individus obtenus d’œufs soumis à 300 pendant une vingtaine de jours, puis ramenés à 230 pour terminer leur développement, sont très fortement masculinisés avec des organes génitaux internes mi-partie mâles, mi-partie femelles.
- Ces résultats ne sont que partiellement comparables à ceux obtenus avec les larves de moustiques. On comprend mieux le trouble qui peut être apporté dans la constitution sexuelle par l’application d’un agent externe, comme la température, à un œuf dès le début de sa segmentation qu’à une larve déjà bien développée. Les résultats obtenus par Horsfall et Anderson se rapprocheraient plutôt du cas classique de certaines races de la grenouille rousse dont le sexe peut dépendre des conditions de température dans lesquelles se fait l’élevage. Alors qu’à la température normale les têtards donnent autant de mâles que de femelles, on n’obtient que des mâles dans un élevage à 250 et des femelles seulement à xo°. Dans un cas comme dans l’autre il ne s’agit pas d’une modification réelle de la constitution génétique définitivement fixée dans l’œuf mais d’un renversement des caractères sexuels par l’action de circonstances extérieures. En langage scientifique on dira que les moustiques éclos de larves élevées à la température de 290 montrent un phénotype sexuel différent du génotype sexuel.
- L. Chopard.
- L’énergie des marées en U. R. S. S.
- Un projet est à l’étude en U. R. S. S. pour l’installation d’une usine marémotrice dans le golfe de Mézen, au débouché de la Mer Blanche sur l’Océan Glacial Arctique. L’amplitude des marées atteint ici 5,50 m en moyenne. Le projet prévoit la construction
- de digues d’une longueur totale de xoo km et l’implantation de 2 000 turbines qui fourniraient 36 milliards kWh par an ! D’autres centrales pourraient ultérieurement être construites sur les rivages de la Mer Blanche (D’après Priroda).
- 542
- p.542 - vue 539/560
-
-
-
- L’ACTUALITE INSTRUMENTALE
- Fours électriques à moufle
- La Société Prolabo propose depuis peu des fours à moufle à enroulements chauffants capables de fonctionner jusqu’à i ioo° C. Le régulateur automatique est équipé d’un compensateur d’inertie qui stabilise la température avec une grande précision. Ce régulateur est du type à action proportionnelle, c’est-à-dire qu’il commande l’effet compensateur (chauffage ou refroidissement) en lui donnant une durée proportionnelle à l’écart qui existe entre la température réelle et la température désirée.
- Afin de réduire au minimum les oscillations de température, le couple thermoélectrique principal, dont l’élément sensible est placé dans le four, est monté dans le même circuit que deux couples thermoélectriques auxiliaires, eux-même chauffés par des résistances réglables. L’un de ces couples (i), chauffé lorsque le moufle est coupé, est monté de façon que sa force électromotrice s’oppose à celle du couple principal. L’autre couple (2), chauffé lorsque le courant passe dans le four, vient ajouter sa force électromotrice à celle du couple principal. C’est l’ensemble de ces trois couples qui commande le régulateur de température, ce qui permet de compenser l’inertie du four, particulièrement importante dans les systèmes de chauffage électrique : par exemple, lorsque le four chauffe, le passage du courant dans le couple auxiliaire (2) produit une force électromotrice qui, venant s’ajouter à celle du couple principal, coupe le courant avant que le couple principal n’ait atteint sa température de régime ; par suite de l’inertie du moufle, la température continue à monter encore un peu, mais elle ne dépasse pas le point voulu. Dès que le courant a été coupé, le couple (1) est chauffé et sa force électromotrice vient se retrancher de celle du couple principal qui, elle, augmente encore légèrement. Il en résulte qu’un peu avant que la température commence à baisser, le four se remet à chauffer, et ainsi de suite.
- Il existe deux modèles de four (fig. x et 2) qui ne diffèrent que par les dimensions du moufle et la disposition du carter dans lequel sont montés les organes de régulation. Chacun d’eux est construit sous la forme d’unités complètes contenant en un seul bloc tous les éléments nécessaires
- Ce four est plus grand que le suivant. Les dimensions du moufle sont : largeur, 170 mm ; hauteur, 130 mm ; profondeur, 400 mm. Poids total 100 kg. Consommation : maximum, 3 100 watts ; en régime à x xoo° C, 1 850 watts.
- au fonctionnement. La résistance chauffante, en alliage spécial, est bobinée sur un moufle réfractaire et protégée par une enveloppe réfractaire cimentée. Cet ensemble forme l’élément chauffant proprement dit et il est facilement démontable.
- Fig. 2. — Four électrique à moufle.
- Les dimensions du moufle sont respectivement : largeur, 140 mm ; hauteur, 100 mm ; profondeur, 400 mm. Poids de l’ensemble : 45 kg. Consommation : maximum, 2 500 watts ; en régime à 1 xoo° C, 1 500 watts.
- 543
- p.543 - vue 540/560
-
-
-
- FOURS A MOUFLE
- Température 20 à I 100° C
- avec
- RÉGULATEUR AUTOMATIQUE
- à inertie compensée
- Deux modèles : ce type de four est construit dans deux tailles, dont les dimensions respectives du moufle chauffant à voûte arrondie sont : 140 x 100 x 400 et 170 x 130 x 400 (largeur X hauteur x profondeur).
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e. — ODE 54-83
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d’État. Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour —> Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- Société D’Édition D’Enseignement Supérieur
- 5, Place de la Sorbonne PARIS Ve
- Vient de paraître :
- Henri PRAT
- Professeur à la Faculté des Sciences de Marseille
- MÉTAMORPHOSE EXPLOSIVE DE L’HUMANITÉ
- Tome II
- Un vol. in-16 jésus, 184 pages, 41 fig..... 5,50 NF
- Moufles chauffants interchangeables : l’élément chauffant est constitué par une résistance en fil Kanthal (métal à point de fusion très élevé, I 350° C) bobinée autour d’un moufle réfractaire et recouverte par une seconde enveloppe réfractaire. Il forme un tout amovible.
- Automatisme du réglage : l’opérateur n’intervient que pour fixer au début du travail, sur les cadrans de l’appareil, les éléments du réglage désiré. La température monte jusqu’au point fixé (sans le dépasser) et s’y maintient automatiquement.
- Stabilité et précision : le régulateur à compensation d’inertie supprime toute oscillation de la température autour du point de réglage. Le réglage est très précis pour n’importe quelle valeur choisie entre 20 et I 100° C.
- §* Commodité : le four forme une unité autonome dans laquelle sont incorporés tous les accessoires nécessaires. Il suffit de le brancher simplement sur le secteur.
- PROLABO
- 12, RUE PELÉE * PARIS (XI8)
- --- VIENT DE PARAITRE-----------------------
- PRÉCIS
- DE
- PHYSIQUE GÉNÉRALE
- PAR
- R. KRONIG
- TRADUIT DU HOLLANDAIS ET ADAPTÉ AUX PROGRAMMES FRANÇAIS SOUS LA DIRECTION DE M.-Y. BERNARD
- PRÉFACE DE P. GRIVET
- TOME IL — Électricité, x-292 pages 16 x 25, avec 154 figures. 1962. Broché ................................. 26 NF
- RAPPEL
- TOME I. — Mécanique physique. Thermodynamique, xvi-400 pages 16 x 25, avec 216 figures. 1960. Broché. 28 NF
- TOME TU. — Optique, x-266 pages 16 x 25, avec 213 figures. 1960. Broché ................................. 22 NF
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-66. DAN 99-15.
- 544
- p.544 - vue 541/560
-
-
-
- I
- Nouveaux spectromètres de masse
- La spectrométrie de masse a vu ses applications se développer à un rythme accéléré au cours de la dernière décennie ; aussi la gamme des appareils devient-elle plus variée chaque année. Une étude complète de cette technique ayant été donnée dans un récent numéro (La Nature, octobre i960, p. 440-442), nous nous contenterons de signaler l’apparition sur le marché français de deux appareils nouveaux.
- Citons d’abord le spectromètre de masse SM 100 de la C. S. F. Il s’agit d’un ensemble de dimensions et de poids réduits destiné essentiellement aux laboratoires et aux universités qui veulent une installation peu encombrante et peu onéreuse à l’achat comme à l’exploitation (fig. 3).
- L’appareil est principalement conçu pour l’analyse des mélanges gazeux en simple collection, dans le domaine des masses de 2 à 100. Il peut toutefois recevoir un amplificateur supplémentaire et fonctionner en double collection, même sur des masses très éloignées. L’un des paramètres importants des spectromètres de masse est leur pouvoir de résolution ; A/// est la plus petite variation de
- masse décelable à l’endroit où la masse m est focalisée. Il atteint 100 dans l’appareil de la C. S. F., c’est-à-dire
- Fig. J. — Spectromètre de masse SM ioo de la C. S. F.
- {Photo R. Bouillot, C. S. F.).
- Fig. 4. — Spectromètre de masse TH. N. 202 SD de la Compagnie française Thomson-Houston.
- {Photo Thomson-Houston).
- p.545 - vue 542/560
-
-
-
- écrans flottants
- pour stopper l'évaporation
- 10 m3 d’essence économisés en un mois dans un réservoir de 4.000 m3
- LAROCHE-BOUVIER & Cie " 5, boulevard Edgar-Quinet, COLOMBES (Seine) - Tél. CHA 24-75
- --- WENT DE PARAITRE ------------------------------------------
- COLLECTION UNIVERSITAIRE DE MATHÉMATIQUES
- LES DISTRIBUTIONS
- PAR
- I. M. GUELFAND G. E. CHILOV
- TRADUIT DU RUSSE PAR G. RIDEAU
- viii-376 pages 16 x 25, avec 7 figures. 1962. Relié toile sous jaquette ... 48 NF
- En vente dans toutes les bonnes librairies et chez
- DUNOD, Éditeur, 92, rue Bonaparte, PARIS-6e. DAN. 99-15. PARIS 75 45
- RAPY
- appareils électroniques de mesure
- QUELQUES POSSIBILITÉS :
- Tensions : 100 M V à 50 kV R d'entrée 10*“* (1 ntensités : 10-' 5 j 10-I ampère • R d entree
- nulle
- Résistances : IO17 (1 à 100 p. fl - R. d'entrée
- nulle
- Capacités : 0,1 pF à 10 000 pF - R. d'entrée
- nulle
- Champs : 0,1 gauss à 10 000 gauss.
- Electrisations : 10 pico-coulombs à 1 000
- coulombs.
- Pertes en watts des tôles : 0,5 à 5 W. Fluctuations de tension :
- depuis 1 mV 1.000 ou 2.000 V. Intégration : (analogique)
- 1 seconde à 60 minutes I à 20 voies Conductivité : 1 0 à 1.000 M fl (mesure à
- distancel
- FONDE EN 1915
- lEMOUZr.
- Fournisseur de 1.900 laboratoires officiels et privés toutes industries
- 63, rue de Charenton, Paris 12e - Tél. DID. 07-74
- 546
- p.546 - vue 543/560
-
-
-
- que pour la masse ioo la plus petite variation décelable est de i unité de masse.
- La Compagnie française Thomson-Houston a présenté le spectromètre de masse type TH. N. 202, à aimants permanents interchangeables, destiné au dosage précis de mélanges gazeux dans la gamme des masses 2 à 100. Il existe trois modèles de cet appareil, le modèle 202 D, spécialisé dans la séparation d’une couple de molécules de masses voisines et qui utilise la « double collection », le modèle S qui ne possède que la simple collection avec enregistrement du spectre par balayage électrostatique, et enfin le modèle SD (fig. 4) utilisable en simple ou double collection.
- Le pouvoir de résolution atteint 50, c’est-à-dire que les ions de masse 51 contribuent pour moins de 1 pour 100 à l’amplitude maximale d’un pic de masse 50. Au point de vue sensibilité, définie comme la concentration minimale décelable de l’isotope rare, il est possible d’atteindre le dix-millionième (0,1 partie par million). La précision est de 0,1 pour 100 en double collection, de 1 pour 100 en simple collection. Des dispositifs de sécurité assurent l’arrêt du chauffage de la pompe à diffusion si le débit d’eau de refroidissement est insuffisant ou en cas de remontée accidentelle du vide primaire. De même les alimentations électroniques sont arrêtées en cas de remontée accidentelle du vide secondaire.
- Mélangeur continûment réglable
- L’obtention du mélange intime de deux ou plusieurs constituants, pour être un très vieux problème, n’en intervient pas moins constamment dans d’innombrables processus, au laboratoire comme dans l’industrie. De là, des appareils fort nombreux mais qui présentent cependant l’inconvénient de ne fonctionner efficacement que dans des conditions opératoires (nature des produits, concentrations, température, volume, forme des récipients) bien déterminées. De ce fait, l’utilisateur est obligé soit de fixer rigidement les conditions opératoires et de s’y cantonner, coûte que coûte, soit d’opter pour des dispositifs plus souples d’emploi, comportant par exemple un variateur de vitesse, mais alors beaucoup plus onéreux.
- La firme belge Expanco vient de mettre au point un nouveau dispositif caractérisé au contraire par le fait qu’il peut s’adapter à des conditions d’emploi très variées. Le mélangeur est du type « turbine », c’est-à-dire constitué essentiellement d’un disque métallique muni à sa périphérie d’un certain nombre d’aubes en forme de triangles dont l’un des côtés est rabattu vers le haut (fig. 5). Ces aubes sont fixées sur des pivots et munies d’une denture qui s’engrène sur une roue dentée centrée sur l’arbre du disque et dont la position peut être fixée grâce à un système de blocage. La fixation des aubes sur pivot permet de les faire tourner au moyen de la roue dentée de manière qu’elles présentent un angle, identique pour chaque aube mais variable continûment, par rapport à la tangente au disque. Or, il est clair que plus cet angle sera grand, plus les aubes brasseront les produits à mélanger à grande vitesse et, par suite, plus l’agitation sera violente (ceci, pour une vitesse de rotation constante de la turbine). Une autre possibilité de réglage de l’agitation réside dans le fait que les aubes peuvent être enlevées de la turbine de manière très simple. De la sorte, de multiples combinaisons sont possibles en faisant varier le nombre des aubes (de 1 à 14) et leur angle par rapport au disque.
- Les domaines d’utilisation de ce nouveau mélangeur sont très nombreux ; on peut citer, par exemple, l’industrie des couleurs où il permet d’obtenir une dispersion efficace des pigments, ce qui conduit à un meilleur pouvoir couvrant, l’industrie chimique où une homogénéisation poussée des réactifs est souvent la clé d’une synthèse réussie, etc.
- Fig. J. — Mélangeur à efficacité réglable.
- On distingue la roue dentée sur laquelle viennent s’engrener les aubes à angle variable.
- Disons, pour terminer, que l’appareil est entièrement réalisé en acier inoxydable et que son principe, fort simple,, lui confère un prix relativement modique.
- R. R.
- Ampoule électrique incassable
- Une ampoule électrique incassable vient d’être mise au point par Duro Test Corporation, nous apprend une information du Centre culturel américain. Elle est constituée de fibres de verre rendues imperméables aux gaz par un adhésif à base de silicone. Ces nouvelles ampoules seraient aussi efficaces que les lampes actuellement en usage tout en répandant une lumière plus douce et elles auraient une durée de vie trois fois plus longue.
- 547
- p.547 - vue 544/560
-
-
-
- Le Ciel en Janvier 1962
- SOLEIL : du Ier janvier au Ier février (à oh) sa déclinaison croît de —23°y à — I7°i8' et la durée du jour de 8hi6m à 9h20m ; diamètre apparent le Ier (à oh) = 32'35",o, le 31 (à 2411) = 32'30",9. — LUNE : Phases : N. L. le 6 à l2h3Ôm, P. Q. le 13 à 5h2m, P. L. le 20 à i8hi7m, D. Q. le 28 à 23h37m ; périgée le 8 à 1411, diamètre app. 32'57" ; apogée le 24 à 13^, diamètre app. 29'27". Principales conjonctions : avec Neptune le Ier à 21h, à 3°34' N ; avec Mars le 6 à 3h, à 4°4' N ; avec Vénus le 6 à 411, à 3038' N ; avec Mercure le 7 à 1311, à 3°42' N ; avec Saturne le 7 à 1311, à i°57' N ; avec Jupiter le 8 à 8h, à I°I5' N ; avec Uranus le 23 à 5h, à o°i7' N ; avec Neptune le 29 à 7h, à 304O' N. Principales occultations : le 16, d’Aldé-baran (mag. 1,1), immersion à I^hz6m,z et émersion à i6hi5m,g ; le 17, de 120 Taureau (mag. 5,5), immersion à I7h24m)7 ; le 23, de Régulus (mag. i,3), immersion à 4hi7m8, et émersion à 5h26m,o ; le 30, de y Balance (mag. 4,0), immersion à 4h40m,3 et émersion à 5h45m,6. — PLANÈTES : Mercure, étoile du soir à partir du 10, coucher le 25 à i8hi3m, soit ih39m après le Soleil, plus grande élongation le 21 à lh, à i804O' E du Soleil ; Vénus, Mars et Saturne dans le voisinage du Soleil sont invisibles ; Jupiter, encore un peu visible le soir dans le crépuscule ; Uranus rétrograde à l’est de Régulus et apparaît dans la soirée, le 15, position : ioh9m et + I2°I5', diamètre app. 3",9 ; Neptune, près de p. Balance s’observe bien le matin, le 15, position : I4h45m et —I4°8\ diamètre app. 2", 4. — ÉTOILES VARIABLES : minima observables d'Algol (2m,2-3m,5) le 2 à 23h,4, le 5 à 20h,3, le 8 à I7h,i, le 20 à 4h,3, le 23 à ih,2, le 25 à 22h,o, le 28 à i8h,8, minima de P Lyre (3m,4-4m,3) le 8 à 6h,o, le 21 à 4h,4 ; maximum de R Vierge (6m,2-i2m,i) le 11. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.) : le Ier : 6h50mis, le 11 : 7h29m26s, le 21 : 8h9m52s, le 31 : 8h48mi7s.
- Un appareil pour masser le cœur
- Après trois ans de travaux, un groupe de chercheurs de l’École de médecine de l’Université de Chicago a mis au point une machine destinés à remplacer le massage manuel du cœur par le chirurgien, dans le cas des arrêts cardiaques.
- L’appareil consiste en une pompe qui, au moyen d’un tuyau de caoutchouc, envoie de l’air comprimé dans une bande de latex qui s’ajuste autour du cœur. Le réglage est téilisé de manière que soit d’abord exercé un effet de pression puis un effet de succion deux fois plus long que l’effet de pression, ce qui reproduit le cycle de pompage normal du cœur. Le rythme normal est de 80 contractions à la minute mais des valeurs plus faibles ou plus élevées peuvent être aisément obtenues.
- Quand on sait qu’il est parfois nécessaire de pratiquer le massage du cœur pendant des périodes qui peuvent atteindre deux heures avant de rétablir les battements normaux, on comprend que cet appareil doive rendre de précieux services. Il arrive en effet que le chirurgien, sous l’effet de la fatigue, modifie sans s’en rendre compte le rythme de son massage, et n’opère plus alors à une pression suffisante sur le ventricule gauche qui envoie le sang dans le système artériel.
- Au cours des premières expériences effectuées avec le nouvel appareil sur 21 animaux de laboratoire dont le cœur avait été artificiellement arrêté, la machine a rétabli le rythme cardiaque de 19 d’entre eux. Dans des expériences similaires, où le massage manuel a été pratiqué, moins de la moitié seulement des animaux ont pu être ranimés (Information U. S. I. S.).
- Phénomènes intéressants : Le Soleil au périgée le 2 à 511, la Terre au périhélie. — Surveiller la surface tachée du Soleil. — Lumière cendrée de la Lune, le soir, du 8 au 12. — Ne pas manquer de rechercher Mercure à l’œil nu, le soir, à partir du 10. — Profiter de son voisinage avec Régulus du Lion, pour repérer aisément la planète Uranus à la jumelle. — Le 16, l’occultation d’Aldébaran est à observer en plein jour à la lunette. — Étoiles filantes : du Ier au 3, Bootides (radiant (3 Bouvier), rapides à traînées longues. — On contemplera les belles constellations d’hiver : Taureau, Gémeaux, Cancer, Lion, Cocher, Orion, Grand et Petit Chiens.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- fondée en 1887 par C. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L'ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc.
- Demandez les programmes au Siège Social de la
- Société Astronomique de France, 28, rue Serpente, Paris-6*
- Permanence, tous les jours non fériés de 14 à 17 h
- Cotisations : Région Parisienne, 25 NF ; France, 20 NF ; Étranger, 30 NF ; Étudiants, 3 NF ; Droits d’inscription pour tous, 2 NF.
- Spécimen gratuit de la revue sur demande.
- Demandez « Splendeur de l’Astronomie », les plus belles photographies astronomiques : 16 pages 13,5x20,5, tirage néogravure bleu nuit. 0,65 NF franco. — Compte Ch. post. Paris 1733.
- Décongélation radioélectrique
- La Société Pye Limited, de Cambridge, vient de mettre au point une méthode de décongélation rapide du poisson à l’aide d’ondes radioélectriques qui permet d’accomplir en 15 minutes une opération qui demandait de 12 à 24 heures par la méthode traditionnelle de circulation d’eau chaude ou d’air chaud.
- La tendance actuelle est en effet de congeler immédiatement, à très basse température, le poisson à bord des chalutiers qui ne reviennent au port qu’après avoir fait le plein. Cela exige l’emploi de méthodes plus rapides et plus efficaces pour décongeler le poisson avant de le traiter. Jusqu’ici, la méthode la plus courante consiste à plonger les poissons congelés dans l’eau chaude où à les soumettre à l’action de jets d’air chaud. Tout en étant d’application très longue, ce procédé a l’inconvénient de surchauffer la partie extérieure des « blocs » de poisson alors que le centre est encore congelé.
- Dans la nouvelle installation, les blocs de poisson congelé à — 340 C passent sur une courroie transporteuse dans un tunnel où ils sont soumis à un champ électromagnétique intense à la fréquence des ondes radio. La propagation des ondes dans le poisson provoque un échauffement rapide. Au cours des essais pilotes, les blocs étaient entièrement décongelés en 15 minutes et la production horaire de l’installation était d’environ une demi-tonne. La méthode est évidemment applicable à la décongélation de la viande, des fruits et des légumes (D’après une Information de T Ambassade de Grande-Bretagne).
- R. R.
- 548
- p.548 - vue 545/560
-
-
-
- LES LIVRES NOUVEAUX
- Introduction à l’astrophysique : les étoiles,
- par Jean Dufay, professeur à la Faculté des Sciences de Lyon, directeur des Observatoires de Lyon et de Haute-Provence, i vol. n X 16,5, 218 p., 51 fig. Collection Armand Colin, Paris, 1961. Prix : 4,50 NF.
- Selon ses propres termes, l’éminent astronome, dans ce petit ouvrage, s’est attaché « d’abord à décrire simplement, mais d’une manière précise, les méthodes actuelles de la photométrie et de la spectroscopie stellaires, en écartant délibérément les techniques aujourd’hui périmées, puis à faire connaître les résultats généraux des observations concernant la classification des étoiles normales et leurs propriétés ». Dans le dernier chapitre cependant, il introduit quelques notions théoriques pour interpréter cette classification et il expose brièvement les conceptions actuelles sur l’évolution des étoiles. Les étoiles instables, variables et novæ, trouveront place dans un autre volume, qui traitera de la voie lactée et des galaxies.
- Unités de mesure des grandeurs physiques,
- par P. Debraine. 2e édition. 1 vol. 14 X 22, 200 p. Dunod, Paris, 1961. 24 NF.
- Cet ouvrage se propose de faciliter aux étudiants comme aux techniciens, auxquels se posent de plus en plus fréquemment des questions relatives au passage d’un système d’unités à un autre, la résolution de ces problèmes. Après un rappel des principes de base sur les grandeurs et leur mesure qui permet d’introduire la notion de système coordonné d’unités, on présente les problèmes courants et on montre par des exemples comment on peut les résoudre. On indique les relations de définition, les équations de dimensions et les unités des différents systèmes pratiquement utilisés pour les grandeurs de divers domaines : géométrie, cinématique, mécanique, électricité et magnétisme, thermodynamique, énergétique des rayonnements, photométrie, en faisant état
- des systèmes anglo-saxons, sources pratiques de difficultés fréquentes. Il s’agit donc d’un instrument de travail pour tous ceux qui doivent utiliser couramment ces diverses unités.
- Initiation à la théorie de l’énergie élastique, calculs hyperstatiques et déplacements, par
- F. Salles. 1 vol. 16 X 25, 180 p., 246 fig. Dunod, Paris, 1961. Prix, broché : 19 NF, relié : 23 NF.
- L’auteur expose la théorie de l’énergie élastique en utilisant des procédés nouveaux, souvent originaux, auxquels il a largement contribué. Ces méthodes permettent de résoudre les calculs hyperstatiques de façon automatique et sans connaissances mathématiques particulières alors qu’ils étaient autrefois réservés à des spécialistes qualifiés. Nombreux exemples numériques traités en détail.
- Manuel d’hydraulique générale, par A. Len-c astre. Traduit du portugais par l’auteur, avec la collaboration de J. Valembois. i vol. 16 X 25, 412 p., 149 fig., 129 tableaux et 9 dépliants. Eyrolles, Paris, 1961. Prix, cartonné : 38 NF.
- L’une des difficultés auxquelles se heurtent les ingénieurs, lorsqu’ils ont à résoudre un problème pratique en mécanique des fluides, est la dispersion, voire l’absence de données numériques qui leur permettraient d’aboutir à des conclusions quantitatives, ce qui leur impose l’analyse approfondie d’une abondante bibliographie. L’auteur a voulu combler cette lacune et nous offre une sélection harmonieuse des données numériques les plus sû:e5 et les plus commodes d’emploi. Après avoir rappelé, de manière concise, en 10 chapitres, les bases théoriques indispensables, il consacre plus de la moitié de son livre à des tables et abaques, qui font de son œuvre un instrument de travail fondamental pour l’hydraulicien. Un vocabulaire
- polyglotte indique les équivalents portugais, espagnols, anglais, allemands et italiens de plus de 200 termes techniques usuels en hydraulique. Abondante bibliographie. — R. R.
- Les robots et leurs circuits : Organes et systèmes nerveux électroniques, par A. FI.
- Bruinsma. 1 vol. 14,8 x 21, 138 p., 53 fig., 8 photos, 4 pl. h. t. Bibliothèque technique Philips, Eindhoven, i960. Dépositaire France et Communauté : Dunod, Paris. Prix : 12,50 NF.
- Pour l’homme de la rue, la notion de robot est généralement associée à des machines ayant extérieurement la forme d’un individu ou d’un animal et qui sont à même d’accomplir des actes déterminés rappelant les actes du modèle vivant. Par ailleurs, ces robots, largement utilisés dans les romans et films de science-fiction, sont conçus de façon à donner le frisson au public et tendent à accréditer l’opinion selon laquelle ils sont une menace pour l’humanité.
- Après avoir rectifié cette définition peu scientifique des robots, l’auteur a voulu donner une idée de leur fonctionnement et de leurs énormes possibilités encore latentes. A cet effet, il décrit deux robots fabriqués pour la démonstration. Le premier a la forme d’un animal vivant qui mène une existence plus ou moins indépendante. Ceci donne l’occasion de comparer ses différents organes avec les organes humains ou animaux correspondants. Le deuxième est un robot fixe, à même d’exécuter un travail intellectuel, à savoir le jeu bien connu des ronds et des croix. Ouvrage très clair où le profane trouvera la description et le fonctionnement des circuits utilisés dans les robots modernes.
- Utilisations des transistors, par D. J. W.
- SjOBBEMA. I VOl. 14,8 X 21, Il8 p., 121 fig. Bibliothèque technique Philips, Eindhoven et Paris ; Dunod, Paris, 1961. Prix, relié : 11,50 NF.
- LA GRAVURE
- OFFREZ
- des LITHOGRAPHIES ORIGINALES
- en couleurs des meilleurs peintres de notre époque, tels que BUFFET, CARZOU, HUMBLOT, L, FINI, LURÇAT,
- LARS-BO, etc...
- Y. BRAYER. — Coucher de soleil en Camargue. Lithographie 7 couleurs. 220 Ex. 100 NF.
- Tous nos tirages sont limités, numérotés et signés par les artistes.
- Prix : de 45 à 250 NF
- CATALOGUE N SUR DEMANDE
- EXPOSITION PERMANENTE
- 41, Rue de Seine, PARIS VIe DANton 05-44
- J. THEVENET. — La Salute. Lithographie 7 couleurs. 220 Ex. 75 NF
- 549
- p.549 - vue 546/560
-
-
-
- Exposé simplifié des caractéristiques des transistors et de leur montage. Le lecteur y trouvera des explications claires, de nombreux conseils pour rutilisation des transistors et cela sans mathématiques. Quelques montages qui ont donné dans la pratique la preuve de leur valeur sont décrits en détail.
- Diodes et transistors. Tome I : Théorie générale, par Guy Fontaine, i vol. 14,8 X 21, 469 p., 446 fig. Bibliothèque technique Philips, Eind-hoven et Paris ; Dunod, Paris, 1961. Prix, cartonné : 36 NF.
- L’auteur a cherché à exposer le mécanisme du fonctionnement des transistors et leurs applications sans le secours des mathématiques considérées souvent comme trop rébarbatives sans pour cela mieux faire comprendre le sens physique des phénomènes. Après deux chapitres consacrés aux généralités et à la structure des semi-conducteurs, la 2e partie (9 chapitres) traite des différents types de diodes et examine leurs caractéristiques de façon complète, en insistant sur le parallèle entre diodes à vide et diodes au germanium, ce qui fait ressortir les avantages et les inconvénients des deux systèmes. La 3e partie, la plus importante (32 chapitres), est consacrée à l’examen point par point des caractéristiques des transistors. Leur comportement en radiofréquence est étudié en détail. Les applications feront l’objet du tome IL
- Appareils électroniques industriels. Construction et entretien, par P. Van der Ploeg. i vol. 14,8 X 21, 118 p., 22 fig., 33 photos h. t. Bibliothèque technique Philips, Eindhoven et Paris, i960. Dépositaire France et Communauté : Dunod, Paris. Prix : 9 NF.
- L’auteur a mis en lumière les petits détails dont dépendent pour une grande part le bon fonctionnement d’un appareil électronique et auxquels il faut veiller tant lors de la conception que de la fabrication et du service de l’appareil. Suivant pas à pas la mise au point d’un appareil électronique depuis le premier essai en laboratoire jusqu’à la sortie de l’atelier et l’exploitation ultérieure, il donne au fur et à mesure de nombreux conseils pratiques. Un important chapitre sur les caractéristiques des tubes électroniques termine cet ouvrage très clair, bien documenté et agréablement illustré.
- Les montages multivibrateurs, par A. H. Bruinsma. i vol. 14,8 x 21, 74 p., 41 fig.
- ---- A NOS LECTEURS -----------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- Bibliothèque technique Philips, Eindhoven et Paris, 1959. Dépositaire France et Communauté : Dunod, Paris. Prix : 7,40 NF.
- Ouvrage destiné aux techniciens, dans lequel le côté théorique des circuits a été réduit au minimum, mais qui permet toutefois de comprendre parfaitement le fonctionnement et les possibilités d’application des montages multivibrateurs.
- La nouvelle pratique des magnétophones, par
- P. Hémardinquer. i vol. 13,5 X 21, 310 p., nomb, figures. Editions Chiron, Paris, 1961. Prix : 18 NF.
- Troisième édition d’un ouvrage désormais classique sur les magnétophones dont plusieurs milliers sont actuellement en service en France. A côté des chapitres sur les principes de construction, l’auteur traite en détail les aspects les plus récents de cette technique : emploi des transistors au lieu des tubes à vide, appareils stéréophoniques. méthode d’enregistrement à quatre pistes ce qui permet de doubler la durée de l’audition, procédés récents de sonorisation des films, etc. Les chapitres consacrés au « service » des magnétophones, à leur entretien et à leur dépannage ont été complétés.
- The atomic problem. A challenge to physicists and mathematicians, par L. L. Whyte. i vol. 13,5 X 19,5, 56 p. George Allen and Unwin Ltd, Londres, 1961. Prix, cartonné : 7 sh. 6 d.
- Après avoir rappelé la nécessité d’une théorie atomique nouvelle qui rende compte des découvertes de ces dernières années, l’auteur expose les idées directrices qui, selon lui, doivent permettre d’échafauder cette théorie. Il accorde une importance particulière à l’asymétrie tant dans l’espace (notion de parité) que dans le temps (processus irréversibles et réversibles). Il s’agit donc plus de réflexions personnelles que d’une étude détaillée sur les théories modernes mais certaines des vues exposées ne manquent pas d’intérêt.
- Thermal Reactor Theory, par A. D. Galanin. Traduit du russe en anglais par J. B. Sykes. 1 vol. 14 x 22, xiv-412 p., 27 fig. Pergamon Press, Oxford, Londres, New York, Paris, i960. Prix, relié : 5 livres.
- Cet important ouvrage fait partie d’une série internationale de monographies sur l’Énergie nucléaire et plus particulièrement d’une section qui traite de la physique des réacteurs. Le sujet traité ici est de ceux qui peuvent retenir l’attention des atomistes théoriciens et techniciens : les réacteurs à neutrons ralentis (ou « therma-lisés ») constituent la très grande majorité des appareils en fonctionnement, en construction ou en projet, soit expérimentaux, soit conçus pour la production d’énergie. Parmi d’autres éléments étudiés dans les différents chapitres, on retiendra : la diffusion et le ralentissement des neutrons, la taille critique des réacteurs, les milieux homogènes et hétérogènes, etc.
- Chimie générale et Abrégé de Chimie minérale, par P. Colmant. i vol. 15,5 X 25, 566 p., 96 fig. Masson et Cie, Paris, i960. Prix, relié toile : 45 NF.
- Cet ouvrage, destiné aux étudiants qui abordent les sciences médicales, pharmaceutiques, vétérinaires ou naturelles, constitue en fait la deuxième édition de l’Introduction à la Chimie générale publiée en 1957, qui a été entièrement revue et à laquelle on a notamment ajouté environ 80 pages de Chimie minérale. Ce cours s’efforce de montrer à l’étudiant débutant en chimie que cette science n’est pas, comme on a trop tendance à le croire, un ensemble de faits sans liaisons les uns avec les autres, devant être retenus par cœur, ni une foule de formules de composés agissant soit comme oxydants, soit comme réducteurs, sans qu’on sache pourquoi. L’auteur montre qu’elle possède un corps de doctrine bien établi dont les principes sont simples à retenir, et que les propriétés de la plupart des composés peuvent se déduire les unes des autres en faisant bien entendu un certain effort de mémoire, indispensable quelle que soit la discipline que l’on aborde, et évidemment un peu plus considérable en chimie que dans les sciences plus exactes.
- An introduction to co-ordination chemistry,
- par D. P. Graddon. Collection International sériés of tnonographs on inorganic chemistry. 1 vol. 15 X 23,5, in p. Pergamon Press Ltd., Oxford, Londres, New York et Paris, 1961. Prix, relié : 25 sh.
- Excellente mise au point sur la chimie des complexes où l’on trouvera exposées les diverses théories de la coordination depuis Werner, suivies de chapitres sur la polymérisation, la stabilité des complexes, l’effet de la complexification sur les potentiels d’oxydo-réduction et la stabilisation des degrés de valence. On trouvera également des développements sur les structures du type car-bonyl et les complexes tu. Enfin l’auteur envisage quelques applications de la chimie des complexes : formation de complexes internes, modifications de solubilité et dissimulation des ions vis-à-vis de leurs réactifs habituels. Chacun des chapitres est enrichi de nombreuses références.
- "DOCUMENTS D’H/S TO/RE NATURELLE”
- flore
- deurope
- Présentée en un coffret, d'une parfaite réalisation artistique, cette collection de 168 planches offset, 6 et 8 couleurs, format 27 x 19 cm, est publiée sous la direction de
- RICHARD KRAUSEL
- Professeur à l'Université de Francfort
- et préfacée par
- JEAN - F. LEROY
- du Muséum d'Histoire Naturelle de Pans
- Le coffret
- fin 1961 prochain volume
- RUE DE L’UNIVERSITÉ —PARIS
- flore d’europe
- — 168 planches 156 NF
- Insectes — 192 planches 175 NF
- -LIT
- The chemistry and technology of edible oils and fats, édité par J. Devine et P. N. Wiiliams. 1 vol. 14,5 X 22, 154 p., nomb. fig.
- 550
- p.550 - vue 547/560
-
-
-
- Pergamon Press, Oxford, Londres, New York, Paris, 1961. Prix, relié : 35 sh.
- Recueil des communications présentées au Colloque organisé par le groupe Unilever, à Port Sunlight, en mars 1959. La plus grande partie de l’ouvrage est consacrée à l’analyse des huiles et corps gras par des techniques modernes telles que la chromatographie, la dilution isotopique, la spectroscopie, etc.
- Éléments de Zoologie et notions d’Anatomie comparée, par Paul Brien. Tome II : Cœtomates hyponeuriens. 1 vol. 16 X 25, 715 p.,
- 685 fig. Éditions Desoer, Liège, 1961. Prix, relié : 750 F belges.
- Le professeur Brien, bien connu des zoologistes, vient de publier le 2e volume de ses Éléments de Zoologie. Rappelons que le Ier était consacré aux généralités et aux Protozoaires et Métazoaires Acœlomates (Spongiaires et Cœlentérés). Ici sont étudiés Vers et Vermidiens, Echinodermes, Mollusques et Arthropodes. Les plus récentes données de l’Anatomie comparée, de l’Embryologie comparée et de la Paléontologie sont utilisées pour définir les différents groupes et leur phylogénie. L’illustration est abondante et claire, suffisamment simplifiée pour pouvoir être reproduite par les étudiants. C’est un ouvrage qui est à recommander à tous les étudiants et aux candidats aux grandes écoles biologiques. La parution prochaine du 3e volume consacré aux Chordés apportera enfin un précis de Zoologie moderne qui comblera une lacune parmi les livres en langue française traitant de la zoologie au niveau de la licence. •— R. D.
- Carcinogenesis, par I. Hieger. i vol. 16 X 23,5, 138 p. Academie Press, Londres et New York, 1961. Prix, relié : 35 sh.
- Le nombre considérable de publications que suscitent les recherches sur le cancer ne permet guère aux divers spécialistes d’avoir une idée générale de l’ensemble de ces recherches. Il importe donc que des mises au point paraissent sur les questions essentielles qui se rattachent à ce problème, et la carcinogenèse, qu’on peut définir comme le processus par lequel un tissu normal devient cancéreux, figure parmi celles-ci. Le présent ouvrage intéressera donc vivement tous ceux qui sont préoccupés par cette question : ils y trouveront exposées les diverses théories de la carcinogenèse, nos connaissances sur les produits cancérigènes et sur les relations entre carcinogenèse et structure chimique.
- une agréable surprise F
- LAROUSSE
- nouveautés
- PETIT LAROUSSE
- en édition de luxe, sur papier fin, reliee pleine peau.
- ENCYCLOPÉDIE DES SPORTS
- tous les sports et tout sur les sports, en un volume.
- Eléments of statistical inference, par R. M. Kozelka. 1 vol. 16 X 23,5, 150 p., nomb. fig. Addison Wesley, Reading (Massachusetts), Londres, 1961. Prix, relié : 5 dollars.
- Cours élémentaire de statistique destiné essentiellement aux étudiants en sociologie. L’arsenal mathématique indispensable a été réduit au minimum et l’auteur a plus cherché à faire clairement comprendre les bases de la statistique qu’à décrire en détail les techniques utilisées. Nombreux exercices entièrement résolus.
- Le comportement social chez les animaux,
- par Rémy Chauvin, directeur du Laboratoire d’Ethologie expérimentale à l’École pratique des Hautes Études. 1 vol. 12 x 19, 172 p., 28 fig. Collection Le 'Psychologue, Presses Universitaires de France, Paris, 1961. Prix : 8 NF.
- La psychologie animale s’est évertuée depuis quelques années à définir avec précision ce qu’il fallait entendre par comportement social. Celui-ci a pour base le phénomène de l’interattraction. Mais de la vie solitaire à la vie grégaire et aux innombrables formes de la vie sociale, la nature nous présente des gradations ménagées, qui permettent de reconnaître des évolutions. On trouvera dans ce petit ouvrage un bon résumé des notions essentielles sur ce vaste sujet, avec quelques exemples choisis parmi les plus caractéristiques et les mieux étudiés. Bibliographie très sommaire.
- Techniques et grands poissons, par Guy Real DEL Sarte. i vol. 22 X 27,5, 248 p., illustré.
- L’ART ET L’HOMME, en 3 volumes
- une monumentale histoire de l'art, de conception originale.
- HISTOIRE UNIVERSELLE, en 2 volumes
- magistrale synthèse de toute l'aventure humaine par le texte et l image.
- GAUGUIN - GOYA
- luxueux albums de la collection " Les plus grands Peintres ",
- LE LIVRE DES CHIENS
- dix-septième album de la collection "Nature et Beauté" (photographies en noir et en couleurs, commentées),
- ...et le cadeau royal, une souscription au
- GRAND LAROUSSE ENCYCLOPÉDIQUE, en 10 volumes
- dont les quatre premiers tomes (A-Filao) sont parus reliés.
- facilités de paiement pour les grands ouvrages
- nombreux ouvrages pour les jeunes, d'une lecture distrayante et enrichissante
- DEMANDEZ A VOTRE LIBRAIRE LE CATALOGUE O'ETRENNES LAROUSSE
- 551
- p.551 - vue 548/560
-
-
-
- Crépin-Leblond, Paris, i960. Prix, cartonné : 39,30 NF ; franco : 40 NF.
- C’est le « journal de mer » d’un pêcheur sportif, champion de France de la pêche sportive du thon. Œuvre savante dans son genre, bien que présentée de façon anecdotique. Le naturaliste n’y trouvera pas son compte, mais le pêcheur sportif, avide de lutte ardente avec de gros poissons, thon, espadon, etc., aura la révélation d’un ensemble de recettes inédites qui ont fait leurs preuves pour quelques initiés.
- Alexander von Humboldt et l’histoire de la découverte de l’électricité animale, par Karl E. Rothschuh, directeur de l’Institut d’His-
- toire de la Médecine de l’Université de Munster. 1 brochure 13,5 x 18, 28 p., 7 fïg. Edition du Palais de la Découverte, Paris, i960. Prix : 2 NF. Histoire résumée de la découverte de l’électricité animale, à laquelle Humboldt, à l’âge de 26 ans, apporta une contribution non négligeable par d’ingénieuses expériences.
- Les conditions sociales du progrès scientifique en Pologne au XVIIP siècle, par
- Bogdan Suciiodolski, professeur à l’Université de Varsovie. 1 brochure 13,5 x 18, 26 p.
- Edition du Palais de la Découverte, Paris, i960. Prix : 1,40 NF.
- Le mouvement d’intérêt pour les sciences qui
- se développa en Pologne au xvme siècle est né des nouveaux besoins économiques et a été ensuite vivifié par la lutte pour l’indépendance qui était en même temps une lutte contre l’obscurantisme.
- On retrieval System theory, par B. C. Vichery. 1 vol. 14 X 22, 159 p., 18 fig. Butterworths, Londres, 1961. Prix, relié : 30 sh.
- Le nombre des publications scientifiques est devenu tel en ces dernières années que des méthodes de classement efficaces s’imposent à brève échéance si l’on ne veut pas que les chercheurs soient littéralement écrasés sous le poids de la littérature scientifique. L’auteur nous propose ici une étude des principes de base des différents procédés de classement. 11 s’agit surtout de réflexions très générales sur les méthodes susceptibles d’être utilisées et c’est en cela que cet ouvrage sera utile à tous ceux que préoccupe ce problème. Une édition française de cet ouvrage paraîtra chez Dunod.
- Le droit du breveté d’invention. Contribution à une analyse objective, par J. M. Mousseron.
- 1 vol. 16,5 x 25, 333 p. R. Pichon et R. Durand-Auzias, Paris, 1961. Prix : 37,10 NF.
- Chaque année, près de 30 000 brevets d’invention sont délivrés en France et la propriété industrielle représente une des formes principales de la fortune mobilière. Devant une telle croissance, les constructions juridiques anciennes peinent à saisir une réalité économique et sociale nouvelle. L’auteur essaye, par une étude minutieuse, de définir la nature juridique du droit du breveté. Il en conclut qu’il s’agit d’un droit de propriété incorporelle voisin, dans son contenu, de celui que la loi de 1957 reconnaît sur l’œuvre artistique ou littéraire. Les textes et la jurisprudence les plus récents sont analysés en détail. Travail utile aussi bien pour le théoricien que pour le praticien qui y trouvera une mine d’arguments.
- La protection des inventions aux États-Unis,
- par André Bouju. 1 vol. 17 X 22, 212 p., 86 fie. Evrolles, Paris, 1961. Prix, relié toile : 23 NF.
- Après avoir fait l’historique du svstème des brevets aux États-Unis, l’auteur montre ce qu’on peut breveter, ce qu’on a intérêt à breveter et quelles chances on a d’obtenir le brevet. Il examine les formalités à remplir, les discussions que le demandeur doit soutenir, la question des contrefaçons, puis l’exploitation des droits acquis : cession et licences. Exemples détaillés.
- Les profondeurs de la Terre, par Pierre Rousseau, i vol. 17 X 24, 64 p., nombreuse illustration. Encyclopédie par l’Image, Hachette, Paris, 1961. Prix : 3,75 NF.
- L’auteur nous entraîne dans un rapide voyage vers le centre du globe, jalonné par l’exploration des gouffres naturels, les creusements des puits de mine, l’observation des volcans et des séismes, et les calculs des géophysiciens. Le puits pétrolier le plus profond atteint 6 552 mètres, mais la science nous permet d’aller plus loin en imagination, une imagination qui serre de plus en plus près la réalité.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- VENDS coll. La Nature 1946 à i960 et Confe-rencia-Les Annales 1948 à i960. Faire offre : N O RD MA N, 2 bis, rue de Billancourt, Boulogne-sur-Seine (Seine).
- au secu/ee c/u afessm fechtf/que
- PORTE-MINE de PRÉCISION
- ECRIFIX
- Ccr^t^cce._
- POUSSOIR FAIT - |
- TAILLE-MINE I
- 1929
- Brevets
- 1959
- ECRIFIXde LUXE
- avec cannelures
- technograph
- CARAN D'ACHE crée un porte-mine breveté de précision à l’usage du dessin technique et de l’écriture.
- Les ECRIFIX CARAN D'ACHE sont toujours les meilleurs et les plus appréciés des porte-mine à longue mine.
- 7 POINTS de SUPÉRIORITÉ font de l'ECRIFIX de LUXE l’instrument de dessin le plus réputé.
- CRAYONS et MINES
- TECHNOGRAPH
- 1 au GRAPHITE " nncromsê Son grain quasi colloïdal donne à la mine des qualités inégalées et tout spécialement une densité du trait permettant des reproductions hélio aussi nettes qu’à l’Encre de CHINE.
- En COULEURS, Crayons PRISMATEC et Mines PRISMA offrent les mêmes avantages.
- Tl
- Trait de mine TECHNOGRAPH (Grossi 30 fois)
- Trait de mine X (Grossi 30 fois)
- La PINCE FIX
- n’a jamais été égalée Elle serre la mine comme un étau
- DISTRIBUÉ par CORECTOR-ADHÉSINE
- CHSLEMONNten 106
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 4e trimestre 1961, n° 3737. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 4352. — 12-19G1.
- 552
- p.552 - vue 549/560
-
-
-
- LA NATURE
- Science Progrès
- QUATRE-VINGT-NEUVIÈME ANNÉE — 1961
- PAGINATION DES NUMÉROS DE 1961
- Janvier . 1 à 48 Mai .... • • • 185 à 224 Septembre . . ,. • • 361 à 408
- Février . ... 49 à 96 Juin . . . . 225 à 272 Octobre . . . . . . 409 à 456
- Mars .... • • 97 à 144 Juillet ... 273 à 320 Novembre • 457 à 504
- Avril .... • • • i45 à 184 Août .... • • • 321 à 360 Décembre • 505 à 552
- Nota. — Les numéros de pages précédés de la lettre C renvoient aux pages de couverture en regard de ces numéros. — Les chiflres en caractères gras indiquent les articles principaux.
- INDEX ALPHABETIQUE
- A
- Abeilles : essaimage annoncé par les sons émis par la ruche, 349. Abou-Simbel : sauvetage clés temples,
- 66.
- Abris gonflables, 207, 532.
- Actualité instrumentale, 137, 261, 306, 398, 447, 497, 543.
- Aéro-glisseurs, 7.
- Aéroport de Croydon : projet de construction d’un centre commercial pour automobilistes, 357.
- Aéronautique : évolution technique à travers le 24e Salon, 352.
- Agriculture au delà du Cercle polaire, 440.
- — italienne : réformes, 361.
- Aile gonflable pour récupération de fusées, 470.
- Alliage aluminium-cuivre réalisé en Chine à l’époque Tsin, 333. Altération des verreries anciennes, 179. Aluminium : métallurgie en Chine à l’époque Tsin, 333.
- Ambre jaune dans la terre bleue,' 44. Amour infantile en rapport avec les contacts corporels ? 64.
- Amplificateur pour faibles tensions,
- 4°4-
- Ampoule électrique incassable, 547.
- — nouvelle à incandescence et à fluorescence, 499.
- Analyse des contraintes par photoélasticité, 307.
- -----mélanges d’acide gras, 221.
- Anguilles : orientation dans leurs migrations, 428.
- — d’Europe : reproduction, 437. Animal sans germes, 185. Anti-fouling, 177.
- « Apidictor », appareil pour prédire la formation des essaims d’abeilles d’après la variation des sons émis par la ruche, 349.
- Appareil de vieillissement accéléré, 403.
- — pour masser le cœur, 548.
- — radar pour aveugles, 79. Applications industrielles du bombardement électronique, 401.
- — récentes de la thermoélectricité, 420.
- Araignées : ponte et élevage de jeunes dans des coquilles d’escargots, 283. Art architectural des termites, 22. Aspiration de la couche-limite des avions, 217.
- Asthme : centre de cure installé dans une grotte, 260.
- Autoroute à péage Fréjus-Antibes :
- utilisation des cartes perforées, 305. Aveugles : appareil radar pour déceler les obstacles, 79.
- — : mise au point d’une machine capable de lire les textes imprimés, 496.
- Aviateurs long-courriers : fuseaux horaires et rythme de vie, 527.
- Avion : emploi pour la recherche des voies aériennes de migration de certains insectes nuisibles, 483.
- Avions : augmentation du rayon d’action par aspiration de la couche-limite, 217.
- — de transport à réacteurs à l’arrière, 115.
- B
- Baccalauréat a électronique », 192. Bactérie utilisée pour la détection des corps cancérigènes, 374. Bactériophagie de certaines larves de mouches, 89.
- Baignades méditerranéennes tièdes ou froides selon le régime des vents,
- 296, 504.
- Baisse du niveau de la mer Caspienne,
- 21.
- Barrage de Formose, 44.
- Bathyscaphes : remplacement par des sous-marins en alliages légers, 439.
- Besoins en eau aux États-Unis, 218.
- Béryllium, métal nucléaire, 210.
- Biochimie du soufre et incidences en agriculture, 103.
- Blattes et leurs parasites, 368.
- Bombardement électronique : applications industrielles, 401.
- (( Boromètre », appareil pour le dosage du bore dans les verres, 309.
- Brouette sans roue, 380.
- Bruit mandibulaire de certains criquets, 34.
- Brumes de fumée, 471.
- C
- Calculateur analogique « Analac », 398.
- Calculatrices électroniques : adoption de procédures et de matériel normalisés, 499.
- Caméra de télévision qui « voit » dans l’obscurité, 261.
- — pour photographier en plein jour engins et planètes, 534.
- Cancer et découverte du polyome, nouveau virus animal, 472.
- Carbone 14 : période, 206.
- Carrefours contrôlés par radar, 357.
- Cartes perforées : utilisation sur l’autoroute à péage Fréjus-Antibes, 305.
- Caspienne : baisse de niveau, 21.
- Catalogue de produits ultra-purs, 500.
- Ceinture d’épingles de cuivre autour de la Terre : gêne pour la radioastronomie, 533.
- Cellules vivantes observées grâce au microscope électronique à très haute tension, 145.
- Centre commercial pour automobilistes sur l’ancien aéroport de Croydon, 357-
- 553
- p.553 - vue 550/560
-
-
-
- Centre d’élevage et de conservation de Drosophiles, 404.
- — de sélection des animaux de laboratoire, 185.
- Chaînes en matière plastique, 357.
- Champ magnétique terrestre' : influence sur les ondes radar, 290.
- Champignon contre moustique, 418.
- Chauves-souris : mécanisme du repérage par ultrasons, 535.
- Chromatographe en phase gazeuse pour préparations chimiques, 400.
- Cité de recherches scientifiques à Munich, 459.
- Cloportes : rôle dans la fertilisation des terres arides, 492.
- Cœur : massage manuel remplacé par une machine, 548.
- Combats de grillons, 237.
- Comportement de certains oiseaux en présence des fourmis, 58.
- Comptage des particules microscopiques, 313.
- Congrès international de Médecine aéronautique et cosmonautique, 527.
- Contrastes climatiques en U. R. S. S. en i960, 446.
- Contrôle des carrefours par radar, 357.
- — — métaux par courants de Foucault, 310.
- Côtes soviétiques : mesure de la longueur totale, 283.
- Courant sous-marin dans le Pacifique : courant de Cromwell, 295.
- Courants du Pacifique, mesure de la vitesse, 495.
- — profonds décelés en Mer Noire, 282.
- Cratères de météorites, 381.
- Crimée : passé géologique, 16.
- Criquets : bruit mandibulaire, 34.
- Crustacés : appareils stridulatoires, 82,
- D
- Déchets radioactifs : immersion, 282.
- Décollage vertical ou court et portance par réaction, 291.
- Décongélation par ondes radioélectriques, 548.
- Découverte du noyau de notre galaxie,
- 62.
- Démographie en expansion aux Pays-Bas, 491.
- — française : période du premier trimestre 1961, 438.
- Déplacement des pôles et rotation de la Terre, 97.
- Descartes et la science, 43.
- Détection des corps cancérigènes par action sur une bactérie, 374.
- ---troubles circulatoires par injection de substance radioactive dans une veine, 419.
- Détergent synthétique « doux » pour faciliter l’épuration des eaux usées, J34-
- Développement des petits groupes, 11.
- Diffractomètre linéaire Hilger, 263.
- Dômes de glace de la Terre François-Joseph, 483.
- Dosage du bore dans les verres par absorption de neutrons, 309.
- Dosimètre miniature pour neutrons rapides, 448.
- Drainage des polders, 404.
- Dressage des grillons au combat, 237.
- Drosophiles de race à volonté, 404.
- (t Dvna-Soar », véhicule piloté intermédiaire entre l’avion et le satellite, 396.
- E
- Eau : déséquilibre entre les ressources et la consommation aux États-Unis, 218.
- Eaux usées : épuration facilitée par un détergent synthétique « doux »,
- ^ I34>
- Éclairage âi double intensité pour les feux d’auto, 425.
- Éclipse totale de Soleil du 15 février, 2.
- Écrans flottants pour la réduction des pertes par évaporation des produits pétroliers, 540.
- Éditorial, 1.
- Effet de sol (véhicules à), 7.
- Éléments et composés ultra-purs (cata-
- , logue), 500,
- Énergie des marées en U. R. S. S., S42-
- — — rayons cosmiques : record actuel, 49.
- — géothermique : exploitation en U. R. S. S., 260.
- Enregistrement direct d’une secousse sismique sous-marine, 392.
- Ensemble potentiostatique pour le tracé automatique des courbes intensité-potentiel, 137.
- Envoi d’un homme dans l’espace, 32,
- 128, 252.
- Essence d’orange, bon carburant, 404.
- Étoiles « hypéroniques », 236.
- Évolution technique de l’Aéronautique à travers le 24e Salon, 352.
- Examen en continu aux rayons X de lingots d’acier, 129.
- Expansion démographique explosive aux Pays-Bas, 491.
- Exposition (58e) de la Société française de Physique, 306, 398.
- Extraits hypophysaires et reproduction des poissons en captivité, 161.
- F
- Facteur sanguin nouveau, 440.
- Ferrites, 460.
- Feux d’auto à double intensité, 425.
- Fille ou garçon à volonté pour les pilotes des avions à réaction, 427.
- Films pour rayons X manipulables à la lumière, 451.
- Formicage, 58.
- F'ouling : nouveau système de protection, 177.
- Fours électriques à moufle, 543.
- Fulgurites du Sahara, 17.
- Fuseaux horaires et rythme de vie des aviateurs long-courriers, 527.
- Fusée Saturne C-i : premier essai, 534-
- G
- Galaxie : découverte du noyau, 62.
- Gaz et pétrole européens, 240.
- Générateur électrique à air ionisé, 267.
- Gisement de la Gravette, 393.
- Glaciers quaternaires en Chine, 136.
- Glissements de terrain : processus probable, 391.
- Gouvernail des navires chez les Anciens, 200.
- Grand Lac Salé et projet de parc national, 290.
- Graphite non poreux pour piles atomiques, 140.
- Grillons : méthode de dressage au combat, 237.
- H
- Homme dans l’espace en avril ou mai ?... 128.
- —• des neiges, 505.
- Horloge archéologique nouvelle : altération des verreries anciennes, 179. — interne des êtres vivants, 76.
- Hydrogène liquide : industrie, 160.
- I
- Ile artificielle la plus grande, 440.
- — Stromboli et son volcan, 241.
- Iles radar de la côte atlantique des États-Unis, 198.
- Immersion des déchets radioactifs, 282.
- Industrie de l’hydrogène liquide, 160.
- — des radioéléments artificiels, 273. Inégalités de la rotation de la Terre,
- 97.
- Insectes : découverte d’un langage nouveau, 34.
- — nuisibles : recherche des voies aériennes de migration, 483.
- Intégrateur électronique pour coulo-métrie à potentiel contrôlé, 311.
- J
- Journal diffusé par satellites ? 260. Jupiter : température à la surface, 517.
- K
- Kiel : trafic du canal, 367.
- (( Kornog », bâtiment de recherche côtière du C. N. R. S., 335.
- L
- Lampe fluorescente à ouverture, 140. Lampes électriques superminiatures,
- 267, 451.
- — — : nouveaux types, 500. Lancement de « Mas » en direction de
- Vénus à partir d’un satellite terrestre, 166.
- Langage nouveau chez les insectes, 34. Larves de moustique : influence de la température d’élevage sur la modification du sexe, 542.
- —• de tiques parasites chez l’homme,
- 268.
- — d’insectes déshydratées : résistance aux variations du milieu, 135.
- — mangeuses de bactéries, 89. Lawrencium, élément chimique n° 103,
- 3Si*
- Liaison nylon-métal, 151.
- Liaisons fluviales en projet, 488. Lingots d’acier examinés en continu aux rayons X, 129.
- 554
- p.554 - vue 551/560
-
-
-
- Loi-programme et Fonds national de la recherche scientifique, 315.
- Longueur totale des côtes en U. R. S. S., 283.
- Loups en liberté : expériences de coexistence avec l’homme, 162.
- Lumière : influence sur la mortalité des œufs de poisson, 495.
- Lutte contre les insectes nuisibles : recherche des voies aériennes de migration, 483.
- M
- Machine capable de lire pour les aveugles, 496.
- Maisons roulantes de l’Antarctique, 178. _
- Mammifères du Parc Albert, 117.
- Mammouths congelés de Sibérie : causes de la mort, 350.
- Manchots de l’Antarctique, 321.
- Manganèse sous-marin du Pacifique, 4°5-
- « Mas » : lancement en direction de
- Vénus, 166.
- Massage manuel du cœur remplacé par une machine, 548.
- Mécanisme du repérage par ultrasons chez les chauves-souris, 535.
- Médicament nouveau contre les vers intestinaux du bétail, 488.
- Médicaments psychotropes, 457.
- Mélangeur continûment réglable, 547.
- Mer Noire : existence de courants profonds, 282.
- « Mesucora », 306, 398.
- Métaux : contrôle par courants de Foucault, 310.
- Météorite ferreuse en Azerbaïdjan, 114.
- Météorites et leurs cratères, 381.
- Mètre défini par la radiation orangée du krypton 86, 106.
- Microbalances électroniques, 265.
- Microscope électronique à très haute tension, 145.
- — miniature Cooke-McArthur, 139.
- Minerais sous-marins, 405.
- Mohole (projet), 518.
- Montagne sous-marine près de Madagascar, 419.
- Monuments de Nubie : sauvetage, 66.
- Moteurs électriques submersibles, 79.
- Moustiques : modification du sexe en rapport avec la température d’élevage des larves, 542.
- N
- Naines blanches, 225.
- Nançay : entrée en service de la première tranche du grand radiotélescope, 484.
- Nappes de charriage expliquées par les « tables vibrantes », 391.
- Nez de l’homme infesté par les larves d’une tique, 268.
- Normalisation des calculatrices électroniques, 499.
- Noyau galactique : découverte, 62.
- Nubie : sauvetage des monuments, 66.
- O
- Observation des cellules vivantes à l’aide du microscope électronique à très haute tension, 145.
- Océan Pacifique : mesure de la vitesse des courants, 495.
- Oiseaux : comportement en présence des fourmis, 58.
- Oléoducs : réseau européen, 426. Ondes radar infléchies par le champ magnétique terrestre, 290. Orientation des Saumons et Anguilles dans leurs migrations, 428.
- Origine des tectites, 90, 389. Orthohydrogène, 160.
- P
- Panama : trafic du canal, 367.
- Papier de mica, 44.
- Papillon migrateur marqué par une bombe atomique, 208. Parahydrogène, 160.
- Parc Albert : grands Mammifères, 117.
- — national en projet au Grand Lac Salé, 290.
- Parcs nationaux et réserves de France,
- 284.
- Particules microscopiques : appareils pour le comptage, 313.
- Passages et registres de la voix humaine, 152.
- Passé géologique de la Crimée, 16. Passereaux à gros bec dans l’histoire et la linguistique, 299.
- Pénicilline nouvelle efficace contre le .staphylocoque, 244.
- Percement de l’écorce terrestre sous les océans (projet Mohole), 518. Période du carbone 14, 206. Perspectives psycho-pharmacologiques, 457.
- Petits groupes : développement, 11. ‘
- — — de travail, 343, 375.
- Pétrole et gaz européens, 240.
- Philae : sauvetage des monuments, 66. Phosphore à 99,999 pour 100, 357. Photoélasticité et analyse des contraintes, 307.
- Photographie en plein jour d’engins et de planètes, 534.
- Piles à combustible, 35, 224.
- Plongeurs sous-marins en difficulté :
- repérage, 151.
- Pneus supersoniques, 349.
- Poissons : influence de la lumière sur la mortalité des œufs, 495.
- — : reproduction en captivité après traitement aux extraits hypophysaires, 161.
- Pollution atmosphérique : poussières ultra-fines et pollution fluorée, 131.
- — radioactive décelée sur un papillon migrateur, 208.
- Polyome, virus animal nouveau, 472. Pompe de laboratoire à tuyau flexible, 45i-
- — doseuse pneumatique, 447.
- Pont géant sur le Grand Belt, 446. Ponts suspendus : record, 427. Portance par réaction favorable au
- décollage vertical ou court, 291. Poste radio détecteur de radiations, 4I9;
- Premier homme dans l’espace, 32,
- 128, 252.
- Prix Nobel de Sciences 1961, 515. Procédé anti-fouling nouveau, 177. Produits pétroliers : écrans flottants pour la réduction des pertes par évaporation, 540.
- Projet Mohole, 518.
- Projets de liaisons fluviales, 488.
- « Promintic », médicament nouveau contre les vers intestinaux du bétail, 488.
- Protection de la nature en France, 284. Psychologie sociale, 11, 343, 375. Psychopharmacologie (perspectives),
- 457.
- Psychothérapie pour les rats, 440.
- R
- « Radac », appareil pour le contrôle des métaux par courants de Foucault, 310.
- Radar au secours des aveugles, 79.
- — pour le contrôle des carrefours, 357-
- Radiation orangée du krypton 86 en remplacement du Mètre en platine iridié, 106.
- Radiations détectées par poste radio, 4*9-
- Radioéléments artificiels : industrie,
- 273.
- Radioisotopes dans le cerveau, 419. Radioscopie de lingots d’acier chauds pendant le laminage, 129. Radiotélescope de Nançay : entrée en service de la première tranche, 484. Raffinerie de pétrole mobile, 206. Rayons cosmiques : record actuel d’énergie, 49.
- Réactif nouveau pour l’analyse des mélanges d’acide gras, 221. Recherche scientifique : Loi-programme et Fonds national, 315. Record des ponts suspendus, 427. Réduction des pertes par évaporation des produits pétroliers, 540. Réformes de l’agriculture italienne, 361.
- Régions diamantifères en U. R. S. S., 39p-
- Registres et passages de la voix humaine, 152.
- Remorque aérienne, 470.
- Repérage des plongeurs sous-marins en difficulté, 151.
- — par ultrasons chez les chauves-souris ; mécanisme, 535.
- Reproduction de l’Anguille d’Europe,
- 437.
- — des poissons en captivité après traitement aux extraits hypophysaires, 161.
- Réseau européen d’oléoducs, 426. Résistance de certaines larves d’insectes déshydratées, 135.
- Rhétorique et Science, 316.
- Rideau d’ondes radar aux États-Unis, 44.6 •_
- « Rivières sèches » du Kamtchatka, 169.
- Rotation de la Terre : inégalités, 97. Route moderne vers l’Amazonie, 390. Rythmes biologiques, 76, 527.
- S
- Salon (24e) de l’Aéronautique, 352. Satellite alimenté en énergie d’origine nucléaire, 356.
- — artificiel atteint par un orage solaire, 357.
- — terrestre : première utilisation pour lancement d’un engin en direction de Vénus, 166.
- 555
- p.555 - vue 552/560
-
-
-
- Satellites de communication utilisés pour la diffusion de journal imprimé, 260.
- Saumons : orientation dans leurs migrations, 428.
- Sauvetage des monuments de Nubie,
- 66.
- Scandium... à la livre, 136.
- Science et Rhétorique, 316.
- Sciences humaines : nécessité de bases de pensée et d’un langage communs,
- 489.
- Secousse sismique sous-marine : enregistrement direct, 392.
- Secrets de l’art architectural des Termites, 22.
- Sécurité routière par vibrations, 405. Sel employé comme matériau de construction en Chine, 491. Semi-conducteurs : utilisation en thermoélectricité, 170.
- (( Snow-cats », maisons roulantes de l’Antarctique, 178.
- Soleil : éclipse totale du 15 février, 2. « Sondar », appareil radar pour aveugles, 79.
- Souffleries hypersoniques pour maquettes stratosphériques, 295.
- Soufre (biochimie du) en agriculture,
- 1Û3. ;
- Sous-marins en alliages légers en remplacement des bathyscaphes, 439. Spectromètres de masse nouveaux, 545-
- Spéléothérapeutique, 260.
- Station interplanétaire automatique « M'as » : lancement en direction de Vénus, 166.
- Stratoscope, télescope volant, 342. Stridulatiôn des -Crustacés, 82. Stfomboli : île et volcan, 241.
- <r
- Sucre, poison violent pour les Nématodes, 392.
- Suez : trafic du canal, 367. Supraconductibilité, 336.
- T
- u Tables vibrantes » et nappes de charriage, 391.
- Techniques), révolutionnaires pour le sauvetage des monuments de Nubie,
- 66.
- Tectites : origine, 90, 389.
- Télescope pour la stratosphère, 342.
- — solaire géant en construction dans l'Arizona, 491.
- Télévision stéréoscopique, 251. Température à la surface de Jupiter, 5J7-
- — rare en Antarctide, 135.
- Termites : art architectural, 22.
- Terres arides : fertilisation par les Cloportes, 492.
- « Texas Towers », îles radar de la côte atlantique des États-Unis, 198.
- « Thalassa », chalutier océanographique, 259.
- Thermoélectricité, 170, 420.
- Tombeau antique dans le désert de Gobi, 21.
- Trafic des grands canaux : Suez, Panama, Kiel, 367.
- Travail en groupe et facteurs psychologiques, 343.
- Tube cathodique à entretien d’image,
- 497.
- — de télévision sensible aux rayons infrarouges et ultraviolets, 261.
- Turboréacteurs à double flux, 80. Tuyaux en matière plastique pour les travaux de drainage des polders, 404.
- U
- Ultra-centrifugeuse, 409.
- Usine marémotrice en projet en U. R. S. S., 542.
- V
- Véhicules « à effet de sol », 7.
- .— détecteurs de crevasses dans l’An-tarctique, 178.
- Verre : dosage du bore par absorption neutronique, 309.
- — transparent aux infrarouges, 221. Verreries anciennes : altération, 179. Vers de mer et Vers de terre, 441.
- — intestinaux du bétail : mise au point d’un nouveau médicament, 488.
- Vestiges d’un village préhistorique près de Samarcande, 140.
- Virus animal nouveau : le polyome, 472.
- — bienfaisant... pour les insectes,
- 61.
- Vitesse des courants du Pacifique : mesure, 495.
- Voix humaine : registres et passages,
- 152.
- Vol « orbital » du commandant Gaga-rine, 252.
- — « balistique » du commandant Shepard, 254.
- w
- « Weather-o-matic », appareil de vieillissement accéléré, 403.
- Y
- Yéti, 505.
- 556
- p.556 - vue 553/560
-
-
-
- LISTE ALPHABÉTIQUE DES AUTEURS
- B. (R.). — Microscope miniature, 13g.
- Barrière (Gabriel). — Le Baccalauréat te électronique » veut garantir une plus grande équité, 192.
- Baumgardt (Ernest). — Gomment s’orientent Anguilles et Saumons clans leurs migrations de milliers de kilomètres,
- 428.
- Benoit (Claude). — Le béryllium, métal nucléaire dont on s’acharne à corriger les défauts en raison de ses exceptionnelles qualités, 210.
- C. (G.). — Un virus bienfaisant... du moins pour les insectes, 61. —• L’amour infantile naît-il du doux contact de la mère ? 64. — Dans l’intimité des loups, 162. —• Les mammouths retrouvés congelés en Sibérie ne sont pas morts de froid, 350. — Détection des corps cancérigènes par action sur une bactérie, 374. — Le premier trimestre de 1961, période faste pour la démographie française, 438. — Expansion démographique explosive aux Pays-Bas, 491.
- C. (L.). — Un nouveau langage découvert chez les insectes : le bruit mandibulaire de certains Criquets, 34. —• Les extraordinaires possibilités de résistance de certaines larves d’insectes déshydratées, 135. — Un cas d’infestation des narines de l’homme par une tique, 268. — L’avion au service de l’Entomologie, 483.
- Cézaire (Jean). — Grâce au phénomène de la supraconductibilité, des machines électroniques fonctionneront dans l’hélium liquide, 336. — Isolants presque parfaits doués de propriétés magnétiques remarquables, les ferrites ont permis les hautes fréquences en électronique, 460.
- Ciiopard (Lucien). — Les secrets de l’art architectural des Termites, 22. — Pourquoi des oiseaux se frottent-ils avec des fourmis ? 58. — Un papillon migrateur marqué par une bombe atomique, 208. —• Des araignées pondent et élèvent leurs jeunes dans des coquilles d’escargot, 283. — Les Blattes et leurs parasites sont un danger pour l’Homme, 368. — L’élevage des larves à température élevée peut changer le sexe de certains moustiques, 542.
- Cohen (Gaston). — L’horloge interne des êtres vivants se laisse dérégler de façon instructive, 76. — Au Congrès de Médecine aéronautique. Fuseaux horaires et rythme de vie des aviateurs long-courriers, 527.
- D. (R.). — Des poissons ne se reproduisent en captivité qu 'après traitement aux extraits hypophysaires, 161. — Champignon contre moustique, 418.
- Dajoz (Roger). — Paisibles et prospères malgré leur nombre, les grands Mammifères du Parc Albert n’ont guère à craindre que les épidémies et les volcans, 117. — La « Tha-lassa », chalutier océanographique, remplace le « Théodore-Tissier », 259. — Au pays des glaces et du blizzard. La rude existence des Manchots de l’Antarctique, 321.
- Dajoz (Roger) et Rousseau (Michel). — Espoirs pour la protection de la nature en France, 284.
- Delay (Jean). — Perspectives psycho-pharmacologiques, 457.
- F. (J.) .— Un courant sous-marin de l’Océan Pacifique : le courant de Cromwell, 295. — Les tectites seraient des roches terrestres fondues et projetées sous l’impact de grosses météorites, 389.
- F. (R.). — La Chine eut aussi ses glaciers quaternaires, 136.
- Filloux (Jean-Claude). — Une branche nouvelle de la psychologie sociale : Le développement des petits groupes. 3. Les structures de communication, 11. — Les petits groupes de travail. 1. Le travail en groupe et les facteurs psychologiques, 343 ; 2. Structure du groupe, méthodes, leader-ship, 375. — La nécessaire unité des Sciences humaines réclame des notions et un langage communs, 489.
- Fort (Roland). — La biochimie du soufre et ses incidences en agriculture, 103.
- Fouciiet (Jacques). — Record actuel d’énergie des rayons cosmiques, 49. — Les naines blanches, étoiles « dégénérées » des millions de fois plus denses que la Terre, 225 ; Des étoiles « hypéroniques » seraient encore plus denses,
- 236.
- Fouciiet (Jacques) et: Mériiîl (Yves). — Projet Mohole : percer l’écorce terrestre sous les océans, 518.
- Fouciiet (Jacques) et Ostoya (Paul). — Un nouveau virus animal, le polyome, éclaire certains aspects de l’étiologie du cancer, 472.
- Freux (Roger). — L’origine des tectites, probablement interplanétaire, reste énigmatique, 90.
- Fuzeau-Braescii (S.). — Comment on dresse les Grillons au combat. La méthode des Chinois retrouvée au laboratoire,
- 237.
- G. (H.). — Ortho et parahydrogène dans l’industrie de l’hydrogène liquide, 160. — Le lawrencium, élément- chimique n° 103, 351.
- G. (J.). — Ce que fut la Science pour René Descartes, 43. — Les « tables vibrantes » expliquent-elles les nappes de charriage ? 391. — Pour se perpétuer l’Anguille d’Europe ne s’en remet pas à sa cousine d’Amérique, 437.
- Guillerme (Jacques). — Comment les Anciens gouvernaient leurs navires, 200.
- Guinot (Bernard). — Le déplacement des pôles et les inégalités de la rotation de la Terre, 97.
- Guinot-Dumortier (Danièle).'— Crabes, Crevettes et Langoustes ne sont pas toujours silencieux, 82.
- Grive (Jean). — Vers de mer et Vers de terre, 441. — Le mécanisme du repérage par ultrasons chez les chauves-souris, 535.
- Husson (Raoul). — Registres et passages de la voix humaine. Des phénomènes connus depuis des siècles par les chanteurs n’ont reçu que récemment leur explication,
- 152.
- Karpoff (Roman). — Les météorites, astéroïdes égarés, et leurs cratères, 381vy
- Le Gros (Charles). —* Deux hommes dans l’espace. Le vol (( orbital » du commandant Gagarine, 252 ; Levol « balistique » du commandant Shepard, 254. — Loi-programme et Fonds national de la recherche scientifique, 315.
- Lequeux (James). — Découverte du noyau de notre Galaxie, 63. — La première tranche du radiotélescope le plus grand du monde est entrée en service à Nançay, 484.
- Lot (Fernand). — Les prix Nobel de Sciences 1961, 515.
- Lot (Fernand) et Rosset (Robert). — Une nouvelle pénicilline pour laquellle il n’est plus de staphylocoques résistants, 244.
- M. (C.). — Le passé géologique de la Crimée, alternativement île et presqu’île, 16. — La baisse de la mer Caspienne inquiète les techniciens soviétiques, 21. — Tombeau antique dans le désert de Gobi, 21. — Ambre jaune dans la terre bleue, 44. — Grosse météorite ferreuse en Azerbaïdjan, 114. — Vestiges d’un village préhistorique à Samarcande, 140. — L’exploitation de l’énergie géothermique en LE R. S. S., 260. — A propos de l’immersion des déchets radioactifs. Des courants profonds sont décelés en Mer Noire, 282. —• Année de contrastes climatiques en
- U. R. S. S., 446. — Brumes de fumée, 471.
- M. (LL). — Papier de mica, 44. — Lampe fluorescente à ouverture, 140. — Verre transparent aux infrarouges, 221.
- M. (Y.). — Nouveau procédé anti-fouling, 177. — Une nouvelle horloge archéologique : l’altération des verreries anciennes, 179. — Pétrole et gaz européens, 240. — Surprenante découverte : Un alliage aluminium-cuivre réalisé en Chine à l’époque Tsin, 333. — Des sous-marins en aLliages légers remplaceront-ils les bathyscaphes ? 439.
- 557
- p.557 - vue 554/560
-
-
-
- Mériel (Yves). — Des techniques révolutionnaires au secours des trésors de Nubie, 66. — Deux aspects peu connus de la pollution atmosphérique : poussières ultra-fines et pollution fluorée, 131. — L’industrie minutieuse et diverse des radioéléments artificiels, 273.
- Mériel (Yves) et Fouchet (Jacques). —• Projet Mohole : percer l’écorce terrestre sous les océans, 518.
- Moreau (Henri) et Terrien (Jean). — La radiation orangée du krypton 86 remplace le Mètre en platine iridié, 106.
- Naegelé (Antoine). — Les fulgurites du Sahara, 17.
- Ostoya (Paul). — Le gisement de la Gravette, qu’on pouvait croire épuisé, recélait les vestiges de trois civilisations paléolithiques, 393.
- Ostoya (Paul) et Fouchet (Jacques). — Un nouveau virus animal, le polyome, éclaire certains aspects de l’étiologie du cancer, 472.
- Ostrovidow (S.). — Baignades méditerranéennes tièdes ou froides selon le régime des vents, 296, 504.
- Pelmont (Jean). — L’ultra-centrifugeuse, balance de précision des grosses molécules et outil du biochimiste, 409.
- R. (F.). — Des films pour rayons X manipulables à la lumière, 451.
- R. (R.). — Les lingots d’acier d’un laminoir examinés en continu aux rayons X, 129. — Graphite non poreux pour piles atomiques, 140. — Le microscope électronique à très haute tension permet l’observation des cellules vivantes, 145. — L’analyse des mélanges d’acide gras, 221. — De Mandrin à la carte perforée ou « la rançon du voyageur», 305. — Le (( Kornog » va permettre une meilleure connaissance des côtes bretonnes, 335. — Un télescope volant, le stratoscope, 342. — L’Actualité instrumentale : Ensemble potentiostatique pour le tracé automatique des courbes intensité-potentiel, 137 ; Mesucora et la 58e Exposition de la Société française de Physique, 306 ; L’analyse des contraintes par photoélasticité, 307 ; Dosage du bore dans les verres par absorption de neutrons, 309 ; Contrôle des métaux par courants de Foucault, 310 ; Intégrateur électronique pour coulométrie à potentiel contrôlé, 311; Le comptage des particules microscopiques, 313 ; Pompe doseuse pneumatique, 447 ; Dosimètre miniature pour neutrons rapides, 448 ; Pompe de laboratoire à tuyau flexible, 451 ; Tube cathodique à entretien d’image, 497 ; Fours électriques à moufle, 543 ; Nouveaux spectromètres de masse, 545 ; Mélangeur continûment réglable, 547 ; Décongélation radioélectrique, 548.
- Rorlin (Michel). — Quelques passereaux à gros bec dans l’histoire et la linguistique, 299.
- Rosset (Robert). — De nouveaux générateurs d’énergie d’un rendement exceptionnel : les piles à combustible, 35, 224.
- — Après plus d’un siècle de léthargie, la thermoélectricité reprend vie grâce aux semi-conducteurs, 170. — Une caméra de télévision qui « voit » dans l’obscurité, 261. — Applications récentes de la thermoélectricité : batteries solaires et nucléaires, réfrigérateurs miniatures, etc., 420.
- — Les écrans flottants permettent de réduire les pertes par évaporation des produits pétroliers, 540. — LJActualité ins-
- trumentale : Diffractomètre linéaire Hilger, 263 ; Microbalances électroniques, 265 ; Le calculateur analogique <t Analac », 398 ; Chromatographe en phase gazeuse pour préparations chimiques, 400 ; Applications industrielles du bombardement électronique, 401 ; Appareil de vieillissement accéléré, 403 ; Amplificateur pour faibles tensions,
- 404.
- Rosset (Robert) et Lot (Fernand). — Une nouvelle pénicilline pour laquelle il n’est plus de staphylocoques résistants, 244.
- Rousseau (Michel) et Dajoz (Roger). — Espoirs pour la protection de la nature en France, 284.
- S. (J.). — L’aile gonflable pour récupération de fusées ou remorque aérienne, 470.
- S acquêt (E.). — L’animal sans germes, nouvel instrument de la recherche biologique, 185.
- S allèges (Antoine). — L’île Stromboli et son volcan, 241.
- Servajean (Roger). — Éclipse totale de Soleil visible en France le 15 février, 2.
- Spincourt (Jacques). — Les aéro-glisseurs ou véhicules « à effet de sol » vous transporteront sur terre et surtout sur l’eau, 7. — Les turboréacteurs à double flux, 80. — Les avions de transport à réacteurs à l’arrière, 115. — L’aspiration de la couche-limite augmentera le rayon d’action des avions, 217. — La portance par réaction autorise le décollage vertical ou court, 291. — L’évolution technique de l’Aéronautique à travers le 24e Salon, 352. — Le Dyna-Soar, véhicule piloté intermédiaire entre l’avion et le satellite, 396.
- Tartois (Lucien). — Le ciel en chacun des mois de février T961 à janvier 1962, 45, 93, 141, 180, 221, 268, 317, 358,
- 405. 452> 5°L 548- ..
- Terrien (Jean) et Moreau (Henri). — La radiation orangée
- du krypton 86 remplace le Mètre en platine iridié, 106.
- Thaler (Louis). — Les besoins en eau aux États-Unis dépasseront bientôt les quantités disponibles, 218.
- V. (H.-V.). — Fille ou garçon à volonté pour les pilotes des avions à réaction, 427.
- V. (N.). — Un homme dans l’espace en avril ou mai ?... 128. — Premier essai de la fusée Saturne C-i destinée à satel-litiser en 1964 un équipage de trois hommes, 534.
- Vallois (Henri-V.). — Récits et documents bien pesés, que savons-nous vraiment du Yéti ? 505.
- Vandel (Albert). — Les Cloportes fertilisent-ils les terres arides ? 492.
- Vichney (Nicolas). — Le premier homme dans l’espace sera-t-il russe ou américain ? 32. — Le Mas dirigé sur Vénus, premier engin lancé d’un satellite terrestre, 166. — Le premier satellite alimenté en énergie d’origine nucléaire, 356. — Un anneau d’épingles satellites inquiète fort la radioastronomie, 533.
- W. (P.). — Le trafic des grands canaux : Suez, Panama, Kiel, 367. — Le réseau européen d’oléoducs, 426.
- Wagret (Paul). — L’agriculture italienne poursuit ses conquêtes sur une nature ingrate, 361.
- 558
- p.558 - vue 555/560
-
-
-
- TABLE DES MATIÈRES
- I. — MATHÉMATIQUES ET ASTRONOMIE
- Éclipse totale de Soleil visible en France le 15 février
- (Roger Servajean)..................................... 2
- Découverte du noyau de notre Galaxie (James
- Lequeux)............................................. 62
- Le déplacement des pôles et les inégalités de la rotation de la Terre (Bernard Guinot).................... 97
- Les naines blanches, étoiles « dégénérées » des millions de fois plus denses que la Terre (Jacques Fouciiet). 225 Des étoiles « hypéroniques » seraient encore plus denses (J. F.) 236
- Un télescope volant, le stratoscope (R. R.). . . . 342
- La première tranche du radiotélescope le plus grand du monde est entrée en service à Nançay (James
- Lequeux).............................................484
- Télescope solaire géant en construction dans l’Arizona. 491
- 220 C à la surface de Jupiter...........................517
- Un anneau d’épingles satellites inquiète fort la radioastronomie (Nicolas Vichney).........................533
- Pour photographier en plein jour engins et planètes . 534
- Le ciel en chacun des mois de février 1961 à janvier 1962 (Lucien Tartois), 45, 93, 141, 180, 221, 268,
- 3U. 358, 405, 452, 501. 548
- II. — SCIENCES PHYSIQUES 1. Physique.
- De nouveaux générateurs d’énergie d’un rendement exceptionnel : les piles à combustible (Robert Ros-
- set)................................................... 35
- A propos des piles à combustible..........................224
- Record actuel d’énergie des rayons cosmiques (Jacques
- Fouchet)............................................... 49
- La radiation orangée du krypton 86 remplace le Mètre en platine iridié (Jean Terrien et Henri Moreau) . 106
- Le microscope électronique à très haute tension permet l’observation de cellules vivantes (R. R.) .... 145
- Après plus d’un siècle de léthargie, la thermoélectricité reprend vie grâce aux semi-conducteurs (Robert
- Rosse(t)...........................................170
- Grâce au phénomène de la supraconductibilité, des machines électroniques miniatures fonctionneront
- dans l’hélium liquide (Jean Cézaire)...............336
- Isolants presque parfaits doués de propriétés magnétiques remarquables, les ferrites ont permis les hautes fréquences en électronique (Jean Cézaire). . . . 460
- L’Actualité instrumentale :
- Ensemble potentiostatique pour le tracé automatique des courbes intensité-potentiel (R. R.). . . 137
- Microscope miniature (R. R.).......................139
- Diffractomètre linéaire Hilger.....................263
- Microbalances électroniques (R. R.)................265
- (( Mesucora » et la 58e Exposition de la Société française de Physique (Robert Rosset) . . . 306, 398
- L’analyse des contraintes par photoélasticité (Robert
- Rosset)............................................. 307
- Pompe doseuse pneumatique (R. R.)..................447
- Pompe de laboratoire à tuyau flexible (R. R.) - . 451 Nouveaux spectromètres de masse (R. R.) . . . 545
- 2. Chimie.
- Ortho et parahydrogène dans l’industrie de l’hydrogène
- Hquide (H. G.)......................................160
- L’analyse des mélanges d’acide gras (R. R.) . . . 221
- Phosphore à 99,999 pour 100............................357
- L’ultra-centrifugeuse, balance de précision des grosses
- molécules et outil du biochimiste (Jean Pelmont) . 409
- Éléments et composés ultra-purs........................500
- L’Actualité instrumentale :
- Intégrateur électronique pour coulométrie à potentiel contrôlé (R. Rosset)......................... . 311
- Chromatographe en phase gazeuse pour préparations chimiques (Robert Rosset)........................400
- 3. Sciences nucléaires.
- Graphite non poreux pour piles atomiques (R. R.). . 140
- La période du C 14 est de 5 760 ans....................206
- Le béryllium, métal nucléaire dont on s’acharne à corriger les défauts en raison de ses exceptionnelles qualités (Claude Benoit)......................................210
- L’industrie minutieuse et diverse des radioéléments
- artificiels (Yves Mériel)...............................273
- A propos de l’immersion des déchets radioactifs. Des
- courants profonds sont décelés en Mer Noire (C. M.). 282
- Le lawrencium, élément chimique n° 103 (H. G.) . . 351
- Poste radio détecteur de radiations........................419
- L’Actualité instrumentale :
- LTn dosimètre miniature pour neutrons rapides
- (R. R.)...........................448
- III. — SCIENCES NATURELLES
- 1. Géologie. — Paléontologie. — Gîtes minéraux.
- Le passé géologique de la Crimée, alternativement île
- et presqu’île (C. M.).............................. 16
- Les fulgurites du Sahara (Antoine Naegelé) ... 17
- Ambre jaune dans la terre bleue (C. M.)............... 44
- L’origine des tectites, probablement interplanétaire,
- reste énigmatique (Roger Freux).................... 90
- Grosse météorite ferreuse en Azerbaïdjan (C. M.) . 114
- La Chine eut aussi ses glaciers quaternaires. Mais la région était-elle alors surélevée de 2 000 m ? (R. F.). 136
- Les mammouths retrouvés congelés en Sibérie ne sont
- pas morts de froid (G. C.)............................350
- Les météorites, astéroïdes égarés, et leurs cratères
- (Roman Karpoff).......................................381
- Les tectites seraient des roches terrestres fondues et projetées sous l’impact de grosses météorites (J. F.). 389
- Régions diamantifères en U. R. S. S...................390
- Les « tables vibrantes » expliquent-elles les nappes de
- charriage ? (J. G.)...................................391
- Le manganèse sous-marin du Pacifique.....................405
- Projet Mohole : percer l’écorce terrestre sous les océans
- (Jacques Fouciiet et Yves Mériel).....................518
- 559
- p.559 - vue 556/560
-
-
-
- 2. Physique du Globe. — Météorologie. — Océanographie physique.
- La baisse de la Mer Caspienne inquiète les techniciens
- soviétiques (C. M.)...............................
- Température rare en Antarctide ......................
- Pour les plongeurs en difficulté.....................
- La « Thalassa », chalutier océanographique, remplace
- le « Théodore-Tissier » (R. Dajoz)................
- Les ondes radar sont infléchies par le champ magnétique terrestre .....................................
- Un courant sous-marin de l’Océan Pacifique : le courant de Cromwell (J. F.)..........................
- Baignades méditerranéennes tièdes ou froides selon le régime des vents (S. Ostrovidow) .
- Températures et pourcentage.......................
- Le <c Kornog » va permettre une meilleure connaissance des côtes bretonnes (R. R.)....................
- Premier enregistrement direct d’une secousse sismique
- sous-marine.......................................
- Montagne sous-marine près de Madagascar .... Des sous-marins en alliages légers remplaceront-ils les
- bathyscaphes ? (Y. M.)........................... .
- Année de contrastes climatiques en U. R. S. S.
- (C. M.)...........................................
- Brumes de fumée (C. M.)..............................
- Vitesse des courants du Pacifique....................
- 3. Biologie générale. — Physiologie. — Zoologie.
- Les secrets de l’art architectural des Termites (Lucien
- Chopard)...................................
- Un nouveau langage découvert chez les insectes : le bruit mandibulaire de certains Criquets (L. C.). Pourquoi des oiseaux se frottent-ils avec des fourmis ?
- (Lucien Chopard)................................. .
- Un virus bienfaisant... du moins pour les insectes
- (G. C.) • ; • ............................
- L’amour infantile naît-il du doux contact de la mère ?
- (G. C.).......................
- L’horloge interne des êtres vivants se laisse dérégler
- de façon instructive (Gaston Cohen)...............
- Crabes, Crevettes et Langoustes ne sont pas toujours • silencieux (Danièle Guinot-Dumortier) .
- Larves mangeuses de bactéries........................
- Les extraordinaires possibilités de résistance de certaines larves d’insectes déshydratées (L. C.) . Registres et passages de la voix humaine. Des phénomènes connus depuis des siècles par les chanteurs n’ont reçu que récemment leur explication (Raoul
- Husson)...........................................
- Dans l’intimité des loups (G. C.)....................
- L’animal sans germes, nouvel instrument de la recherche biologique (E. Sacquet).........................
- Un papillon migrateur marqué par une bombe atomique (Lucien Chopard)..........................
- Comment on dresse les Grillons au combat. La méthode des Chinois retrouvée au laboratoire (S. Fuzeau-
- Braesch) .........................................
- Des araignées pondent et élèvent leurs jeunes dans des
- coquilles d’escargot (L. Chopard).................
- Au pays des glaces et du blizzard. La rude existence des Manchots de l'Antarctique (Roger Dajoz) . Détection des corps cancérigènes par action sur une
- bactérie (G. C.)..................................
- Le sucre, poison violent pour les Nématodes .
- Drosophiles de race à volonté .......................
- Champignon contre moustique (R. D.)..................
- Comment s’orientent Anguilles et Saumons dans leurs migrations de milliers de kilomètres (Ernest Baum-
- gardt) ...........................................
- Pour se perpétuer l’Anguille d’Europe ne s’en remet
- pas à sa cousine d’Amérique (J. G.)...............
- Psychothérapie pour les rats . . . . .
- Vers de mer et Vers de terre (Jean Grive) ....
- Un nouveau virus animal, le polyome, éclaire certains
- aspects de l’étiologie du cancer (Jacques Fouchet et
- Paul Ostoya).............................................472
- L’avion au service de l’Entomologie (L. C.). . . . 483
- Le mécanisme du repérage par ultrasons chez les chauves-souris (Jean Grive)..................................535
- L’élevage des larves à température élevée peut changer le sexe de certains moustiques (L. Chopard) . . 542
- 4. Botanique. — Agriculture. — Élevage.
- La biochimie du soufre et ses incidences en agriculture (Roland Fort)...................................... 103
- Annonce sonore des essaims d’abeilles.......................34g
- L’agriculture italienne poursuit ses conquêtes sur une
- nature ingrate (Paul Wagret).............................361
- Agriculture au delà du Cercle Polaire.......................440
- Contre les vers intestinaux du bétail..................... 488
- Les Cloportes fertilisent-ils les terres arides ? (Albert Vandel)..................................................492
- 5. Chasse. — Pêche. — Protection de la nature.
- Paisibles et prospères malgré leur nombre, les grands
- Mammifères du Parc Albert n’ont guère à craindre que les épidémies et les volcans (Roger Dajoz) . . 117
- Des poissons ne se reproduisent en captivité qu’après
- traitement aux extraits hypophysaires (R. D.) . . 161
- Espoirs pour la protection de la nature en France
- (Michel Rousseau et Roger Dajoz)......................284
- Rétrécissement du Grand Lac Salé et projet de parc
- national..............................................290
- La lumière tue les œufs de poisson . . . . . . 495
- Décongélation radioélectrique..........................548
- IV. — GÉOGRAPHIE. — DÉMOGRAPHIE. ETHNOGRAPHIE. — ARCHÉOLOGIE
- Tombeau antique dans le désert de Gobi (C. M.) . . 21
- Vestiges d’un village préhistorique près de Samarcande (C. M.)........................................140
- « Rivières sèches » du Kamtchatka...................169
- Une nouvelle horloge archéologique : l’altération des
- verreries anciennes (Y. M.).................... . 179
- Comment les Anciens gouvernaient leurs navires (Jacques Guillerme)......................................200
- L’île Stromboli et son volcan (Antoine Sallèles) . . 241
- 108 346 km de côtes en U. R. S. S.....................283
- Surprenante découverte : Un alliage aluminium-cuivre réalisé en Chine à l’époque Tsin (Y. M.) .... 333
- Le gisement de la Gravettè, qu’on pouvait croire épuisé, recélait les vestiges de trois civilisations paléolithiques (Paul Ostoya). . . . . . . . 393
- Le premier trimestre de 1961, période faste pour la
- démographie française (G. C.)........................438
- Les dômes de glace de la Terre François-Joseph . . 483
- Expansion démographique explosive aux Pays-Bas
- (G. C.)..............................................49i
- V. — ANTHROPOLOGIE. — HYGIÈNE. MÉDECINE. — PSYCHOLOGIE HUMAINE.
- Une branche nouvelle de la psychologie sociale : le
- développement des petits groupes. 3. Les structures de communication (Jean-Claude Filloux). ... 11
- eux aspects peu connus de la pollution atmosphérique : Poussières ultra-fines et pollution fluorée (Yves
- Mériel)............................................... 131
- ne nouvelle pénicilline pour laquelle il n’est plus de staphylocoques résistants (Fernand Lot et Robert Rosset)...............................................2.44
- 21
- i35
- iSi
- 259
- 290
- 295
- 296
- 504
- 335
- 392
- 419
- 439
- 446
- 47i
- 495
- 22
- 34
- 58
- 61
- 64
- 76
- 82
- 89
- 135
- 152
- 162
- 185
- 208
- 237
- 283
- 321
- 374
- 392
- 404
- 418
- 428
- 437
- 440
- 441
- 560
- p.560 - vue 557/560
-
-
-
- Spéléothérapeutique...................................260
- Un cas d’infestation des narines de l’homme par une
- •tique (L. C.)........................................268
- Une branche nouvelle de la psychologie sociale :
- Les petits groupes de travail (Jean-Claude Filloux)..
- 1. Le travail en groupe et les facteurs psycholo- '
- giques.........................................343
- 2. Structure du groupe, méthodes, leadership . . 375
- Les Blattes et leurs parasites sont un danger pour
- l’Homme (Lucien Chopard)...........................368
- Radioisotopes dans le cerveau.........................41g
- Fille ou garçon à volonté pour les pilotes d’avion à
- réaction (H.-V. V.)................................' 427
- Nouveau facteur sanguin...............................440
- Perspectives psycho-pharmacologiques (Jean Delay) . 457
- Récits et documents bien pesés, que savons-nous vraiment du Yéti ? (H.-V. Vallois)...........................505
- Au Congrès de Médecine aéronautique. Fuseaux horaires et rythme de vie des aviateurs long-courriers
- (Gaston Cohen).....................................527
- Un appareil pour masser le cœur.......................548
- VI. — SCIENCES APPLIQUÉES
- 1. Mécanique. — Industrie.
- Papier de mica (H. M.)................................ 44
- Les lingots d’acier d’un laminoir examinés en continu
- aux rayons X (R, R.)...............................» 129
- Un détergent qui favorise l’épuration des eaux usées . 134
- Scandium... à la livre...........................136
- Liaison nylon-métal..............................151
- Nouveau procédé anti-fouling (Y. M.).............177
- Une raffinerie de pétrole mobile.................206
- Verre transparent aux infrarouges (FI. M.) .... 221
- Pétrole et gaz européens (Y. M.).................240
- Chaînes en matière plastique.....................357
- Les écrans flottants permettent de réduire les pertes par évaporation des produits pétroliers (Robert Rosset) ....................................................540
- L’Actualité instrumentale :
- Dosage du bore dans les verres par absorption de
- neutrons (R. Rosset)........................309
- Contrôle des métaux par courants de Foucault
- (R. Rosset).................................310
- Applications industrielles du bombardement électronique (Robert Rosset)..............................401
- Appareil de vieillissement accéléré (Robert Rosset). 403
- Pour la normalisation des calculatrices électroniques. 499
- Fours électriques à moufle (R. R.)............543
- Mélangeur continûment réglable (R. R.) .... 547
- 2. Électricité. — Télévision. — T. S. F. — Photographie. — Cinéma.
- Moteurs électriques submersibles..................... 79
- Lampe fluorescente à ouverture (H. M.)...............140
- A bord des Texas Towers, sentinelles avancées des
- États-Unis........................................198
- Télévision stéréoscopique............................251
- Générateur électrique à air ionisé...................267
- Lampes électriques superminiatures...................267
- Applications récentes de la thermoélectricité : Batteries solaires et nucléaires, réfrigérateurs miniatures, etc.
- (Robert Rosset)...................................420
- Un rideau d’ondes radar va traverser les États-Unis . 446
- Des films pour rayons X manipulables à la lumière (F. R.)..................................................451
- Lampes superminiatures...............................451
- Une machine lit pour les aveugles les textes imprimés. 496
- L’Actualité instrumentale :
- Une caméra de télévision qui « voit » dans l’obscurité (R. Rosset)..................................261
- Comptage des particules microscopiques (R. Rosset). 313
- Calculateur analogique « Analac » (Robert Rosset). 398 Amplificateur pour faibles tensions (Robert Rosset). 404 Tube cathodique à entretien d’image (R. R.) . . . 497
- Nouvelle ampoule à incandescence et à fluorescence. 499 Récents développements dans les sources de lumière. 500 Ampoule électrique incassable.......................547
- 3. Travaux publics. — Urbanisme. — Arts de l’ingénieur.
- Formose aura le 2e barrage du monde.................... 44
- Des techniques révolutionnaires au secours des trésors de l’antique Nubie (Yves Mériel)..................... 66
- Pour construire à l’abri des intempéries...............207
- Les besoins en eau aux États-Unis dépasseront bientôt les quantités disponibles (Louis Thaler) .... 218
- L’exploitation de l’énergie géothermique en U. R. S. S.
- (C. M.)..................................................260
- Sur l’ancien aéroport de Croydon..........................357
- Route moderne vers l’Amazonie.............................390
- Pour le drainage des polders...........................404
- Le réseau européen d’oléoducs (P. W.)..................426
- Le record des ponts suspendus.............................427
- La plus grande île artificielle...........................440
- Pont géant sur le Grand Belt..............................446
- Projets de liaisons fluviales.............................488
- Le sel, matériau de construction... en Chine . . . 491
- A propos des abris gonflables.............................532
- L’énergie des marées en U. R. S. S.....................542
- 4. Transports. — Aviation. — Astronautique.
- Les aéro-glisseurs ou véhicules « à effet de sol » vous transporteront sur terre et surtout sur l’eau (Jacques Spincourt)............................................ 7
- Le premier homme dans l’espace sera-t-il russe ou
- américain ? (Nicolas Viciixey)........................... 32
- Les turboréacteurs à double flux (Jacques Spincourt). 80 Les avions de transport à réacteurs à l’arrière (Jacques Spincourt)...........................................115
- Un homme dans l’espace en avril ou mai ?... (N. V.) . 128
- Le Mas dirigé sur Vénus, premier engin lancé d’un
- satellite terrestre (Nicolas Viciiney)...................166
- Les « Snow-cats », maisons roulantes de l'Antarctique. 178 L’aspiration de la couche-limite augmentera le rayon
- d’action des avions (J. Spincourt).......................217
- Deux hommes dans l’espace (Charles Le Gros) :
- Le vol c< orbital » du commandant Gagarine . . . 252 Le vol « balistique » du commandant Shepard . . 254
- Journal diffusé par satellites ?............................260
- La portance par réaction autorise le décollage vertical
- ou court (Jacques Spincourt).......................291
- Souffleries hypersoniques pour maquettes stratosphériques ...................................................295
- De Mandrin à la carte perforée ou « la rançon du voyageur » (R. R.)............................................305
- Pneus supersoniques...................................349
- L’évolution technique de l’Aéronautique à travers le
- 24e Salon (Jacques Spincourt)......................352
- Le premier satellite alimenté en énergie d’origine
- nucléaire (Nicolas Viciiney).......................356
- Un satellite artificiel atteint par un orage solaire . . 357
- Contrôle des carrefours par radar.....................357
- Le trafic des grands canaux : Suez, Panama, Kiel
- (P. W.)............................................367
- Brouette sans roue....................................380
- Le Dyna-Soar, véhicule piloté intermédiaire entre l’avion et le satellite (Jacques Spincourt) .... 396
- L’essence d’orange, bon carburant mais peu économique ....................................................404
- Sécurité routière par vibrations......................405
- Feux d’auto à double intensité........................425
- L’aile gonflable pour récupération de fusées ou remorque aérienne (J. S.)......................................470
- Premier essai de la fusée Saturne C-i destinée à satel-litiser en 1964 un équipage de trois hommes (N. V.). 534
- 561
- p.561 - vue 558/560
-
-
-
- VII. — HISTOIRE DES SCIENCES
- Ce que fut la Science pour René Descartes (J. G.). . 43
- VIII. — VARIA
- Actualités et Informations, C i, C 49, C 97, C 145,
- C 185, C 225, C 273, C 321, C 361, C 409, C 457, C 505 Les livres nouveaux, 45, 94, 141, 180, 222, 269, 317,
- 358, 406, 452, 501, 549
- Éditorial................................................ 1
- Un radar au secours des aveugles........................ 79
- Le Baccalauréat « électronique » veut garantir une plus
- grande équité (Gabriel Barrière)......................192
- Quelques passereaux à gros bec dans l’histoire et la
- linguistique (Michel Roblin)..........................299
- Loi-programme et Fonds national de la recherche scientifique (Charles Le Gros)................................315
- Science et Rhétorique (R. R.)...........................316
- Une cité scientifique en construction près de Munich. 459 La nécessaire unité des Sciences humaines réclame des notions et un langage communs (Jean-Claude Fil-
- loux).................................................489
- Les prix Nobel de Sciences 1961 (Fernand Lot) . . 515
- 562
- p.562 - vue 559/560
-
-
-
- SUPPLÉMENT AU N° 3320 (DÉCEMBRE 1961 ^
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 4e trimestre 1961, n° 3737. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 435a. — 12-1961.
- p.n.n. - vue 560/560
-
-