L'Industrie nationale : comptes rendus et conférences de la Société d'encouragement pour l'industrie nationale
-
-
- s E.V.N.
- sislioshdave
- L'INDUSTRIE NATIONALE
- Comptes rendus et Conférences de la Société d'Encouragement pour l'Industrie Nationale
- fondée en 1801 reconnue d’utilité publique
- Revue trimestrielle
- 1970 - No 4
- Page de titre n.n. - vue 1/0
-
-
-
- N° 4- 1970
- SOMMAIRE
- TEXTES SCIENTIFIQUES ET TECHNIQUES.
- — Aspects théoriques du traitement des eaux résiduaires industrielles par voie biologique,
- par M. Georges BREBION, p. 3
- — La Fiabilité,
- par M. Maurice PONTE
- de l'Académie des Sciences, p. 25
- ACTIVITES DE LA SOCIETE D’ENCOURAGEMENT POUR L’INDUSTRIE NATIONALE.
- — Rapports sur les Prix et Médailles décernés le 12 septembre 1970
- — Distinctions exceptionnelles ......................... p. 51
- — Médailles d'Or
- — Prix Elphège Baude
- Publication sous la direction de M. Jacques TREFOUËL
- Membre de l'Institut, Président
- Les textes paraissant dans L’Industrie Nationale n’engagent pas la responsabilité de la Société d’Encouragement quant aux opinions exprimées par leurs auteurs.
- Abonnement annuel : 40 F
- le n° : 10,00 F
- C.C.P. Paris, n° 618-48
- p.n.n. - vue 2/0
-
-
-
- TEXTES SCIENTIFIQUES ET TECHNIQUES
- p.1 - vue 3/0
-
-
-
- p.2 - vue 4/0
-
-
-
- Aspects théoriques du traitement des eaux résiduaires industrielles par voie biologique
- par G. BREBION, Docteur ès Sciences - Directeur du Département « Eau et Biologie » ci l‘I.R.C.H.A.
- INTRODUCTION
- Le développement concomitant de l’urbanisation et de l’industrialisation inhérent à notre époque conduit à un accroissement parfois considérable du volume et de la concentration des déchets minéraux et organiques en des points déterminés. Leur rejet dans le milieu naturel, atteint et même dépasse la valeur de saturation autorisant une autoépuration valable. Parfois, le taux en oxygène dissous du récepteur devient nul et favorise le développement de fermentations anaérobies qui s’accompagnent d’odeurs nauséabondes et de la supression de la flore et de la faune aérobies.
- Il devient nécessaire de traiter d’une manière de plus en plus poussée les eaux prélevées, soit pour fournir de l'eau potable, soit pour alimenter l’usine, sans être toujours assuré d’éliminer économiquement certaines impuretés indésirables pour la consommation, voire pour une fabrication donnée.
- En fait, l’eau devient une matière première noble dont les ressources ne sont plus suffisantes, au moins dans certaines régions, pour satisfaire tous les besoins concurrents et que l’on doit utiliser au mieux des intérêts de la collectivité.
- Il devient donc logique et même indispensable de chercher à épurer les rejets avant leur admission dans le milieu naturel. En fait, dans la plupart des cas, on cherchera à accélérer au maximum le processus naturel d’autoépuration qui fait appel à de nombreux microorganismes, et plus particulièrement aux bactéries. En conséquence, il est indispensable de connaître les aspects théoriques de la biodégradation pour pouvoir modifier avec profit le milieu afin de favoriser articiellement le développement rapide des micro-organismes et leur vitesse de métabolisation, facteurs prépondérants en épuration.
- * Conférence prononcée le 21 mai 1970 à la Société d’Ecouragement pour l’Industrie Nationale.
- p.3 - vue 5/0
-
-
-
- 4
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- I. — ASPECTS THEORIQUES
- DE L’EPURATION BIOLOGIQUE
- Dans un milieu aussi complexe qu’un effluent résiduaire, de nombreux micro-organismes vont se développer, soit simultanément, soit successivement, pour biodégrader les substances assimilables. Parmi cette flore et cette faune constituant l’écologie des milieux, les bactéries jouent le rôle le plus important.
- I. 1. MICRO-ORGANISMES INTERVENANT DANS L’EPURATION (20).
- I. 1.1. Les bactéries
- Par leur importante activité biochimique, les bactéries constituent des agents de synthèse ou de dégradation d’une activité pratiquement illimitée. Elles sont capables de transformer de nombreuses molécules organiques ou minérales grâce à leur extrême richesse en enzymes qui catalysent les réactions énergétiques nécessaires d’une part, à leur respiration (catabolisme), d’autre part, à la synthèse de la matière vivante (anabolisme) par biodégradation du milieu.
- Elles interviennent selon deux voies métaboliques classiques; en présence d’oxygène (aérobiose) ou en son absence (anaérobiose). Ces deux processus se rencontrent dans la nature, et si certaines espèces sont aérobies ou anaérobies strictes, les plus nombreux sont selon les circonstances aérobies, anaérobies facultatives.
- I. 1.1.1. Leur physiologie.
- Pour croître et se multiplier, les bactéries ont besoin d’une part d’aliments plastiques pour reconstituer leur protoplasme et d’autre part de sources d’énergie. Ces dernières sont soit des radiations lumineuses chez les espèces possédant des pigments assimilateurs (B. photo-trophes), soit des réactions d’oxydoré-duction concernant des substances chimiques minérales ou organiques. Dans ce dernier cas, l’énergie libérée résulte de
- la respiration cellulaire qui réalise l’oxydation progressive d’un substrat grâce à une chaîne d’oxydoréduction permettant de réaliser un transport d’électron d’un donateur à un accepteur final. Cet accepteur peut être l’oxygène moléculaire (respiration aérobie), un composé minéral facile à réduire (respiration anaérobie) ou une molécule organique (fermentation) (schéma n° 1).
- Les bactéries aérobies ou anaérobies vont utiliser l’énergie dont elles disposent pour synthétiser leurs constituants protoplasmiques à partir de substrats organiques ou minéraux présents dans le milieu. Ce pouvoir de synthèse plus ou moins important selon les espèces permet de les classer en trois catégories.
- — Les bactéries autotrophes sont capables de se multiplier dans des milieux contenant uniquement des éléments minéraux. Elles réalisent la synthèse de molécules organiques complexes (protéines, glucides, lipides) à partir du carbone minéral (carbonates, bicarbonates) ou du CO, et de l’azote (nitrites, nitrates, sels ammoniacaux) : Bactéries nitrifiantes, dénitrifiantes, des cycles du soufre, du fer, du manganèse... (Schéma n°2).
- — Les bactéries mésotrophes ont un pouvoir de synthèse incomplet en ce qui concerne les diverses formes d’azote. Elles peuvent assimiler seulement l’azote organique ou ammoniacal à l’exclusion des autres formes d’azote minéral (Ex. : B. sulfato-réductrices).
- — Les bactéries hétérotrophes sont chimio-organotrophes et une source de carbone organique leur est indispensable. Leurs exigences variables vis-à-vis de l’azote permet de distinguer plusieurs groupes dont, par exemple, les bactéries prototrophes qui peuvent fixer l’azote atmosphérique et se développer dans des milieux dépourvus de dérivés azotés mais contenant des éléments organiques carbonés.
- I. 1.1.2. Croissance des micro-organismes.
- La croissance des micro-organismes dépend de nombreux facteurs physiques,
- p.4 - vue 6/0
-
-
-
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- 5
- RESPIRATION BACTERIENNE
- SUBSTRAT ORGANIQUE
- REDUIT
- MOLECULE
- 7 COMPOSE
- 2 H • —PMINERAL
- X RESP ANAEROBIE OXYDE
- SCHEMA 1
- ______. OH2
- COMPOSE • MINERAL REDUIT
- SUBSTRAT ORGANIQUE OXYDE
- ORGANIQUE OXYDEE
- MOLECULE ORGANIQUE REDUITE
- TYPES NUTRITIONNELS
- ! ! 1 Type trophique ! ! ! ! Source de car- Source d’azo- ! ! , Source d'énergie 1 ! 1
- bone ! te
- I ! autotrophe ! ! ! ! t CO 2 ! ! NE* NO2 N03- N !, ! 'réaction photochi- ! mique ! réaction chimique 1
- ! ! mésotrophe 1 ! ! ! Co, ou C or-ganique ! NH. + !, .. 1 reaction chimique î ! ! !
- ! prototrophe I ! ! ! C organique ! ! N2 NF4* NO2- NO3 !, ! 'réaction chimique ! 1 ! 1
- !,, ! hétérotrophe 1 t 1 C organique NH, + ou N ! 4 organique reaction chimique ! !
- p.5 - vue 7/0
-
-
-
- 6
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- chimiques et biologiques : temperalure, salinité, pH, oxygénation, nature des substances minérales et organiques (parfois toxiques), présence de micro-organismes d’espèces différentes (écologie), etc.
- De nombreux travaux, notamment ceux de Monod (1), ont été consacrés à la détermination des conditions optimales de croissances des micro-organismes et à leurs possibilités de métabolisation
- dans un milieu banal. Il s’en dégage certaines lois qu’il est intéressant de connaître pour comprendre les phénomènes de biodégradation observés dans la rivière ou dans une station d’épuration.
- Ainsi, les courbes de croissance exprimant le nombre et la taille de micro-organismes vivants en fonction du temps comportent plusieurs phases (voir graphique 1).
- LOGARITHME DU COURBE
- 6
- 8
- 7
- PHASE
- CCELERATION
- ENTISSEMEN
- .SE DE R.
- NOMBRE DE
- CELLULES/ml
- ATENCE
- PHASE DE DECLIN
- a) Phase de latence. — Lorsqu’on introduit dans un milieu un petit nombre de micro-organismes, on note une phase de latence plus ou moins longue pendant laquelle il s'adaptent au milieu. La taille des cellules augmente : mais leur nombre reste constant et peut même diminuer. Cete phase de latence dépend du milieu et de l’adaptation des micro-organismes ; elle peut être très longue ou inexistante comme c’est en général le cas dans une station d’épuration alimentée en continu à l’aide d’un effluent de composition approximativement constante.
- GRAPHIQUE 1
- DE CROISSANCE DES MICROORGANISMES (daprès MONOD)
- TEMPS/h
- 20-----------•
- b) Phase d’accélération. — Au cours de cette phase généralement très courte, les cellules commencent à se diviser à un rythme croissant.
- c) Phase de croissance logarithmique exponentielle. Pendant cette phase, le taux de croissance se maintient à une valeur constante et le nombre de cellules augmente régulièrement selon une progression géométrique de base 2. Pendant cette phase idéale, les éléments nutritifs sont en excès et il n’y a pas d’inhibiteurs ; il en résulte une importante consommation de matière organique. Pour avoir un rendement maximum
- p.6 - vue 8/0
-
-
-
- TRAITEMENT DES EA EX RESIDUAIRES INDUSTRIELLES
- 7
- de biodégradation, on aura, en principe, intérêt à maintenir les micro-organismes en phase exponentielle de croissance ; cependant, pendant cette phase, les cellules restent en suspension homogène dans le liquide et ne constituent pas de floc. Ces phénomènes de floculation indispensables au bon fonctionnement des installations de type boues activées n’ont lieu que pendant les phases suivantes (fin de la phase stationnaire et phase de déclin ou endogène).
- d) Phase de ralentissement. — Phase pendant laquelle le taux de croissance diminue les conditions de milieu devenant défavorables.
- e) Phase stationnaire. — Pendant cette phase le nombre de cellules vivantes reste constant et le taux de croissance devient nul. Les micro-organismes continuent à métaboliser les aliments et ont tendance à s’agglutiner et à floculer.
- f) Phase de déclin. — Pendant cette phase, le taux de mortalité est plus grand que le taux de division et le nombre de cellules vivantes diminue considérablement. Ce phénomène est dû à l’épuisement du milieu en éléments nutritifs ou à l'accumulation de substances inhibitrices provenant du métabolisme bactérien. Pendant cette phase appelée encore phase endogène, les micro-organismes consomment de l’oxygène pour leur respiration en utilisant comme source d’énergie leur propre protoplasme et non plus les substances organiques à biodégrader. Cette phase endogène joue un rôle important dans les processus d’épuration, car elle correspond à la formation du floc bactérien dont les propriétés d’absorption conditionnent les rendements d’épuration.
- Les lois régissant la croissance microbienne ont été mises au point avec des souches pures se développant dans des milieux contenant des matières organiques simples. Dans la nature, les micro-organismes suivent les mêmes lois, cependant, les espèces en présence sont souvent très nombreuses ; certaines vont intervenir simultanément ou successivement aux dépens des substances orga
- niques présentes à partir d’éléments préalablement métabolisés par d’autres micro-organismes.
- Dans un milieu aussi complexe qu’une eau résiduaire, les micro-organismes vont généralement avoir à leur disposition un aliment préférentiel correspondant à leur équipement enzymatique normal (enzymes constitutives) ; ce n’est que secondairement après épuisement de l’aliment de choix et lorsque les conditions du milieu deviennent défavorables, qu’ils pourront s’adapter et attaquer des substances difficilement fermentescibles grâce à leurs enzymes adaptatives. Ce phénomène de diauxie a été mis en évidence par Monod, à la suite d’expériences réalisées dans des milieux contenant deux sucres différents. Il a pu observer que la croissance s’effectue en deux stades ; dans une première phase, le micro-organisme consomme rapidement un sucre simple tel que l’arabinose pal-exemple et dans une deuxième phase, il métabolisera un sucre complexe comme le saccharose (schéma n° 3).
- Ce phénomène est d’autant plus net que les constituants du milieu sont différents par leur structure chimique, leur toxicité et leurs difficultés de métaboli-sation.
- Ainsi mise en présence de glucose et de phénol à faible concentration, une bactérie banale métabolisera tout d’abord le glucose, ensuite elle s’adaptera plus ou moins rapidement et réalisera la métabolisation du phénol. Cependant, si un tel micro-organisme adapté au phénol dispose d’un apport constant de glucose et de phénol, il utilisera en premier l’aliment préférentiel et ne métabolisera en complément le toxique que très lentement.
- Comme nous le verrons ultérieurement, il est très important de tenir compte de ces phénomènes lorsqu’on veut réaliser l'épuration d’un effluent urbain et d’un effluent industriel, en mélange (épuration mixte) ; car s’il est très possible d’épurer biologiquement et avec un excellent rendement grâce à des bactéries adaptées, un effluent contenant uniquement des substances toxiques très particulières telles que les phénols, il
- p.7 - vue 9/0
-
-
-
- 8
- TRAITEMENT" DES EAUX RESIDUAIRES INDUSTRIELLES
- faut être très prudent lorsqu’on lui adjoint un effluent urbain contenant des substances banales.
- En effet, dans ce cas, les micro-organismes adaptés aux phénols sont progressivement éliminés au profit d'espèces se développant plus rapidement en métabo-
- lisant des substances organiques banales.
- Dans certains cas, on peut constater que si les rendements basés sur le taux d’élimination de la substance toxique diminuent fortement, par contre, les rendements exprimés en pourcentage de D.B.O..5 éliminée restent valables.
- PHENOMENE DE DIAUXIE
- SCHEMA 3
- TEMPS EN HEURES
- 15 16
- 20
- mélabolisation----1 phase de latence_I
- mélabolisation du phénol-
- adaptation au phenol
- 10 12
- h.d.c
- .tryptone
- CULTURE DE PSEUDOMONAS FLUORESCENS SUR MILIEU NUTRITIF RENFERMANT DU PHENOL 200 ppm
- I. 1.2. Les champignons
- Les champignons inférieurs filamenteux ou non et les levures sont des orga-nismes hétérotrophes stricts utilisant de la matière organique carbonée comme aliment plastique et comme source d’énergie. Ils peuvent assimiler l’azote minéral sous toutes ses formes et jouent ainsi un rôle dans les processus d’épuration surtout lorsque les conditions de milieu sont favorables (pH Z 6, taux en oxygène dissous élevé, faible turbulence). En outre, ils interviennent indirectement, par diffusion dans le milieu de substances métaboliques pouvant jouer un rôle d’inhibition ou d’activation vis-à-vis des autres micro-organismes présents.
- I. 1.3. Les algues
- Les algues sont des organismes auto-trophes se développant aux dépens de matières minérales en utilisant l’énergie lumineuse. Elles libèrent dans les milieux des quantités importantes d’oxygène (par photosynthèse). Ce gaz est utilisé notamment par les bactéries aérobies pour l’oxydation des matières organiques. Les algues vont donc utiliser les sels minéraux pour l’élaboration de leurs protoplasme et jouer un rôle important dans les phénomènes d’eutrophisation des lacs, bassins de retenue et rivières. D’autre part, elles synthétisent et diffusent dans le milieu de nombreuses substances biologiquement actives, vis-à-vis des autres micro-organismes (bactéries notamment).
- p.8 - vue 10/0
-
-
-
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- 9
- I. 1.4. Les autres micro-organismes
- Le rôle des autres micro-organismes animaux ou végétaux est plus discret.
- Les protozoaires (amibes, ciliés, flagellés...), sont des organismes aérobies hété-rotrophes. Ils ne peuvent se développer qu’aux dépens de matières organiques vivantes ou mortes.
- Enfin, les rotifères, les crustacés (Daphnies, Cyelops), les nématodes, et les nombreuses larves d’insectes jouent un rôle similaire à celui des protozoaires dans l’écologie du milieu en éliminant les substances de déchet (cadavres bactériens ou d’autres micro-organismes, et certaines substances organiques).
- 1. 2. SELECTION ET ADAPTATION AUX TOXIQUES.
- Pour sélectionner des souches de micro-organismes possédant la propriété de métaboliser un toxique donné (phénol par exemple) on effectue des isolements à partir de milieux divers renfermant de nombreuses espèces (terres, vases ou boues) et à partir de milieux contenant des souches déjà adaptées (effluents industriels ou cours d’eau recevant ces effluents).
- La recherche des souches s’effectue en utilisant un milieu de culture dont la source unique de carbone est constituée par le toxique. On utilise un milieu liquide à base de sels minéraux classiques (nitrates, phosphates, sulfates, sels d’ammonium, de calcium), des oligoéléments et éventuellement des facteurs de croissance. Le toxique est ajouté à ce milieu à une concentration inférieure à la dose bactériostatique.
- L’adaptation est obtenue en augmentant progressivement la concentration en toxique. Selon ce principe, nous avons pu adapter des micro-organismes à se développer dans des milieux particulièrement hostiles (2 000 ppm en phénol ; 500 ppm en sulfures, entre 5 et 10 gr en sels de Cr, etc.). Les souches obtenues sont conservées au laboratoire soit par de fréquents repiquages sur des milieux renfermant les toxiques, soit par lyophilisation.
- II. — PROCEDES UTILISES
- Nous allons examiner rapidement les divers procédés utilisés pour le traitement des eaux résiduaires.
- II. 1. LE LAGUNAGE.
- Par sa conception, ce procédé est analogue à l’autoépuration naturelle des lacs ou des bassins de retenue. Les effluents à épurer sont maintenus dans des bassins de stabilisation ou d’oxydation pendant un temps variable (de quelques jours à plusieurs semaines). Lors île ce traitement intervient une succession de micro-organismes qui agissent soit simultanément, soit successivement selon la progression de la dégradation. La température et la luminosité (activité photosynthétique des algues) sont deux facteurs prépondérants. On utilise deux procédés :
- II. 1.1. LE LAGUNAGE NON AÉRÉ (ou classique)
- Après une floculation chimique éventuelle, lorsque cela s’avère nécessaire, on fait parvenir l’effluent à traiter dans des bassins peu profonds (0,5 à 1 m) pour que l’oxygène produit par photosynthèse et la réaération naturelle du milieu puisse fournir un apport suffisant en oxygène. Le procédé est peu coûteux (hormis le coût du terrain) mais nécessite de grandes surfaces de terrain imperméable. On peut espérer éliminer 5 g de D.B.O./m3/jour (50 kg D.B.O./j/ha pour 1 m de profondeur) avec des temps de rétention importants (plusieurs dizaines de jours).
- II. 1.2. Lagunage aéré.
- Le schéma n° 4 résume l’activité se produisant dans une lagune. En fait, le milieu liquide est en aérobiose, l’oxygène indispensable est fourni par la diffusion de l’oxygène de l’air dans le milieu liquide, l’oxygène produit par la photosynthèse des algues F. Edeline (2) et enfin par des moyens mécaniques, soit par des
- p.9 - vue 11/0
-
-
-
- 10
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- EPURATION EN
- LAGUNE
- SCHEMA 4
- VENT
- 9 - SURFACE.
- 024-------ALGUES w
- — 1 "C°2
- MATIERE BIODEGRADABLE BACTERIES AEROBIES
- ORGANIQUE SOLUBLE ------------• PROTOZOAIRES
- MATIERE DECANTABLE -------
- ORGANIQUE % INORGANIQUE
- INSOLUBLE ___ CH4 CO2 NH3
- 77777777777.7777777,
- FOND BACTERIES ANAEROBIES &
- FACULTATIVES
- aérateurs de surface, soit par des turbo-agitateurs, soit à l’aide de brosses métalliques rotatives. Le taux en oxygène dissous doit être maintenu entre 0,5 et 2 mg/1. L’effluent alimentant la lagune laisse déposer les matières solides décan-tables sur le fond, la matière organique biodégradable (dissoute et colloïdale) va servir de nourriture aux micro-organismes qui vont se développer (production de matière vivante et reproduction). La phase de déclin ou phase endogène due au vieillissement et dont nous avons por-
- té au paragraphe 1. 1.1.2. se produit ici simultanément (par suite d’un apport continu de matière organique) avec la phase de croissance. Les prédateurs : ambibes, ciliés, flagellés, rotifères, utiliseront les cellules des micro-organismes morts. Une partie de ces déchets non consommés, ou constituée de substances plus difficilement assimilables (membranes cellulaires, polysaccarides par ex.) va se déposer sur le fond, avec les matières décantables où existe une zone anaérobie. C’est dans cette zone que les bacté-
- p.10 - vue 12/0
-
-
-
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- 11
- ries méthanogènes vont métaboliser la matière organique et la minéraliser en produisant du CH,, du CO2 et NH,. La majeure partie de l’azote ammoniacal et le CO2 produits en anaérobiose sont utilisés par les algues, dont les cellules mortes serviront à leur tour de nourriture aux bactéries anaérobies.
- En lagunage aéré, les bassins seront moins étendus mais plus profonds (2 à 3 m). Le rendement est alors fortement augmenté, de 25 à 75 g de D.B.O. élimi-née/m3/jour (ou 500 à 1 500 kg ha/jour, selon la profondeur) suivant le type d’effluent, sa vitesse de biodégradation et la température du milieu (schéma n° 5).
- Les bases théoriques et le dimensionnement des lagunes aérées ont été décrits par de nombreux auteurs : P. Réal l’Heureux (3), A. J. Harris (4), J. Be-
- bin (5), B. Huriet (6), El. Barnhart et W. Eckenfelder (7). Une expression mathématique permet de tenir compte de la variation (le température, de la concentration en oxygène dissous et des caractéristiques de l’eau à épurer dans le calcul du transfert d’oxygène. Ces divers facteurs sont également mis en équation, c’est ainsi que l’on peut prévoir la température de sortie de l’effluent en tenant compte de sa température à l’entrée, de l’équilibre entre le milieu et la température ambiante (chaleur perdue par évaporation, convection, radiation et gagnée par radiation solaire).
- H. 2. BOUES ACTIVEES (schéma n° 6).
- Après un traitement éventuel et une décantation primaire, l’effluent est admis
- SCHEMA 5
- d'après E.L BARNHART
- WW ECKENFELDER
- 00 U 0
- ELIMINEE
- T° DE LEAU DANS LA LAGUNE %DBO ELIMINEE . < Cn O
- O O O
- EN JOURS
- E F
- -I IO O
- n
- T m
- C
- TEMPS DE
- V RETENTION
- MOIS DE L'ANNEE
- VARIATIONSDES PARAMETRES DANS LE TEMPS EN LAGUNAGE AERE
- p.11 - vue 13/0
-
-
-
- 12
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- dans une cuve d oxydation (parfois préensemencé avec une flore adaptée). On réalise une oxydation ménagée du milieu pour maintenir un taux en oxygène dissous compris entre 0,5 et 2 mg/l sui-
- vant la nature de l’eau résiduaire à traiter. Il en résulte la formation de particules floconneuses (floc) appelées « boues activées ». L’effluent passe ensuite dans un décanteur secondaire des-
- STATION D'EPURATION TYPE " BOUES ACTIVEES "
- Schéma n°6
- p.12 - vue 14/0
-
-
-
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- 13
- tiné à séparer les boues dont une partie sera recyclée en tête d’installation (réen-semencement). Le processus est semblable à celui du lagunage aéré (seul le taux de matière organique admissible par m3 de bassin diffère (de l’ordre de 100 g de D.B.O. par m3 de lagune aérée, de 250 g/m3 pour des boues activées à faible charge, supérieure à 1 kg/m3 dans le cas des boues activées à haute charge).
- Dans une station de traitement, l’alimentation en eau usée est continue mais avec de fortes variations qualitatives et quantitatives. En conséquence, le taux de croissance des micro-organismes est
- limité par la quantité d’elements nutritifs disponibles.
- Monod (8) a étudié sur des cultures pures les avantages d’un taux de croissance constant et les dispositions qui permettent de le maintenir.
- Downing et Knules (9) ont défini pour quelques cas théoriques simples les conditions indispensables à la survie ou à la prolifération simultanée de plusieurs espèces de micro-organismes. Pour maintenir des conditions favorables à la métabolisation poussée du substrat, il semble nécessaire de conserver en activité le plus grand nombre d’espèces.
- PRODUCTION MAXI
- MATIERE BIOLOGIQUE
- SCHEMA 7
- d’après W.W ECKENFELDER
- MV: MATIERE VOLATILE
- MO : -------- ORGANIQUE
- Mes:_______EN SUSPENSION
- \ DBO
- POURCENTAGE DE LA DEMANDE TOTALE EN OXYGENE 7
- 100
- SYNTHESE BIOLOGIQUE
- NON BIODEGRADEES
- N BIODEGRADEES ET REUETEES
- M.V DANS M.e.S
- OXYGENE CONSOMME
- / RESPIRATION ENDOGENE
- MO EN SUSPENSION NON OXYDEE
- M.e.S
- Mes NC
- 44 N
- MO DANS EFFLUENT
- TEMPS D'AERATION
- REPRESENTATION SCHEMATIOUE DE L'OXYDATION BIOLOGIQUE
- p.13 - vue 15/0
-
-
-
- 14 TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- Chacune d’entre elles participant à une étape du processus de biodégradation, c’est une des raisons pour laquelle on a intérêt à limiter le taux de croissance instantané de la culture (éviter au maximum de fortes variations).
- Les divers paramètres régissant le fonctionnement de stations « boues activées » peuvent être déterminés par l’application d’expressions mathématiques concernant le taux de croissance et de déconcentration de la culture ; la production de boues en excès, le besoin en oxygène, P. Brouzès (10), F. Blondeau (11), W. Eckenfelder (12) (schéma n° 7) et leur régulation P. Brouzès (13), Mc Cabe (14), W. Eckenfelder et Mc Cabe (15).
- II. 2.1. Descriptions DU FLOC BACTÉRIEN
- Le floc bactérien est constitué de nombreuses particules colloïdales de taille variable (quelque microns à quelques millimètres). Un floc normal a la pro
- priété de décanter rapidement lorsque le milieu est dépourvu de toute agitation, mais du fait de sa structure, il est très difficile à filtrer, à centrifuger et à déshydrater. Chaque élément est formé par un agrégat hétérogène de particules minérales, organiques et de divers micro-organismes vivants et morts, agglutinés et qui semblent enrobés par une substance mucilagineuse ou gélatineuse.
- Dans un floc normal, on observe une population hétérogène dans laquelle dominent les bactéries, et divers échantillons de la flore et de la faune associées (algues, levures, champignons, protozoaires, rotifères, nématodes). Un certain nombre de ces micro-organismes : bactéries, protozoaires..., restent libres dans le milieu. Il s’agit d’un système écologique complexe dont l’équilibre conditionne la formation du floc (schéma n° 8). Le rendement d’une installation dépend étroitement de la composition du floc et un simple examen microscopique permet au spécialiste de se faire une opinion sur son fonctionnement. La présen-
- EVOLUTION DE LA FLORE
- ©
- (d'après MAC KINNEY-15)
- ET DE LA FAUNE
- ©
- ©
- Rotifères
- Bactéries
- Ciliés libres
- Ciliés pédonculés
- Phytof lagellés
- Sarcodina
- Suctoria
- Zoo flagellés
- Schéma n°8
- Temps
- LORS DES PROCESSUS D'EPURATION
- A Proportion relative des divers microorganismes
- p.14 - vue 16/0
-
-
-
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- 15
- ce constante de vorticelles et de rotifères témoigne d’un floc de bonne qualité, celle de micro-organismes filamenteux (bactéries, champignons) se traduira par une mauvaise décantation par suite de la formation de boues « foisonnantes ».
- D’après Mc Kinney (16), la formation du floc dépend essentiellement des conditions physiques, chimiques et biologiques du milieu.
- Dans un effluent équilibré en sels minéraux et renfermant en suspension ou à l’état dissous des matières organiques biodégradables, c’est-à-dire dans un milieu favorable où l’on maintient une aération et une agitation permanente, les micro-organismes et notamment les bactéries vont se multiplier très rapidement selon une progression géométrique (§ 1.1.1.2.) en consommant de la matière organique. Après un certain temps, un facteur limitant va apparaître dans le milieu (carence en aliments facilement métabolisables, accumulation d’inhibiteurs). Les micro-organismes se multiplient plus lentement et on observe une phase stationnaire puis une phase de déclin.
- C’est à la fin de la phase stationnaire et pendant la phase de déclin ou période endogène que les cellules bactériennes commencent à s’agglutiner entre elles pour constituer le floc. C’est donc au moment où le milieu devient hostile qu’apparaît la substance responsable de cette agglomération.
- Selon Crabtree, Mc Coy, Boyle & C° (17-18) seules certaines espèces bactériennes appartenant au genre zoogléa seraient capables de provoquer la formation du floc. Ces auteurs ont montré que les bactéries provoquant l’agglutination renferment dans leur protoplasme de nombreuses granulations soudanophiles constituées de polymères d’acide 3 hy-droxybutyrique. C’est cette substance qui serait responsable de la formation du floc par sa libération dans le milieu, lors de la lyse bactérienne au cours de la phase endogène. D’après Mc Kinney (2), de nombreuses bactéries seraient capables dans des conditions données de former des flocs. Ces derniers renfer
- mant des polysaccharides et des dérivés extractibles à l’éther (lipides) ou au chloroforme poly 8 hydroxybutyrate H. W. Van Gils (19).
- II. 3. LIT BACTERIEN CLASSIQUE (schéma n” 9).
- Dans ce procédé, après une décantation primaire précédée ou non d’une floculation, l’effluent à épurer est dispersé au moyen d’un distributeur rotatif à la surface du lit bactérien. Ce dernier est constitué d’une enceinte cylindrique garnie par un empilement de matériaux inertes tels que pouzzolane, granit, coke au travers duquel s’écoule l’eau à épurer. Ces supports sont rapidement enrobés d’une masse mucilagineuse ou zooglée au sein de laquelle se trouvent les micro-organismes associés intervenant dans l’épuration. Les matières organiques sont adsorbées puis métabolisées au niveau des zooglées, surtout dans les lits bactériens à faible charge (100 à 200 g de D.B.O./m3/de lit). L’oxygénation de l’ensemble est assurée par une circulation d’air naturelle ou forcée au travers du lit. On opère fréquemment une recirculation de l’eau traitée s’écoulant soit à la sortie du lit soit au déversoir du décanteur secondaire, pour améliorer la qualité de l’eau et provoquer éventuellement une dilution de l’eau d’alimentation du lit bactérien.
- II. 4. LIT BACTERIEN A RUISSELLEMENT (schéma n° 10).
- Ce type de lit bactérien appelé fréquemment « tour d’oxydation » ou lit bactérien à remplissage en matière plastique diffère du précédent par le remplacement du matériau inerte traditionnel par un matériau plastique qui peut affecter des formes variées: plaques planes et ondulées alternées (soudées ou emboîtées) : éléments de tubes empilés, ou tubes cloisonnés. L’eau à épurer est dispersée à la surface du lit comme dans les autres types de lits bactériens.
- p.15 - vue 17/0
-
-
-
- 16
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- Boues
- Décanteur Secondaire
- SCHEMA D'EPURATION TYPE
- SCHEMA D’EPURATION TYPE " TOUR D'OXYDATION "
- Schéma n °10
- Décanteur Secondaire
- p.16 - vue 18/0
-
-
-
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- 17
- Les nouveaux filtres comportant des tubes cloisonnés en C.P.V. de 80 mm de diamètre et d’une longueur correspondant à la hauteur du lit (de 2 à 6 m) ont fait l’objet d'un dépôt de brevet par l’I.R.CH.A. Ces tubes sont disposés verticalement en empilement naturel.
- II. 4.1. Caractéristiques
- Les principaux avantages apportés par les tubes cloisonnés (marque commerciale Cloisonyle) dans le procédé d’épuration par lits bactériens sont les suivants :
- — forte augmentation du rapport surface de contact/unité de volume (225 m2/m3 pour le Cloisonyle) ;
- pas de colmatage (même à forte charge) ;
- — aération excellente. Il subsiste 94 % de vide ;
- - possibilité d’admettre des charges supérieures à 10 kg de D.B.O./m3 ;
- (On peut admettre au maximum 1 kg de D.B.O./m3 sur les lits bactériens classiques).
- — possibilité de minéralisation poussée des boues produites.
- Ce matériau est très léger, 80 kg/m3 (pour 1 200 kg/m3 pouzzolane), ce qui permet une économie non négligeable de génie civil et par suite des performances obtenues le volume d’un lit bactérien à remplissage en cloisonyle est très inférieur à celui d’un lit bactérien classique. En outre l’enveloppe du lit n’a plus besoin d’être en béton armé et peut être constitué par des plaques peu épaisses en matière plastique (les tubes sont autoportants).
- II. 5. ANALOGIE ENTRE LES MECANISMES DES PROCEDES «BOUES ACTIVEES » ET LITS BACTERIENS A RUISSELLEMENT.
- Les auteurs précités (10 à 16) admettent que l’oxydation biologique obéit à une équation du premier ordre de type « = e K,t ou
- a = fraction des matières organiques (volatiles) dégradables restant au temps t
- e = base des logarithmes népériens
- K, = taux de digestion (essentiellement variable suivant la nature du substrat de 0,1 à 0,4/j)
- t = temps en jour.
- Dans une installation « boues activées » graphique II et III on s’aperçoit que, expérimentalement pour des temps d’oxydation variant de 1 h à 8 h, les courbes représentant la charge en kg de D.B.O. éliminée/m3 de cuve d’aération/j (ordonnées) en fonction de la charge appliquée en D.B.O./m3 de cuve/jour (ab-cisses) sont des droites dont la représentation mathématique est du type :
- y - 0,79 x —0,17 pour 1 heure d’aération
- y = 0,98 x — 0,19 pour 2 heures
- y = 0,93 x —0,13 pour 4 heures
- y — 1,019 x — 0,108 pour 8 heures.
- Or les courbes expérimentales obtenues lors de l'utilisation de lits bactériens à ruissellement avec recirculation des boues (graphique IV) sont également des droites de même forme correspondant à des équations très voisines.
- 1er stade : lit bactérien
- y = 0,52 x — 0,35 pour une charge hydraulique superficielle de 1,8 m3/m2/h.
- 2e stade : lit bactérien
- y = 0,678 x — 0,132
- y = 0,677 x — 0,120
- suivant les charges appliquées pour une charge superficielle de 4 m3/m2/h.
- La représentation mathématique du rapport entre la charge appliquée et la charge éliminée étant une relation linéaire aussi bien dans le cas de l’épuration par « boues activées » que par lit bactérien à ruissellement conduit à admettre une identité dans les processus.
- Cette similarité existe en fait :
- — dans les deux cas le transfert de l’oxygène fourni aux micro-organismes
- p.17 - vue 19/0
-
-
-
- I SE
- 18
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- GRAPHIQUE 2
- 3
- 2
- -
- CHARGES ELIMINEES Kg-D.B.O-m3-j
- ALIMENTATION: EAU URBAINE
- 2
- 3
- CHARGES APPLIQUEES
- Kg-D.BO.m3-j
- INSTALLATION BOUES ACTIVEES
- TEMPS D’OXYDATION: 2 h
- y=0,98 x-0,19
- TEMPS DOXYDATION:4h
- y-0,93x - 0,13
- MOYENNE DES RESULTATS
- OBTENUS EN 8 MOIS DE FONCTIONNEMENT
- I o
- 1
- O
- O'
- -0
- GRAPHIQUE 3
- CHARGES ELIMINEES Kg-D.BO.m3-j
- ALIMENTATION: EAU URBAINE
- 0,2
- INSTALLATION BOUES ACTIVEES TEMPS D'OXYDATION :8h y= 1,019x-0,108 MOYENNE DES RESULTATS OBTENUS EN 8 MOIS DE FONCTIONNEMENT
- &
- o
- CHARGES APPLIQUEES
- _Kg-DBO-m3j_
- 0,8
- p.18 - vue 20/0
-
-
-
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- 19
- °
- 8
- 7
- 6
- 5
- 3
- 2
- 1
- OL
- 1
- CHARGE ELIMINEE Kg_DBO_m3
- GRAPHIQUE 4
- LIT BACTERIEN A RUISSELLEMENT frSTADE .CHARGE HYDRAULIQUE
- SUPERFICIELLE 4m3m2h
- RECIRCULATION DES BOUES
- 2-STA DE-CHARGE HYDRAULIQUE SUPERFICIELLE „
- 1,8 m2m2h „
- RECIRCULATION DES BOUES
- ,y=0,678x-0,132 y=067 7x- 0,120
- 8 O
- i x N LA o
- II
- 2
- 3
- 4
- 5
- 6
- 7
- 11 12 13
- CHARGE APPLIQUEE
- Kg-D.B.O-m3
- 9 10
- cO
- se fait librement de la phase gazeuse à la phase aqueuse ;
- — la recirculation des boues permet dans les deux systèmes, l’apport de micro-organismes, dont une partie est en phase de déclin (âge) où se produit une lyse importante et laisse ainsi diffuser dans le milieu de nombreuses enzymes, l’autre, déjà adaptée au milieu, et se trouvant dans des conditions favorables (milieu riche en matière organique biodégradable) va proliférer en phase exponentielle et assurer un réensemencement ;
- — la teneur en oxygène semble limitée dans les deux procédés : dans les boues activées pour des impératifs de rendement de transfert ; dans les lits bactériens pour des raisons de diffusion de l’oxygène au travers de la couche muci-lagineuse de la zooglée.
- Le caractère limitant, et primordial est la quantité de matière organique plus ou moins rapidement biodégradable.
- En conséquence, il devient logique d’admettre que, dans les deux cas, une équation de même type représente la
- relation entre la charge appliquée et la charge éliminée.
- L’analogie des processus explique les possibilités d’utiliser des eaux très chargées pour l’alimentation des lits bactériens à ruissellement. Dans de nombreux cas, un simple tamisage, ou un dégrillage (manuel ou automatique) des eaux usées est suffisant avant l’admission sur le lit (suppression de la décantation primaire) avec en outre la possibilité d’obtenir une minéralisation poussée des boues formées lors de l’épuration. (A titre indicatif, pour des eaux urbaines, on peut obtenir 2 g de boues (en sec)/ hab./jour, c’est-à-dire dix fois moins environ qu’avec les autres procédés dits à oxydation totale).
- III. — ESSAI DE CLASSEMENT DES EFFLUENTS INDUSTRIELS SELON LEUR APTITUDE
- A LA BIODEGRADATION
- Actuellement les procédés biologiques sont utilisés dans le traitement des eaux
- p.19 - vue 21/0
-
-
-
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- résiduaires industrielles toutes les fois que cela est possible, uniquement pour des considérations économiques. Les améliorations concernant certains traitements physiques et physico-chimiques vont certainement, au cours des prochaines années, en limiter l’importance.
- Une des conditions indispensables au traitement mixte est l’absence de substances (naturelles ou synthétiques) capables d’inhiber la croissance des micro-organismes et par suite d’entraver plus ou moins efficacement les processus de biodégradation mis en œuvre dans la station. Cette action bactériostatique
- (voire bactéricide) peut parfois être potentielle, et résulter du mélange d’effluents apparemment anodins mais dont les produits intermédiaires formés lors des premières réactions de biodégradation peuvent donner lieu à l’élaboration de substances inhibitrices soit directement, soit par réaction entre elles.
- Une certaine discrimination entre les effluents industriels peut donc être établie selon qu’ils renferment ou non des substances capables d’arrêter la multiplication des micro-organismes.
- Dans le tableau I nous avons dressé une liste de quelques rejets industriels
- -TABLEAU X -
- Liste de quelques rejets industriels contenant ou non, soit des substances toxiques, soit des substances susceptibles d'inhiber la croissance des microorganismes
- Eaux résiduaires dépourvus de ! Eaux résiduaires contenant des substances toxiques ou susceptibles !
- toute substance ayant une ac- ! d'inhiber la croissance des microorganismes !
- tivité bactériostatique !
- Nature des substances incriminées ,
- ; Sucreries - Distilleries. Malteries - Brasseries Féculeries - Produits Amylacés Alcaloïdes
- Industrie pharmaceutique fa- Produits chimiques divers - Solvants’
- Cart onneries
- Conserveries brication (d'antibiotiques Antibiotiques - substances bactéri-
- Abattoirs (sulfamides cides - Solvants - Cations métalli-
- Laiteries - Fromageries ques lourds !
- Ateliers de petite mécanique Anti-oxydants - anti-corrosifs - ! sels métalliques - huiles minérales !
- En excluant les produits de ! nettoyage des cuves, récipients! Industrie du Papier (fabriques de pâte) Oxydants - produits chimiques - adjuvants de blanchiment
- divers et des sols ! Industrie textile et annexes Composés phénoliques - solvants
- Teintureries agents détergents - oxydants
- Industrie Chimique et para- Cations métalliques lourds - sol-
- ! chimique - Elastomères -plastiques - pesticides vants - Produits chimiques variés
- I Pétro chimie (raffinage Phénols - Détergents - toxiques
- détergents) divers
- Sidérurgie - cookeries Cyanures - Phénols - toxiques
- (usines à gaz) divers
- Surfaçage des métaux Cyanures - Cations métalliques
- ! lours - chromâtes ?
- t 1 Tanneries - mégisseries Sels de Cr ? - Tannins (anti-oxygène) Sulfures
- p.20 - vue 22/0
-
-
-
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- 21
- en fonction du risque précité (abstraction faite des à-coups de charge polluante inhérents à diverses fabrications). En outre de nombreux constituants organiques contenus dans les eaux résiduaires industrielles, bien que non toxiques, sont plus ou moins rapidement dégradés par voie biologique et dans de nombreux cas beaucoup moins vite que les constituants organiques normaux des eaux urbaines.
- Ce dernier critère peut permettre d’établir un autre classement des eaux industrielles en fonction de leur aptitude à la biodégradabilité. On peut, avec un certain arbitraire, justifier l’appartenance d’un effluent industriel à l’une des trois classes type développées dans le tableau II et qui traduisent une possibilité plus ou moins accusée à l’épuration mixte. (Les produits toxiques ou nuisibles étant éliminés in situ par un prétraitement).
- U
- Essai de classement de divers types d'eaux résiduaires industrielles suivant leur aptitude à la biodégradation
- ! Aptitude à la bio- ! ! dégradation ! Types d'industries !! Observations concernant l'épuration mixte !
- 11 I ! Prétraitements Epuration mixte ! 1 Traitements compléments !
- : facilement f ‘dasse I ! ! : biodégradables ! ! ! ! ! ! Sucreries - distilleries !! Féculeries ) !! Ind. Malteries - Brasseries)1;_‘! ) 11 „ ‘men- Conserveries ) ,, taires : Abattoirs \ !: Laiteries - fromageries ! ! Pharmaceutique (antibio- !! tiques) ,, Cartonneries (à partir de végétaux annuels) décantation préala-décantation préala- ble Coagulation - Elimi. levures Prédécantation Prédécantation - dé-graisseur Prédécantation- dégraisseur physique éventuel éventuelle ajout N.& P possible (ajout N & P)! possible (précautions)! possible (ajust. pH) favorable , favorable , possible (précautions) ! précautions spéciales ! favorable (ajust. pH) néant ! " ! ! ! !
- !' ! ! lentement j ! ! Blanchisseries 11 ! ! ! ! Bassin régul.0 Sur- T Précautions spéciales 1 veiller N.P. - pH Flottation - , Charbon A
- ,Classe II , , biodégradables Tanneries - Mégisseries ,, ! ! Ateliers de mécanique !! ! ! Bassin homog. - décantation - Elimination des sulfures Bassin régul.n-Deshuilage favorable , ! possible ’ ! ! néant . ! éventuel, déco-! loration !
- : très lente- ' ment ! !Classe III ! I biodégradables , !(Tous ces effluents ! , sont carencés en N , et P et renferment ! le plus souvent des! i substances toxiques) ! ! ! ! I ! Textiles et annexes (teintureries) !! Papier (fabriques de pâte) !! Pharmaceutique !! 11 Chimiques et parachimiques 11 (Elastomères - Pesticides -Plastiques) !! Pétrochimie - Raffinage - !! Détergents !! Sidérurgie - cookeries .. usines à gaz 1 ! I ! Surfaçage des métaux - galva-,. no plastie II ! ! , , ! Bassin regul. - ' precautions spéciales coagulation ! ! Elimin. des fibres ! précautions spéciales ! (Ajust. pH) , , Elimination des toxi+ précautions spéciales ! ques in situ ! , Elimination des toxir précautions spéciales 1 ques in situ floculation éventuel- précautions spéciales ! 1e ! ! décantation - oxyda-, particulier., délicate , tion - réduction - Elimin. toxiques ! ! • Oxydation C.N- Ré- , précautions spéciales duction Cr - flocu- : particulier, délicate lation - Elimination! toxiques décoloration flottation ? ! décoloration ! (chaux (ozone ! néant ! clarification 1 éventuelle | néant ! décoloration , néant , I !
- p.21 - vue 23/0
-
-
-
- 22
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- D’après R. Colas (21) les effluents à traiter peuvent être classés en quatre catégories. La quatrième catégorie se rapportant aux substances radio-actives, ou à des produits responsables de pollutions collectives, peut être éliminée ici.
- Ces catégories sont (loc. cil.) :
- 1. Effluents contenant des matières solides en suspension, ou des émulsions ayant plus ou moins tendance à décanter ou à flotter.
- 2. Effluents contenant en solution des produits toxiques ou susceptibles de troubler l’évolution biologique du milieu récepteur.
- 3. Effluents contenant des substances fermentescibles, essentiellement de nature organique.
- On voit immédiatement que la première catégorie sera justiciable d'une décantation-floculation, d’une filtration avec ou sans dégrillage ou dessablage préalable.
- La seconde catégorie devra faire l’objet de traitements spéciaux comportant la destruction radicale des éléments gênants, phénols, cyanures, etc.
- La troisième catégorie pourra être traitée par voie biologique d’une façon identique à celle des eaux d’égout.
- III. 1. EPURATION MIXTE.
- Toutes les fois qu’elle est possible, l’épuration des effluents industriels dans les stations classiques de traitement d’eaux urbaines est économiquement avantageuse. Une station unique traitant la totalité des effluents étant moins onéreuse que de multiples stations séparées aux dimensions réduites.
- Il existe cependant plusieurs restrictions à cet aspect de l’assainissement commun. D'une part une certaine limite est imposée en général par le coût de réalisation des émissaires. Il semble en effet illusoire de vouloir collecter des eaux polluées sur de grandes distances en canalisations enterrées,
- D’autre part, si l’épuration des eaux urbaines ne pose aucun problème particulier, l’épuration de certaines eaux industrielles n’est pas entièrement résolue. Il est même parfois illogique et maladroit de mélanger tous les effluents d’une usine pour effectuer ensuite un traitement global et a fortiori de mélanger divers effluents industriels entre eux et avec des eaux urbaines. Les fa-brications de plus en plus complexes, principalement dans l’Industrie chimi-que et parachimique conduisent à des rejets de polluants extrêmement variés et dans certains cas le traitement séparé de certaines catégories d’eaux résiduaires peut s’avérer très profitable des points de vue qualité et coût de l’eau traitée, car il n’existe pas encore de procédé universel d’épuration.
- En fait, dans certains cas les traitements mixtes sont impossibles par suite du caractère particulier des eaux industrielles.
- Dans d’autres cas, les traitements communs ne peuvent être réalisés qu’a-près avoir pris certaines précautions de prétraitement des effluents industriels : ajustement du pH, élimination des toxiques, régularisation des débits, homogénéisation de la qualité des effluents, etc.
- Les eaux usées industrielles admises en mélange avec des eaux urbaines doivent être biodégradables et l’effluent global ne doit pas être trop carencé ou déséquilibré en éléments nutritifs.
- Le problème de l’épuration mixte, G. Brebion (22), W. J. Muller (23) est toujours délicat et nécessite une connaissance aussi complète que possible de la nature et de la qualité des eaux résiduaires industrielles à traiter, ainsi que le rapport des charges polluantes industrielle et urbaine. Dans la majorité des cas il se révèle indispensable de poursuivre des expérimentations en pilote, qui malgré leur coût, constituent une garantie certaine de l’exploitation et du fonctionnement de la future station et se solde la plupart du temps par une économie substantielle (en investissement et parfois sur le fonctionnement).
- p.22 - vue 24/0
-
-
-
- TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- 23
- IV. — CONCLUSIONS
- Nous avons essayé de décrire les aspects théoriques de l’épuration par voie biologique, ses possibilités énormes dues en grande partie aux bactéries qui possèdent une plasticité remarquable leur permettant de s’adapter et de résister à des conditions de milieu (particulièrement défavorables). Cette particularité liée à une importante activité biochimique en font des agents de synthèse ou de dégradation d’une activité pratiquement illimitée.
- Les lois qui se dégagent des conditions optimales de croissance des micro-organismes ainsi que la connaissance de leur physiologie permettent de comprendre et d’interpréter les phénomènes de biodégradation observés dans la rivière
- ou dans une station d’épuration. L’intervention de l'homme consiste alors à accélérer au maximum les phénomènes naturels pour les utiliser au mieux dans les divers procédés d’épuration biologique. L’analyse du système écologique fort complexe (flore et faune associées (24) et de ses variations qualitatives et quantitatives sous l’influence du milieu, fournit de précieux renseignements sur les possibilités de dégradation et les rendements que l’on peut attendre d’un traitement biologique.
- Enfin nous avons évoqué les possibilités d’épuration mixte des eaux industrielles et urbaines en insistant sur la nécessité d’études préliminaires aussi complètes que possibles, afin d’éviter de nombreux déboires dans l’application.
- BIBLIOGRAPHIE
- 1. J. Monod. —• Recherches sur la croissance des cultures bactériennes, Paris, Hermann, 1942.
- 2. F. Edeline. — Le rôle de la photosynthèse dans l’autoépuration des cours d’eau, Paris, 1968. — La lutte contre la pollution des eaux, p. 167-182, Arts Chimiques, Ed. Eyrolles.
- 3. P. Réal l’Heureux. — Théorie et calcul des étangs d’oxydation, 1965. Colloque sur l’épuration des eaux usées, Montréal, p. 15-25.
- 4. A. J. Harris. — Aspects pratiques des étangs d’oxydation, 1965. Colloque sur l’épuration des eaux usées, Montréal, p. 31-42.
- 5. J. Bebin. — Le Traitement par lagunage aéré des eaux résiduaires industrielles très polluées, Paris, 1968. La lutte contre la pollution des eaux, p. 63-81, Arts Chimiques, Ed. Eyrolles.
- 6. B. Huriet. — Etude théorique du lagunage aéré, 1970, à l’impression.
- 7. E. L. Barnhart et W. Eckenfelder. — Théorie et calcul des étangs aérés, 1965, Colloque sur l’épuration des eaux usées, Montréal, p. 145-159.
- 8. J. Monod. — La technique de culture continue. Théorie et applications. Annales de l’Institut Pasteur, 1950.
- 9. Downing et Knoles G. — Population Dynamies in biological treatment plants. IIIe Conférence Internationale, LAAV.P.R., 1966.
- 10. P. Brouzès. — Epuration biologique. Paramètres de base, 1969, Metz, Journées d’information organisées par l’A.F.E.E.
- 11. F. Blondeau. — Aération prolongée et digestion aérobie, 1969, Metz, Journées d’information organisées par l’A.F.E.E.
- 12. W. W. Eckenfelder. — Procédé de boues activées requérant l’évacuation d’un excès de boues, 1965, Colloque sur l’épuration des eaux usées, Montréal, p. 200-211.
- 13. P. Brouzès. — Régulation du traitement biologique, 1968, Paris, Journées d’information organisées par l’A.F.E.E.
- 14. Mac Cabe B. J. et Eckenfelder W. W.
- 15. Eckenfelder W. W., Mac Cabe B. J. — Mathematical formulation of the biological oxidation process. Application of K metres of activated sludge to process design., 1963, Advances in Biological waste treatment, Perga-mon Press, Vol. I et II.
- 16. R. E. Mc. Kinney. —- Microbiology for sanitary engineers, Ed. Mc Graw Hill, 1962.
- 17. Crabtree, Boyle Me Coy Rohlich. — A. Mecanism of the formation by zooglea ramigera. W.P.C.F., 1966, 38, p. 1968-79,
- p.23 - vue 25/0
-
-
-
- 24 TRAITEMENT DES EAUX RESIDUAIRES INDUSTRIELLES
- 18. Crabtree, Me Boyle Coy Rohlich. — Isolation, identification and metabo-lic role of the sundanophilic role of zooglea ramigera. Appl. Microbiolo-gy, 1965, 13, p. 218-26.
- 19. H. W. Van Gils. — Bacteriology of Se-wage, 1964. Research Institute for Public Health engineering DELFT.
- 20. R. Cabridenc. — Rôle des micro-organismes dans les processus d’épuration biologique, Paris, 1968, Conférence à l’Institut technique sanitaire (C.N.A.M.).
- 21. R. Colas. — La pollution des eaux, Collection « Que sais-je ? », Paris, Presses universitaires, n° 983.
- 22. G. Brebion. •—- L’épuration simultanée des effluents mixtes industriels et urbains en mélange, Metz, 1969, Journées d’information A.F.E.E. (Paris, 23, rue de Madrid).
- 23. Dr J. W. Muller. — Epuration des eaux résiduaires mixtes urbaines et industrielles en R.F.A., Paris, 1966, Monographie O.C.D.E.
- 24 N. Gontcharoff. —- Clé d’identification des bactéries hétérotrophes aérobies ou anaérobies facultatives isolées à partir de prélèvements d’eau, Dunod. Ed., Paris.
- p.24 - vue 26/0
-
-
-
- La fiabilité
- par M. Maurice PONTE de l’Académie des Sciences
- En toute logique, il faudrait pouvoir définir la fiabilité avant de commencer cet exposé ; mais, en fait, ce mot ne pourra être bien compris qu’au cours de cette conférence : c’est au moins ce que je vais tenter de faire.
- Le terme est relativement nouveau en France, puisqu’il n’a guère que vingt ans d’âge : il doit probablement son existence au fait que le mot anglais correspondant, plus ancien, de « reliability » est à peu près imprononçable par une bouche française normale, sans quoi nous aurions ajouté un mot de franglais supplémentaire à une collection déjà riche. Ce n’est pas que « fiabilité » soit bien beau, mais il est entré dans l’usage et prenons le comme il est.
- Il pénètre même dans la vie courante : ne voit-on pas la publicité d’un constructeur français d’automobiles mettre ses modèles les plus prestigieux sous la bannière de la fiabilité ? Evidemment, cela donne une allure technique à la présentation, mais nous conduit déjà à remarquer que l’utilisation du terme est justifiée par le souci de sécurité de la voiture, c’est-à-dire de son comportement devant un événement totalement ou partiellement inopiné. Retenons déjà cet aspect de la fiabilité sur lequel nous reviendrons plus techniquement.
- Il faut cependant s’interroger sur la nécessité d’introduire une conception, un mot nouveau dans un domaine qui
- paraît aussi vieux que le monde et nous retrouvons, à cette occasion, l’évidence que les soucis des hommes restent constants, mais qu’ils changent d’échelle suivant le développement de ses besoins, à la mesure du développement des sciences et des techniques. Il est bien clair que, dès que l’homme a appris à produire quelque chose, il a cherché à lui donner une existence suffisamment longue pour que cette création puisse remplir son but. Sans remonter jusqu’à l’homme des cavernes qui devait, par expérience ancestrale, savoir choisir son logement hors d’atteinte des inondations ou résistant aux tremblements de terre, les constructeurs des temples anciens ou des églises cherchaient bien à œuvrer pour des siècles et ils y ont le plus souvent réussi, leur plus grand ennemi ayant été la fureur destructrice des hommes, facteur imprévu lors de la conception. En fait, le souci des créateurs et de ce qui pouvait déjà être appelé producteurs était celui de la durée totale de leurs œuvres et, en certains domaines, ils y réussissaient mieux que nous pour qui la nécessité absolue d’une longue durée peut ne plus être primordiale : celle-ci s’adapte désormais au but recherché.
- Sous l’effet du développement des techniques et de leurs transformations rapides, la notion même de durée a évolué et des exemples le montreront. L’éva-
- p.25 - vue 27/0
-
-
-
- 26
- LA FIA BI LITE
- lualion de la qualité d’un produit ou d’un système en durée ne se mesure plus en « tout ou rien », mais en nombre de défauts durant une période donnée. Celle-ci se terminera en général par la destruction ou l’abandon du produit. Si (fig. 1} on porte sur un graphique, en fonction d’une utilisation qui peut se mesurer en temps d’emploi, l'a suite des événements malheureux survenus sur une population d’éléments qui peuvent être groupés en un produit ou un systè-
- me, on obtient une courbe d’allure générale dite en « baignoire » : la région A est celle des accidents de jeunesse, B est celle de la sénescence ou de l’usure qui conduit à la disparition progressive de la population. La région intermédiaire C est celle des événements malheureux accidentels. Des exemples courants sont ceux des lampes d’éclairage, des tubes électroniques et des hommes eux-mêmes. Pour les tubes électroniques par exemple, tels qu’on savait les produire il y a
- FigURE 1
- Temps
- trente ou quarante ans, la période A était celle des défauts de vide, les fêlures des enceintes, les ruptures de connexions... Puis les tubes fonctionnaient correctement jusqu’à la durée de vie prévue pour la cathode avec toutefois un certain nombre de pannes accidentelles le plus souvent dues à la qualité des matériaux utilisés. En B, l’usure amenait une répétition de pannes amenant la destruction des tubes et la disparition de leur population. Le « pic » des accidents de jeunesse se trouvait vers quelques dizaines d’heures et la « durée » des tubes vers 5 000 à 10 000 heures pour les tubes de puissance. L’histoire de la garantie de durée de ces derniers a suivi
- une évolution qui tenait compte de ces observations : faite au départ sur une garantie d’heures de service par groupes de tubes, elle était injuste pour l’exploitant qui soutirait des accidents de jeunesse alors que le constructeur se rattrapait par la durée des tubes anciens ; la garantie moyenne fut donc remplacée par des garanties individuelles. On constate donc déjà que, du fait des nécessités d’une exploitation, la notion de durée escomptée ne suffit plus : il en faut une autre, celle de la disponibilité du matériel ou du système à un moment donné qui peut être inconnu. Dans le vocabulaire actuel on dirait que la fiabilité des tubes évoqués ci-dessus était insuffisante.
- p.26 - vue 28/0
-
-
-
- LA FIABILITE
- 27
- L’allure de la courbe du nombre de défauts en fonction d’une unité de référence telle que le temps est donc générale, mais ses conséquences sont diverses, certains pouvant être réparés. Les automobilistes le savent bien ou les habitants des immeubles neufs, alors que pour les tubes électroniques évoqués, une intervention extérieure ne peut avoir que des effets limités.
- En somme, il y a une trentaine d’années environ, on acceptait avec plus ou moins de grâce qu’un matériel souffre de difficultés initiales pourvu qu’il ait, ensuite, après réparation si nécessaire, une durée de vie suffisante à la façon des hommes qui devaient traverser les épreuves de la rougeole, de la scarlatine ou des oreillons sans en être trop affectés.
- Les choses changèrent assez rapidement dès la seconde guerre mondiale sous l’influence des besoins militaires. Comme chacun sait, la production des matériels militaires se prépare et s’exécute en temps de paix et la plupart d’entre eux sont mis en stocks d’où il vaut mieux qu’ils ne sortent pas. Mais, si le moment décisif de l’emploi est arrivé, il faut que matériels et équipements puissent servir à coup sûr, l’ennemi n’ayant pas pour habitude d’accorder des délais de grâce pour incidents techniques ou attaquant sans préavis. Encore une fois, il en était ainsi dans le passé, mais les matériels étaient relativement simples et réparables : un bon armurier muni de bonne graisse et de règlements minutieux inculqués par ailleurs aux exécutants assuraient la disponibilité du canon de 75, du Lebel, du revolver ou, même, des postes de tir. Les matériels de radio-communications ou de téléphone de campagne nés durant la guerre de 14-18 supportaient aussi des réparations avec des stocks de pièces réduits, grâce à l’astuce d’un personnel paré d’un couronne de technicien qui était plutôt celle du système D.
- La multiplication des matériels techniques, en nombre et en diversité, mis à la disposition des armées en campagne, vint modifier ce panorama. En même
- temps, leur complexité et la sévérité des cahiers des charges techniques et d’emploi augmentaient sans cesse. De ce fait, les réparations aux échelons avancés devenaient pratiquement impossibles, se limitant au remplacement de pièces accessibles comme des tubes. En même temps, apparurent des difficultés nouvelles provoquées par les conditions spéciales d’environnement durant l’emploi ou le stockage des matériels ou composants, en débordant d’ailleurs le domaine militaire. Les plus grandes surprises furent observées sous les climats tropicaux : qui n’a pas vu sortir de leurs emballages les plus beaux équipements, stockés depuis quelques mois à peine, réduits à un magma d’alumine et de sels de cuivre ne peut imaginer l’ampleur des problèmes soulevés. Et, même en exploitation soignée, les dégâts des termites sur certains supports ou panneaux, et ceux des vents de sable pénétrant dans des boîtiers réputés étanches, ont alimenté bien des cauchemars des opérateurs.
- I. EXTENSION DE L’IMPORTANCE
- DES NOTIONS DE FIABILITE
- Ainsi, les problèmes étaient bien vus, ou plutôt subis, plus ou moins suivant les domaines, mais qu’en résultait-il dans la réalité ?
- L’expérience américaine de la guerre de 40-45, dont les résultats furent dévoilés à la fin des opérations par des rapports des trois Armes, fut surprenante. Dans certaines actions de la Marine, le matériel électronique n’était opérationnel que durant trente pour cent du temps. Dans l’Armée, deux tiers à trois quarts des équipements étaient hors service ou en réparations sous les tropiques. Une étude de l’Air conduite sur cinq ans, aboutit à la conclusion que le coût des réparations et de l’entretien courant des matériels égalait dix fois celui du prix d’achat. La guerre de Corée (1950-1953) vint confirmer ces résultats.
- Ces faits conduisaient naturellement à des stocks de matériels et composants
- p.27 - vue 29/0
-
-
-
- 28
- LA FIABILITE
- comme à des besoins en personnel technique hors de proportion avec les estimations initiales et, nous y reviendrons, les composants étaient largement responsables de cet état de choses : pour chaque tube en service, il en fallait un en stock central et sept dans les échelons intermédiaires. A la fin de la guerre, il fallait pouvoir disposer, pour les remplacements, d’un technicien en électronique par 250 tubes. De même, les «réparations » des matériels consistaient le plus souvent en une localisation de la panne et le remplacement du tiroir défectueux par un autre, nouvelle cause d’augmentation des stocks et de leur complexité.
- C’est ainsi que se confirma dans les années 40-50 la nécessité d’attribuer aux produits de toute nature une qualité nouvelle, celle de leur comportement en exploitation courante ou devant des événements aléatoires dont le plus simple est un prélèvement sur un stock. Les produits ou systèmes seront dits « fiables » s’ils remplissent leur mission avec une probabilité suffisante qui mesurera cette fiabilité. Fiabilité et hasard sont indissolublement liés et nous en retrouverons ce caractère dans quelques expressions mathématiques.
- Par contre, la notion de durée ou au moins de longue durée peut devenir secondaire. Un engin ou une fusée militaires, ne servant qu’une fois, doivent pouvoir fonctionner sûrement dès le lancement, mais leur utilité se limitera à un temps réduit, allant de quelques secondes à quelques heures suivant la nature de la mission : ce sera un produit de haute fiabilité initiale, alors qu’il est éphémère. Pour assurer cette fiabilité, on pourra même être amené à pousser l’emploi de certains éléments hors des limites qui leur assigneraient une grande durée, tels que des tubes utilisant des émissions d’électrons ou de particules. Fiabilité et durée sont associées, mais n’ont pas de définition absolue: celle-ci est liée à la mission à accomplir.
- La notion de fiabilité s’est imposée de plus en plus depuis sa naissance pour diverses raisons dont les plus essentielles sont l’accroissement constant de la complexité des matériels et systèmes et l’apparition de l’inaccessibilité des équipements dans les applications qui échappent à l’intervention humaine directe, comme celles de l’espace, des océans, des profondeurs de la terre. Par nature également, les systèmes d’automatisation doivent être particulièrement fiables puisque, par définition, ils excluent l’intervention d’un opérateur.
- La fiabilité est donc devenue une discipline essentielle des comportements des matériels et systèmes et nous verrons qu’elle ne se limite pas au cadre des techniques. Elle a ses spécialistes, ses publications et ses Associations. Pour les techniciens et spécialistes, elle est devenue un sujet d’importance par ses conséquences pratiques, mais aussi par les développements théoriques auxquels il peut donner lieu, semblables, nous l’évoquerons, à ceux de la théorie de l’information. C’est ainsi que se tient annuellement aux Etats-Unis, chaque année, un symposium sur la fiabilité : celui de cette année, qui s’est tenu à Washington les 12, 13, 14 janvier a comporté 66 communications. Toujours aux Etats-Unis, des cours de fiabilité s’introduisent dans l’enseignement, spécialement des techniques et de l’économie. En 1967, 47 institutions (écoles ou universités) enseignaient la fiabilité avec les certificats de spécialité correspondants. En France, les actions dans ce domaine sont encore bien timides, mais il faudra les développer. (1).
- Ceci nous montre qu’il ne peut être question d’épuiser le sujet en une seule conférence et mon but n’est que de donner une idée des multiples problèmes posés par la fiabilité et des principes qui permettent de les résoudre.
- (1) A l’Ecole Supérieure d’Electricité, fiabilité à propos de l’intrumentation et de la
- iar exemple, six heures de cours traitent de la mesure.
- p.28 - vue 30/0
-
-
-
- LA FIABILITE
- 29
- II' — NOTIONS THEORIQUES SOMMAIRES
- Fiabilité et phénomènes aléatoires étant liés, il est certain que les éléments théoriques devront être recherchés dans le calcul des probabilités et les théories de la statistique.
- Cette constatation doit d’ailleurs s’imposer des conditions aux limites. Il est impossible de concevoir un matériel ou un système qui supportent n’importe quoi. La tenue d’un matériel devant l’événement aléatoire de sa mise en route ou de ce qui peut arriver en exploitation dépendra des conditions de l’environnement, des facteurs physiques en cause ou même de l’inexpérience du personnel. C’est là un autre caractère de la habilité que de ne pas être absolue : elle existera dans un cadre donné de contraintes et nous verrons que l’une des plus sérieuses est la contrainte économique, et que certaines de celles-ci ont elles-mêmes un caractère aléatoire.
- Dans ce cadre, il s’agit en somme de choisir dans un ensemble formant un jeu codé un groupement qui donnera le minimum de pannes, mot sur la définition duquel nous reviendrons.
- Une solution pourrait être recherchée clans la duplication des éléments les moins fiables : on reconnaît à ce sujet la notion de « redondance », familière aux théoriciens de l’information. Ainsi, la théorie de la habilité assemble probabilités, statistiques, contraintes, redondances et l’intervention d’une notion d’entropie se profile : ce sont là tous les caractères de la théorie de l’information : les deux sont similaires, avec toutefois des différences de nature dans la déhnition des probabilités dont certaines, en habilité, ne peuvent être complètement spécihées.
- Le schéma pris pour un modèle de système pourra donc être celui d’une transmission d’information (Fig. 2). La fiabilité du système est mesurée par la probabilité totale, de la transmission Ps,
- AI
- ______ Mission
- Source ____, Codage
- Décodage
- Contraintes
- Système de
- Transmissions
- Figure 2
- fonction du temps ou du nombre de cycles d’opérations dans un cadre de contraintes donné. Elle se traduira par le fait qu’un programme d’entrée assurera correctement le programme de sortie voulu. En télécommunications par exemple, la habilité du système pourra être pratiquement définie comme la probabilité qu’un message à l’entrée soit correctement interprété à la sortie. Une
- méthode serait, avec un matériel peu fiable, de répéter le message un nombre de fois suffisant : ce serait lent et peu économique. C’est pour cela que le modèle fait apparaître des symboles de codage et décodage, ceux-ci étant adaptés aux défauts du système : les techniciens des télécommunications sont bien habitués à ces principes lors de transmissions en milieu bruyant ou perturbé.
- p.29 - vue 31/0
-
-
-
- 30
- LA FIABILITE
- Ce modèle est donc proposé pour montrer que la fiabilité d’un système ne se mesure pas uniquement par celle de ses éléments matériels, mais qu’elle est fonction de sa conception.
- Il n’en reste pas moins que la fiabilité des équipements est un facteur essentiel et l’art consistera à prévoir celle de l’ensemble A jointe à celle des éléments de
- codage et décodage. Donnons-en quelques exemples qui sont loin d’être exhaustifs, mais permettront de comprendre les méthodes employées.
- Le système sera décomposé en éléments dont une association simple est celle de groupes en ligne ou en série, avec des probabilités de fonctionnement indépendantes (Fig. 3). On peut déjà
- Groupe n — (Ps.)
- Groupe 2
- Groupe 1
- Modèle série
- Figure 3
- remarquer que ces « groupes » peuvent être des ensembles matériels comme des étages d’amplification d’un récepteur ou des opérations comme les phases successives du lancement d’un satellite. Il est également possible que ce soient des éléments de nature différente : pour un avion, ce seront la cellule, les moteurs, les équipements divers, chacun pouvant être lui-même subdivisé.
- Si l’ensemble S1, S2 ... S, caractérise les événements « succès» des n éléments ou groupes, la probabilité de succès sera :
- P.(s1 S2 . . . S,) == p(s)) .. p(s„) qui traduit le fait qu’un défaut d’un élément entraîne celui de l’ensemble de manière indépendante. Dans le cas où tous les éléments sont identiques avec une probabilité de succès P. :
- P. = pn
- Le système peut être une combinaison de groupes en parallèle, ce qui est susceptible de conduire à la redondance déjà évoquée si un défaut d’un groupe n’arrête pas, au moins dans certaines limites, le fonctionnement du tout : tel
- sera le cas d’un avion à plusieurs moteurs. Le modèle représentatif est celui de la fig. 4. Dans ce cas ce sont les pro-
- Groupe n
- Groupe 2
- Groupe 1
- Modèle parallèle
- Figure 4
- babilités de défauts qui sont indépendantes et l’expression la plus simple de la fiabilité s’écrit à partir de l’ensemble des probabilités de défauts d, d2 ... d.
- p.30 - vue 32/0
-
-
-
- LA FIABILITE
- 31
- Ce sera :
- P,=— P(d, dy... d)
- = I—p(d,).p(da) ... p(d„)
- En cas de groupes identiques de probabilité de succès P
- P. - I— a — p)"
- Ceci montre par exemple que, si on n’est pas sûr de la fiabilité d’un groupe telle que 0,9, la mise en parallèle d’un groupe identique amène la fiabilité de l’ensemble à 0,99 : il reste encore un
- pour cent de chances de pannes et il faudra vérifier si le supplément de prix à payer est justifié.
- Le schéma général sera évidemment une combinaison des deux, leur distinction n’étant pas d’ailleurs toujours simple. Le découpage dépendra des rôles de chaque groupe et de ce qu’on peut connaître de leur fiabilité individuelle. Un exemple simple est donné sur la fig. 5. La fiabilité s’exprime alors par :
- P. = ? [(s) + $2),52]
- = p(s1 + $2) .p(s3)
- Modèle série parallèle
- Figure 5
- Groupe 2
- Groupe 1
- Groupe 3
- Si les trois éléments ont des fiabilités individuelles P égales, le calcul des probabilités montre que :
- Ps = 2 p2 — p3 = p2(2— p)
- Une remarque semblable à celle qui a été faite ci-dessus peut être ajoutée. Supposons que les groupes 1, 2, 3 aient une fiabilité de 0,9, une disposition en ligne de 1 et 3 aura une fiabilité de 0,81 et la mise en parallèle de 2 amènera pour le même paramètre à 0,891, soit un gain faible.
- Enfin, pour être complets dans ce survol des principes, signalons que les fiabilités des composants, éléments ou autres peuvent ne pas être indépendantes : la destruction ou le défaut de l’un d’eux peuvent entraîner ceux d’un autre (surcharges par exemple). Ceci peut être pris en considération sur des modèles.
- III. — QUELQUES EXPRESSIONS ALGEBRIQUES SIMPLES DE LA FIABILITE
- Il est souvent possible d’exprimer les coefficients de fiabilité P, p par des expressions algébriques relativement simples. La fiabilité au bout d’un temps t (ou d’un autre paramètre) pour une population initiale d’événements homogènes s’exprimera par :
- N
- F(t) = N
- N étant le nombre de survivants ou d’événements heureux sur une population initiale No. Na nombre’ de défauts est égal à : No — Ns et le coefficient X.
- _ IdNa
- N. dt
- p.31 - vue 33/0
-
-
-
- 32
- LA FIABILITE
- est appelé le taux de pannes ou probabilité instantanée de celles-ci qui peut être écrit :
- _ I dN No TF hm N, dt 5 Ns dt
- I dE
- ou =F ‘ dt
- C’est une expression générale. La relation :
- _ 1 dN._ d F(t)
- N, dt ~ dt
- est parfois utilisée : elle s’appelle densité de pannes et est égale à :
- f=)F
- Dans le cas des défauts accidentels (zone C de la fig. 1), le taux de pannes est constant et la fiabilité s’exprime par une loi exponentielle :
- F(t) = e-At N, = Nge-A
- C’est la loi classique de décroissance par événements accidentels aléatoires d’une population comme celle d’une substance radioactive.
- Au lieu du taux de pannes ), on peut utiliser son inverse qui a les dimensions d’un temps, m, appelé temps moyen entre pannes pour un élément. En effet, celui-ci est égal à :
- i=n T E 4, i—I les i étant les instants des défauts des éléments en nombre n. En expression algébrique, ce temps moyen sera donc :
- m =I / Ne—Atdt== —
- À
- Le temps est aussi celui où la population sera réduite à 1/e de sa valeur initiale : c’est la « période » d’un élément radioactif.
- Dans le cas des défauts d’usure (zone B de la fig. 1), la répartition des pannes suit une loi gaussienne ; le taux de pannes et par conséquent la fiabilité s’expriment par une expression plus compliquée puisqu’ils ne sont pas constants ; ils dépendront du moment du début to de la mission par une expression F,(, + t).
- Entre les deux (raccordement entre les zones B et C), la fiabilité aura durant la mission de durée t, la valeur :
- F(t) = e-N F,(t,+0)/F.(t)
- Une loi générale, dite loi de Weibull, assemble les divers cas suivant la valeur des paramètres de l’exposant d'une exponentielle et les figures 6 & 7 en donnent des exemples (2).
- Cette analyse amène à réfléchir sur la nature de ce qui est appelé pannes ou défauts.
- IV. — LA NA TURE DES « DEFAUTS »
- Nous avons raisonné, au moins implicitement, comme si les défauts consistaient en une destruction d’un élément ou, sa mise totale hors service : c’est une faute par tout ou rien, telle qu’une rupture de filament chauffant, un relais grillé, une destruction par les conditions climatiques, etc...
- Le défaut peut être moins spectaculaire : des éléments peuvent varier par vieillissement, échauffement, effet de radiations, et l’ensemble continuer à remplir sa mission. Les facteurs de fiabilité élémentaires p devront en tenir compte, à partir de cahiers des charges techniques dont les tolérances seront établies en sorte que l’ensemble puisse continuer à fonctionner suivant sa mission. Par exemple, dans le cas des récep-
- (2) La fonction de densité /(/) s’y exprime généralement par :
- f(t) = 3A8 t-r e-(4) 8
- à, B et t étant positifs. La valeur 3 — I caractérise la loi exponentielle ; les valeurs supérieures a 2 donnant des fonctions gaussiennes.
- p.32 - vue 34/0
-
-
-
- LA FIABILITE
- ch CA
- 8
- w
- Figure 6
- 9
- 9
- 06
- 05
- 05
- 0.3
- 8 4
- 9
- x % 6 r ‘P
- § DP o
- Ou 4 5
- Figure 7
- p.33 - vue 35/0
-
-
-
- 34 LA FIABILITE
- teurs domestiques, de radio-diffusion ou télévision, il est étonnant de constater l’ampleur des variations subies par les composants durant le vieillissement du poste avant que l’auditeur ou le téléspectateur s’aperçoivent de quelque chose. On retrouve bien là la subjectivité de la notion de fiabilité !
- Enfin, une forme de défaut qu’il ne faut pas oublier car elle est fondamentale en tous systèmes d’exploitation, est celle de la saturation d’un ensemble ou d’un sous-ensemble d’un système. Ce phénomène est particulièrement criant en ce qui concerne les communications, qu’elles soient matérielles (routes, chemins de fer, aéroports et leur espace aérien) ou les transmissions de messages (téléphone, télévision).
- Ces trois formes de défauts peuvent d’ailleurs, évidemment, coexister et leurs probabilités sont cette fois parfaitement dépendantes, mais il faut remarquer que leur association peut n’être pas « linéaire » et, en général même, ne le sera pas : ainsi un défaut technique d’une «voie téléphonique» aura des conséquences plus graves sur une voie saturée que sur une voie peu occupée, et dans de tels systèmes d’exploitation, un facteur essentiel sera celui de la fréquence des pannes en fonction du trafic. C’est encore un exemple de la subjectivité de la notion de fiabilité.
- Par exemple, la liaison téléphonique entre deux groupes A et B peut être faite
- par N trajets et le réseau sera inexploitable si n d’entre eux sont en panne et N — n saturés : c’est le cas extrême dont il faut évaluer la probabilité pour une quantité de trafic donnée. Plusieurs éléments interviendront : la probabilité de panne d’une liaison exprimée par une fonction continue du temps F/f) si tout est en service de manière continue et la probabilité Bx_n (t) que les liaisons N — n restantes au cas où n sont en panne soient saturées pour le trafic prévu. Le cas général n’a pas d’intérêt ici, mais la figure 8 donne le résultat des prévisions de blocage pour un réseau constitué par une voie ancienne installée depuis T années et une voie parallèle nouvelle, installée à l’origine du temps du diagramme, porté en abscisses. En ordonnées est portée la fonction de probabilité de blocage P(t). Cette fois c’est non pas une panne matérielle mais la probabilité qu’un candidat à l’utilisation ne pourra pas entrer dans le jeu. La probabilité de panne de la liaison ancienne est exprimée par :
- F(t) = 1 — e-A(#+T)
- et de la nouvelle par :
- F(t) = I — e-A
- À étant le même pour les deux liaisons, soit par exemple 0,005 par an, chiffre résultant des expériences d’exploitation. Si cet exemple est donné, ce n’est pas uniquement pour constater que P(t)
- o O N
- P
- 0,005
- 6
- 8 10
- 12 14 1,6
- t (années)
- Figure 8
- p.34 - vue 36/0
-
-
-
- LA FIABILITE
- W
- U”
- pour un T donné augmente à mesure que le moment de l’installation nouvelle est retardé — on pouvait s’en douter ! — mais pour montrer que ses conséquences peuvent être estimées : si par exemple la probabilité de blocage acceptable est 0,01 pour un trafic donné (3) —• avec encore une définition toute relative, par exemple celle de protestations ou d’une campagne de presse ! — la nouvelle liaison ne calmera les esprits que durant un an si l’ancienne en a 10 !
- V. — LES COMPOSANTS
- Il est bien clair que le nombre de pannes d’un matériel ou d’un ensemble de matériels groupés en un système dépendra de la fiabilité des composants, ce terme englobant les éléments du système qui peuvent eux-mêmes être complexes. Il couvre donc un domaine très diversifié : composants actifs, passifs, relais, connexions. La fiabilité, à qualité de composants égale, diminue à mesure que le nombre de composants augmente et, inversement, pour obtenir une fiabilité donnée, il faut que celle des composants augmente en conséquence : cette remarque simple explique les faits relatés au paragraphe 2 et pourquoi les exigences de systèmes modernes comme les calculateurs ou les systèmes de lancement des satellites ont fait faire des progrès indispensables et considérables aux composants et aux matériaux.
- C’est dans ce domaine qu’on trouve toutes les variétés de pannes possibles évoquées au paragraphe 1, par défauts de jeunesse, accidentelles ou usure. Les premières doivent être évidemment éliminées au mieux et c’est en tout cas indispensable pour les matériels de haute technique (télécommunications, matériels militaires ou inaccessibles comme ceux des satellites) ou de sécurité. Si leur production n’arrive pas à les élimi
- ner complètement, une méthode consiste à leur faire subir des essais de durée avant emploi, éliminant la période A. Nous supposerons donc par la suite que les défauts de jeunesse sont éliminés.
- Restent donc les défauts accidentels et d’usure. Dans les matériels de haute technique évoqués, l’art du constructeur est de reculer le temps de vie T (cf n° 1) au-delà du temps de la mission ou des missions si bien que sa fiabilité est, en fait, définie par la fiabilité accidentelle, exprimée par la loi exponentielle (4) avec un coefficient de taux de panne X (ou le temps m) : ce sont donc ces coefficients X ou \m qui vont être le plus utilisés par la suite.
- La figure 9 donne la variation du temps moyen m entre pannes en fonction du nombre de composants aux environs de 1965 ; on constate qu’à cette époque, malgré les progrès déjà réalisés dans le domaine des composants, le temps moyen entre pannes pour un système d’engins était encore faible (80 heures environ) à cause du grand nombre de composants nécessaires, près de dix millions.
- Le tableau de la figure 10 donne quelques exemples de fiabilités réclamées pour des composants suivant leur destination. Les tubes électroniques utilisés vers 1950 avaient des valeurs de X environ 10—4 plus fortes et dépendaient largement de leur charge. Les tubes de récepteurs de câbles immergés nécessitaient déjà dès 1950 des vies plus longues — dix ans — montrant que les besoins des communications ont été à l’origine de la plupart des progrès de la fiabilité : elles continuent à en être un moteur essentiel avec les satellites.
- Le programme « Minute man » a été évoqué car il a été le premier parmi ceux qui sont connus à exiger de vastes développements technologiques, mais il est déjà dépassé par les exigences de
- (3) Cet exemple est tiré du « I.E.E.E. transactions on reliability » de février 70, page 36.
- La capacité du système se mesure en erlangs.
- p.35 - vue 37/0
-
-
-
- C.o C.
- LA FIABILITE
- T M P
- (2)
- 100000
- 10 000
- 1 000
- 100
- b
- de
- Nombre de composants
- (IEEE 1 9 65)
- 1 Matériel professionnel a/Communications VHF b/Aviation civile
- 2 Premier programme de’haute fiabilité" c/Communications : matériels d/Engin (missile)
- 3 Premier matériel au sol du MINUTEMAN
- Figure 9
- l’informatique. Les premiers calculateurs à tubes électroniques, énormes usines consommant des centaines de kilowatts avaient une fiabilité faible, condition fâcheuse pour un instrument mathématique ; cependant leur rapidité était modeste : l'Illiac I (1952) était capable de 11 000 opérations arithmétiques alors que l’Illiac IV (1970) peut exécuter 100 à 200 millions d’instructions par seconde et comporte plus de six millions de composants. Ces réalisations n’ont été rendues possibles que par l’apparition des semi-conducteurs, de
- composants et de techniques nouveaux non seulement à titre individuel mais dans les méthodes d’assemblage. Cependant, dans un tel appareil, à l’heure actuelle, on doit s’attendre à un défaut de composant ou de connexion par quelques heures seulement et il faut donc surveiller constamment l’appareil. On estime actuellement que, malgré les progrès énormes accomplis, il faut encore en informatique améliorer d’un facteur dix les coefficients «X» de la plupart des composants.
- p.36 - vue 38/0
-
-
-
- LA FIABILITE
- 37
- Nature du Composant
- Condensateurs papier
- Condensateurs au tantale solide
- Condensateurs tantale en. feuille
- Condensateurs en Verre
- Résistances
- Carbone massif
- Résistances à couche de carbone
- Résistances à fil
- Pour MINUTEMAN(1962)
- 108
- 3,5.10-8
- 4 . 108
- 8. 10-10
- 10*9
- 1,8.10-9
- 7.10-9
- Applications" Ordinaires”
- (1962)
- 10 8
- 6.10-8
- 9.10-8
- 7.10-9
- — N
- 00 00 m
- 99 9
- N 0 to
- Espace (1965)
- 10
- 9
- 2.4.10
- 9
- 2. 4.10
- 10 8
- Transistors 1à3.10-8 10-6 10 8
- Diodes 2.10 a 10 3.10 7à 10 4 5.10 9
- Comparaisons des d exigés pour divers composants en (heures)"
- Tableau extrait de M L Shooman Probabilistic
- Figure 10
- Lorsqu’il est question de composants, il ne faut pas s’arrêter à ceux que les techniciens ont tendance à considérer comme « nobles » : tubes, transistors, condensateurs, résistances... D’autres problèmes de montage se posent dont les plus difficiles ont été soulevés par les soudures et les connecteurs.
- Les soudures ont longtemps hanté les cauchemars des constructeurs, car leurs défauts étaient difficiles à mettre en évidence même après des contrôles sévères : les «soudures froides » à apparence parfaite et amenant de mauvais contacts en durée, les pâtes à souder non neutres corrodant les métaux en atmosphère humide... tout a été vécu et on ne compte plus les méthodes propres à détecter les mauvaises jonctions, si bien que l’usage des connexions soudées a été généralement abandonné pour le serrage ou le sertissage, mais, là encore, il a fallu beaucoup d’études et de patience pour sortir des difficultés.
- Il en a été de même pour les connecteurs de toute nature. Ces pièces ont été à l’origine de bien des soucis des cons-fructeurs de matériel et des exploitants, notamment en matériel aéroporté, dans la multitude de leurs emplois : qui ne se souvient des ennuis provoqués par les supports de tubes et les broches de ceux-ci, comme de ceux des fiches de raccordement ou même des prises des lampes d’éclairage ou de récepteurs. Or, elles présentent des caractères spéciaux : leur fiabilité propre ne peut pas être définie par une probabilité de vie en exponentielle () constant) elles sont destinées à être démontées et c’est plutôt leur résistance à la modification de leurs contacts qui compte. Elles ont également: le caractère que leurs parties actives sont accessibles à la manipulation des opérateurs que ce soit en fabrication, en essais ou en exploitation, lesquels sont parfois loin d’avoir des « mains de fée ». En même temps, comme la plupart des
- p.37 - vue 39/0
-
-
-
- 38
- LA FIABILITE
- pièces modernes, elles ont dû être miniaturisées, ce qui a accru d’autant la fragilité des broches et de leurs liaisons avec leurs câbles de connexions ; et encore faut-il qu’ils soient normalisés rigoureusement. Toutes ces qualités doivent se maintenir en vibrations dans des conditions de fonctionnement anormales, par exemple en température ou humidité. Là, leur qualité est ainsi plutôt définie par des lois de densité de probabilité d’usure, qui en donnent une estimation. Or, il y a encore quelque 100 000 points de contact dans un calculateur important ! On comprend ainsi que, en matériels de technique évoluée, seuls des constructeurs spécialisés aient pu aboutir à des résultats convenables mais au prix d’immenses efforts de recherche et de technologie. L’étude des contacts et de leurs matériaux a notamment été longue, aucun «contact» ne ressemblant à un autre: ceux des connecteurs destinés à supporter l’arrachement différent de ceux des relais. On peut dire que les progrès ont été dus à des formes nouvelles garantissant en toutes occasions un fonctionnement franc et indépendant des contacts, et, spécialement, à des matériaux nouveaux, non seulement pour les broches mais aussi pour les isolants. Certains thermoplastiques supportent 180 et 200 degrés. L’ensemble de ces problèmes, qui aurait pu être considéré comme mineur à fait faire des progrès considérables à la métallurgie et à la chimie et offre un exemple caractéristique de progression de vastes technologies sous l’effet de besoins apparamment modestes. Il reste encore beaucoup à faire en galvanoplastie qui pourrait être une technique de choix pour le traitement des surfaces des broches, si cette discipline arrive à connaître exactement ce qu’elle fait.
- En France, des progrès considérables ont été réalisés dans les connecteurs grâce à des entreprises dynamiques qui ont su aborder les difficiles problèmes et conquérir des positions mondiales, mais le sujet est loin d’être épuisé : la S.F.E.R. vient de consacrer une journée
- d’études au seul problème des connexions.
- On peut concevoir que l’estimation de la fiabilité de systèmes aussi complexes avec des composants très divers n’est pas aisée et que les calculateurs électroniques en sont un outil indispensable. Cet exposé a, encore une fois, pour seule ambition de faire saisir les principes généraux qui guident les ingénieurs en ce domaine. Pour partir d’un exemple simple, envisageons une mémoire magnétique à noyaux composée d’une gaufre de 100 X 100 éléments : si la fiabilité d’un tore est p (cf. n°s 3 et 4) et, si toutes les intersections sont utilisées dans un calcul, la fiabilité de la mémoire sera p. 10~4 et, si on veut une fiabilité de calcul définie par un coefficient )', celui-ci sera 104 fois plus élevé que celui des tores X:
- X' — 104.)
- La fiabilité des tores devra être de quatre ordres de grandeur supérieure à celle de la fiabilité réclamée pour l’ensemble : si on n’accepte qu’une erreur sur mille calculs, le coefficient de fiabilité des tores devra être au plus de 10—7.
- En généralisant pour une série de n composants dont la fiabilité peut s’exprimer par la loi exponentielle en At, le temps moyen entre pannes sera :
- M
- II >
- Si tous les composants ont des X égaux ou voisins :
- M= —— A (svstème) = nX
- nX
- Si les n composants sont identiques et en parallèle la fiabilité est :
- 1 -[P(d)]n
- Dans le cas de deux éléments 71 et X2 la fiabilité est alors donnée par :
- F — 2e—\t______. e—2At
- p.38 - vue 40/0
-
-
-
- LA FIABILITE
- 39
- avec un temps moyen entre pannes de :
- au lieu de -— comme dans le montage série : celui-ci est donc le plus mauvais, comme il fallait s’y attendre, dans un rapport 3. Ceci permet d’estimer l’intérêt économique de remplacer un groupement de pièces en série par une association en parallèle de composants ayant les mêmes caractéristiques totales, pai-exemple la même impédance.
- L’expression générale du temps moyen entre pannes de l’association de pièces en parallèle de n composants identiques, est:
- *-+*++
- Pour terminer ce chapitre sur les composants, il faut évoquer le cas inverse de la population d’éléments simples utilisés tels quels : ce sera par exemple le cas de lampes d’éclairage. Dans ce cas, c’est plutôt la durée moyenne de vie qui compte, avec une répartition gaussienne des défauts par usure.
- VI. — LES CONTRAINTES
- Il a déjà été remarqué qu’une fiabilité absolue ne peut exister, mais qu’elle est déterminée en fonction des contraintes imposées aux missions à exécuter.
- Les définitions de ces « conditions aux limites » sont variées, depuis des données précises jusqu’à un «environnement» d’événements attendus aléatoires ou d’événements imprévisibles.
- Parmi les contraintes précises, se trouvent les données de températures, humidité, pression, vibrations, etc... celles-ci traduiront leurs effets par leur influence sur les coefficients de fiabilité comme ).
- Il faut réfléchir sur les contraintes imprécises, car elles conduisent d’une part à remarquer déjà que la notion de
- fiabilité ne se limite pas aux domaines techniques, et, d’autre part, à ce que la recherche de l’accroissement de la fiabilité ne se borne pas à la constitution des matériels, comme ce qui précède pourrait le laisser penser : il peut être acquis aussi par la conception des matériels eux-mêmes ou par les principes qui gouvernent la mission à remplir, en somme ceux du « système » à employer.
- En tête des contraintes naturelles aléatoires, figure le bruit de fond de tous les phénomènes physiques. La fiabilité d’un système de communications dépend de l’action de ce bruit et les techniciens des télécommunications sont habitués à reculer ses limites non seulement par l’emploi d’éléments appropriés, mais par des codages ou décodages spéciaux. Nous prendrons ici un exemple malheureusement plus courant, celui de la circulation automobile et de ses accidents. Les constructeurs cherchent bien à 'augmenter la fiabilité de leurs voitures à ce point de vue, mais quelles sont les conditions du problème ? La probabilité des accidents est analogue à celle des chocs dans la théorie cinétique des gaz : lorsque la pression et (ou) la température augmentent, le nombre de chocs entre les molécules croît et il n’y a rien à faire là contre : pour les voitures, la pression est rempacée par leur nombre et la température par la vitesse. Nous n’y pouvons rien à cet égard et la Tégularité des chiffres d’accidents durant les week-ends ou les vacances le montre. Si on se rémémore sa (carrière automobile, on y retrouve soit, hélas, des accidents, soit certainement quelques cas où ceux-ci ont été évités de très peu, en temps se chiffrant en dizièmes de secondes. On peut modifier légèrement le nombre d’accidents par l’adaptation des routes, les règlements de police, la façon de conduire : ces derniers correspondraient plutôt à la période A de la figure 1, mais les autres sont dans la période C et les facteurs extérieurs évoqués ne modifient que la valeur de X ; les constructeurs, s’ils veulent des voitures réellement fiables au mieux doivent tenir compte de ce facteur inéluctable,
- p.39 - vue 41/0
-
-
-
- 40
- LA FIA BILITE
- D’autres contraintes prévisibles se rencontrent dans l’action de phénomènes physiques. Les spécialistes des radio communications les connaissent bien avec les variations des propriétés des couches ionisées de la haute atmosphère en fonction de l’heure et des saisons ou des liaisons en hyperfréquences par tropodiffusion dont la habilité est assurée par un choix automatique des fréquences et la duplication des stations.
- Les contraintes qui résultent d’une volonté délibérée d’empêcher un système de remplir sa fonction normale sont évidemment plus difficiles à maîtriser puisqu’elles sont conçues pour ne pas l’être. Ce sont par exemple les destructions ou les brouillages imposés par un ennemi. En communication, pour aller d’un point à un autre (fig. 11) une liaison étant détruite, les relations pourront
- Figure 11
- B
- L N
- être maintenues par d’autres et le problème général est de déterminer le réseau reliant n points qui sera économiquement le meilleur en cas de destruction de 1 à p liaisons : c’est un beau cas d’application de la théorie des réseaux avec analyse combinatoire, mais la habilité optima du système mutilé dépendra aussi de la méthode employée: la S.N.C.F. l’a bien expérimenté dans les années 40 à 45, la habilité souhaitée étant nulle ou maximum suivant les cas !
- En télécommunications, les matériels et systèmes doivent être conçus pour surmonter au mieux les brouillages prévisibles. C’est ainsi que dans le domaine des radars de nombreux systèmes " anti-brouillages » ont été conçus, l’un d’eux employant une fréquence aléatoire pour
- les ondes assurant la détection ; les systèmes autoguidés doivent naturellement être munis de tels dispositifs.
- Il y a cependant des cas où le brouillage peut être absolu, rendant nulle la habilité du système. A cet égard, les satellites de télécommunications géo-stationnaires sont particulièrement vulnérables : en effet, leur immersion dans un milieu ionisé ou composé d’éléments métalliques peut interdire la propagation au voisinage du satellite et sa duplication par un autre serait soumise aux mêmes facteurs. Dans de tels cas, il faut changer de système en prévoyant soit un réseau de satellites mobiles, soit des câbles qui, une fois encore, apparaissent comme le système le plus fiable en télécommunications.
- Enhn, les contraintes peuvent survenir du fait d’événements dont la probabilité n’a pu être calculée, soit qu’ils soient trop rares, soit que leurs effets ne peuvent être estimés : c’est le cas de diverses catastrophes naturelles. En telle matière, s’il y a une cainte plus ou moins précisée, il faut soit doubler les éléments constitutifs du système, au moins dans ses parties fragiles, soit concevoir les éléments au mieux pour garder leur fiabilité, ce sera par exemple le cas des constructions d’immeubles dans les pays à tremblements de terre.
- VIL — LA MESURE DE LA FIA BILITE
- Ce problème pour un système donné est, pour un temps moyen entre pannes souhaité mu, de mesurer le temps moyen ni, réel et de fixer un minimum acceptable en fonction de la technique du moment. La première condition est de se placer dans les conditions de contrainte de la mission à assurer. Il en résulte une série d’essais, soit séquentiels (durées variables), soit par temps hxés. Ceci conduit à des théories mathématiques complexes pour évaluer le temps
- p.40 - vue 42/0
-
-
-
- LA FIABILITE
- 41
- nécessaire à la décision. Evoquons seulement le cas des composants (4).
- Nous avons acquis la notion qu’une première approximation de la spécialité d’un système complexe peut être estimée à partir des fiabilités de ses composants ou de ses ensembles, problème ardu qui doit faire appel aux calculateurs. Mais cela suppose qu’on connaisse avec une approximation suffisante ces fiabilités élémentaires. C’est là un problème qu’on pourrait intituler « inverse » puisqu’il s’agit de dégager une loi à partir de N expériences de succès (ou de défauts) sur un type de pièces déterminé. On retrouve là une application des théories des statistiques où les calculateurs devront encore apporter leurs moyens. A priori, les éléments de la statistique pour un élément sont simples puisqu’on les met en durée dans des conditions bien définies, celle de l’exploitation ou plus sévères, on mesure les temps de fonctionnement depuis le début de l’expérience jusqu’à l’apparition d’un défaut, sur un nombre suffisant d’échantillons, on peut en déduire le temps moyen entre pannes et en dériver des fonctions de densités de pannes ou de vitesse de leur nombre. En fait, les phénomènes sont plus compliqués, car les défauts peuvent être d’origine diverse, le nombre d’essais n’est pas infini et, à mesure que la qualité augmente, la durée nécessaire pour les essais augmente. La question matérielle, une fois bien classés les défauts, est de savoir combien d’essais doivent être faits en estimant l’erreur encourue du fait qu’ils ne sont pas en nombre infini, et, comment analyser les données. Les erreurs, c’est-à-dire l’écart de la valeur réelle de la fiabilité, seront en 1/VN. Une estimation du pourcentage d’erreurs sur la probabilité de défaut peut être tirée de la théorie des jeux par une expression simple :
- e % == 200
- 2
- p étant la probabilité de succès cherchée. Les courbes de la figure 12 donnent une représentation de cette formule. Il faut en retenir que le nombre d’essais nécessaires pour obtenir une estimation même approchée d’une probabilité de composants peut être élevé, surtout lorsque les pièces sont bonnes, ce qui est le but cherché, puisqu’il faut étudier des populations pouvant s’exprimer en centaines de mille.
- On aboutit ainsi dans ces mesures sur les composants de très haute fiabilité, tels que ceux destinés aux applications spatiales, à un paradoxe puisqu’il s’agit d’observer statistiquement des événements qu’on cherche à éviter ou à éliminer. C’est d’autant plus gênant que les composants en cause peuvent avoir peu de débouchés lorsqu’ils sont très spécialisés. La tendance est alors d’étudier plutôt la fiabilité physique des matériaux et méthodes de production : c’est en quelque sorte une détermination a priori par étude des facteurs physiques de constitution ; en physique du solide, c’est actuellement possible (5).
- La tentation est évidemment de tenter de mettre au point des méthodes de lest accélérées avec surcharge des pièces par rapport à leurs conditions normales d’emploi et d’en tirer par une loi à déterminer les valeurs propres à ces dernières. En fait, la valeur des résultats ainsi obtenus, sauf peut-être pour les tubes électroniques, est très aléatoire et leur « fiabilité » est elle-même rarement acceptable.
- Enfin, il est clair qu’en dehors de contraintes définies, la fiabilité ne pourra le plus souvent qu’être estimée puisqu’il s’agit d’un « jeu » dont les règles sont inconnues.
- (4) On trouvera un, article récent de Dorléans, Ligeron et Grange (Matra) sur ces essais dans 1’« Onde électrique » d’avril 1971.
- (5) Cf. à ce sujet une étude importante du C.N.E.S. à propos du programme Concerto (Toulouse, 13-11-69, Girard et Gadoin).
- p.41 - vue 43/0
-
-
-
- 42
- LA FIABILITE
- Pourcentage d erreur dans la probabilité de
- 0.99
- Probabilité de succès (fiabilité) p
- 0.9 0
- 30
- 20
- 10
- 0,01
- FIGURE 12
- 1
- 01 Probabilité de faute
- N : nombre d'essais
- 60°
- o b o —
- VIII. — CONTROLE DE LA FIABILITE D’UN SYSTEME. ROLE DES
- OPERATEURS HUMAINS
- La fiabilité d’un système doit être autant que possible vérifiée, d’autant plus sévèrement lorsque des questions de sécurité se posent. Tel est par exemple le cas d’un radar de navigation pour avions volant bas : c’est une nécessité pour des appareils militaires cherchant à échapper aux radars de surveillance de l’ennemi. Dans ce cas, le radar fournit au pilote un programme d’instructions de vol tenant compte du profil géog raphique du sol dans son entourage et celles-ci dépendent de l’altitude de l’avion, de sa vitesse et de ses caractéristiques aérodynamiques. Les instructions peuvent conduire à un vol automatique. Si l’appareil tombe franchement en panne, c’est malheureux, mais il n’y a encore que demi mal, le pilote pouvant espérer reprendre l’avion en mains. Mais, un défaut plus pernicieux peut ré
- sider dans une dérive de l’instrument, le défaut d’un seul composant de sortie... etc... et, sans autre moyen, le pilote pourrait ne pas en être averti, avec les conséquences qu’on imagine. C’est ainsi que le fonctionnement de l’appareil est automatiquement vérifié par des impulsions d’interrogation séquentielles et apparition d’un signal d’alerte en cas de défaillance d’une des fonctions interrogées. La cadence des interrogations est adaptée à la nature de l’appareil et de ses missions.
- Les mêmes principes valent pour un système complexe comme des lancements et exploitation des engins aérospatiaux, surtout si ceux-ci sont habités. Dans le cas d’un calculateur important, tel que l’Illiac IV déjà mentionné, des dispositifs ou dispositions surveillant également les ensembles essentiels de l’appareil (traitement des données, mémoires) et on peut instantanément isoler le groupe défectueux et le remplacer par un groupe de rechange. L’ensemble
- p.42 - vue 44/0
-
-
-
- LA FIABILITE
- 43
- fautif est alors soumis à l’examen d’un « calculateur de diagnostic » qui, détermine la cause de la panne et si celle-ci risque de se reproduire plus fréquemment que ne l’indiquent les prévisions de fiabilité.
- La plupart de ces systèmes de vérification sont donc à base d’éléments automatiques et de calculateurs, mais il faut encore observer que la fiabilité ne peut être absolue, car ces appareils de contrôle sont eux-mêmes susceptibles de pannes : leur fiabilité n’est pas de cent pour cent. Cela rappelle le rôle du gardien qui surveille un autre gardien : c’est un bel exemple de « redondances » qui devra être largement utilisé dans les systèmes de contrôle.
- On pourrait également imaginer que ces systèmes ont les moyens de corriger eux-mêmes les défauts observés, notamment dans les équipements inaccessibles comme ceux d’un satellite : cela nécessite aussi une certaine redondance dans les équipements d’exploitation eux-mêmes et des résultats ont été obtenus à cet égard dans les premiers satellites de communications. Mais, là aussi, il est clair qu’une « auto-correction » absolue ne peut pas être totale.
- Ceci amène naturellement à examiner le rôle des opérateurs humains dans l’obtention ou le maintien d’une fiabilité. L’intervention première, celle qui a toujours existé avant même l’apparition du mot, est la réparation de l’appareil ou le remplacement des éléments d’un système individuellement accessibles. Lorsque c’est encore possible, ce sont les considérations économiques qui permettront de décider si et comment ce système d’entretien peut être utilisé. Il est inévitable lorsque l’exploitation se traduit par une usure systématique des pièces : c’est par exemple le cas de lampes d’éclairage ou de rails de chemin de fer. Le problème qui se pose alors est de déterminer à quel moment effectuer le remplacement ; toutes à la fois, pièce par pièce à mesure de leur mise hors service ou systématiquement toutes à la fois à l’approche de la durée moyen
- ne de vie : on peut montrer que cette dernière façon d’opérer est la plus économique dans le cas des lampes d’éclairage d’un voie publique ou du métro ; si des notions d’esthétique interviennent, cette méthode globale est inutilisable, autre exemple de la subjectivité de la notion de fiabilité.
- Les réparations deviennent impossibles par opérateurs humains lorsque les matériels sont inaccessibles et nous avons vu que leurs abus ont conduit durant la guerre de 39-45 à imposer la notion de la fiabilité. Or, il apparaît que plus un appareil ou un système sont fiables, plus les réparations en deviennent délicates sinon impossibles. Les matériels sont en effet conçus pour éliminer le rôle du réparateur, ramené le plus souvent à localiser les défauts et remplacer le bloc défaillant par un autre. Un autre exemple de cette espèce d’invariance du produit fiabilité-possibilité de réparations se trouve dans l’automatisme ou, en général, le calcul électronique, les réparations locales d’un défaut étant à proscrire par leurs conséquences.
- Ainsi, le rôle du réparateur devient non seulement indésirable, mais impossible.
- Mais sur un autre plan, l’opérateur humain reprend son intérêt et, même, devient irremplaçable lorsque la probabilité des défauts ou contraintes est elle-même imprévisible : ce sera d’autant plus nécessaire que la sécurité des opérateurs sera elle-même en jeu. On peut dire à ce sujet que l’opérateur humain exercera sur l’exploitation un contrôle susceptible de s’adapter aux circonstances imprévues lors de la détermination théorique de la fiabilité : c’est en somme une intervention en général redondante, mais nécessaire en cas de «coup dur» totalement aléatoire. L’espace en apporte des exemples typiques. L’exploration spatiale peut se faire soit par des sondes ou engins conduits automatiquement de la terre, ou par des cabines habitées. Dans le premier cas,
- p.43 - vue 45/0
-
-
-
- 44
- LA FIABILITE
- c’est un problème d’automatisme : la sonde n’est pas réparable et le système au sol doit être aussi fiable que possible, avec des opérateurs humains dont le rôle, pour important qu’il soit, n’a pas de conséquences dramatiques : ils ont à exploiter le système au mieux en fonction des informations reçues de l’espace ou des défaillances observées.
- Il n’en est pas de même lorsque des vies humaines sont en jeu : l’aviation en est un domaine évident où les pilotes humains sont encore indispensables, alors que, théoriquement, les vols pourraient être entièrement automatisés. Un domaine actuel est celui des engins spatiaux habités. L’action des astronautes est alors essentielle, quelle que soit la fiabilité escomptée pour le système : c’est un peu l’application du vieil adage : « On n’est jamais si bien servi que par soi-même » et l’exemple dramatique d’Apollo 13 l’a bien montré. Il est intéressant de signaler à cet égard l’évolution des principes américains dans ce domaine. Le premier système (Mercury) faisait appel à un seul astronaute, chargé de contrôler l’attitude de la cabine sur sa trajectoire et les paramètres de rentrée vers la terre ; des fautes des systèmes de contrôle amenèrent d’ailleurs souvent l’opérateur à reprendre en mains la conduite de l’engin. C’est ainsi que l’expérience montra qu’avec les données techniques du moment, deux opérateurs étaient nécessaires et ce furent les systèmes Gémini, compliqués d’ailleurs par des missions de changement d’orbite et de rendez-vous dans l’espace. Le rôle des opérateurs ne se limita plus à des reprises en mains de l’engin, mais ils eurent la possibilité de choix entre diverses solutions, soit en vol normal, soit au moment du retour : on se rappelle peut-être que, durant l’une des missions Gémini, l’engin se mit à rouler sur lui-même de manière incontrôlable automatiquement, et le défaut ne put être corrigé que ])ar l’intervention des opérateurs, laquelle se traduisit d’ailleurs par une consommation anormale de combustible et le retour prématuré de l’engin, mais le système avait pu être repris
- par cette redondance laissée aux capacités d’adaptation humaine.
- Pour les missions Apollo, on sait que le nombre d’opérateurs humains est de trois, mais ce choix n’a pas été uniquement dicté par des considérations de fiabilité, la nature des missions y ayant aussi joué un rôle. L’expérience du retour d’Apollo 13 a pourtant montré que les opérateurs n’avaient pas été trop nombreux.
- Un autre exemple complet de la nécessité de l’intervention d’un opérateur humain se rencontre en médecine ou chirurgie. Les appareils destinés à relever les mesures propres à déterminer le diagnostic doivent déjà présenter une triple fiabilité : ils doivent donner des chiffres sûrs, être sans danger pour le patient et pour l’opérateur. Les deux premières conditions ne sont pas toujours faciles à obtenir, par exemple dans l’exploration d’un cœur. Mais, même ainsi, la sûreté du diagnostic devant les éléments recueillis dépendra encore de l’expérience et de l’intuition du praticien.
- On peut enfin ajouter à cet aperçu sur le rôle des opérateurs humains dans la habilité d’un système sur la nécessité de contrôler celle de l’opérateur lui-même. Cela peut se traduire par l’emploi de deux opérateurs en parallèle, ce qui est la redondance la plus simple, soit par un contrôle, soit par une opération automatique simple comme celle du conducteur des trains rapides par action pério-dique sur une pédale.
- IX. — LES CONTRAINTES ECONOMIQUES
- Tout ce qui vient d’être dit montre que la recherche et la mesure de la habilité, comme les moyens à mettre en œuvre pour obtenir une valeur élevée de celle-ci, coûtent cher et la question est toujours la même : jusqu’où faut-il aller et le jeu en vaut-il la peine ?
- p.44 - vue 46/0
-
-
-
- LA FIA BILITE
- 45
- Les Américains eux-mêmes ont acquis la conviction qu’ils étaient allés trop loin dans la recherche de la perfection et les tristes expériences de l’incendie de la cabine d’Apollo 1 (28 janvier 1967) où trois astronautes périrent brûlés et celle d’Apollo 13 (11 avril 1970) où l’explosion d’un réservoir probablement due à un mauvais assemblage (6) ont montré que les études les plus minutieuses ne pouvaient tout prévoir, même lorsque des vies humaines sont en jeu. C’est là l’intervention d’événements dont la probabilité ne peut être estimée et dont la prévention coûte ainsi un prix lui-même inestimable : la habilité absolue ne peut exister car son coût serait infini.
- Une évaluation totale de l’intérêt d’un accroissement de la habilité d’un matériel ou d’un système comporte de nombreux facteurs : du côté dépenses, le coût du perfectionnement qui peut conduire à de nouveaux matériels dont le poids, l’encombrement seront peut-être différents et amener à une exploitation nouvelle. En balance devront être mis les frais d’entretien, de réparation, les conséquences des indisponibilités et sur la sécurité (Espace, système de guidage...), la dépréciation de la marque et ses conséquences sur le marché... L’estimation de la valeur de la habilité doit donc réaliser le tour de force d’exprimer en termes précis (monétaires) des influences qui ne le sont pas dans leur ensemble !
- Par contre, en ce qui concerne les composants, on n’insistera jamais assez sur les conséquences d’une habilité mauvaise ou insuffisante : on peut calculer ce que coûtera l’accession à la habilité, mais ce qu’ont valu les défauts de habilité des composants ne peut être estimé, si ce n’est que ce fut énorme, et cela dans tous les domaines, spécialement en France : on pense évidemment aux matériels électroniques divers, mais
- les dégâts ont été importants aussi en automobile, en matériel domestique, petit matériel électrique.
- On peut affirmer, à la lumière d’expériences parfois cruelles que la meilleure politique en composants est d’abord de rechercher la habilité la plus grande, en se fixant un plafond raisonnable par rapport à ce qui existe ou plutôt pourra exister quelques années en avant : c’est là le choix difficile puisqu’encore unie fois la perfection est inaccessible et de plus il faut laisser une marge dans les conditions d’utilisation. C’est à partir de ce résultat que des méthodes de développement et de fabrication doivent être étudiées pour avoir le prix minimum de pièces ou de groupes de pièces. C’est ainsi qu’ont été en particulier réalisés les progrès spectaculaires constatés sur les semi-conducteurs, les circuits fagots, les circuits intégrés, et, en général la microélectronique.
- Il est certain qu’en tous domaines les progrès futurs de la fiabilité sont encore essentiellement basés sur ceux des composants et de leurs méthodes d’assemblage. i
- X. — REPERCUSSIONS DES EXIGENCES DE LA FIABILITE SUR LA CONCEPTION DES MATERIELS ET DES SYSTEMES ET SUR LES METHODES DE PRODUCTION
- Il n’est pas surprenant que la recherche d’une habilité élevée ait profondément marqué la conception, la production des composants et des matériels, ainsi que leur assemblage en systèmes d’exploitation : d’aval en amont, chaque étape en a subi l’effet depuis les matériaux jusqu’aux méthodes d’association et d’emploi.
- Du côté de la conception, nous avons déjà remarqué que, plus un matériel
- (6) On vient d’en avoir un autre gré toutes les précautions prises et la
- exemple avec l’échec du lancement de Mariner 8 malconclusion dramatique des essais Soyouz.
- p.45 - vue 47/0
-
-
-
- 46
- LA FIABILITË
- est fiable, plus sa réparation lors de ses pannes, devenues très rares mais encore possibles, est difficile. On peut ajouter qu’elle n’est pas souhaitable : le montage, les mesures et les contrôles qui le suivent nécessitent des outillages et équipements spéciaux et, en telle matière, il n’y a rien de plus dangereux que le fer à souder ou la clef à molette de nos pères. Le matériel et les systèmes qui l’emploient doivent donc être conçus par ensembles facilement explorables par des mesures de tests et remplaça-bles par blocs ou tiroirs. La conception des matériels sera donc celle d’un assemblage de fonctions plutôt que de composants pris individuellement, la division se faisant suivant les prix à atteindre et les cahiers des charges techniques. C’est ainsi que, dans les matériels soumis à de dures conditions d’environnement, les composants sont noyés dans des blocs assumant une fonction. Au passage, remarquons encore le rôle essentiel des connecteurs dans une telle conception.
- Pour les matériels inaccessibles, la seule solution est de prévoir la duplication des éléments susceptibles de s’user ou dont un défaut amènerait une perturbation inadmissible. C’est le cas des câbles téléphoniques à amplificateurs immergés où les tubes étaient systématiquement doublés ; il en est naturellement de même dans les satellites de télécommunications. Ceci suppose évidemment que les défauts de jeunesse des composants en cause sont éliminés.
- En production, la remarque essentielle est que, pour les produits de haute technique, on se trouve à l’opposé des conceptions anciennes suivant lesquelles fabrication de série et mauvaise qualité étaient synonymes puisque, seuls, les tours de main et le fignolage d’un ouvrier aux habitudes souvent ancestrales pouvaient assurer la valeur de l’œuvre. En écartant naturellement les domaines de l’art et de réalisations personnalisées, la fiabilité des produits modernes ne peut être atteinte que par des productions de série avec leurs équipements
- de montage et contrôle seuls capables de satisfaire aux limites des cahiers des charges. L’automatisation est également un facteur d’accroissement de la habilité par ses exigences sur les matériaux, les composants et la rigueur des méthodes de production : encore faut-il qu’elle soit elle-même fiable, ce qui n’est pas toujours le cas lors d’intervention de facteurs mal connus. Ces remarques expliquent pourquoi, en production modernes, les prototypes ou les premiers appareils sont bien moins fiables que ceux de la série : la longue période appelée développement est largement consacrée à résoudre ces problèmes de fiabilité. L’individualité de la main-d’œuvre n’est cependant pas totalement éliminée, son rôle se déplaçant vers les outillages et équipements de la production.
- Sur le plan technique, nous avons donc souligné la nécessité d’une noria entre les progrès des éléments d’entrée dans la chaîne et les exigences de la sortie, notamment pour les composants. Mais les exigences ne s’arrêtent pas là, elles s’imposent aussi à l’environnement de la production, spécialement encore pour les pièces détachées : salles climatisées, dépoussiérées, éloignement de contaminations... à la façon des produits biologiques. Un exemple vécu permettra de mieux comprendre à quels problèmes se trouve exposé le producteur de composants hautement fiables : c’est celui, vers 1956 des tubes pour répéteurs immergés. Il faut pouvoir garantir des durées de fonctionnement sans pannes de 50.000 à 100.000 heures et le calcul de la cathode, comme l’emploi de matériaux convenables permettent de satisfaire à ces conditions, avec le convenable. Mais le grand ennemi de la fiabilité d’emploi dans ce cas est la poussière: la moindre particule qui aura pénétré dans le tube se chargera erratiquement et ses déplacements provoqueront du bruit dans les amplificateurs. L’atelier fut donc particulièrement soigné du côté climatisation et dépoussiérage, et, cependant, les défauts ne furent pas complètement éliminés.
- p.46 - vue 48/0
-
-
-
- LA HABILITE
- 47
- Après des études soignées, on put localiser la source coupable : les particules étaient des fragments ténus de fils venant des blouses bien lavées et battues dont les ouvrières avaient été revêtues précisément pour éviter ces ennuis et le choix d’un autre tissu permît de ramener l’ordre. Ces habitudes sont maintenant entrées dans la pratique pour toutes sortes de fabrications : microélectronique, semi-conducteurs, relais, connecteurs, appareils destinés à l’espace.
- Ce n’est pas la moindre conséquence des exigences de la fiabilité.
- XI. — GENERALISATION DE LA NOTION DE FIABILITE ET DE SES
- DOMAINES D’INTERVENTION
- La généralisation de la notion de fiabilité peut s’examiner sous deux aspects, celui de sa nécessité dans des domaines très divers et celui du caractère qu’elle revêt dans toutes les activités humaines, notamment dans les sociétés qui nous assemblent.
- En ce qui concerne le premier, nous avons déjà remarqué que l’accroissement de la fiabilité, grâce à laquelle nous disposons de systèmes d’exploitation aussi élaborés que les aides à la navigation terrestre ou spatiale, bute sur des limites et que des opérateurs humains sont encore indispensables, dont la fiabilité personnelle doit elle-même être contrôlée. Mais l’importance de la fiabilité de l’être humain s’étend bien au-delà de ce domaine technique : cette notion rejoint celle de la probabilité des réactions de l’individu dans ses missions ou ses aspirations suivant les prévisions de l’expérience dite acquise ou de la logique. C’est un élément essentiel des sciences humaines que de découvrir les lois ou au moins les probabilités du comportement humain dans la diversité des conditions de l’existence : les hommes politiques connaissent bien les difficultés des prévisions en telle matière.
- La fiabilité des œuvres humaines collectives entre dans ce chapitre puisqu’elle met en cause le comportement des individus qui participent à l’action commune, et ils ne peuvent être traités comme les composants passifs d’un matériel. Ce sera notamment le cas des planifications et plans divers dont l’économie est actuellement si friande. Les calculateurs peuvent très vite prévoir les développements matériels dans diverses hypothèses numériques, mais il n’est pas du tout certain que l’environnement humain de l’application sera celui de la prévision : la fiabilité de ces plans n’est donc pas élevée et nous en faisons souvent l’expérience à notre époque.
- Ceci nous conduit à examiner dans quelle mesure les ensembles humains sont « fiables » et c’est le deuxième aspect de la généralisation de la notion, sur lequel nous terminerons. Le degré de fiabilité sera lié à la façon dont un ensemble accomplira la mission pour laquelle il a été fondé. Nos Sociétés modernes n’échappent pas à ce principe général puisqu’elles ont des structures éminemment complexes, mais avec la circonstance aggravante qu’elles sont extrêmement fragiles devant l’imprévu : on peut dire à cet égard qu’elles sont très peu fiables.
- C’est évident devant des perturbations climatiques pourtant banales : l’activité de nos villes est menacée par la moindre chute de neige et les récentes aventures des automobilistes sur l’autoroute du Sud en ont apporté la preuve, de même que l’arrêt total de l’activité de régions entières à la suite de la rupture des lignes électriques sous l’effet du verglas. Et c’était pourtant un hiver bien banal, un de ceux dont nos pères ne se seraient pas souvenus. Il en est de même devant la plupart des phénomènes naturels et on retrouve aussi la loi générale de la difficulté de procéder à des réparations car nous ne savons plus ou ne pouvons plus faire face par nous-mêmes à l’imprévu.
- Un autre exemple de faiblesse de fiabilité de notre société se trouve dans
- p.47 - vue 49/0
-
-
-
- 48
- LA FIA LU LITE
- l’édifice des progrès matériels annoncés ou promis: il est essentiellement basé sur une augmentation de la consommation en énergie; pour l’ensemble du monde, on estime que, vers l’an 2 000, compte tenu de l’accroissement de la population du globe et d’une élévation modeste du niveau de vie de tous, les besoins en énergie seront multipliés par vingt. Or, déjà, dans les nations évoluées, des difficultés apparaissent pour le pétrole : aux Etats-Unis, la demande croîtra de 70 % d’ici dix ans même avec les progrès de l’énergie nucléaire et on constate déjà les conséquences politiques de tels besoins. On peut avancer que les prospectives sur l’amélioration du niveau de vie de l’humanité ressemblent aux promesses que ferait à ses passagers le conducteur d’un train fou sur les beautés du terminus du voyage : c’est bien là un cas de fiabilité faible.
- Sur le plan financier et monétaire, ce n’est guère mieux si ce n’est que les évolutions y sont plus soudaines en montrant encore le peu de habilité des plans économiques.
- Quant au futur même de nos sociétés, je me garderai des évocations maintenant publiques des conséquences des pollutions, si ce n’est pour souligner que la plus grave, celle de l’augmentation de la teneur de l’atmosphère en gaz carbonique avec ses conséquences imprévisibles, paraît ignorée, probablement parce qu’on ne sait pas comment y remédier, alors que, dans leur grande majorité, nos sources d’énergie dégagent ce gaz. En somme, notre société
- industrielle porte en elle des germes d’autodestruction.
- Sur le plan général, disons philosophique, il semble que les événements vécus par une société suivent la courbe de habilité de la figure 1, avec ses périodes de jeunesse, d’histoire courante et de sénescence. La habilité du système peut, en ce qui la concerne se mesurer par la confiance que les citoyens mettent dans les structures qui les assemblent. On peut alors se demander si, à partir d’un certain point de la période de sénescence, l’évolution n’échappe ])as nécessairement à la continuité pour passer par un brusque saut à une autre courbe qui repart avec la même forme depuis une nouvelle étape de jeunesse : cela peut s’appeler une révolution, issue d’une habilité nulle.
- XII. — CONCLUSION
- Arrivé au terme de ce survol d’un vaste domaine, j’espère avoir montré, ou au moins fait entrevoir, les caractères généraux de la habilité, ses méthodes, les conséquences de son introduction dans les activités économiques, et la généralité de cette notion.
- A une époque où l’introduction de mots nouveaux fait trop souvent figure de solution des problèmes de l’heure pour retomber dans l’oubli lorsque la mode en est passée, il est certain que la fiabilité correspond bien à une réalité permanente: c’est une discipline en elle-même dont il faut tenir compte en tous domaines.
- p.48 - vue 50/0
-
-
-
- ACTIVITÉS DE LA SOCIÉTÉ D’ENCOURAGEMENT
- POUR L’INDUSTRIE NATIONALE
- p.49 - vue 51/0
-
-
-
- p.50 - vue 52/0
-
-
-
- PRIX ET MEDAILLES
- 51
- Rapports sur les Prix et Médailles
- décernés au cours de la séance
- du 12 septembre 1970
- Rapport présenté par M. Jacques Tréfouël, Membre de l’Institut, au nom du Comité des Arts chimiques, sur l’attribution de la Grande Médaille Annuelle de la Société d’Encouragement à M. Raymond Paul, pour l’ensemble de sa carrière.
- Mes chers confrères,
- Mes chers collègues,
- Mesdames, Mesdemoiselles,
- Messieurs,
- Le destin me comble qui me permet, à la fois, de présider la séance solennelle de distribution des récompensenses de la Société d’Encouragement pour l’Industrie Nationale et de remettre à l’un des chimistes les plus réputés de notre temps, le Professeur Raymond Paul, la Grande Médaille de notre Société. Bien que décernée chaque année, c’est à intervalle de six ans seulement que le Comité des Arts Chimiques désigne le candidat qui lui paraît le plus digne de la recevoir.
- En 1963, le Professeur Georges Chaudron, Membre de l’Institut, lisait le rapport sur le candidat de l’heure, M. Jacques Séjournet, à la séance présidée par M. Jean Lecomte, également Membre de l’Institut.
- Ce n’est pas le fait du hasard que des Membres de l’Institut soient le plus souvent associés au destin de la Société d’Encouragement pour l’Industrie Nationale : celle-ci fut, en réalité, fondée il y a près de 170 ans par l’Académie des Sciences elle-même, soucieuse d’alléger sa propre tâche d’encourager les progrès des Sciences tout autant que ceux des méthodes industrielles. Il m’est agréable de rappeler ce fait devant les lauréats d’aujourd’hui qui auront ainsi plus de raison encore d’être fiers d’avoir été choisis. A l’avance, je veux leur adresser à tous mes chaleureuses féli
- citations pour un passé quelquefois récent, mais qui toujours fait bien augurer de l’avenir.
- Je tiens à remercier tous ceux qui ont bien voulu venir aujourd’hui applaudir à tant de mérites.
- Une nouvelle fois donc le Comité des Arts Chimiques s’est réuni sous la présidence de M. Georges Chaudron et à l’unanimité a retenu le nom du Professeur Raymond Paul comme étant le plus digne de notre plus prestigieuse médaille.
- Ses prédécesseurs lui forment une belle haie d’honneur. S’il est impossible, hélas, de les citer tous, je nommerai les derniers en date ; tout d’abord, M. Charles Dufraisse, qui recevait des mains de M. Louis Pineau, en 1946, la récompense de ses travaux variés, tels que ceux : sur l’etfet antioxygène « paralysie de la réaction d’autoxydation par de bienfaisantes impuretés » suivant les termes qu’employait Dufraisse, lui-même; sur l’étude de l’union labile de l’oxygène au carbone, sur le soufre et bien d’autres ; tout ceci explique pourquoi Charles Dufraisse, dont la disparition récente laisse un si grand vide, occupa, au collège de France, la Chaire illustrée par Marcelin Berthelot et Charles Moureu.
- Six ans plus tard, le Professeur Chaudron, remettait la grande médaille au métallurgiste Albert Portevin dont le charmant sourire n’annonçait guère ses fructueuses découvertes sur la trempe des aciers, la corrosion, la soudure, la mise en évidence enfin de la résistance chimique des aciers inoxydables devenus peu à peu le matériau essentiel de la grande industrie chimique.
- p.51 - vue 53/0
-
-
-
- 52 PRIX ET MEDAILLES
- En 1958, c’est Charles Dufraisse qui, à son tour, remettait notre trophée à M. Léon Velluz, son élève ; le Prix Jec-ker, grande consécration des chimistes organiciens, avait déjà récompensé ses nombreuses découvertes : établissement de la structure naphtacénique des rubrè-nes : identification du précurseur direct du facteur antirachitique ou vitamine D: le précalciférol : dédoublement du chroramphénicol racémique qui ouvrit la voie à la fabrication de ce corps à grande échelle ; mise sur pied d’un service de fabrication de produits à éléments marqués. L’industrie des produits chimiques doit beaucoup à Léon Velluz qui vient de rendre un vibrant hommage à Marcelin Berthelot dans un beau livre paru récemment.
- Enfin, prédécesseur direct, M. Jacques Séjournet est l’inventeur d’une technique à nombreuses conséquences industrielles ; cherchant à trouver un nouveau procédé pour le travail des aciers réfractaires, il eut l’idée d’utiliser le verre qui permet d’éviter le grippage entre l’outil froid et la billette chaude; le filage de l’acier avec du verre est connu sous le nom de procédé Ugine-Séjournet et 22 usines exploitent ce procédé devenu mondial.
- Et maintenant, je vais me tourner vers le Professeur Raymond Paul, qui, à son tour, et sa modestie dût-elle en souffrir, sera sur la sellette... Rassurez-vous, je ne rappellerai que quelques-uns de vos nombreux mérites.
- Professeur titulaire de chimie à la Faculté libre des Sciences d’Angers depuis 1932, M. Raymond Paul est Directeur Scientifique de la Société des Usines Chimiques Rhône-Poulenc, depuis 1943.
- L’œuvre scientifique personnelle de M. R. Paul est assez marquante pour qu’elle ait entraîné sa nomination de Membre Correspondant de l’Académie des Sciences. Il est, à juste titre, considéré comme
- le véritable pionnier de la chimie des hétérocycles oxygénés. C’est lui qui a réalisé la première préparation du dihydro-pyranne, agent universellement employé de nos jours dans les synthèses exigeant une protection préalable des fonctions alcools et aminés. C’est à M. Paul encore que l’on doit la synthèse de la Pentamidine, l’un des plus importants trypano-cides connus. Mais c’est dans le domaine de l’hydrogénation catalytique que les travaux du Professeur R. Paul ont été particulièrement productifs : il a perfectionné le nickel de Raney en lui incorporant des traces de molybdène et surtout de chrome ; le Ni-Gr est adpoté aujourd’hui en France pour la fabrication d’un des constituants du nylon. Utilisé dans certains cas pour l’hydrogénation catalytique, le Ni de Raney s’est révélé, inversement, grâce aux travaux de M. Paul, un catalyseur de déshydrogénation : par exemple : le cyclohexanol peut être transformé en cyclohexanone servant à préparer le caprolactame.
- On doit encore à M. Paul d’autres travaux qu’il serait trop long d’exposer ici, mais qui ne l’ont pas empêché de diriger les recherches scientifiques d’un des plus grands centres de découvertes de France, je veux parler des Laboratoires des Usines Rhône-Poulenc.
- Il s’agit d’une véritable apothéose pour un homme dont l’esprit éveillé, le dynamisme, la foi avaient attiré l’attention du prêtre de son village qui a guidé ses premiers pas vers la carrière brillante que nous honorons aujourd’hui.
- C’est une très grande joie pour moi de remettre à mon ami, le Professeur Raymond Paul, une médaille qu’il acceptera comme témoignage de notre admiration à tous, de la mienne, en particulier, puisque j’ai eu le privilège de mêler quelque peu mon activité à la sienne et de pouvoir admirer ainsi ses dons exceptionnels d’intelligence, de bonté et d’efficacité constantes.
- p.52 - vue 54/0
-
-
-
- PRIX ET MEDAILLES
- & 05
- Rapport présenté par M. Laffitte, Membre de l’Institut, au nom du Comité des Arts Chimiques, sur l’attribution de la Médaille Louis Pineau à M. Gérard Grau, pour ses travaux de géophysique pétrolière. ‘
- M. Gérard Grau, Directeur de Recherche à l’Institut Français du Pétrole, exerce actuellement les fonctions de Directeur-Adjoint de la Division de Géophysique de cet Institut.
- Entré en 1957 à l’I.F.P., il a contribué à la création d’un groupe de recherche de géophysique pétrolière, qui, à la suite d’une rapide croissance, est, plus tard, devenu une des divisions de cet organisme.
- M. Gérard Grau a d’abord travaillé sur la théorie et la réalisation pratique des sismogrammes synthétiques. Les résultats obtenus lui ont valu le prix Conrad Schlumberger de l’European Association of Exploration Geophysicists (1963).
- Par la suite, ses efforts ont principalement porté sur la constitution progressive d’un groupe d’étude des traitements à effectuer sur les données sismiques pour en améliorer la qualité et la clarté. Ce groupe avait obtenu des résultats intéressant l’industrie bien avant même l’avènement de l’enregistrement et du traitement numériques. Le filtrage des résonances dues à la couche d’eau en sismique marine a été réalisé très tôt sur des machines non numériques et des applications nombreuses ont été faites pour des Sociétés d’Exploration.
- D’autre part, les filtrages en vitesse apparente, ou filtrages en éventail, ont fait l’objet de recherches originales, dès 1963. '
- M. Grau s’est ensuite particulièrement penché sur les méthodes optiques de traitement de l’information. De nom
- breuses applications en sont découlées, qui touchent des domaines très variés : non seulement, la prospection sismique, mais aussi la photographie (aérienne archéologie, étude de la houle, géologie, glaciologie, etc...).
- Enfin, récemment, il a abordé l’étude d’une technique nouvelle de traitement de l’information sismique et proposé une méthode originale, l’holographie impulsionnelle qui permet la migration des horizons sismiques à leur vraie position. Il est vraisemblable que, d’autre part, ce procédé permettra une amélioration sensible des coupes de sismique marine par suppression des hyperboles de diffraction.
- M. Gérard Grau s’est de plus attaqué à un certain nombre de questions concernant l’exploration des fonds marins en particulier par sonar latéral et l’océanographie géophysique. Il a d’ailleurs été chargé depuis 1967 d’assurer, puis d’organiser un enseignement libre de géophysique marine à l’Institut Océanographique. Cet enseignement est destiné à des étudiants et chercheurs en géologie et en océanographie physique.
- M. Grau a, d’autre part, organisé plusieurs séminaires (traitement de l’information sismique, géophysique marine) à l’Institut Français du Pétrole. Il a dirigé la rédaction d’un ouvrage sur le Filtrage en Sismique.
- Il présidera un des groupes de discussion concertée du Congrès Mondial du Pétrole de Moscou en 1971.
- Rapport présenté par M. Chaudron, Membre de l’Institut, au nom du Comité des Arts Chimiques, sur l’attribution de la Grande Médaille des Activités d’Enseignement à M. Jean Givaudon.
- M. Givaudon a poursuivi une carrière industrielle orientée vers la recherche appliquée et la formation professionnelle.
- Il fut Ingénieur, puis chef de service au Laboratoire central de la Compagnie Française de Raffinage, de 1929 à 1941 : de 1941 à 1949, détaché aux organismes
- p.53 - vue 55/0
-
-
-
- PRIX ET MEDAILLES
- professionnels du Pétrole et des Carburants ; depuis 1950, Ingénieur-Conseil à l’Union des Industries Chimiques où, entre autres activités scientifiques et techniques, s’occupe de formation professionnelle et est appelé à animer le plan de formation et de perfectionnement du personnel des Industries chimiques.
- M. Givaudon a exercé les activités d'enseignement suivantes : Cours de thermodynamique appliquée à l’industrie du Pétrole, professé à l’Ecole nationale supérieure du Pétrole, à Rueil : 26 leçons par an, de 1946 à 1961 ; cours de thermodynamique appliquée à l’industrie de la Sidérurgie, professé au Centre d’Etudes supérieures de la Sidérurgie, à Metz : 20 leçons par an, de 1950 à 1963.
- Les deux cours précédents ont été rédigés et publiés.
- M. Givaudon a été Professeur de génie chimique à l’Ecole nationale supérieure des Poudres depuis 1952. Actuellement, Professeur principal de génie chimique à l’Ecole nationale supérieure des Techniques avancées (E.N.S.T.A.) : 10/14 leçons par an ; il est Professeur de génie chimique à l’Ecole de Chimie de Marseille (Cours pour la promotion supérieure du personnel autodidacte), depuis 1950 : 26 leçons par an ; il est auteur principal du Précis de génie chimique, Berger-Le-vrault, 1960.
- Cet ouvrage a été l’objet d’un prix de l’Académie des Sciences.
- Rapport présenté par M. Picard, au nom du Comité des Arts Mécaniques, sur l’attribution de la Médaille Oppenheim à M. Paul Rapin, pour ses recherches et son enseignement dans les domaines de la métallurgie, de l’électricité, de la mécanique automobile, de l’étude des contraintes et des vibrations.
- Après ses études secondaires (Baccalauréat Latin-Grec et Latin-Langues, Philosophie), Paul Rapin obtient sa licence ès-Sciences Physiques à l’Université de Paris et entre à l’Ecole Supérieure d’Electricité d’où il sort en 1931.
- La première partie de sa carrière se déroule, de 1932 à 1942, à la Compagnie Générale d’Electricité où il installe le Laboratoire de Recherches de l’Accumulateur Tudor, collabore avec J.A. Grégoire à la voiture électrique C.G.E.-Grégoire.
- De 1942 à 1944, il s’occupe de Recherches à la Société pour le travail électrique des métaux.
- Rappelé sur sa demande en août 1944, il prend part aux opérations de libération du territoire comme Officier de transmission de l’Armée de l’Air. A sa démobilisation, en 1945, il entre à la Société des Automobiles Peugeot où il installe les Laboratoires d’Analyse des Contraintes, d’Analyse des Vibrations,
- d’Acoustique, d’Electronique et de Chimie, du Centre d’Etudes, Recherches, Essais de la Garenne-Colombes qu’il dirige actuellement.
- Monsieur Rapin est un chercheur de grande classe, qui a participé et conduit de nombreuses recherches dans les domaines de la métallurgie et de la mécanique physique. Il a fondé, avec MM. Le Boiteux, Pomey et l’Hermitte, et d’autres savants et ingénieurs plus spécialement orientés vers les méthodes expérimentales d’Etude de la Résistance des Matériaux, le Groupement pour l’Avancement des Méthodes d’Analyse des Contraintes, qu’il a présidé de 1955 à 1957.
- Mais l’œuvre de M. Paul Rapin ne s’est pas limitée à ces recherches ; il a collaboré à l’enseignement de haut niveau scientifique, comme Directeur des Etudes, puis Secrétaire général du Centre d’Etudes Supérieures de l’Industrie Automobile, et publié de nombreux mémoi-
- p.54 - vue 56/0
-
-
-
- PRIX ET MEDAILLES
- 55
- res depuis 1934, dans les domaines de l’électricité, de la mécanique automobile, de l’étude des contraintes et des vibrations.
- La Société des Ingénieurs Civils de France lui a décerné le Prix G.H.R. Menier en 1953, et l’Académie des Sciences le Prix Fourneyron, en 1968, pour ces travaux.
- Il a présidé la Société des Ingénieurs
- de l’Automobile de 1965 à 1968, où sa connaissance de nombreuses langues étrangères lui a permis de représenter les Ingénieurs et l’Industrie française de très brillante façon dans les Congrès Internationaux.
- Nul ne me paraît plus digne de recevoir de notre Société, en récompense de ses travaux, le Prix Oppenheim pour 1969.
- Rapport présenté par M. Brocard, au nom du Comité des Arts Chimiques, sur l’attribution de la Médaille de la Conférence Carrion à M. Georges Brébion, pour son exposé sur « Le Traitement des Eaux résiduaires industrielles par voie biologique ».
- Dans une première partie de sa carrière, M. Georges Brebion a effectué des études de physiologie animale.
- Dès 1940, sa carrière a évolué vers la biologie cellulaire, en physiologie végétale et sur l’activité biochimique des bioorganismes.
- Dans ce domaine, M. Brebion est l’auteur d’une centaine de publications relatives à la synthèse de la chlorophylle dans différentes conditions et à l’épuration des eaux résiduaires d’origines diverses.
- Attaché au Centre de Recherches de l’I.R.C.H.A., il a mis au point des méthodes pratiques d’épuration des eaux urbaines par lit bactérien à remplissage en matière plastique.
- Il est également l’inventeur d’un procédé d’épuration à haute performance sans recirculation des boues.
- L’importance et la qualité de ces travaux permettent la désignation de M. Georges Brebion comme récipiendaire de la Médaille Carrion.
- Rapport présenté par M. Laffitte, Membre de l’Institut, au nom du Comité des Arts Chimiques, sur l’attribution d’une Médaille Dumas à M. André Pacoud, pour l’ensemble de sa carrière.
- André Pacoud est né à Lyon le 4 septembre 1923.
- Au sortir de l’école primaire, il entre à l’Ecole Nationale Professionnelle de La Martinière où il reste de 1936 à 1940.
- En 1940, il entre en qualité d’Aide-Chimiste à la Société Trux Mistral, spécialisée dans la fabrication des produits minéraux, à Collonges au Mont d’Or, Société qui est maintenant rattachée au groupe Progil.
- En 1941, André Pacoud entre comme Aide-Chimiste à la Société des Usines
- Chimiques Rhône-Poulenc à Saint-Fons. Très vite, il est remarqué par son Chef de Service, M. Bidault, pour sa soif d’apprendre et ses aptitudes aux travaux de laboratoire. Cela lui vaut d’être envoyé aux frais de la Société, et sans cesser d’en faire partie, à l’Ecole de Chimie de Lyon pour parfaire ses études de Chimie.
- Intégré parmi les élèves réguliers de cette école, il en sort en juin 1944 premier de sa promotion.
- Il est alors affecté au Service des
- p.55 - vue 57/0
-
-
-
- 56
- PRIX ET MEDAILLES
- Recherches Techniques de l’Usine de Saint-Fons, où il est nommé Chef de Service en 1950.
- En 1957, il est envoyé à l’Usine du Péage de Roussillon où il commence par diriger le Service des dérivés acétiques.
- En 1962, il devient Directeur des Fa-brications Chimiques de cette Usine.
- Rappelé à l’Usine de Saint-Fons en septembre 1962, il occupe le poste de Secrétaire Technique du Directeur des Usines du Groupe Sud.
- Il devient le Directeur Adjoint de l’Usine et, en 1964, la Direction Générale lui confie la Direction de toutes les Usines du Groupe Sud de la Société.
- Le 15 octobre 1969 il est rappelé au Siège Social, à Paris, pour assurer la Direction Technique de l’ensemble de toutes les Usines de la Société Chimique Rhône-Poulenc.
- M. Pacoud a participé à ce que l’on pourrait appeler toutes les grandes réalisations de la Société et, presque
- toujours, au cours de la période de développement, assurant le passage des résultats de laboratoire à la réalité industrielle.
- C’est ainsi qu’il a participé activement, à partir de 1949, à la réalisation du procédé de fabrication du phénol à partir du cumène. Il a eu à s’occuper des problèmes techniques qui se sont posés lorsqu’il a fallu plus que décupler la productivité des ateliers conduisant à l’acide adipique et à l’hexaméthylène-diamine, matières premières du Nylon.
- Il a eu la responsabilité du développement de la production de nos dérivés acétiques, tout particulièrement de l’anhydride acétique et du cétène, produits qui ont permis de porter la capacité de production de l’Usine de Saint-Fons à près de 300 tonnes d’aspirine par mois.
- Tous ces résultats n’ont pu être obtenus dans le climat social difficile que l’on connaît que grâce à une technicité indiscutée et à une très grande compréhension des problèmes humains.
- Rapport présenté par M. Brocart, au nom du Comité des Arts Chimiques, sur l'attribution d’une Médaille Dumas à M. Germain Debacker, pour l’ensemble de sa carrière.
- M. Germain Debaker est né en 1922.
- Entré comme Aide-Chimiste à l’usine de Harnes de la Société Courrières-Kuhlmann à l’âge de 16 ans, il ya franchi successivement tous les échelons de la hiérarchie d’agents chimistes : aide-chimiste, chimiste, chimiste principal, puis responsable du laboratoire analytique.
- Muté en 1951 à l’usine de Brignoud des Etablissements Kuhlmann, comme contremaître de l’atelier chlorure de vinyle, puis des ateliers pilotes de préparation de métaux « exotiques », il suit avec assiduité les cours du C.N.-A.M., ce qui lui permet d’être nommé,
- en mai 1959, ingénieur de l’atelier, alors à l’étude, de copolymère acrylonitrile-butadiène-styrène, à Dieuze, poste qu’il occupe jusqu’en septembre 1966.
- Suit le transfert de cet atelier à Vil-lers-St-Sépulcre (Oise).
- Depuis 1969, il est chef de fabrication des résines A.B.S. de l’usine de Vil-lers-St-Sépulcre de la Société Plasti-mer, et il les porte au niveau d’une production internationale.
- Le Comité des Arts Chimiques estime que M. Debacker répond amplement aux conditions mises à l’attribution de la Médaille Dumas.
- p.56 - vue 58/0
-
-
-
- PRIX ET MEDAILLES
- 57
- Rapport présenté par M. Brocart, au nom du Comité des Arts Chimiques, sur l'attribution d’une Médaille d’Or à M. René Bedhomme, pour ses réalisations d’unités de production combinée d’amoniac et d’eau lourde.
- M. R. Bedhomme est né en 1904 et est sorti, en 1925, Ingénieur de l’Institut Industriel du Nord de Lille.
- Il entre, le 1er janvier 1930, à la Compagnie des Mines de Béthune.
- A cette époque, la Compagnie des Mines de Béthune fournissait au grand savant Georges Claude les possibilités technologiques d’application de ses découvertes dans les domaines des synthèses sous pression de l’amoniac et de l’alcool méthylique.
- La responsabilité d’un atelier produisant ce dernier lui est confiée par M. Valette, disciple de G. Claude, puis, très rapidement, il devient chef de la cokéfaction et des sous-produits.
- Lieutenant d’artillerie, il se distingue aux combats sur la Dyle en Belgique et à Dunkerque ; ses qualités lui valent d’élogieuses citations et la Croix de Guerre.
- Revenu à la vie civile, il est promu successivement Ingénieur Divisionnaire, puis Ingénieur Principal, enfin Ingénieur en chef des Usines Chimiques de Mazingarbe.
- Réalisateur infatigable, il propose et exécute un programme hardi mais réaliste de construction d’unités d’amo-niaque qui ont fait de Mazingarbe un des plus importants centres d’engrais azotés de France.
- Dans ce poste, il préconisa et fit installer une unité de production combinée d’amoniac et d’eau lourde dont le démarrage constitua, du point de vue technique, un très brillant succès.
- Après avoir été nommé Directeur Délégué de Groupe, il a été retenu au moment de prendre sa retraite comme Conseiller auprès de la Direction générale.
- Rapport présenté par M. Brun, au nom du Comité des Arts Mécaniques, sur l’attribution d’une Médaille d’Oi' à la Société des Papeteries de Nanterre, pour ses remarquables réalisations, particulièrement, dans le domaine du papier filtre.
- Les Papeteries de Nanterre furent crées, au début de ce siècle, en vertu de la conception stratégique de fonder une usine à proximité de la clientèle et non pas des sources d’approvisionnement ; ainsi la Société nouvelle avait pour vocation d’être attentive aux pro-blèmes vrais plutôt que de vendre des produits courants. C’est ainsi que les Papeteries de Nanterre se spécialisèrent tout d’abord dans les papiers pour isolation électrique.
- Après la première guerre mondiale, les Papeteries de Nanterre infléchirent leur activité sous l’impulsion d’un éminent ingénieur, M. Raichlen. En effet celui-ci avait mis au point, avec le Ser-
- vice des Poudres de l’Armée française, un papier filtre capable d’arrêter les poussières d’arsine, poussières émétiques contraignant le combattant au retrait du masque à gaz. Ayant appris que les Allemands avaient trouvé la parade en enrobant les arsines avec des aérosols de mazout, M. Raichlen créa un papier hydrofuge spécial d’une conception telle que les Allemands ne purent le reproduire. Les masques à gaz de toutes les armées alliées furent équipées avec les papiers des Papeteries de Nanterre. Les armées ennemies n’avaient pas de solution. Tout commentaire sur les conséquences de cet état de fait est superflu,
- p.57 - vue 59/0
-
-
-
- 58
- PRIX ET MEDAILLES
- La pleine connaissance des paramètres fondamentaux acquise à l’occasion de ces recherches et la mise au point de la technologie nécessaire à l’exécution de ces papiers permirent aux Papeteries de Nanterre de prendre une place prépondérante dans le domaine de la filtration immédiatement après la Libération, sous l’impulsion de MM. Marie et Schneebeli, héritiers de la pensée de M. Raichlen. Ses fabrications actuelles sont très diverses puisqu’elles vont du papier formant résonateur acoustique, donc écran sonore, jusqu’à la paroi filtrante pour rein artificiel en passant par les papiers hydrophiles permettant d’utiliser l’eau comme ad
- juvant de filtration dans de nombreuses industries chimiques.
- Le tonnage annuel actuel pour les seuls papiers à usages industriels spéciaux est de 25 000 tonnes.
- Une étude systématique de toutes les fibres synthétiques a permis aux Papeteries de Nanterre de fabriquer un papier filtre dont les pores ont un diamètre moyen de 1./30 de micron. Ce papier constitue le support idéal d’un film à perméabilité sélective dont les perspectives d’avenir sont immenses 1 puisqu’elles concernent, d’ores et déjà, la dessalination de l’eau de mer et la pile à combustible sans oublier les débouchés dans le domaine médical.
- Rapport présenté par MM. Buré et Desaymard, au nom du Comité d’Agriculture, sur l’attribution d’une Médaille d’Or à M. Pierre Jonard, pour ses études approfondies dans le domaine de la biologie du blé.
- M. Pierre Jonard qui vient de prendre sa retraite aura 63 ans au mois de septembre prochain. Il est ingénieur agricole et licencié ès-Sciences.
- Sa carrière a été toute entière vouée à la recherche agronomique au sein de l’Institut national de la Recherche agronomique, tout d’abord comme préparateur à la station d’amélioration des plantes de Clermont-Ferrand, puis comme Chef de travaux, Maître de recherches et enfin Directeur de recherches de la station d’amélioration des plantes de Versailles. Il avait succédé comme Professeur à l’Ecole Française de Meunerie, à Bœuf, en 1951.
- M. Jonard est sans doute le meilleur spécialiste français du blé. Si, au début de sa carrière, les travaux de sélection concernant cette céréale étaient depuis longtemps très actifs en France, ils reposaient surtout sur des données empiriques. La valeur des variétés cultivées était mal connue, leur description même était très sommaire ce qui avait pour conséquence un grand désordre dans le commerce des semences de blé.
- Le premier travail auquel s’attacha M. Jonard fut une étude minutieuse des caractéristiques morphologiques, physiologiques et agronomiques des variétés commercialisées. Elle donna lieu, en 1936, à la publication d’une monographie des variétés de blé cultivées en France qui servit de base à l’établissement du Catalogue officiel.
- Ayant grâce à ce travail de mise en ordre, l’assurance d’étudier un matériel bien défini, il put, d'ure part, entreprendre une série d’études fondamentales sur la biologie du blé, d’autre part, vérifier les aptitudes agronomiques des variétés dans un réseau d’essais de rendement dont les premières bases furent jetées en 1938 en Seine-et-Oise en collaboration avec M. Alabouvette, alors directeur de la station d’amélioration des plantes de Versailles.
- Ses études de biologie portèrent sur la croissance et le développement du blé, en définissant ce qu’il fallait entendre par variété de type hiver, alternatif et de printemps et en classant les variétés cultivées dans ces trois catégories.
- p.58 - vue 60/0
-
-
-
- PRIX ET MEDAILLES
- 59
- Puis il définit des repères phénologi-ques permettant de distinguer les phases successives du développement et relia ces repères aux transformations physiologiques subies par l’apex.
- Il étudia ensuite, en collaboration avec M. Geslin, l’influence des conditions climatiques sur la formation du grain et définit en particulier le processus biologique causant l’échaudage vrai.
- Depuis, il n’avait cessé de publier sur ces problèmes de croissance de la plante et de la formation du grain, en relation notamment avec les qualités technologiques des farines.
- La possibilité de réunir une documentation très variée venant des réseaux nationaux d’expérimentation et de l’Institut National de la Recherche Agronomique et sa profonde connais
- sance de la biologie du blé lui ont, d’autre part, permis de faire la synthèse de nos connaissances sur les variétés actuellement cultivées en France. Plusieurs publications sont venues mettre à la disposition des vulgarisateurs les connaissances ainsi acquises.
- Parallèlement à ces recherches sur le blé il a, dès 1938, en collaboration avec M. Bustarret, rassemblé à Versailles des populations de colza et d’œillette en vue d’entreprendre leur amélioration. En ye qui concerne le colza, ce travail a abouti à une connaissance meilleure de sa biologie, à la mise au point de techniques culturales efficaces et à la description des populations à cultiver en France. Une sélection entreprise à partir de celles-ci servit de point de départ à la création de nouvelles variétés actuellement cultivées.
- Rappoi't présenté par M. Chaudron, Membre de l’Institut, au nom du Comité des Arts Chimiques, sur l’attribution d’une Médaille d’Or à Mmc Claude Rocchiccioli-Delt-cheff, pour ses travaux de spectrophotométrie d’absorption infrarouge.
- Nous avons proposé, pour une médaille d’or, Mmc Claude Rocchiccioli-Deltcheff, chargée de recherches au Centre National de la recherche scientifique.
- Mmc Deltcheff travaille sous la direction de M. Clément Duval, directeur de recherches au C.N.R.S. et de M. Jean Lecomte, Membre de l’Institut, directeur de recherches au C.N.R.S.
- Mm° Deltcheff est une spécialiste bien connue de la spectrophotométrie d’absorption infrarouge ; son travail de thèse était consacré à l’étude, au moyen de cette technique, de composés minéraux renfermant le groupement XO3, dont certains présentent à la fois des
- propriétés ferroélectriques et ferromagnétiques. Elle dirige les travaux de plusieurs chercheurs du Laboratoire de recherches microanalytiques de l’Ecole Nationale Supérieure de Chimie, qui ont donné lieu à la soutenance de plusieurs thèses.
- Enfin Mme Deltcheff est une conférencière très appréciée en France et à l’étranger, et elle apporte un concours dévoué à l’Enseignement préparatoire aux techniques de la recherche, soit par des cours, par l’organisation de travaux pratiques de spectrométrie d’absorption (ultra-violet, visible, infrarouge), ou encore par la rédaction ou la traduction de manuels à l’usage des étudiants.
- p.59 - vue 61/0
-
-
-
- 60
- PRIX ET MEDAILLES
- Rapport présenté par M. Jean Eressinet, (tu nom du Comité des Constructions et des Peaux-Arts sur l’attribution du Prix Elphège Bande à M. Paul Arzens, qui, en dessinant des carrosseries de voitures et des véhicules divers, notamment des voitures de chemin de fer et meme des locomotives Diesel, a monti e comment l’art moderne pouvait s’affirmer dans le sens de la technique.
- En proposant l’attribution du Prix Elphège Baude à M. Paul Arzens, le Comité des Constructions et des Beaux-Arts a estimé qu’au moment où l’on reconnaît enfin, l’importance de l’Esthétique industrielle, il convenait de récompenser un artiste de talent qui en fut le précurseur dans notre pays.
- Né à Paris en 1903, Paul Arzens fut élève de l’Ecole Nationale Supérieure des Arts Décoratifs puis de l’Ecole Nationale Supérieure des Beaux-Arts où il remplit pendant plusieurs années les fonctions de Grand Massier des ateliers de peinture.
- Comme Léonard de Vinci dont nul n’ignore maintenant l’importante œuvre parallèle d’ingénieur et d’inventeur, il manifesta dès sa jeunesse, un goût prononcé pour la mécanique.
- Aussi, ne tenant aucun compte de certains préjugés classant les arts en catégories majeures et mineures, il pensa avec raison, qu’un artiste pouvait, sans déchoir, s’intéresser à l’embellissement de l’environnement en créant des formes nouvelles pour certains éléments indispensables à notre vie quotidienne. C’est sur l’amélioration de l’aspect des moyens de transport que se portèrent principalement ses recherches.
- Ce n’est pas par des écrits mais bien par des réalisations qu’il a infirmé les textes péjoratifs de Hegel, de Ruskin et de Zola condamnant la machine et déclarant qu’elle ne serait qu’une éternelle source de laideur.
- Paul Arzens a prouvé que si ce jugement sévère avait pu être mérité pai-certaines erreurs assez compréhensibles commises au début du machinisme, il ne pouvait s’agir d’une tare chronique et que la majorité des réalisations industrielles était susceptible, après
- des études et des recherches, de devenir aussi génératrice d’émotions esthétiques.
- Ce n’est pas en ajoutant des ornements superflus aux structures existantes qu’il tenta d’atteindre le but qu’il s’était fixé, mais en s’attaquant résolument à la recherche de formes nouvelles, plus épurées, de volumes mieux proportionnés, plus logiques et plus pratiques. En comprenant, suivant l’expression du Professeur Etienne Sou-riau, que si la fonction conditionne la forme, la forme doit aussi spiritualiser la fonction.
- Devançant les célèbres carrossiers de Turin et les bureaux d’études des constructeurs de Detroit, c’est en partant de la forme aérodynamique la plus ancienne : l’œuf, que Paul Arzens commença à rénover l’aspect de l’automobile. Il trouvait ridicule et inadaptée à un véhicule voué à la vitesse, l’utilisation de carrosseries hippomobiles haut perchées sur 4 roues surmontées de garde-boue ; il pensa que l’automobile, engin nouveau, méritait une forme nouvelle constituant un ensemble homogène bien caréné contenant tous les éléments indispensables et que cet ensemble devait être surbaissé pour améliorer sa vitesse et sa stabilité.
- C’est encore en tenant compte des nécessités fonctionnelles et du confort des usagers des transports en commun qu’il rénova le matériel roulant de la S.N.C.F. et de la R.A.T.P. Et c’est aussi en s’inspirant des mêmes considérations qu’il modernisa les principales stations de notre Chemin de Fer Métropolitain.
- En associant étroitement la logique à la technique et à l’esthétique, les créa-tins de Paul Arzens ne donnent pas seulement une vive satisfaction à notre sensibilité, mais elles obtiennent aussi
- p.60 - vue 62/0
-
-
-
- PRIX ET MEDAILLES
- 61
- l’accord de notre esprit et c’est ce qui en assure la réussite.
- Parmi ses principales lisations, il convient de
- études et réa-citer :
- En 1930 : un projet de marche automatique des Trains à Traction électrique :
- En 1935 : un hateau rapide avec hélice directrice à l’avant ;
- En 1936 : l’invention brevetée d’un changement de vitesse automati
- que pour l’automobile (objet d’un reportage des Actualités Cinématographiques ;
- En 1937 : la réalisation d’une grande maquette, en cuivre, de la marche automatique des trains. Un avant-projet de la locomotive B.B. 9 200 y figurait déjà ; elle fut réalisée en 1955 ;
- En 1938 : construction d’une voiture aérodynamique sur un châssis Buick ;
- weu me
- Chassis Buick carrossé en 1938
- En 1941 : première voiture en aluminium et à traction électrique ;
- En 1942 : voiture électrique ovoïde en aluminium et plexiglas ;
- En 1943 : premier projet de la locomotive électrique C.C. 7 001 ;
- En 1945 : aménagement et transformation en avion-salons, d’une forteresse volante appelée Bir-Hakeim et offerte au Général Koenig ;
- En 1946 : construction d’une grande voiture en aluminium sur châssis Peugeot 403 ;
- En 1947 : réalisation de la locomotive C.C. 7 001 aux Usines Alsthom de Belfort;
- En 1948 : sortie en public de cette
- locomotive qu’utilisa en 1949 le Président de la République pour un de ses déplacements ;
- En 1950 : construction d’une petite voiture à essence, carrossée sur tubes d’aluminium AG3 ; la première maquette du wagon de métro sur pneus sorti en 1952 ainsi que le matériel articulé présenté sur la ligne Pte de Clichy :
- En 1952 : première modernisation de la station Franklin-Roosevelt qui sera suivie ensuite de celles de l’Opéra, Chaussée-d’Antin, République etc...
- En 1953 : la S.N.C.F. lui confie l’étude des autorails rapides R.G.P. et
- p.61 - vue 63/0
-
-
-
- 62
- PRIX ET MEDAILLES
- du matériel de banlieue pour son aménagement intérieur ;
- En 1954 : c’est le 1er T.E.E. et les autorails pour le Maroc ;
- En 1955 : c’est la locomotive électri-
- que B.B. 9 200, issue du projet de 1937, puis c’est l’autorail panoramique projeté en 1946, des voitures à voyageurs, le train de Chamo-nix et les nouvelles automotrices Diesel 65 000 ;
- ' El
- •-
- Diesel 67.000 - 1962
- 0
- Le Turbotrain 1969
- En 1960 : modernisation et présentation nouvelle du matériel destiné aux voyageurs ;
- En 1962 : les locomotives Diesel séries 67 - 68 - 69 et 7 0 000 : le T.E.E. Paris-Amsterdam ;
- p.62 - vue 64/0
-
-
-
- PRIX ET MEDAILLES
- G. C
- En 1963 : la locomotive électrique 40 000 et la voiture du Sultan du Maroc, un autorail de 425 Ch.
- En 1965 : la nouvelle présentation des autobus parisiens ;
- En 1966 : présentation du «Capitole» et aménagement des nouvelles voitures-restaurant ;
- En 1967 : présentation du nouveau « Mistral », ainsi que du Métro-Fer parisien mis en construction cette année ;
- En 1969 : les locomotives Diesel 72 000 et électriques 21 000, étude
- du Turbo-Train et du Super-Confort.
- On peut ajouter à cette liste incomplète la création d’une série d’appareils électro-ménagers construits par la Société Thomson.
- L’œuvre considérable et si diverse de Paul Arzens réhabilite donc l’industrie des accusations précitées, et elle confirme cette opinion émise par le célèbre architecte Le Corbusier : « Il n’y a aucune raison pour que l’impeccable rectitude de la machine soit antagoniste de la beauté. »
- p.63 - vue 65/0
-
-
-
- p.n.n. - vue 66/0
-
-
-
- TABLES DES MA TIERES
- Année 1970
- 1°) Conférences
- — Henry LE CHATELIER, promoteur de la science industrielle par M. François LE CHATELIER ................................................ n° 1, p. 3
- — Les bactériophages, par M. Pierre NICOLLE............................ n° 2, p. 3
- — Les propriétés et les applications des métaux du groupe IV, (zirconium, titane, hafnium) par M. Pierre LEHR ............................ n° 2, p. 23
- — L’atome nous donnera-t-il l’heure ? par M. Bernard GUINOT.......... n° 3, p. 3
- —- Les horloges atomiques, par M. Claude AUDOIN ....................... n° 3, p. 13
- — Aspects théoriques du traitement des eaux résiduaires industrielles par voies biologiques, par M. Georges BREBION......................... n° 4, p. 3
- — La habilité, par M. Maurice PONTE, de l’Académie des Sciences .... n° 4, p. 25
- 2°) Divers
- —- Rapports sur les Prix et Médailles décernés au cours de la séance du
- 12 septembre 1969 (première partie) .................................... n° 1, p. 19
- — Rapports sur les Prix et Médailles décernés au cours de la séance du
- 12 septembre 1969 (deuxième partie) ................................... n° 2, p. 55
- — Liste des Prix et Médailles décernés pour l’année 1969 .............. n° 3, p. 33
- — Rapports sur les Prix et Médailles décernés au cours de la séance du 12 septembre 1970 .................................................... n° 4, p. 51
- p.n.n. - vue 67/0
-
-
-
- p.n.n. - vue 68/0
-
-
-
- INDEX DES AUTEURS
- DES CONFÉRENCES PUBLIÉES
- Année 1970
- AUDOIN (Claude). — Les Horloges atomiques ................................... n° 3, p. 13
- BREBION (Georges). — Aspects théoriques du traitement des eaux résiduaires industrielles par voie biologique ................................... n° 4, p. 3
- GUINOT (Bernard). — L’Atome nous donnera-t-il l’heure ?...................... n° 3, p. 3
- LE CHATELIER (François). — Henry LE CHATELIER................................ n° 1, p. 3
- LEHR (Pierre). — Les propriétés et les applications des métaux du groupe IV ................................................................. n° 2, p. 23
- NICOLLE (Pierre). — Les bactériophages ...................................... n° 2, p. 3
- PONTE (Maurice). — La fiabilité ............................................. n° 4, p. 25
- p.n.n. - vue 69/0
-
-
-
- Le Président de la Société, Directeur de la publication : J. Tréfouël, D.P. n° 1.080
- i.t.q.a.-cahors. — 10.226 — Dépôt légal : IV-1971
- p.n.n. - vue 70/0
-
-
-
- p.n.n. - vue 71/0
-
-
-
- p.n.n. - vue 72/0
-
-