L'Industrie nationale : comptes rendus et conférences de la Société d'encouragement pour l'industrie nationale
-
-
- NATIONALE
- Société d’utilité publique fondée en 1801
- SOCIÉTÉ D'ENCOURAGEMENT POUR L'INDUSTRIE NATIONALE
- Deuxième et Troisième trimestre 2001
- Page de titre 1 - vue 1/0
-
-
-
- PUBLICATION SOUS LA DIRECTION DE MONSIEUR ROGER BEL VICE-PRÉSIDENT DE LA SOCIÉTÉ
- SOMMAI R
- - Éditorial du Président Mousson.......................p. 3
- - Chronique d’une catastrophe annoncée.................p. 4
- - VIe Assises Nationales des déchets à la Baule - 11 septembre 2001 p. 6
- - Un centenaire dans un Bicentenaire...................p. 8
- La Vie des Comités......................................p. 13
- Du Comité du Commerce, des Transports, du Tourisme et de l’Outre-Mer
- - Les Organismes Génétiquement Modifiés O.G.M. par Jacques Crosnier, membre du Comité.................p. 14
- Du Comité des Arts Physiques
- - Où s’arrêtera l’évolution des Circuits Intégrés (Puces) par Michel H. Carpentier - Président du Comité des Arts Physiques p. 18
- - Les Ondes élastiques du Sonar au Filtre pour téléphone mobile par E. Dieulesaint, Professeur émérite de l’Université Pierre-et-Marie-Curie, membre du Comité des Arts Physiques p. 22
- Du Comité de la Communication
- - De grandes méconnues : le Associations de Journalistes, par Jean-François Bège, Président de l’Association de la presse ministérielle, membre du Comité de la Communication p. 37
- La Vie Industrielle :
- - Encouragement des Usages Professionnels d’Internet Collaboration entre la Société et la Chambre Syndicale des Entreprises d’Équipement Électrique............... p. 39
- Les textes paraissant dans L'Industrie Nationale n’engagent pas la responsabilité de la société quant aux opinions exprimées par les auteurs.
- 2
- L'industrie Nationale - Septembre 2001
- p.2 - vue 2/0
-
-
-
- O R
- A
- Vigilance
- LA Prévention des risques est la traduction concrète de l’esprit de vigilance et de prévision des dangers qui doit animer tous les citoyens. Cette culture doit être inculquée aux enfants. Elle a permis à travers les âges de réduire le nombre des accidents possibles, elle a préparé les humains à affronter les nouvelles menaces.
- L’idéologie sécuritaire, qui veut rassurer à tout prix une population qu’elle suppose apeurée, tend à faire croire que l’État providence pourvoit non seulement à tout, mais a tout prévu et pris, par principe, toutes les précautions imaginables. Le maître mot est «rassurer», au besoin avec des mesures en trompe l’œil. Ce discours démagogique et ces procédés désarment l’esprit de vigilance et infantilisent les citoyens les incitant à ne plus prévoir, à ne plus prendre de précaution, fragilisant la population et le pays.
- Ceux qui ont connu la guerre, le terrorisme ou ont affronté des risques majeurs, savent que la vigilance personnelle est la meilleure sauvegarde de chacun. Lorsque l’on se trouve au cœur d’une raffinerie, d’une mine, d’une manufacture de poudre, d’une aciérie, d’une centrale nucléaire ou simplement dans un atelier, ce qui frappe, c’est qu’au-delà des sécurités
- techniques, des alarmes, des procédures de prévention, des équipes spéciales de sécurité, c’est l’esprit de vigilance du guerrier, qui habite tout le personnel et qui est contagieux. Chacun sait que tous ses collègues dépendent de lui et qu’il dépend d’eux. Le moindre relâchement de l’un est tout de suite repéré et sanctionné par les autres.
- Les nouvelles dimensions du terrorisme: stratégie, cibles, ampleur de l’effet recherché, professionnalisme des acteurs, imposent de nouvelles mesures, de nouveaux réflexes. Les suggestions pouvant renforcer la sécurité ont toujours été écoutées et accueillies avec intérêt et attention, avant d’être évaluées.
- Lancer des suppositions de négligence, à la cantonade sans l’ombre d’une preuve, quel qu’en soit le motif, c’est atteindre ces hommes et ces femmes d’entreprise, dans leur honneur de professionnels. Au-delà de la dignité humaine, en dénonçant systématiquement l’entreprise comme bouc-émissaire de tous les maux, on la désigne avec sa communauté comme cible aux actions terroristes mimétiques.
- BERNARD MOUSSON
- Président
- L'Industrie Nationale - Septembre 2001
- 3
- p.3 - vue 3/0
-
-
-
- CHRONIQUE D'UNE CATASTROPHE ANNONCÉE
- ULLY, Colbert, Chaptal, dans cette trilogie de grands ministres, qui ont pesé sur le destin économique de la France, c’est au dernier que le pays doit, aujourd’hui encore, sa puissance et les français leur bien-être. Si le pays s’est doté de grandes industries mécaniques, chimiques et agricoles, c’est à son savoir-faire guidé par son imprégnation de la pensée de Vincent de Gournay et des encyclopédistes, que nous le devons. Pourtant son destin a failli se terminer prématurément.
- « Ça va sauter ! » ne cessait-t-il d’écrire et de répéter au Comité de Salut Public. Celui-ci sourd à ses objurgations exigeait de lui des livraisons toujours plus importantes de poudre à canon, le menaçant de la guillotine et envoyant des commissaires politiques donner des ordres dans les ateliers de production.
- La poudrerie de Grenelle, comme annoncée, explosa, renforçant dans l’esprit des français la peur de l’innocent salpêtre, reportée aujourd’hui sur son nom savant de nitrate (nitrate de potassium, KNO3). Voici le sobre récit qu’en donne Chaptal dans ses souvenirs:
- «... La campagne projetée par Carnot ne pouvait s’ouvrir; la plupart de nos quatorze armées étaient arrêtées dans leur marche en avant, faute de poudre. Celle des Pyrénées-Occidentales avait été obligée de rétrograder pour le même motif. Il me fut enjoint, «sous ma responsabilité », de prendre des mesures pour que, dans le délai d’un mois, la campagne pût s’ouvrir sur tous les points. Cet ordre me fut intimé par Robespierre, que je voyais pour la première fois.
- Je me mis donc à l’œuvre, et dès lors fut imprimé ce beau mouvement qui couvrit la France d’ateliers de salpêtre. Cette matière arrivait à Paris de toutes parts. L’église de Saint-Germain-des-Prés en était presque remplie ; mais les procédés de raffinage connus et pratiqués jusqu ’alors exigeaient au moins six mois, avant que le salpêtre pût être employé à la composition de la poudre (dosage de l’ancienne poudre de guerre: salpêtre 75, soufre 12,5, charbon 12,5). La fabrication de la poudre était aussi très lente par les procédés ordinaires, et les établissements ne pouvaient pas fournir le tiers de nos besoins les plus pressants.
- Je me concertai avec MM. Berthollet, Monge, Fourcroy, Cany, Vandermonde, Guyton de Morveau,
- Prieur, etc., et, avec leur aide, j’imaginai et je mis en œuvre des procédés nouveaux et rapides pour le raffinage du salpêtre et la fabrication de la poudre. Pour la première opération, une raffinerie fut établie à Saint-Germain-des-Prés, et, pour la seconde, je fondai la fameuse poudrerie de Grenelle.
- Ces deux établissements prospérèren t pendant six à sept mois, et les résultats obtenus furent si considérables que, vers la fin, je fournissais régulièrement trente-cinq milliers de poudre par jour (35 tonnes), on expédiait, tous les deux jours, pour les arsenaux et les armées, dix-huit chariots militaires attelés de quatre chevaux.
- Grenelle n ’ avait été établi que pour une fabrication journalière de huit milliers de poudre. L’enceinte avait été déterminée à cette effet. Les bâtiments avaient été espacés, de manière que si le feu prenait à l’un, son voisin ne fût pas atteint. Les opérations n’inspiraient par elles-mêmes aucune crainte ; mais lorsqu ’on fut arrivé au maximum projeté d’une fabrication de huit milliers par jour, le Comité de salut public, pressé par le besoin, exigea qu’on portât la fabrication à seize milliers par jour. J’eus beau lui observer que l’établissement n’était pas disposé pour cela ; que tout y était calculé pour une fabrication de huit milliers ; qu’en plaçant de nouveaux bâtiments entre ceux qui existaient, il n’y aurait plus ni proportions ni garantie, etc. Ces observations furent inutiles, on ordonna, et il fallut se résigner.
- Quand je fus parvenu à une fabrication de seize milliers par jour, le Comité m’ordonna de la porter à trente-deux. Mêmes observations de ma part, même détermination de la part du Comité de salut public.
- Dès lors, tout fut chaos, plus d’ordre, surveillance insuffisante, accidents inévitables. Mille à douze cents constructeurs, maçons, plâtriers, charpentiers, serruriers se trouvaient mêlés à deux mille cinq cents poudriers, les voitures chargées de matériaux de toute espèce circulaient partout dans les chemins pavés sur lesquels les ouvriers conduisaient des brouettes ou roulaient des tonneaux pleins de poudre ; les ouvriers constructeurs étaient surpris, à chaque minute, une pipe à la bouche. Tout cela faisait prévoir la catastrophe inévitable qui se produisit, et je regarde encore comme un miracle l’existence de huit mois qu’a eue l’établissement.
- 4
- L'industrie Nationale - Septembre 2001
- p.4 - vue 4/0
-
-
-
- L’explosion de Grenelle a brûlé six cent cinquante milliers de poudre embarillée ou en fabrication, cinq cent cinquante hommes y ont péri, et un nombre à peu près égal est mort à l’hôpital. Deux postes militaires, de vingt-cinq hommes chacun, ont disparu en entier. Soixante chevaux employés aux manèges ont été brûlés. Les mille constructeurs ont été également décimés.
- De trois grosses charrettes, attelées chacune de cinq chevaux et chargées, l’une de poutres et les deux autres de pierres, il n’en est resté trace. J’ai retrouvé un gros essieu, contourné en spirale, au milieu du Champ de Mars : il tenait encore à quelques fragments du moyeu.
- Mais ce dont je n’ai jamais pu me rendre raison, c’est la disparition de tous les hommes et animaux qui ont péri sans laisser aucune trace. En parcourant toute l’enceinte, une heure après l’explosion, je n’ai aperçu que deux ou trois cuisses ou bras humains, et pas un vestige de cheval.
- Un autre phénomène qui m’a beaucoup frappé, c’est que, parmi les hommes qui en ont échappé, une centaine sont restés sourds et aveugles pendant trois ou quatre mois, et depuis sont guéris.
- L’étoile qui me protégeait contre les fureurs de l’anarchie voulut bien encore, par une espèce de miracle, sauver ma tête dans cette circonstance.
- Depuis quatre mois, j’allais régulièrement à Grenelle tous les matins à cinq ou six heures, et j’en revenais à neuf ou dix, pour diriger les affaires de l’administration ;j’y retournais à six heures du soir, pour n’en revenir qu’à dix heures.
- Pour la première fois depuis quatre mois, j’étais absent ce jour-là : la veille, j’avais été entraîné à la chasse dans le parc de Bercy et n’étais rentré qu’à minuit très fatigué. L’explosion me trouva dans mon lit, le lendemain matin, à six heures trois quarts. La secousse jeta au milieu de la chambre tous les meubles et tout ce qu ’il y avait sur les tables ou sur la cheminée. J’étais logé à l’hôtel de l’administration, quai Malaquais.
- Heureusement pour moi, le 9 thermidor avait changé les hommes du gouvernement. Robespierre avait péri ; deux de mes collègues dans l’administration avaient subi le même sort, le 10 thermidor. Sans cela, quel beau motif d’arrestation pour immoler une victime aux mânes des patriotes brûlés à Grenelle ! Déjà entaché de fédéralisme, absent de Grenelle pour la première fois depuis quatre mois, il eût paru évident que j’avais tout disposé, tout préparé pour cet épouvantable résultat. Et j’aurais payé de ma tête l’événement que j’avais prévu et que j’avais essayé de
- prévenir par toutes sortes d’avertissements donnés au Comité de salut public.
- La catastrophe de Grenelle a été terrible ; mais elle a entraîné la mort de peu d’ouvriers domiciliés à Paris, car les sections ne m’envoyaient que les aboyeurs des clubs de province qui se rendaient à Paris pour y chercher pâture.
- On accorda les deux tiers de leur journée à tous ceux des ouvriers qui viendraient les réclamer. Mais, sur une population de 2,432 individus, inscrits sur les registres, il ne s’en est présenté que 1,215 dans l’intervalle de deux mois et demi; le reste avait péri dans la poudrerie ou dans les hôpitaux»
- (suit le récit de l’incendie de l’Abbaye de Saint-Germain-des-Près, transformée en poudrerie).
- AToulouse, le 21 septembre 2001, l’explosion très vraisemblablement d’origine criminelle, sinon terroriste, d’un dépôt de 300 tonnes de nitrate d’ammonium a fait 30 morts, en majorité des travailleurs de l’usine. Elle a soulevé une émotion considérable chez ceux qui n’ont pas connu la guerre et exacerbé chez certains les terreurs ancestrales entretenues par les campagnes de dénonciation de la présence de nitrates dans les nappes phréatiques et les eaux de ruissellement.
- Plusieurs enseignements sont à tirer des observations faites : devant la menace terroriste, il y a lieu en priorité de garder pour protéger les cibles industrielles potentielles, qu’elles soient en ville ou à la campagne. Il est bien de faire des murs ou des talus antibruit et des bassins de rétention pour les liquides, il faut également prévoir plus systématiquement des installations canalisant l’onde de choc des déflagrations et limitant les retombées des projections en cas d’explosion, même si potentiellement l’occurence est faible.
- Il ne suffira pas de redéfinir, pour l’urbanisme, les périmètres de sécurité autour des usines et des ateliers ou de les déménager loin des villes, car tout peut être une cible potentielle pour le nouveau terrorisme émergeant : une mairie, une église, un musée, une école... sans oublier les cibles circulantes et plus particulièrement les véhicules à gaz.
- Les constructions récentes, malgré les normes multiples imposées ont montré une fragilité inacceptable devant ce que l’on peut craindre en cas de guerre. Nous sommes peut-être pour longtemps dans une guerre d’un nouveau type, qui peut faire des émules. Il faut rendre dès à présent moins dangereuses pour les habitants et les passants l’ensemble des immeubles à façades pelliculaires ou murs rideaux, en cas d’effets collatéraux d’une déflagration accidentelle ou criminelle toujours possible.
- L'industrie Nationale - Septembre 2001
- 5
- p.5 - vue 5/0
-
-
-
- VIe ASSISES NATIONALES DES DÉCHETS
- LA BAULE
- 11 septembre 2001
- Sur cette côte convalescente qui a souffert gravement de la pollution marine se sont tenues les VIe Assises Nationales des Déchets. En ouverture de celles-ci, le Ministre Pierret, Secrétaire d’État à l’Industrie a fait le point sur la politique des déchets.
- En 1997, s’est mis en place un groupe de travail qui s’est clos sur une circulaire d’avril 1998 fixant les orientations pour la gestion des déchets ménagers et assimilés en insistant sur le rôle des élus, des citoyens, et des industriels. La communication en Conseil des ministres d’août 1998 insistait sur les décisions pour réussir la modernisation voulue de la gestion des déchets ménagers :
- - TVA à taux réduit sur le service public d’élimination des déchets ménagers lorsque la collectivité s’engage dans la collecte sélective,
- - revalorisation du soutien accordé par les sociétés agréées, Eco-Emballages et Adelphe, aux collectivités locales, avec des barèmes plus incitatifs,
- - information du public sur la qualité et le prix du service public d’élimination des déchets ménagers.
- Pour recyclables : en 2000, la possibilité a été donnée à plus de 40 millions de Français de trier leurs déchets, soit plus de 85 % de la population qui se trouve dans une commune sous contrat avec un organisme agréé (ADELPHE ou EcoEmballages), permettant d’atteindre un taux de valorisation des emballages ménagers soumis à contribution de 60 % et un taux de recyclage de 45 %.
- Sur le plan du traitement des déchets :
- Pour les incinérateurs, les émissions de dioxine ont été réduites de 60 % en trois ans grâce à une action résolue de l’inspection des installations classées visant à faire respecter la réglementation par ces installations. Le parc français comporte aujourd’hui environ 200 incinérateurs, dont 70 sont des installations a conduit à la fermeture ou la mise en conformité de plus de 20 installations d’une capacité supérieure à 6 tonnes par heure. Pour les incinérateurs de capacité inférieure, près de 190 installations étaient recensés en 1998, les actions menées ont conduit à la fermeture de plus de 70 installations.
- Pour les décharges recevant des déchets des ménages, l’action stricte de contrôle peut s’appuyer sur un référentiel complet. La résorption des décharges brutes d’ordures ménagères se poursuit.
- Des investissements ont été réalisés pour parvenir aux objectifs de 2002: l’ADEME a apporté 1,3 milliard d’aides aux collectivités locales en 2000, qui ont permis de financer 10 milliards d’investissements.
- Enfin, pour le compostage des déchets organiques, une circulaire récente pose les principes d’une valorisation des déchets organiques.
- - qualité et efficacité des matières produites,
- - intégration de la valorisation biologique dans la gestion des déchets,
- - adaptation à chaque territoire de l’information et concertation locale.
- Ces critères, de qualité du traitement ou de tri, sont valables pour l’ensemble des filières de gestion des déchets.
- La responsabilité des producteurs, l’implication de l’ensemble des acteurs d’une chaîne de solidarité soucieuse des équilibres écologique et économique, la faisabilité technique et pratique, la maîtrise des coûts sont apparus comme les points clés à mettre en oeuvre dans les filières. Il est nécessaire d’une part de rapprocher l’ensemble des partenaires concernés par ces démarches qui souvent ne se connaissent pas et d’autre part faire appliquer la réglementation.
- Au-delà des filières des références : huiles usagées, emballages), les conditions de la collecte et du recyclage de l’ensemble des piles et accumulateurs usagés ont été définies. Deux textes concernent le secteur automobile.
- - Le premier pour la collecte et le traitement des pneumatiques usagés, qui vise à encourager leur réutilisation, son texte a déjà été notifié à Bruxelles.
- - Le projet pour les véhicules hors d’usage a été préparé dès la parution de la directive l’année dernière il a été soumis aux organismes représentatifs de chaque groupe de partenaires, et sera prochainement soumis à l’instance de suivi de l’accord cadre existant depuis 1993.
- 6
- L'industrie Nationale - Septembre 2001
- p.6 - vue 6/0
-
-
-
- Un projet de décret pour les courriers non adressés, les COUNA (COUrriers Non Adressés) sera transmis au Conseil d’État. Son champ d’application : journaux gratuits, prospectus de magasin, promotion des grandes surfaces, etc. Il laisse le champ à l’initiative des professionnels, notamment ceux de la distribution et de la presse gratuite, tout en répondant aux demandes des élus et responsables locaux pour qui ces « COUNA» pèsent chaque année plus lourd et plus cher.
- Un projet de directive européenne sur les déchets des équipements électriques et électroniques a été adoptée par le Conseil le 7 juin 2001. Ce texte pourra être adopté définitivement courant 2002 et devra être transposé en droit national.
- Les déchets du BTP font l’objet de liaisons avec l’Équipement pour la suppression des appareils contenant des PCB. Un autre groupe travaille sur les films agricoles usagés, les emballages de produits phytosanitaires, et les déchets textiles...
- Le Ministre considère que toutes les questions ne sont pas réglées pour les déchets. «En particulier, je constate que la production de déchets par habitant en France a continué à augmenter dans la dernière décennie à un rythme supérieur à la croissance, au même titre, hélas, que dans tous les autres pays de l’Union Européenne et autres pays développés. Je ne crois pas qu’une telle situation puisse raisonnablement se poursuivre dans les prochaines années. Je sais qu’il faut de la persévérance et du volontarisme pour s’attaquer, sans état d’âmes, à la réduction, en amont, des gisements de déchets. La réduction à la source est essentielle: les seuls déchets qu’on est sûr de bien traiter sont ceux que l’on n’a pas produit. »
- L’augmentation des barèmes amont d’Eco-Emballages et d’Adelphe participe à cette action de prévention. Selon lui, la réponse à ce problème essentiel, ce sont d’abord les producteurs, les distributeurs et les industriels qui la détiennent
- — réduction à la source de la production de déchets et maîtrise des quantités produites,
- — réduction de la présence de certaines substances dans les déchets, amplification de l’éco-conception des produits,
- — développement des systèmes permettant la valorisation du biogaz de décharges ou produit par méthanisation de déchets biodégradables. Enjeu en termes d’économies d’énergie et de protection de l’environnement. Son développement fait partie intégrante du Plan national de lutte contre les changements climatiques (PNLCC). Le rapport demandé au Conseil général des mines a été déposé récemment.
- Les projets d’ouverture de nouveaux centres d’élimination des ordures ménagères ou d’extension de centres existants suscitent des oppositions violentes, alors que la situation de certains départements devient très difficile.
- Le Ministre a estimé que les travaux des Assises alimenteront de manière utile, la tâche des membres du Conseil national des déchets, qui auront, dès son installation, à se pencher sur la politique menée en France et à réfléchir aux orientations à prendre en 2002.
- Il reconnaît que les industriels ont conscience des problèmes d’environnement, de santé, et très souvent de relation avec leur voisinage, que provoquent les déchets de leurs propres activités, que ce soient les déchets toxiques spéciaux ou des déchets banals produits en masse. Des actions volontaires ont été très largement engagées amenant régulièrement des progrès spectaculaires.
- « Une mention particulière doit être faite ici concernant les entreprises qui ont été encore plus loin et qui se sont engagées volontairement dans ce que l’on appelle le management environnemental. Il s’agit d’entreprises qui ont souhaité réaliser une évaluation environnementale de leur activité (diagnostic, analyse environnementale), mettre en place un système de management permettant de réduire leurs déchets, et pour certaines, voir cet effort récompensé par la certification conformément à la norme ISO 14001 ou, parfois, l’enregistrement selon le règlement européen EMAS ou Ecoaudit. Certaines appartiennent au secteur des déchets et je voudrais les féliciter de cet engagement, mais je tiens à souligner qu’à mes yeux le label 14 001 d’une usine chimique, d’un atelier de traitement de surface ou d’un concessionnaire automobile est synonyme aussi d’une bonne gestion des déchets. Plus que synonyme, puisque la gestion des déchets fait même souvent partie des actions concrètes que met en avant l’entreprise lors de cette reconnaissance. Je souhaite donc qu’un maximum de nos usines, ateliers ou autres pôles d’activités aille dans ce sens ».
- Souhaitant en conclusion que les VIe Assises soient un grand succès, le Ministre Pierret invita les participants à penser « aux difficultés posées par l’élimination des déchets des marées noires et des farines animales. ...Tous,nous avons notre part de responsabilité dans la mise en oeuvre d’une politique ambitieuse dans le domaine des déchets, en particulier en tant que consommateur».
- L'industrie Nationale - Septembre 2001
- 7
- p.7 - vue 7/0
-
-
-
- UN CENTENAIRE DANS UN BICENTENAIRE
- RENCONTRE ENTRE ASSOCIATIONS ET FONDATIONS CRÉÉES AVANT 1901
- Colloque 2 mai 2001
- Les célébrations multiformes de la loi du 1er Juillet 1901 (Conférences, colloques, expositions, rapports, publications diverses...) et les propositions ou revendications faites à cette occasion occultent un pan de l’histoire du pays et minimisent la vie associative intense et riche, qui l’a précédée. L’histoire associative du pays, dans une première approche, peut se diviser en trois périodes : avant, pendant et après la Révolution de 1789.
- Avant : même si l’on ne prend pas en compte les congrégations religieuses (VIe s.), les ordres de chevalerie et les corporations professionnelles (XIIe s.), des associations d’autres natures existent en France, dès le XIIIe siècle. Les compagnies associatives académiques ont fleuri à partir du XVIe siècle et ont animé la vie culturelle littéraire et scientifique du pays. Les clubs et les loges se sont multipliés au XVIIIe siècle, Après la fondation à Rennes en 1756 de la première « société pour l’agriculture, le commerce et les arts », des sociétés d’encouragement réduites, par volonté du pouvoir central, à la seule agriculture, se sont créées dans de nombreuses régions. Vers 1780 les premiers syndicats cherchent à s’organiser... en Angleterre.
- Pendant : la Révolution française proclama la liberté d’association, mais l’Assemblée constituante supprimera, en Juin 1791, les corporations et les barreaux, puis en Septembre les chambres de commerce. En 1792, sous l’assemblée législative les congrégations seront interdites. En 1793, la Convention votera la dissolution des académies et des sociétés savantes, Un décret du 20 mars 1794 met un terme à l’existence des universités, des facultés et des collèges, ainsi qu’aux organisations de professeurs et d’étudiants. Enfin en 1797 les derniers clubs seront fermés.
- Après : cependant les citoyens avaient toujours «le droit de se réunir en Sociétés libres pour contribuer aux progrès des connaissances humaines» mais ces interdits, ces dissolutions les rendaient hésitants et circonspects. C’est dans ce contexte que va se créer la présente Société d’encouragement en 1801. Elle avait été précédée à Paris par la Société des inventions et
- découvertes, la Société libre des Sciences, lettres et arts, la Société du point central des arts et métiers, la Société philotechnique, la Société académique des sciences, trois sociétés de médecine, la Société des belles-lettres, la Société des arts, la Société libre d’institution, la Société libre d’instruction, le Lycée des arts, la Société d’histoire naturelle, la Société des observateurs de l’homme, le Lycée de Paris, le Lycée républicain. A ces associations qui ont presque toutes disparues s’ajoutent le Muséum et la Société Philomatique fondée en 1788 épargnés par la Convention et l’Institut national (Institut de France).
- La disparition des corps intermédiaires, dont beaucoup assuraient des fonctions sociales importantes, fit que certains services essentiels n’étaient pas ou mal assurés. L’une des premières préoccupations de la Société d’encouragement sera d’aider, ce qu’aujour-d’hui on appellerait « les restaurants du cœur ». A ces soupes populaires, se pressait la foule des affamés, elle en tiendra les statistiques. Elle soutiendra inconditionnellement son Président Chaptal, lorsque seul contre tous, il fera appel aux religieuses des congrégations hospitalières interdites, pour permettre aux hôpitaux d’assurer leurs missions. En 1864, elles seront 2292 au chevet des malades.
- Lors du premier siècle de sa vie, la Société d’encouragement a assisté à la Renaissance de la vie associative française qui répondait le plus souvent à des besoins criants. Elle y participera en créant plusieurs « filiales » associatives, dont en 1815 la « Société pour l’enseignement mutuel élémentaire », qui multipliera des établissements d’enseignement, suivant cette pédagogie. En 1866, toujours pour prendre sa propre relève, elle fonde la « Société pour la protection des enfants travaillant dans les manufactures », qui coordonnera les actions de milliers d’associations paternelles veillant sur les apprentis, puis en 1881, la « Société pour la protection des ouvriers contre les accidents de machine », avec pour mission de susciter un réseau d’associations pour l’hygiène et la sécurité en entreprise. Elle encouragera, à partir de 1850, la création d’une vingtaines de Sociétés Industrielles
- 8
- L'industrie Nationale - Septembre 2001
- p.8 - vue 8/0
-
-
-
- associatives dans les régions. Elle sera à l’origine de nombreuses souscriptions pour créer des fonds sociaux (chômage, accidents du travail, blessés de guerre ...). Fidèle à sa doctrine de créer une structure pour répondre à un besoin nécessaire, elle lancera en 2000 le concept d’académie des technologies et des métiers, dont elle déposera alors le titre, estimant qu’on ne peut séparer l’étude des techniques des personnes de métier qui auront à les adapter pour les faire accepter et les mettre en oeuvre pour la satisfaction des usagers et des consommateurs.
- La Société d’encouragement a été la première association reconnue d’utilité publique, par ordonnance royale le 21 avril 1824, en application de l’article 910 du code civil (*). Il subsiste de nombreuses associations créées avant le XXe siècle, qui attirent suffisamment de bénévoles pour être toujours actives, dont environ 500 associations et fondations, reconnues d’utilité publique et authentiquement sans but lucratif. Leur longévité est un gage de l’utilité pérenne de leur mission statutaire, alors que paradoxalement certains estiment qu’aujourd’hui, elles n’obtiendraient plus nécessairement reconnaissance d’utilité publique. C’est pourquoi, la Société d’encouragement a cru bon d’organiser la rencontre du 2 mai 2001.
- Le Président Bernard Mousson ouvre le Colloque en souhaitant la bienvenue aux participants, qu’il présente à Monsieur le Conseiller d’État Jean-Michel Belorgey, Président de la Mission Interministérielle pour la célébration du centenaire de la loi du 1er juillet 1901 et à Monsieur Yann Dyèvre, administrateur civil, responsable du bureau des associations reconnues d’utilité publique, qui leur ont fait l’honneur de participer à leurs échanges. Il a ensuite communiqué les regrets de Monsieur lanello de la Communauté européenne, inopinément empêché, ceux de Monsieur Pierre Patrick Kaltenbach, auteur de plusieurs ouvrages sur les associations et d’une proposition pour la certification des associations, retenu à la Cour des Comptes et les excuses de nombreux présidents d’associations. Il fait part du décès accidentel de Jean-Pierre Merlet, qui devait apporter ses lumières au colloque. Il a réalisé les annotations de la réédition par le Journal Officiel des débats parlementaires sur la loi de juillet 1901. A sa famille, nous adressons les condoléances attristées des associations centenaires.
- Après avoir évoqué rapidement la richesse du concept «d’encouragement», concrétisé à Dublin au début du XVIIIe siècle, qui a permis à cette Société de provoquer des innovations ou d’intervenir en soutien aussi bien sur le plan scientifique et technique que sur
- le plan social, il ouvre le tour de table. Il donne la parole aux délégués des associations de sensibilité protestante, Madame Sévrine de Cazenove et Jean Carayon, par ailleurs Président de la Fondation des Arts et Métiers et administrateur de la présente Société d’encouragement. Ce dernier, après avoir rappelé la déclaration synodale de 1557 sur la liberté de s’assembler, a exposé l’utilisation originale d’associations par l’Église réformée, à la suite du Concordat de 1801. Il interdisait tant aux évêques de tenir des conférences épiscopales qu’aux 81 consistoires protestants de se réunir en synode. Ceux-ci, pour tourner l’interdit, fondèrent autant d’associations qu’il y avait de Consistoires. Elles tenaient leurs assemblées générales, le même jour, dans le même lieu, reconstituant de fait un synode.
- Cette page d’histoire est riche d’enseignements. Elle montre comment l’esprit imaginatif et frondeur des citoyens français a su utiliser la liberté de créer, sans limite et sans contrôle, des associations capables de posséder et de gérer des biens mobiliers et immobiliers sans limitation et de recevoir sans contrôle des dons et legs, et... sans avoir besoin de solliciter du Pouvoir de police l’autorisation de dépassement, par ailleurs largement toléré, du plafond des vingt adhérents.
- Ensuite sont intervenues Mesdames Isabelle Mathieu, Présidente de l’œuvre de la Chaussée du Maine, Evelyn Hadjé de la Société d’encouragement aux Métiers d’Art, Messieurs Gérard Dommanget de la Société d’Entomologie de France, Fernand Girard pour l’Œuvre des Apprentis, Xavier Lauras des Jeunes Économes, Jacques Pezé pour l’Hôpital Hahnemann, Gérard Ragueneau de la Fondation Rothschild, Bruno Taxy de la Fondation de l’Institut Pasteur ainsi que le père Servin pour les Œuvres de Mer. Leurs témoignages ont mis à jour certaines difficultés que rencontrent les associations et les fondations authentiquement sans but lucratif. Ils ont fait connaître leurs interrogations et laissé transparaître certaines inquiétudes, qui rejoignent celles des responsables d’associations, qui n’ont pu être présents.
- Monsieur Dyèvre s’est attaché à clarifier les différences qui existent entre les Fondations qui gèrent des biens, des droits, des ressources pour une œuvre d’intérêt général et les Associations qui sont des contrats entre personnes, alors que le Président Belorgey s’est efforcé de répondre non seulement aux observations générales mais aussi à certaines questions particulières.
- Sur les fondations :
- L’association, qui espère trouver une situation financière meilleure en tentant de se transformer en
- L'Industrie Nationale - Septembre 2001
- 9
- p.9 - vue 9/0
-
-
-
- fondation, fait fausse route. D’une part, l’association perdra la propriété du bien qui doit être transféré à la nouvelle entité et au mieux partagera son pouvoir sur son «ex bien » (immeuble, bibliothèque, musée...) au profit d’administrateurs nommés par le pouvoir central, d’autre part la dotation doit être conséquente et dégager un revenu suffisant pour sa gestion et accomplir la mission assignée. Enfin la combinaison association / fondation s’avère, à l’usage, difficile.
- Par ailleurs, l’article 20 de la loi du 23 juillet 1987 a effectivement porté atteinte aux droits des tiers. En voulant apporter une clarification, elle a créé des situations dommageables, en contraignant certaines associations à abandonner leur dénomination de « fondation » donnée à la constitution de leur contrat associatif, élément de la marque sur laquelle elles avaient investi leur communication.
- Malgré le souci de meilleure gestion qui a motivé les néo-fondations, certaines n’ont pu éviter le scandale financier. Les fortes pressions que certaines associations ont subi pour qu’elles se dépouillent de leur patrimoine au profit d’une fondation ad hoc ont laissé penser à tort à certains, qu’il s’agissait d’une forme inavouée de nationalisation.
- Sur les prédateurs d’associations :
- Certaines associations sont devenues la cible de prédateurs désireux de s’emparer de leur patrimoine mobilier (collections, bibliothèques, archives, portefeuilles...) ou immobilier. Les procédés sont divers, une forme courante de spoliation des associations et des particuliers, est la captation, après deux ans et un jour d’hébergement (décret 1953), sans bourse déliée, de la « propriété commerciale des lieux», par l’association ou la société locataire ayant une activité scolaire et même d’autres missions qui pourraient être requalifiées commerciales.
- Sur les associations reconnues d’utilité publique anciennes :
- Les critères d’utilité publique ayant évolué, ces associations n’ont pas nécessairement intérêt à entreprendre des modifications de statuts, sauf cas de force majeure, car à cette occasion elles risquent :
- - d’une part de perdre la reconnaissance publique de leur utilité, celle-ci n’étant plus considérée comme prioritaire.
- - d’autre part de se voir imposer l’abandon de leurs anciens statuts, qui sont parfois des monument historiques juridiques, au profit de statuts types ou l’inclusion d’articles nouveaux, qui renforcent le pouvoir des tutelles des administrations publiques, bien au-delà des lois.
- La fusion de plusieurs associations en affinité ayant des objectifs similaires ou complémentaires reconnus, pour opérer des économies d’échelle (comptabilité, locaux...), entraîne la nécessité de faire une nouvelle demande pour l’association née de la fusion, sans être garantie de retrouver la reconnaissance. Ces associations peuvent également procéder à leur dissolution à l’exception de l’une d’elles, avec affectation à cette dernière des biens, si les statuts et dans certains cas la tutelle le permettent, cela ne devrait pas susciter les mêmes contraintes.
- Le critère convenu de deux cents adhérents, comme noyau dur, apparaît à l’usage, comme trop absolu et superfétatoire pour accomplir avec satisfaction l’objet social de beaucoup d’associations et notamment de certaines Société savantes.
- Sur le caractère «sans but lucratif» :
- Les associations déclarées ne sont pas obligatoirement sans but lucratif et leurs membres nécessairement désintéressés et voués au bénévolat. La loi, est-il rappelé, exige seulement que leur but doit être autre que de partager des bénéfices. Le terme «bénéfice» est actuellement pris au sens restrictif et arbitraire de « profits capitalistes ». En foi de quoi, sauf convention statutaire contraire, il n’est pas interdit aux membres de tirer «bénéfice» de leur association : services, honoraires, salaires, avantages, jetons de présences, indemnité forfaitaires, mutualisations diverses,..., ces pratiques profitables sont incitatives pour fidéliser une clientèle d’adhérents. Il est évident qu’une interprétation jurisprudentielle plus extensive du sens de bénéfice, changerait radicalement le panorama associatif.
- Sur l’hétérogénéité de la population associative :
- Parmi les associations centenaires se trouvent essentiellement des sociétés savantes, des oeuvres de bienfaisance, de prévoyance, d’entraide, des associations de protection de l’enfance, des maisons maternelles , de santé, d’hygiène, de retraite, des orphelinats, des écoles, des amicales d’anciens. Après la guerre de 1870 qui vit la création de nombreuses Sociétés de gymnastique et d’œuvres coloniales, la Grande-Guerre provoquera la multiplication des associations patriotiques, des ligues, des caisses sociales, des mutuelles, des clubs de sports, de théâtre, de loisirs, des patronages. A partir de la Libération s’ajoutent aux anciennes catégories les associations de sinistrés, de copropriété, de locataires, de défense du voisinage, puis c’est l’explosion des cinquante dernières années : l’association se fait entreprise commerciale, fournisseur captif de chiffre d’affaire à des Sociétés publicitaires ou rabatteurs d’électeurs pour des partis politiques, administration publique par délégation,
- 10
- L'industrie Nationale - Septembre 2001
- p.10 - vue 10/0
-
-
-
- monopole social, fermière générale de cotisations rendues obligatoires... , certaines s’internationalisent.
- L’image de l’association est devenue brouillée, tant pour le grand public que pour les politiques et les agents de l’État. Vouloir réglementer une seule association unique en son genre, porte atteinte à toutes. Un effort a été fait un temps pour réduire les associations para-administratives, qui perçoivent l’essentiel des subventions attribuées aux associations. Cependant, dans l’état actuel de la loi de Juillet 1901, que le Conseil Constitutionnel, considère comme quasi constitutionnelle, il n’y a pas de possibilité, au moment du dépôt des statuts, d’effectuer un contrôle d’orientation, vers une formule juridique plus adaptée à l’objectif affiché : syndicat, parti politique, société civile ou commerciale... Ne pourrait-on pas :
- - mieux informer les déposants potentiels ?
- - simplifier et normaliser les procédures de dépôts et de publicité des personnes morales?
- - unifier les frais de dépôt?
- Les lourdes contraintes engendrées ipso facto par le dépôt d’une société commerciale, ne peuvent qu’inciter nombre de candidats à la création choisir le dépôt d’une association dont l’activité économique risque de passer inaperçue pendant des années.
- Sur le changement de statut :
- Bien que les obstacles de principe à la transformation d’une association en société soient juridiquement fondés, ne doit-on pas faciliter, aux associations qui le souhaitent, leur requalification en syndicat, en société commerciale,... en prévoyant des procédures idoines?
- Sur les dons et legs :
- Le champ des bénéficiaires potentiels des dons et legs a été étendu bien au-delà des associations reconnues d’utilité publique. Le privilège qu’a pu constituer la reconnaissance d’utilité publique, tend donc à se banaliser, en dehors de cette reconnaissance contraignante. Il existe une véritable compétition auprès des donneurs et des légueurs potentiels et des personnes qui peuvent les influencer. Les notaires subissent de multiples pressions pour orienter les dons et legs de leur clientèle . A côté du congrès des notaires qui se tient chaque année existerait, ce que certains appellent, «la foire aux legs ». Certaines associations font appel à des démarcheurs rémunérés à la commission. Des sommes importantes sont investies dans des actions médiatiques pour drainer les dons manuels. Ces méthodes sont étrangères à la culture interne des associations et fondations centenaires. Du fait de ce drainage systématique la plupart de celles-ci n’ont plus bénéficié de legs depuis des décennies, à l’ex
- ception de celles qui ont des réseaux relationnels fidélisés (confessions, anciens élèves...) et ainsi pu préserver une partie de leurs recettes.
- Sur les aides publiques :
- Le financement des associations par la puissance publique a été soulevé par plusieurs associations. Il poserait des questions idéologiques et morales, qui risquent de ne jamais trouver de réponse satisfaisante. De ce fait l’aide publique reste totalement discrétionnaire et va majoritairement aux association para-administratives. Les subventions générales, en dehors du saupoudrage d’aides symboliques que pratiquent encore certaines collectivités locales et territoriales, tendent à disparaître, au profit d’aide contractuelle. L’association n’est plus reconnue, par les tenants de l’État, comme un lieu où des citoyens prennent bénévolement des responsabilités pour une démarche particulière dans l’intérêt général, mais comme un fournisseur dont on achète les produits.
- Le versement de subventions pour la réalisation de telle ou telle prestation, parfois à l’issue d’un appel d’offre, se rapproche des contrats d’honoraires rémunérant des prestations. Le risque que le fisc les traite comme tels est grand.
- Sur les autres recettes :
- Faute de donations, de legs et de dons manuels, ou d’avoir la faculté d’organiser des kermesses ou des « ventes de charité », les associations qui ne sont pas des mutuelles, entreprises de spectacles sportifs ou autres ne peuvent compter que sur les cotisations des adhérents, les subventions publiques ou la production de recettes propres (études, locations, prestations diverses...). Il est extrêmement regrettable que la loi du 1er juillet 1901, interdise aux associations la possession d’immeuble de rapport, que les associations créées antérieurement ont dû vendre, perdant avec les loyers une source de revenus garantis. Le capital, issu des ventes des immeubles, placé en rente sur l’État, a été laminé par l’inflation.
- Les associations d’intérêt général, qui n’ont aucune prestation à offrir à leurs adhérents pour les fidéliser, ne peuvent compter sur des rentrées stables de cotisations. La validation désormais possible de ce « temps donné » comme cotisation, fait qu’une partie de ceux, qui consacrent bénévolement un temps notable à l’association rechignent à payer en plus une cotisation. Cette mesure contribue à la baisse des recettes des associations.
- Les circulaires fiscales du 15 septembre 1998 et du 16 février 1999, dont beaucoup de responsables n’ont entendu parler que lorsque le délai de consultation d’un interlocuteur fiscal a été forclos, développent de
- L'industrie Nationale - Septembre 2001
- 11
- p.11 - vue 11/0
-
-
-
- l’incertitude et créent une réelle inquiétude chez les responsables d’association qui n’ont jamais eu de rapport avec le fisc. Ces «instructions » semblerait, pour certains, remettre en cause, la charge de la preuve, qui est légalement de la responsabilité du fisc. Le seuil défiscalisé fixé concernant certaines recettes pouvant être réputées concurrentielles est extrêmement bas, il permet à peine avec les charges sociales de rémunérer décemment une secrétaire qualifiée ou une aide comptable. La fiscalisation des fruits du travail bénévole est ressentie comme très choquante.
- Sur la labélisation :
- Ne faut-il pas envisager la certification des associations faisant appel à la générosité du grand public ou postulant au soutien à fond perdu des aides attribuées par les pouvoirs publiques ou par des mécènes, se demandent certains ?
- La reconnaissance d’utilité ou l’agrément ne sont-ils pas des certifications ?
- Plusieurs projets pour évaluer les mérites des associations ont été proposés. Ils ont tous comme points communs d’une part la nécessaire existence d’un code déontologique de bon usage et de bonne conduite, qui servirait de référentiel à l’instance certificatrice, d’autre part celle-ci devra être indépendante, impartiale et honnête.
- Pour ce faire, il a été proposé plusieurs formules :
- - la création de chambres consulaires associatives,
- - un pouvoir encore plus étendu aux administrations publiques
- - le recours à un bureau de contrôle du type Véritas (ou Securitas...), suivant la formule proposée par le Conseiller Kaltenbach,
- - l’adhésion à une Charte, suivie d’une mise à l’épreuve puis contrôle tournant par une commission de 3/4 personnes qui seraient désignées cas par cas par une instance inter-associative.
- Le Président Bélorgey, pour cette fonction, ne souhaite pas voir s’étendre encore les pouvoirs de l’État et de ses services, et n’est pas favorable au recours à des opérateurs issus du marché ou à une instance corporative et marque une préférence pour la dernière proposition.
- Faut-il, pour réguler quelques associations monopolistiques ou impérialistes et humainement démesurées, dont le fonctionnement ne peut qu’échapper à leurs administrateurs bénévoles, otages autant que caution d’honorabilité et imposer des charges supplémentaires à celles qui sont de taille humaine et handicaper encore plus la bienfaisance ?
- En affichant toujours plus de suspicion ne risque-t-on pas alors que de multiples tutelles et niveaux d’évaluation, d’agréments et de contrôles s’exercent, de détourner plus encore du bénévolat. Les associations déjà largement entravées sont traitées comme des personnes morales mineures ou incapables. Un simple bilan annuel additionnel des actions désintéressées, à ajouter aux déjà lourdes obligations de plan comptable, de tableau de bord..., certifié par le commissaire aux comptes, ne suffirait-il pas? mais est-ce bien nécessaire d’empiler de nouveaux frais comptables à ceux existants qui sont loin d’être négligeables, amputant encore plus les moyens de la bienfaisance ?
- Sur la parité :
- Certains revendiquent la parité des sexes dans les associations ou leurs bureaux. Que faut-il en penser ?
- Le contrat associatif est le domaine de l’affinitaire et de l’entre-soi. Certaines associations sont unisexe et c’est leur raison d’être ? Va-t-on les obliger à ouvrir leurs adhésions à l’autre sexe et perdre ce pourquoi elles ont été créées ? L’entre soi ne signifie pas nier le hors de soi, et refuser le dalogue. Ce n’est certainement pas la volonté des associations participantes.
- Cette première rencontre informelle entre associations et fondations centenaires a fait ressortir, malgré la large variété de leurs objectifs propres, qu’il existait entre elles de nombreux points communs qui leur donnent une spécificité particulière dans la nébuleuse associative, dont la volonté de servir dans un désintéressement authentique.
- Sans porter un jugement général sur la loi du 1er juillet 1901, il est permis de douter que cette législation leur ait été positive. Des questions posées ont reçu des réponses, mais certains problèmes n’ont pas trouvé l’ébauche de solution. C’est pourquoi, vis-à-vis de pouvoirs qui veulent le bien de la communauté nationale, elles représentent des interlocuteurs sérieux, qui ont l’esprit de suite et de l’endurance. Les échanges, qui ont eu lieu, ont montré qu’elles avaient beaucoup de choses à dire et à se dire et des expériences à partager. Certaines ont émis le voeu que cette rencontre qui a été effectivement trop courte, soit renouvelée. A l’initiative de qui, quand et sous qu’elle forme ? Des consultations seront nécessaires.
- (*) Sur les circonstances de la première reconnaissance d’utilité publique d’une association : la Société d’encouragement pour l’industrie nationale, le 21 Avril 1824, voir «Industrie Nationale », du second semestre 1997/ premier semestre 1998.
- 12
- L'Industrie Nationale - Septembre 2001
- p.12 - vue 12/0
-
-
-
- Dans ce nouveau chapitre de la revue, vous trouverez soit des articles récents émanant de nos différents comités, soit l’information concernant la parution de nouveaux livres dont les auteurs sont des membres actifs de nos comités.
- Dans ce numéro :
- — du Comité du Commerce, des Transports, du Tourisme et de l’Outre-Mer
- Un article de Monsieur Jacques Crosnier membre du Comité: «Les Organismes génétiquement modifiés O.G.M.»;
- — du Comité des Arts Physiques
- Un article de Monsieur Michel H. Carpentier, Président du Comité des Arts Physiques « Où s’arrêtera l’évo lution des Circuits Intègres (Puces) ». Un article de Monsieur E. Dieulesaint, Professeur Émérite de l’Université Pierre-et-Marie-Curie, membre du Comité, « Les Ondes élastiques : du Sonar au Filtre pour Téléphone mobile » ;
- — du Comité de la Communication
- Un article de Jean François Bege, Président de l’Association de la presse ministérielle, membre du Comité. De grandes méconnues : les Associations de Journalistes.
- L'industrie Nationale - Septembre 2001
- 13
- p.13 - vue 13/0
-
-
-
- DU COMITE DU COMMERCE, DES TRANSPORTS, DU TOURISME ET DE L'OUTRE-MER
- LES ORGANISMES GÉNÉTIQUEMENT MODIFIÉS (O.G.M.)
- Jacques CROSNIER
- Les O.G.M. ont, depuis longtemps, fait l’objet d’études, de recherches et d’expérimentations en culture aux États-Unis d’Amérique, pour un grand nombre de produits agro-alimentaires. C’est donc dans ce pays qu’il convient de chercher les informations comparatives pour avoir une meilleure compréhension de l’évolution du phénomène en France et en Europe.
- 1) Les États-Unis et les O.G.M.
- Si l’Europe a un sigle unique O.G.M. pour désigner la modification génétique des organismes, aux États-Unis, il existe plusieurs appellations pour cette désignation, comme G.E.F. (genetically engineering food), G.M.F. (Genetically modified food), G.M.O., traduction du sigle français, et, tout simplement G.M. C’est sans doute dû au fait qu’en l’absence de références officielles, la presse des divers États, qui s’y intéresse, établit ses propres sigles .Pour certains, l’alimentation n’a rien à voir avec un organisme. On note une amplification de ce thème à travers les médias, qui se font l’écho de la situation en Europe où les débats sont plus engagés qu’aux États-Unis. Ceux-ci commencent seulement à prendre conscience du problème O.G.M. Il est intéressant, à cet égard, d’examiner la position respective de tous ceux qui sont ou seront concernés par les O.G.M., avec, au préalable un aperçu de l’importance de son développement dans ce pays.
- IMPORTANCE DES O.G.M.
- Les cultures où la proportion des plantes sont le plus génétiquement modifiées sont : le soja, 55 % des récoltes, le coton, 50 %, le maïs, 35 à 40% . Il faut aussi mentionner, bien qu’il n’y ait pas de statistiques, les légumes, les pommes de terre, les tomates, les poivrons, etc., ainsi que les « peanuts », et le lait, donc une très grande proportion de l’alimentation américaine avec les aliments pour nourrissons et bébés, les céréales du petit déjeuner, la charcuterie et les plats préparés, pain, yaourts, etc.
- POSITION ACTUELLE DES DIFFÉRENTS INTÉRESSÉS
- Les CONSOMMATEURS ne s’expriment encore guère, sauf par l’intermédiaire de diverses associa
- tions qui les représentent, pas moins de 20, et qui commencent à avoir d’importants moyens de pression grâce à la coalition qu’elles ont constituée. Elles sont actuellement en train de faire bouger l’opinion publique et les autorités responsables . La coalition utilise l’internet et les médias. C’est ainsi que le très important « New-York Time » publie chaque lundi une page entière sur les O. G. M., généralement comme mise en garde. L’une d’elles, par exemple, met en gros titre « Biotechnology = Hunger ». Elle refuse, point par point, les arguments avancés par les Industriels de la Biotechnologie, que leur affirmation de « donner une solution à la faim dans le monde », non seulement est faux, mais qu’au contraire, c’est la famine qui s’en suivra, en chassant les paysans du Tiers-Monde de leur terre. Un spécialiste de ce problème mondial pourrait refuser également ce point de vue assez audacieux, et partiellement erroné, mais la coalition veut frapper fort pour mieux mobiliser l’opinion publique.
- Par contre, celle-ci n’a pas tort de dénoncer l’abus et le monopole des firmes comme Monsanto, lorsque celle-ci a réussi à propager la semence «terminator» qui assurait la stérilité de la semence suivante pour que le « farmer » américain ne puisse l’utiliser pour la récolte à venir. Le résultat de cette campagne a été de terminer le «Terminator». Autre révélation, la «roulette écologique» ; l’industrie biotechnologie montre l’impact favorable des produits O.G.M. sur l’environnement, en diminuant, voire en supprimant le besoin de pesticides. Or, d’un côté, Monsanto, encore elle qui produit le fameux herbicide «Round-Up», commercialiserait des plantes génétiquement manipulées résistantes à l’herbicide, gagnant ainsi sur les deux tableaux. Comme d’autres firmes font la même chose avec d’autres produits, la coalition peut ainsi dévoiler des pratiques contestables, et montrer qu’au contraire des produits G.M. contribuent à polluer la terre et l’eau. Autre argumentation, celle du contrôle difficile des cultures modifiées dans le milieu naturel. Ainsi, la pollinisation croisée avec des cultures conventionnelles est réelle. De même, il y a une possibilité pour des plantes de développer une résistance aux pesticides, position qui n’est pas éloignée de celle des scientifiques.
- 14
- L'industrie Nationale - Septembre 2001
- p.14 - vue 14/0
-
-
-
- Les INDUSTRIES de BIOTECHNOLOGIE, devant la montée des craintes de l’opinion publique, réagissent de façon individuelle. Certaines prennent les devants, comme Gerber & Heinz qui fabriquent des aliments pour bébés. Elles ont fait savoir que leurs produits resteront hors O.G.M. Cargill et Archer, Daniels Midland Co. ont demandé aux fermiers américains dont elles sont les fournisseurs de séparer les deux types de cultures. Leurs dirigeants se sont rendus compte que la demande des semences avait nettement baissé. D’autres firmes ont demandé que le stockage des céréales soit également bien distinct. Par contre certaines firmes soulignent que, pour les graines de coton, il sera difficile de séparer les traditionnelles des nouvelles « Round up Ready ». Quant à Dupont, il pense que les producteurs ne vont pas de sitôt abandonner leur habitude de semer des plantes O.G.M. Semblable est l’opinion de Willamson Country Grain in Taylor qui affirme que tant qu’il n’y a pas possibilité de savoir si un produit est modifié ou non, il n’y a pas lieu de préconiser la séparation des semences, à moins qu’il y ait assez de demandes dans ce sens. Voilà la position dominante qui s’appuie sur les lois du marché, attitude typique des anglo-saxons en ce qui concerne l’économie. Elle n’a que l’inconvénient de ne pas vouloir regarder l’intérêt des consommateurs.
- LES PRODUCTEURS, que sont les «farmers» américains sont partagés entre la routine, et donc ne rien changer à leurs habitudes, et le doute quant à la vente de leur récolte. Pour les premiers, on continuera à semer des «O.G.M.», car ils pensent réaliser des économies sur les pesticides de l’ordre de 10 dollars par hectare, soit une somme substantielle pour les grandes exploitations, nombreuses en ce pays à culture extensive. Les autres, sentant le vent tourner, ne veulent pas risquer de se retrouver avec des récoltes qu’ils ne seraient pas sûrs de pouvoir écouler 5 ou 8 mois plus tard.
- LES SCIENTIFIQUES ne se manifestent guère, sauf certains, à titre individuel. Des chercheurs de Comel University ont découvert que le pollen du blé G.M. appelé Bt ( Bacillus Thuringensis) serait la cause de mortalité des larves du papillon «Monarch». Ils recommandent donc d’effectuer l’isolement de cet ensemencement. D’autres chercheurs ont démontré qu’un germe modifié d’une noix du Brésil aurait provoqué des réactions allergiques sur des consommateurs . Pour cette raison, le produit n’a jamais été commercialisé.
- Les scientifiques sont bien sûr concernés par les éventuels phénomènes de « résistances » aux produits phytosanitaires, aux possibilités de toxicité des produits modifiés, sur lesquels les recherches continuent.
- Les scientifiques des grandes «Corporations» ont mission de tenter de rassurer le consommateur américain.
- FED OF CHICAGO.
- La position de la « Federal Bank of Chicago » étudie l’aspect économique du problème. Dans une revue d’économie agricole, un économiste de la F.E.D. a écrit que les céréales G.M. vont contribuer à améliorer l’environnement, la santé humaine, mais que les O. G. M. alimentaires vont accroître les coûts de fabrication et de distribution de ces aliments. En reconnaissant qu’il existe des incertitudes sur le problème de la «safety» de ces nouveaux produits en ce qui concerne la santé et l’environnement, il suggère que les O. G. M. soient, je cite « segragated, tested, label-led and regulated » propositions qui représentent indéniablement un coût. Ce sera un problème d’infrastructure pour le fermier, a-t-il ajouté.
- LES TROIS ORGANISMES OFFICIELS : E. P. A. , U. S. D. A., F. D. A.
- L’E.P.A. est l’Agence pour la Protection de l’Environnement. Elle est donc concernée par tout ce qui interfère en ce domaine, et en premier lieu par les produits phytosanitaires, dont les pesticides. En ayant appris les effets néfastes sur les papillons par le produit modifié « Bt », elle a demandé que les cultures de coton G.M. soient réalisées séparément des cultures conventionnelles.
- L’U.S.D.A.,le Département de l’Agriculture intervient par le canal de l’APHIS autrement dit « Agency of Plant and Health Protection ». Pourvue de phyto-pathologistes et de vétérinaires, elle contrôle les industries agro-alimentaires et supervise les recherches et les rapports établis en vue de mettre des produits d’origine animale et végétale sur le marché.
- La « FOOD and DRUG ADMISTRATION » est un organisme aux pouvoirs étendus, également concernée par les O.G.M., avec cette restriction importante actuelle que cet organisme n’est que consultatif. Les entreprises qui veulent fabriquer et vendre des denrées G.M. lui soumettent leurs résultats de recherche sur le ou les produits en question, avant de les lancer sur le marché. L’étiquetage n’est pas obligatoire, sauf dans l’un des cas suivants : présence de substances pouvant provoquer des allergies ; changement dans la composition chimique ou nutritionnelle du produit par rapport au produit conventionnel.
- La F. D. A. a tenu à organiser trois réunions à travers les États-Unis pour recueillir toute information susceptible de lui permettre d’établir une position officielle sur les O. G. M.
- L'Industrie Nationale - Septembre 2001
- 15
- p.15 - vue 15/0
-
-
-
- Le COMITÉ de l’Agriculture du SÉNAT dirigé par Richard Lugar, Sénateur très apprécié, a souhaité corriger les informations erronées diffusées par certains journaux et publier les résultats des recherches scientifiques en faveur de la sécurité des biotechnologies. Il y a, dit-il, une différence entre écrire «it is not unsafe», and «it is safe». Il demande d’avantages d’appui de la part du F.D.A. et du ministre de l’agriculture. Le sénateur Bond du Missouri, état dans lequel se trouve le grand fabricant d’O.G.M., Monsanto, demande que la science puisse prévaloir sur la politique en s’adressant à ses collègues du Sénat.
- L’ex-ministre de l’agriculture sous Clinton, Glick-man, ainsi pressé de partout, a demandé l’opinion de l’Académie des Sciences et avait fixé pour juillet 2001 une réunion avec des scientifiques indépendants. Il a fait connaître que si le consommateur américain demande que les aliments G.M. soient clairement identifiés «il a le droit de l’exiger», signal fort qui s’adresse à tous ceux concernés par ce problème.
- Les Grandes INDUSTRIES de BIOTECHNOLOGIES et leurs réactions. Ces grandes firmes ne restent pas les bras croisés pendant que s’amplifie un mouvement moins favorable de l’opinion publique en ce qui concerne les O. G. M. D’abord, s’agissant de multinationales, elles ont transféré dans des pays plus sûrs leurs recherches et leurs expérimentations sur le terrain. Ainsi en Georgie, et aussi en Amérique Latine, comme le fit la United Fruit dans les «Républiques Bannières» d’Amérique Centrale.
- Elles ont formé leurs cadres à être en mesure de répondre aux journalistes, voire de convaincre ou rectifier la presse, et en même temps les amener à publier les résultats de leur propre recherche.
- Ces compagnies ont engagé les producteurs favorables à la biotechnologie à s’exprimer auprès des consommateurs pour faire savoir que de tels produits sont bons pour la santé et qu’il faut soutenir la technologie au service de l’alimentation.
- De leur coté, les industries de biotechnologies ont créé une coalition avec la « Farin Bureau Federation », la « Grocery Manufacture of America» et vingt-quatre autres organismes et corporations où figure Monsanto. Ce regroupement a son siège à Washington.
- Il existe donc une certaine effervescence chez tous les acteurs et spectateurs de la grande pièce qui se joue aux États-Unis, non sans répercussions sur les échanges avec le reste du Monde, ne serait-ce que par le canal de L’Office Mondial du Commerce, et ce, pour de nombreuses années à venir. La position de l’Europe, et singulièrement de l’Angleterre, la porte d’entrée des USA en Europe, sera dès lors importante.
- 2) La France et les OGM.
- Les recherches s’effectuent aussi bien dans le domaine public avec l’Institut National de la Recherche agronomique que dans le domaine privé du secteur agro-alimentaire et phytosanitaire. La recherche commence en laboratoire et se poursuit sur des parcelles expérimentales, ou par contrat avec des agriculteurs.
- Si la recherche fondamentale est discrète, la recherche appliquée l’est nécessairement moins. Aussi, est-elle la cible de groupes anti O.G.M. violents qui ont détruit ou veulent détruire toutes les parcelles expérimentales sous le prétexte qu’il existerait une potentielle contamination de proximité par le vent, des récoltes traditionnelles par suite d’une pollinisation croisée. Ce risque est admis par des services à caractère officiel. L’autre grief fait aux O.G.M. réside dans les allergies possibles dont au moins une protéine serait tenue pour responsable, la CRY9C qui est présente dans la variété de maïs « starlink». On sait, toutefois, que cette variété n’est pas autorisée pour la consommation humaine. Dans un climat détérioré par les mésaventures de la filière bovine et l’épidémie de la fièvre aphteuse chez les bovins britanniques, ces campagnes médiatisées contre les nitrates et les O.G.M. sont porteuses pour les producteurs de cultures ou d’élevages dits «biologiques», qui en tirent largement bénéfice.
- L’Agence Française de Sécurité Sanitaire des Aliments (AFSSA) est plutôt rassurante sur ce point, en mentionnant: «la probabilité d’effet toxique ou allergique apparaît comme extrêmement faible». A ce stade, aucun élément porté à notre connaissance ne suggère de risque pour la santé publique, notamment compte tenu des faibles teneurs observées dans les lots concernés. Cependant, le Ministère de l’Agriculture, pour ménager l’opinion désorientée et par souci de «précaution», a préféré faire procéder à l’arrachage des cultures de maïs, soja et colza qui ont été suspectées d’avoir été «contaminées» par des cultures O.G.M. voisines.
- On s’accorde dans les milieux scientifiques à penser qu’il n’y aura jamais en biologie une sécurité de dispersion totale. Ce qui implique que certaines récoltes issues de semences traditionnelles pourront avoir des traces d’O.G.M., même si elles ne sont qu’à hauteur de 1 pour 1000. C’est une raison supplémentaire pour prendre, dans l’immédiat, le maximum de précautions pour les expérimentations en plein champ de cultures génétiquement modifiées.
- D’une manière générale, on s’oriente en France vers un renforcement des contrôles des cultures et pro-
- 16
- L'industrie Nationale - Septembre 2001
- p.16 - vue 16/0
-
-
-
- duits O.G.M. par le Ministère de l’Agriculture par une plus grande transparence, dans le but de sécuriser les consommateurs et satisfaire l’opinion publique.
- On ne peut oublier que ces nouveaux produits sont susceptibles d’apporter des réponses intéressantes dans le domaine de l’alimentation et de la nutrition, en fournissant des aliments ayant moins de graisses, davantage de protéines ce qui est fondamental dans le cas des pays pauvres où sévit la malnutrition, ou encore en permettant aux plantes de lutter contre leurs ennemis habituels. Ce serait une grave erreur que de ralentir les recherches et abandonner les expérimentations, abandonnant aux autres États les bénéfices du progrès scientifique.
- 3) En Europe
- La Commission Européenne vient, non sans retard, de se pencher sur la question des O.G.M. dont on sait qu’elle occupera une place de plus en plus grande dans la décennie à venir aussi bien sur le plan technologique que sur le plan économique. Il faut mentionner que beaucoup de pays européens sont déjà fort avancés dans la recherche sur la modifica
- tion génétique des plantes. L’Espagne en est un exemple. Pour le Commissaire Européen en charge de la santé et de la consommation, David Byrne, il est nécessaire de relancer la commercialisation des produits O.G.M., tout en assurant la protection du consommateur.
- Pour ce faire, une Autorité Alimentaire Européenne verra le jour dès le début de l’an 2002. Elle sera constituée de scientifiques réputés et indépendants du monde politique et de l’industrie privée. Ces experts seront chargés d’étudier les O.G.M., de s’assurer qu’ils ne comporteront pas de risque pour la santé publique, la santé animale ou l’environnement. Ils étudieront également la traçabilité des produits O.G.M. en remontant la chaîne de production, afin, le cas échéant, de retirer du marché tous les produits d’une filière à risque parce que «contaminée».Les nouvelles dispositions européennes auront à recevoir l’aval du Parlement Européen et du Conseil des Ministres.
- On peut s’attendre à de longs débats pour trouver un juste équilibre entre la libération du commerce des O.G.M. et la sécurité alimentaire.
- as
- L'industrie Nationale - Septembre 2001
- 17
- p.17 - vue 17/0
-
-
-
- DU COMITE DES ARTS PHYSIQUES
- OÙ S'ARRÊTERA L'ÉVOLUTION DES CIRCUITS INTÉGRÉS (improprement appelés en France PUCES)
- Michel H. CARPENTIER*
- La Légende dit (ou les journalistes, ce qui est à peu près la même chose) que l’invention du siècle est le transistor, inventé comme on le sait par le trio Bardeen, Brittain et Schockley, trio récompensé en 1956 par le prix Nobel de physique.
- Les Français (en l’occurrence la Thomson**) ont eux, inventé le mot « puce », qu’ils sont les seuls à utiliser pour désigner les « circuits intégrés » (les anglo-saxons disent «chip» et les brésiliens «pastilla») qui, aujourd’hui, contiennent tout un système de plus en plus complexe, sur un parallélépipède de quelques centimètres carré, et grâce auxquels l’informatique est aujourd’hui ce qu’elle est, et grâce auxquels, en général, existent les «nouvelles technologies».
- C’est vrai que Bill Schockley a eu le grand mérite... de se fâcher avec huit de ses principaux collaborateurs : il était (fort) intelligent, plein d’humour, mais très difficile à vivre. Grâce à quoi, ses «huit traîtres de collaborateurs» (comme il les appelait) l’ont quitté dans les années 50 pour aller chez Fairchild, où ils ont trouvé les technologies de photogravure, l’outil qu’il leur fallait.
- Photogravure + connaissance de l’art des transistors (bien théorisé par Bill Schockley, il est vrai), il en est résulté l’invention du transistor planar (les trois électrodes du transitor l’une à côté de l’autre au lieu de l’une au-dessus de l’autre), et, en conséquence immédiate, l’invention des circuits intégrés, ce qui - pour le coup -est bien à mon sens, l’invention du siècle.
- Peu après l’invention du C Mos a parachevé l’œuvre de Hoerni et al.
- Quelques dates
- 1928 Brevet sur transistor MOS, par J.E. Lilienfeld, Université de Leipzig ; malheureusement, faute de disposer de matériaux assez purs, cela ne fonctionne pas.
- 1943 environ, on constate sur les «cristaux» redresseurs de radars que certains redressent dans un sens et d’autres dans l’autre, d’où les notions de Silicium N et de Silicium P.
- 1947 Transistor à pointes inventé par Bardeen, Brittain, qui n’a jamais servi à rien d’industriel, présenté au public le 30 juin 1948, après que la présentation ait failli être interdite par les militaires, ce qui a fait son succès.
- 1948 Brevet sur transistor à jonctions en Germanium, par Bill Shochkley.
- 1958 Le premier « transistor MOS industriel », le tec-netron, par le français Teszner (père).
- 1959 La technologie Planar, Hoerni et al. Fairchild.
- 1961 Circuits Intégrés au Silicium, X.Y.Z, ...Fairchild.
- 1964 C. MOS David Sarnoff Labs.
- Parmi les informations techniques de mi-2000, on trouve les deux suivantes (parmi plein d’autres de même nature):
- 1) Texas Instruments, qui est toujours le premier producteur de «puces» de traitement de signal dites «D.S.P.» (pour digital signal processor), annonce 2 nouveaux DSP à virgule fixe, le C55X à faible consommation (on verra plus loin que ceci a un vrai sens) et le C64X à hautes performances, pour remplacer les C54X et C62X, avec - disent-ils - un gain de 5 à 7 sur les performances.
- Le C55X tourne avec une fréquence d’horloge de 400 MHz et fournit 800 MIPS à 8 bits ou 16 bits. Le C64X tourne avec une fréquence d’horloge de 1,1 GHz et fournit 4400 MIPS à 16 bits (et 8800 à 8 bits). Vu autrement, ce C64X permet d’émuler 32 modems ADSL sur une pastille (« puce »).
- On peut se souvenir du début des années 80 (il y a 20 ans) où le célèbre « mégamini » de D.E.C. faisait un MIPS, ...dans un quart de mètre cube.
- 2) Lucent Technologies présentait au congrès ISSC 2000 un circuit intégré de 207 mm2 comportant 4 DSP travaillant à 100 MHz de fréquence d’horloge, donnant une puissance de calcul de 3,2 GOPS (milliards d’opérations - de multiplications - par seconde), consommant 4 W, en technologie 0,35 um (de dimension la plus fine). Ce circuit permet d’émuler
- 16 modems ADSL sur une pastille. Chacun des 4 DSP est un processeur «RISC» à 32 bits. Le circuit intégré comporte en outre un co-processeur « SIMD » à 64 bits et une mémoire « cache » (de 8 kilooctets). On
- * Ancien Directeur Technique Général de Thomson et de Thomson-CSF. ** Le mot «puce» a d’abord été utilisé par les ouvrières de Thomson Semi-Conducteurs (rue de Cronstadt à Paris) pour désigner les toutes petites diodes que l’on faisait sauter pour les retourner, en frappant sur l’assiette qui les contenait. Il a ensuite été repris par la publicité pour les machines à laver «Thomson», qui contenaient un petit circuit intégré microprocesseur, qualifié de puce.
- 18
- L'Industrie Nationale - Septembre 2001
- p.18 - vue 18/0
-
-
-
- se rappelle le premier Cray 1 avec 1 GOPS (à 64 bits, mais quand même !).
- Lucent a par ailleurs annoncé qu’ils prévoyaient d’intégrer 32 de ces DSP avec une fréquence d’horloge de 200 MHz, avec donc une puissance de 8 x 2 x 3,2 = plus de 50 GOPS (sûrement en technologie plus fine, plutôt 0,15 um).
- Et tout cela est l’une des nombreuses conséquences normales de la loi de MOORE, que je vais évoquer, sous sa forme originale, et ses corollaires divers.
- La loi de MOORE régit la vie et l’évolution des circuits intégrés, en fait des mémoires numériques dites DRAM, très utilisées. Mais on peut, comme on le verra, l’extrapoler sur les circuits que je qualifie d’intelligents, de la race microprocesseurs (uproc) et «digital signal processors» (DSP).
- Elle a été énoncée, sans aucune preuve bien sûr, par Gordon Moore, qui n’était pas neutre puisque cofondateur d’INTEL, société qui fera des uproc et des mémoires jusqu’en 1985 (Intel n’a arrêté les mémoires qu’en 1985).
- Elle est de la même veine que toutes les lois énoncées il y a beaucoup plus de 20 ans par Norman Agus-tine, président de Martin-Marietta : l’une de ces lois disait qu’en prenant des échelles logarithmiques la courbe donnant le prix d’un avion d’armes en fonction du temps était linéaire ; et qu’en la prolongeant jusqu’en 2052 on trouvait que ce prix devenait supérieur au PNB des États-Unis.
- La loi de Moore ressort elle aussi du principe qu’en prenant des échelles logarithmiques beaucoup de courbes sont linéaires sur une bonne longueur.
- Elle dit quelque chose comme:
- À chaque génération de circuits intégrés mémoire DRAM, le dessin devient plus fin dans un rapport V2/2, la surface de silicium est multipliée par 2, et donc le nombre de transistors contenu dans le circuit intégré (puce) est multiplié par 4.
- Cette loi n’a pas d’origine, ce qui est gênant. On ne sait jamais trop bien par ailleurs si on parle de circuits en développement, en échantillonnage, en préproduction ou en production, ce qui permet quand même de dire un peu n’importe quoi. Mais ceci étant, on a constaté sur 30 ans qu’elle était provisoirement assez fondée, et maintenant les constructeurs, quoi qu’ils en disent, se comparent à elle, pour savoir s’ils sont à la traîne.
- À partir d’une documentation Siemens sur l’évolution des D-RAM, j’ai calculé qu’une génération en D-RAM arrivait en moyenne toutes les 3,1 années, que le coefficient de « scaling», de «shrink», de rétrécis
- sement, d’une génération à la suivante était plutôt 0,66/0,67 que 0,707, et que le nombre de transistors était multiplié en moyenne d’une génération à la suivante par un peu moins de 4 (3,7 de façon précise).
- Le talbeau suivant représente l’évolution des mémoires D-RAM:
- Loi d le Moore pour D-RAM en préproduction
- 1970 1 kbits finesse de 9 um 3000 transistors
- 1973 4k 6 um 15000
- 1976 16k 4 um 40000
- 1979 64 k 2,6 um 160000
- 1982 256 k 1,8 um 600000
- 1985 1 M 1,2 um 2.E6
- 1988 4M 0,8 um 8.E6
- 1991 16 M 0,5 um 30 .E6
- 1994 64 M 0,35 um 90 .E6
- 1997 256 M 0,23 um 400 .E6
- La suite extrapolée donne 2000/2001 1 Gbits 0,15 um 1,6.E9
- 2004 4 Gbits 0,10 um 5.E9
- Et, si l’on continue à extrapoler, 2013/2014 256 Gbits en 0,03 um avec 300 milliards de transistors.
- Est-ce bien raisonnable ? Jusqu’à quand peut-on extrapoler ?
- Ainsi donc nous en sommes en 2000 à 0,23 um en mémoires, ce qui veut dire que des concepteurs de circuits « intelligents » peuvent depuis quelques temps, à leurs risques et périls, utiliser cette technologie d’abord pour reproduire à échelle réduite des circuits existants, puis pour réaliser des circuits plus complexes, de plus en plus complexes, qu’ils produiront industriellement dans quelques années. La durée séparant la sortie industrielle des circuits intelligents utilisant au mieux les possibilités d’une génération donnée, de la sortie industrielle des mémoires de la même génération, augmente naturellement avec la complexité des circuits, donc avec le rang de la génération. Les circuits intelligents, plus difficiles à réaliser que les mémoires, obéissent donc à une loi de Moore un peu modifiée, et complétée comme on va le voir.
- J’ai trouvé que pour des DSP ou des uproc (en préproduction) on avait à peu près ceci: une nouvelle génération toutes les 3,8/3,9 années, une augmentation de surface d’une génération à la suivante plutôt dans le rapport V2 que 2, ce qui semble normal. Et, logiquement aussi puisque la finesse du dessin est améliorée dans le rapport V2, la fréquence du travail est multiplisée par 72 à chaque génération.
- En 1971, l’Intel 4 bits avait 2300 transistors sur 18 mm2 avec une technologie, fine pour l’époque, de 4 à 5 um. Au début des années 80, le jeune 68000 de Motorola avait, disait-on, 68000 transistors.
- L'industrie Nationale - Septembre 2001
- 19
- p.19 - vue 19/0
-
-
-
- On trouvera ci-dessous le tableau illustrant la loi précédente (pour les circuits intelligents en préproduction) :
- Loi de Moore pour circuits intelligents (préproduction)
- 1971 5 um 18 mm2 2300 transistors
- 1975 3,5 um 25 mm2 6000
- 1979 2 um 35 mm2 16000
- 1982 1,4 um 50 mm2 45000
- 1986 1 um 70 mm2 120000
- 1990 0,7 um 100 mm2 350000
- 1994 0,5 um 140 mm2 E6*
- 1998 0,35 um 200 mm2 30.E6 à 1 GHz
- E6 pour 1 000 000 E9 pour 1 000 000 000
- C’est le niveau de technologie utilisé par Lucent dans l’information citée au début. Par ailleurs, TMSC (Taïwan) a annoncé en 2000 qu’il commençait à mettre à la disposition de quelques clients concepteurs d’ASICs (ASIC = circuit intégré spécifique à un équipementier) la technologie 0,15 pm, pour test. LSI Logic vient d’annoncer qu’il commencera à bricoler en 0,13 pm au début de 2001 (avec des tensions de 1,2 V - voir plus loin-).
- La suite extrapolée du tableau précédent, c’est : 2002 0,25 pm 280 mm2
- 2006 0,18 pm 400 mm2
- et puis en 2020 0,03 pm 1500 mm2
- 8 E6 trs à 1,4 GHz 24 E6 trs à 2 GHz 1,4 E9 trs à8ou9GHz
- La puissance de calcul correspondante augmente
- - d’une part à cause de l’augmentation du nombre de transistors
- - et, d’autre part, de l’évolution de la fréquence d’horloge, en étant donc multipliée par (2xv2)xv2 = 4, tous les 3,8 ans. En fait les progrès dans la logique (RISC au lieu de CISC par exemple) s’ajoutent, et la puissance augmente d’un peu plus de 4 tous les 3 ans (c’est la loi de Moore/Siemens/Carpentier).
- Si j’applique cette loi, j’obtiens :
- 0,5 MIPS en 1983
- 2,2 MIPS en 1986
- 10 MIPS en 1989
- 45 MIPS en 1992
- 200 MIPS en 1995
- 900 MIPS en 1988
- Pour montrer que ce n’est pas tout à fait idiot, -le 80286 faisait en 1983 0,5 MIPS,
- c’est de là que je suis parti
- -le 80386 faisait en 1986
- -le 80486 faisait en 1991
- - le Pentium 60 faisait en 1993
- - le Pentium 100 faisait en 1995
- - le Power PC 620 faisait en 1996 Si on extrapole, on trouve
- 1,5 MIPS, 16 MIPS,
- 100 MIPS, 200 MIPS, 600 MIPS,
- et
- 4GIPS en 2001
- 18 GIPS en 2004 1,6 Téra IPS en 2013
- Mais est-ce bien sérieux?
- On a un élément de réponse dans une autre loi de Moore/Siemens, qui dit que les dépenses d’investissements pour une nouvelle génération sont multipliées par plus de 2 (2,15) par rapport à la génération précédente.
- Les investissements pour la génération 0,5 um (D-RAM 16 Mbits) sont évalués à 1 milliard de USD ±10% chez 3 industriels (dont NEC), ce qui donne:
- 2 G USD pour la génération 0,3 um
- 5 G USD pour la génération 0,23 um existante
- 10 G USD pour la proche génération 0,16 um
- 22 G USD pour la suivante à 0,10 um et si on extrapole pour la génération à 0,03 um (2013/2014) 220 milliards d’US dollars
- (5 à 10 fois le chiffre d’affaire d’Alcatel !).
- L’investissement d’Intel en 2000 a d’ailleurs été annoncé à 6 milliards d’US dollars, à savoir 75 % de plus qu’en 1999.
- On comprend pourquoi il a signé des accords de coopération avec Infinéon, Hyundaï, Micron, NEC et Samsung en vue de développer les futures technologies à 0,10 um. Voilà aussi pourquoi sans doute Siemens a mis en bourse à la mi-mars 2000 Infinéon, en vendant pour 6 G USD 26 % de son capital, ...et annoncé une augmentation de capital.
- L’une des nombreuses raisons à ces chiffres démentiels tient dans la nécessaire qualité des salles blanches.
- Au début des années 80 les salles étaient de classe 100: ce qui veut dire moins de 10 particules de taille supérieure à 0,5 um dans un pied cube (~ 30 litres). Aujourd’hui il faut une classe 0,1, c’est-à-dire moins d’une particule de plus de 0,1 um par 10 pieds cube.
- La température doit être de 20 °C±0,1 °C pour éviter les problèmes de dilatation, et l’humidité doit être de 45% ± 1 % à cause du caractère pointu des réactions chimiques utilisées.
- Une autre raison à ces chiffres démentiels réside dans les dimensions des tranches (des « wafers »). Au tout début, elles faisaient un pouce de diamètre, elles font aujourd’hui 8 pouces, soit une surface multipliée par 64, et elles feront dans un an 12 pouces, soit une surface multipliée par 144.
- Pour prendre un autre exemple, au début l’épaisseur d’oxyde (au-dessus) de (la) grille était de 1 um et la tension d’alimentation de 5 volts. On a gardé cette tension à la même valeur tant qu’on a pu, mais avec l’épaisseur de 2,5 nanomètres que l’on a aujourd’hui pour l’oxyde, à la finesse de 0,25 um, il a fallu descendre l’alimentation à 2,5 V(après une étape à 3,5 V). Et elle va devoir continuer à descendre :
- 20
- L'industrie Nationale - Septembre 2001
- p.20 - vue 20/0
-
-
-
- 1,8 V pour une géométrie de 0,18 um
- 1,2 V annoncé par TMSC pour la géométrie 0,15 um, et sans doute 1 V pour une géométrie de 0,1 um (en préproduction en 2009 et en échantillonnage dans quelques années pour les circuits intelligents ?).
- Mais on peut penser aussi que ces uproc et DSP de 2009, avec 200 millions de transistors, une fréquence d’horloge de 3 GHz, avec 4000 entrées-sorties consommeront autour de 300 watts. 300 watts sous 1 volt, cela fait 300 ampères ! Sans commentaire !
- Au niveau des interconnections,les circuits intégrés intelligents demandent aujourd’hui un « multiniveaux » de 6 ou 7 niveaux (7 niveaux pour le 0,15 um : deTSMC),et ces niveaux commencent à se faire en
- cuivre au lieu de l’aluminium dopé cuivre.
- Le nombre d’étapes technologiques, qui était de quelques dizaines pour les premiers uprocs, est passé à 250 pour le dernier pentium.
- Quant au problème de la gravure elle-même, la projection échelle 1 du début des circuits intégrés a été remplacée au début des années 80 par la « photorépétition » sur tranche, avec un masque beaucoup plus grand et une lumière de 0,5 um environ, la raie G du mercure.
- Lorsque j’étais encore en activité, fort des informations que me donnaient des collaborateurs éminents, j’expliquais que cela ne pouvait plus durer parce que, le dessin devenant de plus en plus fin, on serait bloqué par la diffraction. J’expliquais alors que la solution du futur était à choisir parmi 3 possibilités:
- La gravure par faisceau d’électrons, dont nous disposions, avec un « Électron Pattern Generator » EPG 102, que nous connaissions donc bien, que nous utilisions pour graver l’arséniure de gallium et les dispositifs acoustiques à ondes de surface, et dont nous connaissions donc les défauts.
- Défauts que n’avait pas la deuxième solution, de gravure avec des ions, parce qu’on ne la connaissait pas encore.
- Et enfin, la troisième solution était la gravure par ' rayons X.
- Aujourd’hui, mes successeurs doivent dire la même chose ; ces trois solutions sont toujours les solutions de l’avenir, car on continue à faire de la photorépétition, sauf que la lumière utilisée a une longueur d’onde de plus en plus petite.
- Pour des géométries de 0,5 um et 0,35 um on a utilisé une autre raie du mercure, la raie I, à 0,365 um. Maintenant, pour des géométries de 0,25 um, on utilise un laser excimère KrF qui donne A = 0,248 um. Pour des traits de 0,15 um on va sans doute utiliser un autre laser excimère ArF qui donne A = 0,193 um, ou un autre laser à 0,157 um.
- Et la suite ? Jusqu’où extrapoler? Jusqu’à quand?
- La physique déclare qu’au-delà des géométries à 0,02 um, on sera dans un autre monde.
- L’économie et la finance conduisent à penser qu’on n’ira pas jusque là, qu’on arrêtera pour les circuits intelligents avant 0,03 um (2013/2015).
- L’industrie s’affole avec les courants démentiels, et conduit à des conclusions analogues.
- ÉPISODE (pour rêver!)
- Quel (nouveau) type de composant prendra-t-il le relai ? Bien sûr, je n’en sais rien.
- La situation est la suivante :
- En France, le programme CROLLE 2 (SGS/ THOMSON, LETI, CNET en collaboration avec Philips Semiconductors, pour un budget de 500 millions d’USD) se termine. Il doit aboutir (grâce à un nouvel investissement de 700 millions d’USD) à une ligne pilote de circuits intégrés sur tranches de « 12 pouces », qui servira à la mise au point conjointe - entre STM et Philips - de procédés de fabrication en 0,12 um, destinés aux «systèmes sur une puce» et autres circuits spécifiques (« Asic’s »).
- Au-delà (au titre par exemple du programme PLATO et de son extension Européenne), les recherches se poursuivent dans trois directions: - vers la géométrie 0,1 um, en extrapolation directe, - vers la réalisation de ce qu’on peut appeler un C-MOS ultime (à ce titre, le Leti a réalisé en 1999 un transistor MOS de largeur de gravure 20 nm, avec une gravure à faisceau d’électrons, et un oxyde de grille d’un nanomètre environ);
- - et vers la recherche d’autres solutions, alternatives au MOS, parmi lesquelles pour les mémoires, le S .E.T. « Single Electron Transistor », qui correspondrait à un bond en avant dans la finesse de géométrie.
- Pour avoir des ordres de grandeur, on remarquera que, pour fonctionner à température ambiante, un SET doit utiliser des énergies électrostatiques très supérieures à l’énergie d’agitation thermique e2/2C » kT e étant la charge de l’électron,
- C la capacité source-grille + grille-drain e2/2C > 100 kT par exemple
- C <e2/200 kT avec
- e = 1,6 10-9 k= 1,4 10-23 T=300K
- C < 3 10-20 F = 8,8 S G 10-12/épaisseur
- (E = constante dilectique de l’ordre de 1
- S = surface du « transistor»
- épaisseur = 1 nanomètre = 10“9pour avoir l’effet tunnel désiré
- S G < 3,4 nanomètres2.
- L’ordre de grandeur des dimensions du transistor est le nanomètre.
- L'industrie Nationale - Septembre 2001
- 21
- p.21 - vue 21/0
-
-
-
- LES ONDES ÉLASTIQUES : DU SONAR AU FILTRE POUR TÉLÉPHONE MOBILE
- Eugène DIEULESAINT, professeur émérite de l’université Pierre-et-Marie-Curie, Paris 6e, membre du Comité des Arts Physiques
- Sommaire
- Les ondes élastiques ont donné lieu, dans ce dernier siècle, à des applications dans des domaines aussi différents que l’instrumentation (sonar, capteurs), la recherche et l’exploration des gisements pétrolifères, la médecine (échographie, lithotritie), la métallurgie (contrôle non destructif des matériaux), le traitement des signaux (filtres).
- L’objectif de cet article est, pour l’essentiel, de décrire les applications de ces ondes dans ce dernier domaine. Elles ont découlé de l’invention du sonar par Paul Langevin qui, lui-même, a eu l’idée d’exploiter la piézoélectricité découverte, trente ans plus tôt, par les frères Curie. Toutefois, en suivant l’évolution des filtres « acousto-électriques », d’abord à ondes de volume puis à ondes de surface, nous évoquons, chemin faisant, l’apparition d’autres composants : dispositifs «acousto-optiques», illustrés par un spectro-mètre, capteurs, illustrés par un détecteur de la présence d’un liquide. Il est aussi incidemment dans notre intention de montrer, à l’aide d’un tableau, qu’un intervalle de temps, souvent de quelques dizaines d’années, sépare une découverte de ses applications.
- La définition de ces ondes est d’abord rappelée, l’état des connaissances à la fin du dix-neuvième siècle établi. Leur développement dans la première moitié du siècle puis dans la seconde est résumé en suivant, à peu près, l’ordre historique.
- Introduction
- Les ondes élastiques sont des vibrations qui, comme l’implique l’adjectif élastique, se propagent dans un milieu matériel : gaz, liquide, solide. Lorsque leur fréquence se situe dans le domaine audible (soit, en gros, entre 20 Hertz et 20 kiloHertz), on les appelle ondes acoustiques (ou sons). Souvent, par extension, on les appelle aussi infra-sons ou ultra-sons et encore hyper-sons suivant que leur fréquence se situe respectivement en deçà ou au delà de ce domaine. Pour faire pendant aux termes Optique, Électronique, Automatique, Thermique, on englobe assez fréquemment sous le seul terme Acoustique tout ce qui a trait à ces ondes quelle que soit leur fréquence. Compte tenu de la définition précédente, cette appellation n’est pas très heureuse mais elle a le mérite de la brièveté !
- La nature a mis ces ondes en œuvre, de tout temps, à l’avantage de l’homme ou à son détriment. Citons deux exemples, le premier est à son avantage: les êtres
- humains communiquent à l’aide de ces ondes élastiques. Elles sont émises par leurs cordes vocales, se propagent dans l’air environnant puis sont détectées par leurs tympans. Le deuxième est à son détriment: les tremblements de terre se manifestent sous forme d’ondes élastiques. Les conséquences de ces secousses sont dramatiques. Aussi ont-elles incité des scientifiques à se préoccuper de séismologie. Incapables d’agir sur leurs sources, ils ont cherché à comprendre les modes de propagation de ces ondes.
- 1. Situation à la fin du dix-neuvième siècle
- La connaissance à cette époque se résume, de notre point de vue, à la définition des différentes ondes aptes à se propager dans un matériau isotrope et à la découverte de la piézoélectricité (tableau 1).
- 1.1 Modes de propagation dans un solide isotrope
- L’observation des signaux reçus par les sismo-mètres a conduit à distinguer deux sortes d’ondes se propageant dans le volume de la terre : les ondes longitudinales et les ondes transversales. En effet, le long d’une direction quelconque, deux types de vibrations c’est-à-dire de mouvements des particules (appelés aussi polarisations, par analogie avec l’optique), sont susceptibles de se propager: une vibration longitudinale, parallèle à cette direction (figure la), une vibration tranversale, perpendiculaire (figure 1b).
- Fronts de l’onde
- de l’onde
- u
- X: longueur
- Fronts de l’onde
- n : sens de propagation, u : polarisation (mouvement des
- a) Onde longitudinale: les particules A, b) Onde transversale: les particules A, B, C oscillent suivant la direction n B, C oscillent perpendiculairement à la direction n
- Figure 1. Ondes élastiques de volume dans un solide isotrope.
- L’onde longitudinale est donc une suite de compressions et de dilatations. L’onde transversale est une succession de cisaillements. Les vitesses de propagation de ces deux ondes dans la terre ont été déterminées. Elles dépendent de la nature du sol. Celle de l’onde longitudinale, soit VL, est toujours supérieure à celle de l’onde transversale, soit VT. Dans le granit,
- 22
- L'industrie Nationale - Septembre 2001
- p.22 - vue 22/0
-
-
-
- DATES DÉCOUVERTES APPLICATIONS
- 1 000
- D dalloo
- PolbIVS
- Triode Amplification
- 1913 Ultrasons clans 1 eau Détection de cibles
- 1 090
- 1920 Résonateurs en quartz dans circuits électroniques VSclllateurs Radioémetteurs Filtres OV
- 1029 Diffontion uImirA nar
- LILLI dxtioll do la. IdllC-V Pdl ultrasons élastiques
- Ligne d Totard I ad dl
- 1200 dIOUC DICZOCleol I0UC Quartz synthétique lIdniodueteu ~ V (f < 50 MHz) Sonar
- 1060 T OU - 1 AU
- Vouones DIC2O61eCU IdUCs Avènement du laser Propagation des cristaux
- 1065
- lidmoduotedo d Polsloo Radar
- 1Q70 Niobate fontolate lithium
- Modulateur acousto-optique Télévision Instrumentation
- 1000 D Aganatey 6 ondAq AA qII-AAA
- Ppoldtou d OlIdVD — DULdoo Téléph. mobile Moteur piézoélectrique
- 1990 Conplo OPQ de réconatalirc blanc
- 0UIASV — lvldtyu D loio Génération photothermique Contrôle non destructif
- 2000
- Z000 Pseudo-ondes de surface Matériaux (film de diamant)
- OV : Onde de Volume, OS : Onde de Surface
- Tableau 1. Chronologie des événements en Acoustique concernant le traitement des signaux. Elle montre les intervalles de temps qui séparent une découverte de ses applications: trente ans entre la piézoélectricité et le sonar, quarante entre la diffraction de la lumière et le modulateur acousto-optique, quatre vingts entre les ondes de surface et les filtres.
- L'Industrie Nationale - Septembre 2001
- 23
- p.23 - vue 23/0
-
-
-
- par exemple, VL est compris entre 4500 et 6000 m/s et VT entre 2500 et 3300 m/s; dans le grès, 3000 < VL < 4500 m/s et 1200 < VT < 1800 m/s.
- En 1885, il a été montré analytiquement par Lord Rayleigh que des ondes se propageaient aussi à la surface de la terre, à une vitesse inférieure à celle de l’onde transversale. L’analyse de Lord Rayleigh a expliqué l’arrivée, jusqu’alors incomprise, d’un troisième signal sur les sismomètres. Ces ondes de Rayleigh qui ressemblent aux rides engendrées, à la surface d’un plan d’eau, par la chute d’une pierre sont complexes (figure 2a).
- SURFACE LIBRE
- 2X
- Figure 2. Ondes de Rayleigh dans un solide isotrope semi-infini, a) Elles engendrent une ondulation de la surface b) Leurs deux composantes: mouvement de compression (uL) et mouvement de cisaillement (UT) décroissent différemment avec la profondeur. L’épaisseur de matière mise en vibration est égale à deux longueurs d’onde.
- Elles comprennent une composante longitudinale et une composante transversale. Ces deux composantes sont déphasées de 90 degrés et elles décroissent différemment avec la profondeur (figure 2b). Le mouvement des particules est, en conséquence, elliptique à la surface, puis transversal (la composante longitudinale s’annulant à une profondeur de 0,2 longueur d’onde en changeant de signe) et de nouveau elliptique avec un sens de rotation opposé ! Le déplacement des particules est définitivement nul au delà de deux longueurs d’onde (2X). La vitesse de propagation de cette onde « superficielle » est inférieure à celle de l’onde de volume transversale puisqu’il n’y a pas de matière au dessus de la surface. L’épaisseur de matière mise en vibration est inversement proportionnelle à la fréquence f puisque X = V/f. Soit une vitesse V de 2500 m/s, alors pour f = 100 Hertz, cette épaisseur est de 50 m, pour f = 100 MHz, elle est de 50 mm (micromètre), pour f = 1000 MHz (1 Giga-Hertz), elle est de 5 pm. Ces dernières valeurs sont communes en télécommunications (voir section 3.5).
- Par la suite, des géophysiciens tels que Love,Lamb, Stoneley se sont préoccupés de la propagation dans des structures particulières: couche sur substrat, plaque, interface entre deux solides. Les ondes qui s’y propagent portent leurs noms.
- UT
- 1/VL
- 5
- Figure 3. Du point de vue de la propagation des ondes élastiques dans son volume, un solide isotrope est simplement caractérisé par deux sphères qui traduisent le fait que, quelle que soit la direction, deux ondes, l’une longitudinale (L), l’autre transversale (T), peuvent se propager. La représentation par des sphères ayant pour rayons l’inverse des vitesses est analogue à la surface des indices en optique dont la normale indique le sens de propagation de l’énergie. Cette remarque est importante quand il s’agit d’un matériau anisotrope (voirfigure 9).
- La propagation de deux ondes de volume et d’une onde de surface (onde de Rayleigh) est possible dans tout solide isotrope. La propagation des deux premières s’illustrent à l’aide de deux sphères (leurs coupes par un plan quelconque sont des cercles identiques : figure 3), celle de la troisième (qui n’est pas une onde plane) se représente à l’aide d’un simple cercle pour une surface plane donnée. C’est en vue d’une comparaison avec la propagation dans un cristal, solide anisotrope, que nous traçons les deux cercles propres aux ondes de volume en prenant pour rayons 1/VL et 1/VT (figure 3).
- Dans un fluide, gaz ou liquide non visqueux, aucun mouvement de cisaillement n’existe. Seule peut se propager une onde longitudinale. Dans l’eau, à la température de 20 °C, l’onde longitudinale se propage à la vitesse VL = 1480 m/s. Dans la glace, la vitesse de cette onde est plus grande: 3400 < VL < 3800 m/s et une onde transversale se propage à la vitesse VT telle que 1700 < VT < 1900 m/s.
- 1.2 Piézoélectricité
- La piézoélectricité est la propriété que possèdent des cristaux de se polariser électriquement lorsqu’ils sont soumis à une contrainte (ou à une déformation) mécanique (effet direct) et de se déformer lorsqu’ils sont soumis à un champ électrique (effet inverse). Le premier effet a été découvert par les frères Curie en 1880. Le second a été déduit par Lippmann, l’année suivante, comme conséquence thermodynamique du premier. Le phénomène de pyroélectricité : apparition d’un champ électrique dans certains cristaux lorsqu’on les chauffe) était connu à l’époque. Les frères Curie eurent l’idée que des causes autres qu’une élévation de température pouvaient engendrer un champ élec-
- 24
- L'industrie Nationale - Septembre 2001
- p.24 - vue 24/0
-
-
-
- trique. Ils montrèrent que la compression d’une plaquette de quartz (convenablement taillée) provoquait l’apparition d’un champ électrique. Ils mesurèrent les charges induites sur ses faces avec un électromètre de leur invention. Ils découvrirent que plusieurs classes de cristaux étaient piézoélectriques. Par la suite, ils clarifièrent les conditions de l’existence de ce phénomène en associant à toute grandeur physique une forme géométrique caractéristique de sa symétrie et en énonçant deux principes remarquables relatifs à la symétrie des cristaux:
- - Un phénomène possède tous les éléments de symétrie des causes qui l’engendrent.
- - La dissymétrie d’un phénomène préexiste dans les causes qui le produisent.
- Ainsi explique-t-on, grâce au deuxième principe, que la piézoélectricité n’existe que dans des cristaux dépourvus de centre de symétrie. L’effet, champ électrique est un vecteur polaire (-) dénué de tout centre de symétrie, la cause, association d’une compression et d’un cristal ne peut en posséder or la première partie de la cause, la compression mécanique, en possède un (les Curie décrivent sa symétrie par deux vecteurs tête-bêche :), la deuxième partie, le cristal, doit donc en être dépourvu.
- Les frères Curie trouvèrent des cristaux piézoélectriques dans les 21 classes cristallographiques dénuées de centre de symétrie (à une exception près qui s’explique). Ils précisèrent, toujours à l’aide de raisonnements basés sur la symétrie, pour chaque cristal, la taille, le sens de la compression mécanique et celui de la polarisation électrique. Tous ces résultats se retrouvent très vite aujourd’hui à l’aide de la notion de tenseurs.
- a
- Figure 4. Plaquette de quartz a) soumise à une compression, elle se polarise électriquement b) soumise à une tension électrique, elle se déforme.
- En résumé, soit une plaquette convenablement taillée dans un cristal de quartz et dont les deux grandes faces sont métallisées (par exemple, une plaquette de coupe X, c’est-à-dire dont la normale aux deux grandes faces est parallèle à l’axe cristallographique X). L’application d’une compression provoque l’apparition de charges électriques sur ces faces (figure 4) donc une tension électrique entre ces faces et inversement, l’application d’une tension électrique entraîne une défor
- mation (extension ou contraction suivant le sens de la tension électrique). L’amplitude de la déformation est relativement petite: une tension de cent volt provoque un allongement de l’ordre de deux angstrœm (un ang-strœm vaut 10-10 mètre). Cependant, Pierre Curie réalisa une balance piézoélectrique.
- 2. Développements de 1900 à 1950
- La guerre de 1914 à 1918 a été, comme toute guerre, une période de développement de techniques. Chaque adversaire cherche toujours les moyens, d’une part de se protéger des attaques de l’autre, d’autre part de s’équiper d’armes plus efficaces, plus mobiles. Pendant cette guerre, des engins comme les chars d’assaut sont apparus, l’électronique naissante a donné lieu à des moyens ultra-rapides de communication, «l’acoustique» a connu sa première application: le sonar. Le transducteur à quartz utilisé par Paul Lan-gevin pour engendrer les ultra-sons dans l’eau s’est révélé un résonateur remarquable et plusieurs scientifiques américains ont alors eu l’idée d’employer un simple disque de quartz comme filtre pous stabiliser la fréquence des émetteurs de radiodiffusion. Dans les années trente, des laboratoires ont étudié l’action des ondes élastiques sur les ondes lumineuses, d’autres la réflexion des ondes sur des obstacles (prélude au contrôle non destructif des matériaux et aux examens obstétriques). Dans le domaine du grand public, quelques applications de la piézoélectricité ont vu le jour (pick up en sel de Seignette pour gramophone).
- La deuxième guerre mondiale de 1939 à 1945, a donné lieu à l’invention et à l’emploi de nouvelles armes terrifiantes (fusées V1 et V2, bombe atomique) dont les effets ont été immédiatement perçus. Les progrès relatifs au domaine plus pacifique des ultrasons et concernant surtout les matériaux, n’ont été connus qu’à la fin des hostilités.
- 2.1 Le transducteur de P. Langevin. Le Sonar
- Le dramatique naufrage du Titanic, en 1912, à la suite d’un choc avec un iceberg, avait montré que la sécurité de la navigation ne serait améliorée que si on parvenait à détecter à distance les obstacles à la surface de la mer.
- Au cours de la guerre 1914-1918, la nécessité encore plus pressante était apparue de rechercher un moyen de détecter la présence de sous-marins. Plusieurs scientifiques (dont C. Chilowski) avaient suggéré de lancer des ondes dans la mer et de mesurer le temps mis par les ondes qui se réfléchiraient sur le sous-marin pour revenir à la source (figure 5a). La vitesse de propagation étant connue, la mesure du temps d’un aller et retour donnerait la distance entre
- L'industrie Nationale - Septembre 2001
- 25
- p.25 - vue 25/0
-
-
-
- obstacle et source (c’est aussi le principe du radar mis au point environ 20 ans plus tard avec les ondes électromagnétiques dont la vitesse (-> 300.000 km/s) est très supérieure (100 000 fois) à celle des ondes élastiques). Cependant, si la suggestion était séduisante, la difficulté subsistait d’exciter, de manière efficace, les ondes dans l’eau et de détecter leur retour. Après quelques tâtonnements (essais avec pour source un émetteur chantant, pour récepteur un pendule sensible à la pression de radiation menés dans un évier de son laboratoire à l’École Supérieure de Physique et de Chimie Industrielles), Paul Langevin eut l’idée d’exploiter l’effet piézoélectrique à l’émission et à la réception, en régime dynamique : une plaquette de quartz soumise à une tension électrique alternative vibre et, inversement, excitée par la surpression périodique qui accompagne toute onde lancée dans l’eau, elle produit une tension électrique. En excitant la plaquette à sa fréquence propre (telle que la demi-longueur de l’onde soit égale à l’épaisseur de la plaquette), les amplitudes de la vibration émise et de la tension détectée sont, par rapport à celles mesurées en statique, multipliées par un facteur de qualité (de plusieurs dizaines d’unités lorsqu’une face de la plaquette est en contact avec l’eau). Toutefois, la surface des cristaux de quartz disponibles étant trop petite, P. Langevin construisit un émetteur sandwich (figure 5b) consistant en une mosaïque de cristaux de quartz de même épaisseur et de même orientation cristallographique disposés entre deux plaques d’acier (triplet résonnant à une fréquence de l’ordre de 40 kHz).
- Mosaïque b de quartz (en A)
- Figure 5. Le Sonar : a) Principe : la position du sous-marin est détectée par la mesure du temps que met un train d’ondes élastiques pour parcourir la distance séparant le bateau émetteur du sous-marin :L=(t - to)/2V, la vitesse V étant connue - b) Transducteur: triplet acier-quartz-acier utilisé par P. Langevin pour engendrer le train d’ondes (à l’aide d’une tension électrique alternative) et détecter son retour (en mesurant la tension induite par l’écho).
- Les expériences furent alors conduites dans la Seine puis dans la rade de Toulon, avec succès. La portée, avec l’aide d’un amplificateur à lampes de l’époque atteignait plusieurs kilomètres. Ce dispositif s’est par la suite développé sous le nom de SONAR (SOund Navigation and Ranging) et, grâce aux rapides progrès
- de l’électronique, sa portée s’est considérablement accrue. Ses applications se sont étendues au sondage des fonds sous-marins et à la détection des bancs -de poissons. Tous les navires même les petits chalutiers sont aujourd’hui équipés de sonars. Il convient de noter que la technologie a évolué, l’effet piézoélectrique a été, dans certains cas, remplacé par l’effet magnétostrictif puis de nouveau utilisé, le quartz cédant la place à des céramiques piézoélectriques (voir §3.1). C’est donc Paul Langevin qui, pour la première fois, a utilisé, de manière contrôlée, les ondes élastiques et grâce à la découverte des frères Curie trente ans plus tôt!
- 2.2 Le filtre à quartz
- Vers la fin de la guerre, Paul Langevin fut amené à décrire son dispositif et notamment ses «transducteurs » piézoélectriques, lors de réunions de représentants des nations alliées. L’attention des scientifiques américains fut attirée par la qualité de la résonance des cristaux de quartz. Dans les années 1920 qui suivirent, A.M. Nicholson, W.G. Cady et G.W. Pierce introduisirent dans des circuits électroniques des résonateurs en quartz, simples disques semblables à ceux des Curie (figure 4) mais mis en vibrations par une tension alternative. Ils conférèrent immédiatement une stabilité extraordinaire aux oscillateurs des premiers émetteurs de radiodiffusion. La réponse fréquentielle d’un résonateur dont les deux faces sont libres est, en effet, caractérisée par un pic très pointu c’est-à-dire par un très grand coefficient de surtension (>100 000). Le pic correspondant d’un transducteur qui est un résonateur chargé par le milieu dans lequel il excite des ondes (l’eau pour un sonar) est naturellement inférieur. L’emploi des résonateurs à quartz comme éléments essentiels des filtres se généralisa lorsque K.S. Van Dyke et D.W. Dye montrèrent que le comportement d’un résonateur, autour de sa fréquence de résonance, se décrivait par un circuit électronique équivalent comprenant une inductance, un condensateur et une résistance, présentant une valeur de coefficient de qualité jusqu’àlors inconnue et inaccessible avec les résonateurs classiques constitués de bobines et de condensateurs distincts. L’utilisation du résonateur comme filtre fit l’objet de brevets. Une controverse s’établit entre P. Langevin et des scientifiques américains. Elle se prolongea. Les tribunaux ne tranchèrent en faveur de Langevin qu’en 1946, peu de temps avant sa mort.
- Un résonateur est donc un filtre en soi mais sa bande passante, déterminée par la largeur du pic de résonance est étroite. Un filtre à bande passante large comprend plusieurs résonateurs associés suivant des montages en échelle ou en treillis. Peu après la deuxième guerre
- 26
- L'industrie Nationale - Septembre 2001
- p.26 - vue 26/0
-
-
-
- mondiale, des filtres monolithiques ont été construits dans lesquels les résonateurs réalisés sur le même monocristal sont couplés non plus par des liaisons électriques mais par ondes évanescentes (figure 6). Ces filtres ont été exploités en téléphonie.
- Cristal piézoélectrique
- Entrée----------------------ote
- Figure 6. Filtre monolithique comprenant quatre résonateurs couplés par ondes évanescentes. Ils vibrent sur un mode de cisaillement d’épaisseur.
- 23 La diffraction de la lumière par les ultrasons
- Dès 1922, Léon Brillouin avait analysé l’action des ondes élastiques sur les ondes lumineuses et prévu la diffraction de celles-ci par celles-là. Ce n’est toutefois qu’en 1932 que les premières expériences furent menées par R. Lucas et R. Biquard en France (à l’École de Physique et de Chimie, dirigée alors par Paul Langevin), par P. Debye et F. Sears aux États Unis puis, quelques années plus tard par C. Raman et N. Nath en Inde. Ces expériences montrèrent que la suite des compressions et des dilatations qui constitue les ultrasons se propageant dans un liquide se comportaient vis à vis de tout faisceau lumineux comme un réseau de phase en mouvement: l’indice optique augmente dans les zones comprimées et décroît dans les zones dilatées. Le résultat est donc que tout faisceau lumineux — de diamètre grand par rapport à la longueur des ondes élastiques — arrivant perpendiculairement sur le faisceau d’ultra-sons (figure 7a) donne naissance à plusieurs faisceaux lumineux inclinés, symétriquement par rapport au faisceau incident (d’angles ON tels que sin ON = ± N/A, A et A étant les longueurs des ondes lumineuses et des ondes élastiques). Le fait que le réseau se déplace explique que la fréquence des faisceaux diffractés contienne celle des ondes élastiques. Naturellement, si le faisceau lumineux incident est incliné de manière à ce qu’il se réfléchisse sur les fronts d’indice (à la manière des rayons X sur les plans cristallins), il ressort seul et sa fréquence est diminuée (ou augmentée selon l’inclinaison) de celle des ultrasons. Cette interaction sous l’angle de Bragg (figure 7b) est devenue importante par la suite avec l’avènement du laser (voir section 3.3). A l’époque cependant, ces expériences ne donnèrent pas lieu à applications industrielles. Elles furent conduites dans le but de caractériser la propagation et, en particulier, l’atténuation des ondes élastiques dans différents liquides jusqu’à des fréquences de quelques dizaines de mégahertz.
- F+f
- Ondes élastiques
- -------•
- Faisceau lumineux
- Faisceaux diffractés
- F + 2f
- F-f
- F-2f
- Figure 7. Diffraction d’un faisceau lumineux par un faisceau d’ultrasons sous incidence - a), normale: le faisceau lumineux se scinde en plusieurs faisceaux - b) à l'angle de Bragg: l’angle a et l’intensité I de l’unique faisceau diffracté varient respectivement avec la fréquence f et la puissance P du signal appliqué au transducteur. Sa fréquence contient celle du signal.
- Faisceau incident
- Transducteur
- S
- 8
- I(P), F-f
- Faisceau diffracté
- Tension électrique (P,f)
- b)
- 2.4 Ligne à retard
- Le radar a commencé à se developper dans les années qui ont précedé la guerre 1939-1940 et il est reconnu que son exploitation, pendant la période critique qui suivit l’armistice (signé par la France) a joué un grand rôle dans les succès de l’aviation anglaise. Les différents belligérants ont naturellement, à l’insu des uns et des autres, amélioré le fonctionnement de leurs systèmes. A la fin des hostilités, on a appris que divers types de lignes à retard à ondes élastiques avaient été utilisées pour calibrer les instruments et mettre en mémoire des signaux. L’intérêt de ces lignes repose sur le fait que la vitesse des ondes élastiques est, comme nous l’avons déjà dit, de l’ordre du kilomètre par seconde dans un liquide et de quelques kilomètres par seconde dans un solide (elle est comprise entre 1 et 12 km/s) alors que celle des ondes électromagnétiques est voisine de trois cent mille km/s. Ainsi pour retarder un signal électromagnétique est-il avantageux de le transformer en un signal élastique. Quand il s’agit de le retarder de plusieurs microsecondes, une ligne à ondes élastiques se propageant dans un solide d’une longueur de quelques centimètres (figure 8) remplace avantageusement un câble de longueur plusieurs centaines de mètres. Le milieu de propagation
- Monocristal (corindon)
- Transducteur émetteur (ZnO)
- Transducteur récepteur (ZnO)
- A
- Figure 8. Ligne à retard. Elle comprend trois parties: un transducteur émetteur qui convertit en un train d’ondes élastiques le signal électrique Si à retarder - par rapport à tout signal S qui se propage directement - un monocristal dans lequel le train d’ondes se propage à une vitesse de 30 à 100 mille fois plus petite que celle de S, un transducteur récepteur qui convertit le train d’ondes élastiques en une impulsion électrique (A: amplificateur).
- 4 Siretardé
- L'industrie Nationale - Septembre 2001
- 27
- p.27 - vue 27/0
-
-
-
- des lignes construites pendant la guerre a été l’eau, le mercure et la silice puis, plus tard, un monocristal d’alumine (corindon) dont le petit coefficient d’atténuation autorise le transport d’ondes de fréquence élevée (-> 5 GigaHertz), ondes alors engendrées par transducteurs à couche piézoélectrique mince, d’oxyde de zinc par exemple.
- 3. Développements de 1950 à 2000
- Pendant la guerre 1939-1945, tous les émetteurs et récepteurs de radiodiffusion, en particulier les nombreux portables qui assuraient les communications entre les unités militaires mobiles, comprenaient des filtres à quartz. Ceux-ci, produits en grande quantité (des millions par mois) étaient taillés dans des cristaux provenant, pour l’essentiel, du Brésil. En vue d’en réduire l’importation, les Américains ont cherché et réussi à faire croître des cristaux en laboratoire. D ’ autre part, le besoin d’autres matériaux, pour le sonar en particulier, a donné lieu à l’élaboration de céramiques piézoélectriques et naturellement à celle de monocristaux autres que le quartz. La recherche de coupes insensibles ou sensibles à des grandeurs physiques telles que la température ,1a pression, a conduit à 1 ’ analyse de la propagation dans ces solides anisotropes et au développement de nouveaux composants (modulateurs acousto-optiques, capteurs). Le moyen simple utilisé par R. White et F. Voltmer pour exciter des ondes de Rayleigh a été à l’origine de nouvelles structures de filtres, filtres dispersifs adaptés aux signaux de radars puis filtres de bande pour télévision et télécommunications, par téléphone mobile en particulier.
- 3.1 Matériaux et technologie
- L’élaboraton de matériaux et leur préparation (taille, polissage, métallisation) qui conditionnent l’extension des applications en physique, progressent généralement de façon continue. Les améliorations sont, en effet, dues, en partie, à l’apparition de nouveaux instruments et méthodes de mesure (microscopie à électrons, topographie à rayons X, interféromè-trie, spectrométrie) et, en partie, à une modélisation plus fine des phénomènes grâce à des calculateurs de plus en plus agiles. Aussi regroupons nous dans une même section, sans suivre de trop près l’ordre historique, les résultats qui se rapportent à ce sujet.
- La mise en évidence par Paul Langevin de l’intérêt de la piézoélectricité a déclenché, dès 1920, des études qui se poursuivent encore à ce jour. Évoquons celles qui concernent le résonateur à quartz, élément essentiel des filtres à ondes de volume (c’est-à-dire se propageant à l’intérieur d’un solide qui joue le rôle d’une cavité)). On a cherché et trouvé
- • des moyens de faire croître artificiellement des cris-taux de quartz. La synthèse hydrothermale fournit des cristaux très purs, exempts des mâcles souvent présentes dans les cristaux naturels. Ceux-ci, pour la plupart, provenaient du Brésil avant les années 50, comme nous l’avons déjà dit. Il s’en trouvait aussi en France dans le Dauphiné;
- • des tailles et formes de cristaux aptes à vibrer sur dif-férénts modes (cisaillement de surface, cisaillement d’épaisseur, flexion, élongation), des coupes qui présentent des caractéristiques particulières, par exemple une insenbilité aux variations de température. C’est une propriété nécessaire au résonateur qui doit assurer la stabilité de la fréquence d’un émetteur de signaux ;
- • des procédés autres que mécaniques de réduction locale de l’épaisseur d’une plaquette. Plus mince elle est, plus élevée est sa fréquence de résonance or l’épaisseur minimale accessible par rodage mécanique est de l’ordre de 50 micromètres (um), valeur qui correspond à une fréquence de vibration inférieure à 50 MHz. Par bombardement ionique ou attaque chimique, il est maintenant possible de diminuer localement jusqu’à quelques u l’épaisseur d’une plaquette c’est-à-dire d’atteindre des fréquences de vibration de 500 MHz;
- • des couplages, par ondes évanescentes, de plusieurs résonateurs disposés sur le même substrat qui constituent des filtres monolithiques compacts (figure 6);
- • des structures de suspension monolithique par ponts (découpés par ultra-sons) et d’excitation électrique sans contact mécanique avec piégeage de l’énergie par courbure des faces qui procurent aux horloges à quartz une stabilité spectrale et temporelle remarquable.
- Au cours de ces différentes études, il a été remarqué que l’utilisation d’électrodes épaisses déplaçaient la fréquence de résonance. Il en a été déduit qu’un résonateur pouvait servir à mesurer l’épaisseur d’une couche au cours de son dépôt (voir 3.4).
- Le quartz reste aujourd’hui un cristal irremplaçable lorsque la stabilité joue un rôle primordial non seulement dans les applications professionnelles mais aussi dans certaines applications pour grand public (chacun en porte la preuve au poignet). Cependant, ce cristal est peu piézoélectrique. Son coefficient de couplage électromécanique (c’est-à-dire sa déformation sous l’action d’un champ électrique) est petit. Il faut aussi le tailler convenablement et le polir. Il n’est pas facile de lui donner certaines formes requises par des expériences. On a donc cherché à le remplacer, dès le début du siècle pour des applications destinées au grand public, d’abord par le fameux sel de Seignette (ou sel de la Rochelle). Ce cristal artificiel, fragile, constituait
- 28
- L'industrie Nationale - Septembre 2001
- p.28 - vue 28/0
-
-
-
- le « pick-up » des phonographes d’avant la guerre 40-45. Puis d’autres cristaux piézoélectriques comme des phosphates de potassium, malheureusement hygro-scopiques, sont apparus mais le matériau de la plus grande importance pour l’essentiel des applications n’exigeant pas un fonctionnement à une fréquence supérieure à environ 50 MHz a été la céramique piézoélectrique, en particulier la céramique PZT à base de titanate et de zirconate de plomb. Ce composé rendu piézoélectrique par l’application d’un champ électrique à une température convenable, se présente, en grandes dimensions, sous des formes très variées, par exemple concaves, aptes à produire un faisceau d’ondes focalisées. Il est beaucoup plus piézoélectrique que le quartz. Aussi a-t’il pénétré un grand nombre de domaines. Il est employé comme transducteur émetteur et récepteur de sonars, filtres de moyenne fréquence dans les récepteurs de radio, cales d’épaisseur dans des microscopes à pointes, action-neurs dans des robots, stators dans des moteurs piézoélectriques, allumeurs dans les cuisinières à gaz, etc. En 1969, un japonais (Kawai) a montré que des polymères comme le fluorure de polyvinylidène (PVF2) devenaient fortement piezoélectriques lorsqu’ils étaient étirés et soumis à un champ électrique. Ce matériau qui se prépare sous la forme de films de grande surface remplace les céramiques dans diverses situations. À ce propos, il est intéressant de signaler que l’effet piézoélectrique se manifeste dans de nombreux matériaux: bois, os, biopolymères. Des pick-ups de gramophones ont été réalisés en laboratoire avec des tendons et aussi des fanons de baleine !
- Des cristaux capables de rivaliser avec le quartz à fréquence élevée, dans la plage du gigahertz avec des ondes de volume ou des ondes de surface, de caractéristiques moins stables mais plus piézoélectriques, ont été élaborés, par exemple le niobate de libthium (LiNbO3), le tantalate de lithium (LiTaO3) et puis aussi d’autres cristaux non piézoélectriques mais doués de propriétés adaptées à des dispositifs tels que les modulateurs et spectromètres acousto-optiques : molybdate de plomb (PbMoO^, dioxyde de tellure (TeO?), phos-phure de gallium (GaP), les lignes à retard (monocristal d’alumine appelé corindon, atténuant peu les ondes).
- La technique des transducteurs à ondes de volume a évolué. Du côté des hautes fréquences, supérieures à un Gigahertz, utilisées en électronique, ils sont constitués soit de monocristaux amincis par bombardement ionique et collés à l’aide d’un alliage métallique sur le milieu de propagation, soit de couches minces, piézoélectriques, donc cristallographique-ment orientées, d’oxyde de zinc (ZnO) ou de nitrure
- d’aluminium (AIN) déposées par pulvérisation cathodique sur le cristal dans lequel les ondes doivent se propager. Du côté des basses fréquences, de quelques mégahertz, utilisées en échographie médicale, ils sont souvent composés de batonnets de céramique noyés dans une résine. L’impédance de ces transducteurs composites est assez bien adaptée à celle de l’eau, c’est-à-dire à celle du corps humain. En conséquence, ils ne nécessitent pas de couches adaptatatrices d’impédances.
- 3.2 Propagation dans les cristaux
- Cette section, un peu théorique, demande un effort de la part du lecteur non scientifique. Il peut omettre de la lire et se contenter de constater que la figure 9 qui caractérise la propagation dans un cristal est moins simple (trois courbes) que la figure 3 qui caractérise la propagation dans un solide isotrope (deux cercles).
- Au fur et à mesure du développement des résonateurs, il est devenu nécessaire d’étudier la propagation des ondes élastiques suivant des directions et des modes de vibration autres que ceux utilisés par Paul Langevin et, d’autre part, le fonctionnement à plus haute fréquence des lignes à retard et autres dispositifs a exigé l’emploi de cristaux comme milieux de propagation. En effet, les ondes élastiques sont d’autant moins amorties que le milieu est plus ordonné (le coefficient de la silice formée d’atomes de silicium et d’oxygène en désordre est beaucoup plus grand que celui du quartz, composé des mêmes atomes mais occupant des positions précises dans des tétraèdres). L’étude de la propagation de ces ondes dans les milieux anisotropes et aussi de leur génération (dans les cristaux piezoélectriques) s’est imposée. Elle a été facilitée par l’arrivée des calculateurs électroniques. Les résultats sont illustrés par la figure 9. Elle est à rapprocher de la figure 3 qui se rapporte à un matériau isotrope.
- Selon une direction quelconque dans un cristal, trois ondes de volume (et non plus deux comme dans un solide isotrope) peuvent se propager, chacune avec une vitesse qui lui est propre. Une onde quasi-longitudinale QL dans laquelle les particules vibrent suivant une direction qui fait un angle a avec le sens n de propagation, une onde quasi-transversale QT1 et une autre onde quasi-transversale QT2. Dans ces deux ondes quasi-transversales, les particules vibrent selon des directions perpendiculaires entre elles et perpendiculaires à la vibration de l’onde QL. Naturellement pour que l’une de ces ondes se propage dans le cristal, il faut qu’elle y soit excitée, d’une manière ou d’une autre. Cette situation est relativement compliquée. Heureusement, les cristaux possèdent des éléments de symétrie (plans et axes).
- L'industrie Nationale - Septembre 2001
- 29
- p.29 - vue 29/0
-
-
-
- Raisonnons sur un exemple. La figure 9 se rapporte à un cristal de rutile (oxyde de titane de formule TiO2). Ce n’est naturellement qu’une coupe par un plan des trois nappes (surfaces) correspondant aux trois ondes (l’ensemble des trois nappes est appelée la surface des lenteurs). Une courbe fournit l’inverse de la vitesse propre à une onde se propageant suivant une direction quelconque dans ce plan et sa normale indique, comme en optique, le sens de propagation de l’énergie.
- La symétrie de la figure indique que son plan est perpendiculaire à l’axe de symétrie d’ordre quatre du cristal (une rotation de 2x/4 conserve la figure). On devine aussi l’existence de trois axes d’ordre deux, contenus dans le plan c’est-à-dire perpendiculaires à l’axe d’ordre quatre. Le cercle de la figure indique qu’une onde transversale peut se propager suivant une direction quelconque dans ce plan à une vitesse indépendante de la direction. La courbe qui se rapporte à l’onde quasi-transversale montre que le cristal est très anisotrope pour cette onde puisque sa vitesse varie du simple au double quand on passe de la direction de la diagonale à celle d’un axe. De la figure on déduit surtout que suivant les directions qui se confondent avec les normales aux courbes c’est-à-dire les deux axes et la diagonale, l’énergie transportée par l’une quelconque des trois ondes se propage aussi suivant ces directions.
- Contrairement à ce qui se passe en optique, la propagation des ondes élastiques dans les cristaux qui possèdent un axe de symétrie d’ordre trois présente des étrangetés. Vecteur d’onde et vecteur d’énergie ne sont pas nécessairement portés par cet axe.
- 3.3 Composants acousto-optiques. Spectromètre
- On a vu dans le paragraphe 2.3 que la diffraction de la lumière par un faisceau d’ondes élastiques avait été étudiée dès les années trente mais elle n’avait donné lieu, à l’époque, à aucune application en dehors des laboratoires. Cette interaction « acousto-optique » entre ondes élastiques et ondes lumineuses a connu un regain d’intérêt, dans les années soixante, avec l’avènement du laser, source monochromatique de forme précise et la réalisation de transducteurs capables d’engendrer des ultrasons de fréquence un gigahertz et plus. En effet, pour une inclinaison à l’angle de Bragg du faisceau lumineux incident par rapport au faisceau ultrasonore (figure 7b), l’interaction n’engendre qu’un seul faisceau de sortie dont les caractéristiques; intensité, direction, fréquence, dépendent de celles du faisceau ultrasonore. Ainsi,par simple action sur la tension électrique appliquée à un transducteur, modifie-t’on les caractéristiques d’un faisceau laser. Cette interaction a naturellement donné naissance à de nouveaux composants acousto-optiques: modulateurs
- O
- O
- 1 Transversale -Polarisation [001]
- V3 7
- € Quasi-longitudinale
- 1 Quasi-transversale
- V2 /
- / [010]
- Figure 9. Courbes, sections de la surface des lenteurs, caractérisant la propagation des ondes de volume dans le plan (001) d’un cristal de rutile (oxyde de titane: TiO2 appartement à la classe cristallographique 4/mmm)
- 30
- L'industrie Nationale - Septembre 2001
- p.30 - vue 30/0
-
-
-
- Oscillateur local
- Spectre
- Objet interstellaire
- Diode laser
- Caméra
- Optique élargissant le faisceau
- Optique
- Déflecteur acousto--optique
- Figure 10. Schéma d’un spectromètre acousto-optique. Le faisceau émis par la diode laser tombe sur le déflecteur à ultrasons qui le dévie suivant une direction qui dépend de la fréquence du signal provenant de l’objet examiné. Il frappe alors une des photodiodes d’une caméra. L’excitation d’une photodiode donnée révèle la présence de cette fréquence dans le spectre de l’objet.
- d’intensité, changeurs de fréquence, déflecteurs, analyseurs de spectres, filtres optiques accordables. Ils sont des éléments essentiels d’instruments tels que imprimantes, interféromètres, projecteurs pour spectacles son et lumière. Pour prendre de la hauteur, donnons un exemple d’emploi en astronomie. Les radio-astronomes ont besoin de spectromètres pour de nombreuses raisons; ils ont à déterminer la composition chimique de nuages interstellaires, précurseurs de la naissance d’étoiles, détecter des orages magnétiques, etc. Les fréquences en jeu sont très variables mais elles sont amenées, par la technique de mélange de deux ondes, à une bande d’analyse autour de 1 ou 2 gigahertz. La figure 10 montre le schéma du système employé à l’observatoire de Meudon. Il comprend une diode laser, le déflecteur acousto-optique, un réseau de photodiodes (caméra CCD) dont l’une détecte le faisceau dévié par le signal de fréquence intermédiaire (f;) compris entre 2 et 3 GHz. Ce signal provient du battement entre le signal-objet (source) examiné (e) et le signal d’un oscillateur local. La présence d’une raie spectrale émise par l’objet produit une tension électrique sur l’un des 1800 éléments (diodes) de la caméra. Ce genre de spectromètre acousto-optique avec diode laser est embarquable sur satellites.
- 3.4 Capteurs: Détecteur à un niveau donné de la présence d’un liquide
- Si une onde élastique est, par l’intermédaire d’une surface ou la paroi d’un guide, localement en contact avec un fluide, sa propagation s’en trouve modifiée. La modification peut aussi résulter de la condensation d’une couche sur la paroi ou de la simple déformation de celle-ci sous l’effet d’une élévation de la température, d’une force mécanique ou d’un champ électrique. Ces faits indiquent que si la modification est mesurable, ces ondes se prêtent à la réalisation d’une grande variété de capteurs. On devine que si le solide dans lequel se propagent les ondes est piézoélectrique, la
- modification se traduit par une tension électrique, grandeur facile à mesurer. L’élément sensible de plusieurs capteurs est donc un résonateur en quartz. En effet, la fréquence de résonance d’une plaquette mono-cristalline de quartz est définie avec une grande précision mais toute action exercée sur la plaquette la modifie. Un changement de cette fréquence détecte toute altération (charge mécanique, attaque chimique) d’une de ses faces ou une variation de température, pression, accélération.
- L’un des capteurs les plus répandus est la microbalance qui équipe, depuis un cinquantaine d’années, tous les batis de dépôts de couches minces. Elle est constituée d’un résonateur en quartz, vibrant en mode de cisaillement à une fréquence voisine de 5 Mégahertz, placé à proximité de la pièce à métalliser. La variation de la fréquence fournit, à chaque instant, l’épaisseur du métal déposé. Celle-ci est en général de l’ordre du micromètre mais elle peut être aussi petite qu’une couche atomique. Un même résonateur, de coupe cristallographique propre à vibrer sur deux modes est capable de mesurer à la fois la pression et la température. Un capteur avec ce type de résonateurs a été mis au point, il y a une dizaine d’années, pour ausculter les gisements pétrolifères. Les ondes dans ces capteurs sont stationnaires.
- Donnons un exemple de capteur à ondes progressives. Il s’agit d’un détecteur de présence d’un liquide à un niveau déterminé (encore appelé contacteur de niveau). Il est constitué d’un guide métallique cylindrique composé de deux parties de diamètres différents. L’une, de petit diamètre, sert de support, l’autre de sonde. La fréquence des ondes lancées par un transducteur fixé à l’extrémité du guide est choisie de façon que la partie support soit peu sensible aux efforts exercés sur sa surface et que la partie sonde soit très sensible au contact du liquide. Le capteur est disposé près de la paroi du réservoir à la hauteur qui ne doit pas
- L'industrie Nationale - Septembre 2001
- 31
- p.31 - vue 31/0
-
-
-
- 4
- Figure 11. Contacteur de niveau. Réalisation sous deux aspects différents. On distingue sur la photo de droite la variation de diamètre à l’extrémité du guide.
- être dépassée par le liquide. Un train d’ondes est périodiquement lancé dans le guide. Il revient sous la forme de deux échos successifs tant que le liquide n’a pas atteint le niveau imposé. Lorsque le liquide atteint la surface latérale de la partie sonde à la cote prévue, le dernier écho disparaît. Le premier qui provient de la discontinuité du diamètre du guide subsiste et atteste que le capteur fonctionne. Ce principe de capteur est réalisé sous des formes différentes. La partie support est éventuellement longue et courbée par exemple lorsqu’il s’agit de vérifier le niveau de l’huile dans un palier (figure 11).
- 3.5 Filtres à ondes de surface
- Si l’intervalle de temps entre la découverte de la piézoélectricité et son exploitation (grâce à l’électronique) pour exciter et détecter, de façon contrôlée, des ondes de volume est d’environ trente ans, l’intervalle entre la découverte des ondes de surface de Rayleigh et leur exploitation est de quatre vingts ans comme l’indique le tableau 1. Aucun moyen efficace d’exciter ces ondes complexes (figure 2) n’avait été démontré avant les expériences de R.M. White et F.W. Volt-mer, en 1965.
- Avec les ondes de volume, on ne réalise que des filtres dont l’élément essentiel est un résonateur ayant le plus souvent la forme d’une plaquette: les ondes excitées dans le volume de la plaquette y restent contenues. Elles se réfléchissent sur ses deux faces libres qui jouent le rôle de miroirs. Ce sont des ondes stationnaires. Les ondes qui se propagent, comme dans une ligne à retard, sont des ondes progressives.
- Les ondes de surface présentent, par rapport aux ondes de volume, l’avantage de se prêter à la réalisation de filtres à ondes stationnaires (i.e. avec résonateurs) et de filtres à ondes progressives. Ceux-ci sont apparus les premiers en 1969.
- 3.5.1 Filtres à ondes progressives
- R.M. White et F.W. Voltmer ont donc montré, en 1965, qu’un moyen simple d’exciter (et de détecter) les ondes de Rayleigh dans un matériau piézoélectrique consistait à déposer sur sa surface deux électrodes ayant, chacune, la forme d’un peigne (deux brevets sur le sujet avaient été pris, en 1963, l’un en Angleterre par W. Mortley, l’autre aux États-Unis par J. Rowen, mais pas exploités). Toutefois, ces physiciens, préoccupés d’amplifier ces ondes par interac-
- 32
- L'Industrie Nationale - Septembre 2001
- p.32 - vue 32/0
-
-
-
- tion avec des électrons, ne se soucièrent pas de filtrage. Les premiers filtres ne sont apparus qu’en 1969.
- Lafigure 12 illustre le principe de fonctionnement d’un filtre à ondes progressives. Il comprend un transducteur émetteur à deux peignes et un transducteur récepteur à deux doigts. Le rôle principal est joué par l’émetteur: la forme de ses deux peignes qui s’inter-pénètrent est telle que la longueur de recouvrement et l’intervalle de deux doigts adjacents varient.
- Lorsqu’une brève impulsion électrique est appliquée entre les deux peignes, elle engendre, immédiatement, de part et d’autre de chaque doigt, un champ électrique dans un sens et un champ électrique dans le sens opposé puisque la suite des potentiels est + - + -+ -+... Les contraintes produites par ces champs à la surface du substrat piézoélectrique sont aussi oppo-
- réponse fréquentielle qui est la transformée de Fou-rier de la réponse impulsionnelle.
- Les deux peignes-électrodes se comportent comme une suite de sources, à la surface du substrat piézoélectrique. Chaque paire de doigts est équivalente à une source dont l’intensité est déterminée par la longueur de recouvrement des doigts et la fréquence instantanée par l’intervalle interdigital.
- Comme le laisse deviner cette réponse impulsionnelle, la largeur d’un doigt est égale au quart de la longueur de l’onde. La vitesse étant, pour le quartz, de l’ordre de 3200 m/s, à une largeur de 8 um correspond une fréquence de 100 MHz.
- De nombreux filtres ont été et sont encore réalisés suivant ce principe avec des variantes :
- - le récepteur étant constitué non plus de deux doigts
- Transducteur
- Transducteur
- d'entrée de sortie
- d. Cristal piézoélectrique
- Impulsion de Dirac «
- Réponse impulsionnelle
- Ah(t)
- Figure 12. Filtre à ondes de Rayleigh progressives. Une impulsion électrique brève appliquée entre les deux peignes métalliques, excite, à la surface du substrat piézoélectrique, un train d’ondes élastiques. Il est détecté par le récepteur élémentaire à deux doigts. La variation de la longueur de recouvrement (w) des doigts détermine la forme de l’enveloppe, l’intervalle interdigital (d) définit la fréquence instantanée.
- sées. Elles forment une suite de compressions et de dilatations mécaniques, c’est-à-dire une onde de Rayleigh, qui se propage vers le récepteur élémentaire. Celui-ci, par effet piézoélectrique inverse, les transforme, au fur et à mesure de leur arrivée, en un signal électrique positif, négatif, positif... La hauteur des arches diffère de l’une à l’autre parce que la contrainte provenant de deux doigts à grande longueur de recouvrement fournit plus d’énergie au récepteur que celle provenant de deux doigts qui se recouvrent peu. La largeur des arches diffère aussi de l’une à l’autre puisque l’espace interdigital varie. La réponse impul-sionnellle de cette ligne est ainsi définie par la forme du transducteur émetteur. Une réponse imposée quelconque est, en principe, accessible à partir d’un simple dessin de ce transducteur. Il en est de même de la
- mais de deux peignes assure une partie de la fonction recherchée ;
- - l’émetteur est disposé entre deux récepteurs de façon à récupérer l’onde de Rayleigh qui part vers la gauche. Dans le montage élémentaire de la figure 12, elle est étouffée par un absorbant;
- - le récepteur n’est plus en ligne avec l’émetteur. Les ondes lancées par celui-ci sont translatées dans le plan de la surface à l’aide d’un coupleur. Les ondes de volume éventuellement engendrées par l’émetteur n’atteignent pas le récepteur;
- - l’émetteur et le récepteur sont divisés en éléments qui s’imbriquent les uns dans les autres, chaque élément émetteur se trouvant entre deux éléments récepteurs. Le nombre de configurations possibles est impressionnant.
- L'industrie Nationale - Septembre 2001
- 33
- p.33 - vue 33/0
-
-
-
- Dans les années 1970, les radaristes cherchaient des filtres adaptés à leurs impulsions longues codées, en particulier par une modulation de la fréquence porteuse. Ces impulsions après réflexion sur une cible (échos) reviennent détériorées par le bruit. Il est indispensable de recevoir ces échos dans un filtre qui regroupe en une impulsion courte, par effet dispersif, les différentes composantes spectrales du signal à l’exclusion de celles du bruit. La solution a été apportée par une structure à peignes dont la réponse impulsionnelle était le signal temporellement inversé. Ces filtres dispersifs compacts et robustes ont donné toute satisfaction jusqu’à l’arrivée des techniques numériques. Ils attirent encore l’attention sous d’autres formes de codeurs et décodeurs, dans les systèmes de télécommunications.
- Vers 1975, des scientifiques Japonais (T. Shiosaki et al) réussirent à produire des filtres à bas prix (de l’ordre du dollar) pour la télévision. Le substrat était une simple lame de verre. A ses extrémités, ils faisaient croître des couches piézoélectriques d’oxyde de zinc cristallographiquement orientées pour être piézoélectriques et ils y déposaient les peignes-électrodes. La géométrie des peignes était choisie de façon à satisfaire les caractéristiques du canal de télévision autour des différentes fréquences intermédiaires (situées entre 30 et 60 MHz). Le prix des cristaux ayant beaucoup baissé, le substrat des filtres construits aujourdh’ui est un monocristal de quartz s’il s’agit d’applications professionnelles, de niobate ou de tan-talate de lithium s’il s’agit d’applications pour grand public.
- Les explications données ici suffisent à comprendre le principe du filtrage mais, évidemment, le fonctionnement n’est pas tout à fait aussi simple. Évoquons
- un seul des problèmes. La métallisation partielle de la surface modifie la vitesse de propagation des ondes, provoque des réflexions mécaniques et électriques. Des solutions ont été trouvées. Après avoir comme souvent essayé de réduire certains phénomènes, on a cherché à les exploiter. C’est ainsi que l’idée est venue de profiter de ces réflexions, d’une part pour créer dans les transducteurs des zones résonnantes et donc des filtres à très faibles pertes (quelques dB), d’autre part pour réaliser des résonateurs plans constitués de deux réseaux réflecteurs.
- 3.5.2 Filtres à ondes stationnaires
- Ces filtres sont constitués de l’association de résonateurs comme le sont les filtres à ondes de volume. Cependant, comme nous l’avons déjà dit, les ondes dans un résonateur à ondes de volume sont excitées au cœur même de la cavité solide et se réfléchissent sur ses deux parois (métallisées, planes et parallèles dans le cas le plus simple) qui jouent le rôle de miroirs.
- Réflecteur
- Transducteur
- Réflecteur
- Cavité résonnante
- Figure 13. Résonateur à ondes de surface. Les ondes lancées par le transducteur se réfléchissent sur les réseaux.
- Les réflecteurs dans un résonateur à ondes de surface sont des réseaux de traits métalliques (éventuellement des sillons). La réflexion sur un trait métallique est très petite. Chaque réflecteur en comprend quelques centaines. Il est équivalent à un miroir placé à quelque distance de l’entrée du réseau. Les ondes sont excitées en surface par un transducteur à deux peignes-électrodes placé entre les deux réflecteurs (figure 13).
- Ce résonateur à ondes de surface présente des avantages par rapport au résonateur à ondes volume. Il fonctionne à des fréquences plus élevées. En effet, la largeur des traits métalliques des réflecteurs et du transducteur est, comme dans les autres dispositifs décrits précédemment, de l’ordre du quart de la lon-
- Figure 14. Couplage acoustique de deux résonateurs a) longitudinal b) transversal
- Amplitude du déplacement
- 34
- L'industrie Nationale - Septembre 2001
- p.34 - vue 34/0
-
-
-
- gueur d’onde or les techniques de gravure microélectronique autorisent des largeurs inférieures au um qui correspondent à des fréquences supérieures au GHz. Ces résonateurs se prêtent à des associations variées planes, par couplage longitudinal ou transversal des cavités (figure 14) ou par des liaisons entre transducteurs. Il est aussi possible de les associer en échelle à la manière des résonateurs à ondes de volume.
- Le nombre de structures possibles résultant de la nature du substrat (quartz, niobate ou tantalate de lithium ou autre), de la position (périodique ou non) des éléments des réseaux, de celle du ou des transducteurs, de la disposition (droite ou inclinée) des traits métalliques, de la nature de leur métal, de leurs longueur, largeur, épaisseur, de leur association par groupes à des potentiels différents, du mode de couplage des résonateurs est très grand.
- 3.5.3 Réponse fréquentielle d’un filtre pour téléphone mobile.
- La figure représente une réponse fréquentielle classique que donne les catalogues d’un filtre à ondes
- 10
- 20
- 60
- 80
- Atténuation 0 (dB)
- 1850 Fréquence (MHz)
- 1 division = 50 MHz
- Figure 15. Réponse fréquentielle d’un filtre pour système PCN (Personal Communication Network).
- de surface fontionnant à une fréquence centrale de 1850 MHz. C’est un filtre composé de résonateurs. La surface (le volume) de ce genre de filtres est de quelques millimètres carrés (cubes).
- Il existe, en catalogue, des filtres à ondes de surface progressives ou stationnaires dont la fréquence centrale est comprise en gros entre 30 et 3000 MégaHertz. Ils contribuent, pour une part essentielle, au développement des télécommunications par téléphone mobile. Ils sont fabriqués, dans le monde, sous diverses structures, en quantités considérables, plusieurs millions par jour.
- Conclusion
- Résumons les propriétés des ondes élastiques qui expliquent leur exploitation, au cours de ce dernier siècle, dans les applications que nous avons décrites ou seulement évoquées:
- - leur vitesse de propagation est petite (quelques kilomètres par seconde dans un solide) devant celle des ondes électromagnétiques (qui est une fraction de celle de la lumière, 300 000 kilomètres par seconde). Il en résulte qu’elles donnent lieu à des composants très compacts (lignes à retard, filtres) adaptés aux téléphones mobiles et aussi aux systèmes embarqués dans des satellites. A la fréquence de 1 GHz (109 Hertz), leur longueur d’onde (A =V/f) est de l’ordre du micromètre c’est à dire de l’ordre des longueurs des ondes lumineuses; en conséquence, elles peuvent modifier profondément les caractéristiques (intensité, direction, fréquence) d’un faisceau lumineux. A un laser se trouve donc souvent associé un modulateur, déflecteur ou spectromètre acousto-optique ;
- - leur aptitude à pénétrer des milieux opaques à la lumière comme le corps humain, les métaux, la mer. Cette propriété leur donne un rôle important en médecine, pour les examens obstétriques par échographie, en contrôle non destructif pour la détection de défauts tels que des fissures internes, impuretés, par échographie et aussi par microscopie acoustique, en milieu marin pour le relevé des fonds, la détection des obstacles et des bancs de poissons;
- - leur sensibilité, sous forme d’ondes stationnaires, dans des résonateurs de structures appropriées, à une action mécanique ou à la température. Ces résonateurs constituent des microbalances, accéléromètres, thermomètres ;
- - leur propagation dans différentes géométries de guides. Le contact d’une ou des parois du guide avec un gaz ou un liquide modifie leur propagation et donne accès à la détection de la présence ou d’une caractéristique du fluide. Des écrans tactiles et cordinomètres sont construits sur ce principe.
- Ces propriétés n’ont pu être utilisées qu’après l’invention de convertisseurs d’énergie électrique en énergie élastique (transducteurs) aptes à engendrer et à détecter ces ondes. C’est Paul Langevin qui a réalisé le premier transducteur (en 1917) basé sur l’effet piézoélectrique. Le quartz qu’il a employé reste un matériau extraordinaire, partie essentielle de nombreux composants dans les télécommunications parce que ses caractéristiques sont très stables. Il est aujourd’hui fabriqué par synthèse. Toutefois son coefficient piézoélectrique est petit. D’autres matériaux à coefficients piézoélectriques plus grands (céramique, plastiques, cristaux de niobate et tantalate de lithium) ont
- L'industrie Nationale - Septembre 2001
- 35
- p.35 - vue 35/0
-
-
-
- été élaborés et ont ouvert des domaines nouveaux d’applications (instrumentation)
- La démonstration effectuée par R.M. White et F.W. Voltmer (en 1965) que des ondes de Rayleigh se lançaient facilement avec des électrodes en forme de peignes interdigités a été à l’origine d’une grande variété de filtres, d’abord dans le domaine du radar puis dans celui de la télévision et des télécommunications. Le nombre de composants fabriqués, chaque jour, pour les téléphones mobiles s’exprime en millions.
- Ces ondes élastiques sont toujours l’objet d’études et d’applications, parfois inattendues.
- Ainsi, au Japon, des moteurs piézoélectriques ont-ils été introduits dans des appareils photographiques pour commander les obturateurs. Le rotor et le stator sont des anneaux. Le premier est plaqué contre le second dans lequel circulent des ondes lancées à l’aide de céramiques piézoélectriques. Le rotor est entraîné par la déformation de la surface qui progresse avec les ondes.
- A Paris, une vitrine interactive est en démonstration. Son intérêt est de donner au visiteur qui la regarde le moyen d’accéder à des informations complémentaires de celles qui sont présentées. Par un petit choc (avec une clef ou un coup d’ongle) sur la vitrine, dans la zone derrière laquelle se trouve un objet, par exemple un livre, il déclenche un menu. Le choc produit un train d’ondes élastiques dont l’arrivée sur les quatre bords de la vitrine est détecté par quatre pastilles piézoélectriques. Les coordonnées de la zone désignée se déduisent des quatre temps de parcours.
- Citons une nouvelle contribution de- ces ondes à l’avancement des techniques médicales . Il s’agit d’un ostéodensitomètre ultrasonore basé sur la mesure de l’atténuation des ondes qui traversent le calcaneum (os du talon). C’est une aide au diagnostic de l’ostéoporose. Sur le plan des études, signalons les efforts destinés à l’examen du contenu de la boîte cranienne en vue d’une imagerie du cerveau. Le crâne est un gros obstacle pour les ultrasons. Des méthodes (du genre retournement temporel, filtrage inverse) sont élaborées qui en autorisent la traversée.
- Les échanges entre acoustique et optique se poursuivent.
- L’acoustique apporte des filtres acousto-optiques accordables. Ce sont des lignes (cristaux biréfringents) dans lesquelles une onde lumineuse et une onde élastique de fréquences données donnent lieu à une onde lumineuse diffractée de fréquence imposée. Le choix de l’onde diffractée se fait par variation de la radio-fréquence du signal appliqué au transducteur.
- De son côté l’optique apporte un nouveau mode d’excitation des ondes élastiques) qui présente l’avantage de n’exiger aucun contact mécanique. C’est une impulsion laser qui par effet photothermique engendre les ondes. Après propagation dans une pièce, la déformation qu’elles produisent est détectée à l’aide d’un interféromètre. Ce dispositif est en cours d’essais en aéronautique pour le contrôle non destructif d’éléments composites.
- Quant aux travaux concernant le traitement des signaux électriques dont il a été surtout question dans cet article, ils sont orientés naturellement, avec le développement de la nouvelle génération de téléphones mobiles, vers la réalisation de composants fonctionnant à fréquence de plus en plus élevée. Pour n’avoir pas à diminuer la largeur des doigts des transducteurs (égale au quart du rapport vitesse/fréquence, soit une fraction de micromètre à 3 GigaHertz) on cherche à utiliser des substrats à grande vitesse de propagation comme des films de diamant ou bien des pseudo-ondes de surface qui se propagent plus rapidement que les ondes de Rayleigh. Ce sont des ondes de volume que l’on retient près de la surface à l’aide d’artifices tels que des réseaux métalliques.
- Bibliographie
- D. ROYER et E. DIEULESAINT - Ondes élastiques dans les solides, Volumel: Propagation libre et guidée, Masson (1996). Volume 2 : Génération,Interaction acousto-optique,Applications, Masson Paris (1999).
- M. FELDMANN et J. HÉNAFF - Traitement du signal par ondes élastiques de surface, Masson et CNET, Paris (1986).
- E. DIEULESAINT et D. ROYER - Propagation et génération des ondes élastiques, E 3 210 - Dispositifs acousto-électroniques, E 3 212, Techniques de L’Ingénieur, Traité Électronique Paris (2000).
- D. ROYER et E. DIEULESAINT - Acoustique: Équations générales, AF 3 810, Propagation dans un fluide, AF 3 812, Propagation dans un solide, AF 3 814, Techniques de l'Ingénieur, Traité Sciences fondamentales Paris (2000).
- 36
- L'Industrie Nationale - Septembre 2001
- p.36 - vue 36/0
-
-
-
- DU COMITE DE LA COMMUNICATION
- DE GRANDES MÉCONNUES : LES ASSOCIATIONS DE JOURNALISTES
- Jean-François BÈGE, Président de l'Association de la Presse Ministérielle, membre du Comité de la Communication
- eu encline à informer sur elle-même, la presse n’évoque que rarement le rôle des associations de journalistes. Il en existe pourtant un grand nombre et certaines sont fort anciennes. Leur recensement n’est pas aisé pour autant car « les degrés d’activité » des unes par rapport aux autres ne peut s’apprécier de l’extérieur, même par les professionnels. Il convient d’appartenir non seulement au milieu journalistique mais aussi à la catégorie de spécialistes concernée pour mesurer l’influence et la représentativité de tel cénacle de critiques musicaux par rapport à tel autre ou de chacune des associations réunissant des chroniqueurs politiques, lesquels sont d’ailleurs souvent membres - pour les raisons pratiques que nous examinerons -de plusieurs groupements à la fois. Des structures toujours déclarées sont en réalité en sommeil. D’autres présentent quelques signes de vie, tel l’appel de cotisations ou les assemblées générales, sans occuper dans le présent la place qui fut la leur dans le passé. Si beaucoup d’associations ne sont plus aujourd’hui que des «coquilles vides », c’est parce qu’une partie de leurs membres ont essaimé, créant et déclarant de nouvelles communautés.
- Comme dans bien d’autres milieux, le mouvement associatif recouvre chez les journalistes une très grande diversité de motivations et de centres d’intérêt. Il demeure cependant permis de considérer l’ensemble de cette réalité sous trois angles différents : le caractère représentatif, l’aspect pratique et le souci déontologique.
- LE CARACTÈRE REPRÉSENTATIF
- Il est souvent fait querelle aux associations de journalistes de n’être pas « représentatives » de la profession. Le procès est instruit parfois par les pouvoirs publics, rarement par le patronat de la presse et le plus souvent par les syndicats qui, en matière de défense des «intérêts moraux et matériels» des journalistes revendiquent un monopole qui leur est d’autant moins contesté que le droit social l’institue de manière incontournable. Qu’il s’agisse d’avenants à la convention collective, d’accords cadres sur la formation ou de la gestion paritaire d’un certain nombres d’organismes (commission d’attribution de la carte de presse, conseils d’administration des écoles etc.) les associa
- tions ne sauraient concurrencer les syndicats, d’ailleurs régis par d’autres textes que la loi de 1901. Il existe néanmoins une zone de débat, plus que de conflit, autour de la légitimité des « sociétés de rédacteurs» qui apparaissent le plus souvent en temps de crise dans les entreprises de presse sous la forme d’association afin de regrouper les professionnels soucieux de faire entendre une «parole collective » distincte -mais parfois complémentaire - de l’expression syndicale classique.
- La grande plasticité de la loi de 1901 permet de fournir rapidement un cadre juridique adapté mais le vrai modèle de ces « sociétés de rédacteurs » est ailleurs : il est incarné par ces « vieilles » associations de journalistes qui comme la fameuse « société des rédacteurs du Monde » ont été institutionnalisées du fait des circonstances (en général à la Libération) et qui, compte-tenu de leurs prérogatives d’actionnaires et des tâches de gestion qui leur incombent ont adopté des structures spécifiques autres que celles prévues par la loi de 1901 (Société civile, par exemple, à Sud-Ouest).
- En dehors de leurs entreprises, les journalistes adhèrent ou non, à titre individuel, aux associations qui correspondent à leurs aspirations ou en créent de nouvelles. L’importance prise par l’actualité communautaire a par exemple conduit les journalistes spécialistes de l’Europe à s’associer au sein d’Europresse, l’une des plus dynamiques associations de Paris. En province, les «clubs de la presse» se sont multipliés ces dernières années et remplissent la mission de «pépinières d’entreprises», comme à Lyon, pour des jeunes publications ou agences de presse.
- Qu’il s’agisse de rassembler des spécialistes de l’information religieuse, de l’économie, des affaires européennes ou du tourisme, la forme associative présente l’avantage d’une reconnaissance « inter pares », même si les formalités (en général un parrainage simple) d’admission dans les associations de journalistes sont peu compliquées. Elles sont même réduites au minimum lorsque les professionnels concernés disposent d’une expérience connue ou appartiennent à des rédactions réputées. Il n’empêche que les responsables des pouvoirs publics ou les divers décideurs qui choisissent, à leur initiative ou à celle des journalistes, de
- L'industrie Nationale - Septembre 2001
- 37
- p.37 - vue 37/0
-
-
-
- s’exprimer devant un groupe de journalistes réunis en association déclarée disposent de ce fait d’une garantie théorique sur le sérieux et les compétences de leurs interlocuteurs. En cas de conflit (incident avec les services de sécurité, ostracisme vis-à-vis d’un représentant de la presse, non respect d’un embargo sur une information, etc.) le président et le bureau de l’association peuvent très légitimement exercer une mission de relais, de porte-voix, et même de médiation ou d’arbitrage lorsqu’un litige oppose deux confrères.
- L’ASPECT PRATIQUE
- Si les associations de journalistes ont conquis depuis longtemps droit de cité, c’est en raison des commodités qu’elles apportent à leurs membres ainsi qu’aux interlocuteurs de ceux-ci. Un exemple très significatif de cet état de choses est apporté par l’intervention régulière de deux associations de journalistes politiques dans la logistique de couverture médiatique des déplacements officiels du chef de l’État et du chef du gouvernement.
- Contrairement à une opinion répandue, les journalistes suivant le président de la République ou le premier ministre en France et à l’étranger ne sont pas «invités» par l’Élysée ou Matignon. Ils acquittent -soit directement sur note de frais, soit par l’intermédiaire de leur journal - le montant des dépenses engagées par le transport aérien, le réceptif (autobus, guides, interprètes, salle de travail équipées de moyens de transmission) et l’hôtellerie. Les associations de journalistes (Presse présidentielle à l’Élysée, presse ministérielle à Matignon) négocient globalement, sur ces chapitres, avec un prestataire de service (en général la compagnie des Wagons-lits, qui dispose d’un service spécialisé), le coût des déplacements.
- L’armée de l’air, lorsque ses avions de liaison sont utilisés (ex-« Glam » et « Cotam »),facture en outre ses services aux représentants de la presse à des tarifs sensiblement équivalents à ceux des compagnies civiles. Par cette action peu connue quoique d’une transparence absolue, les associations - animées par les dirigeants élus et bénévoles - servent en conséquence à garantir l’indépendance des journalistes.
- D’autres avantages offerts par les associations méritent d’être soulignés.
- L’édition d’annuaires - chaque groupement a le sien - permet aux attachés de presse et aux «combina-teurs» variés de trouver facilement des journalistes spécialisés pour les informer ou les réunir à l’occasion de rencontres informelles ou de conférences de presse. Les associations permettent aussi d’organiser un minimum de discipline interne partout où les emplace
- ments de travail (dans les stades et les tribunaux comme... à l’assemblée nationale) réservés aux représentants de la presse ne doivent pas être indûment occupés. Certaines associations s’efforcent, en outre, d’assurer malgré des moyens souvent très limités-quelques activités d’ordre social et solidaire (secours, assistance aux familles, information sur les «piges» ou emplois disponibles).
- LE SOUCI DÉONTOLOGIQUE
- De façon plus ou moins intéressée, il est souvent «conseillé» aux associations de journalistes de se manifester en matière de déontologie. Le rêve d’instituer de l’extérieur un «ordre des journalistes» n’a pas disparu et l’on a pu lire à ce sujet quelques suggestions reflétant une grande méconnaissance du monde associatif de la presse dans un rapport récent du conseil économique et social. Les journalistes et leurs associations les plus représentatives ont toujours été plus que réticents par rapport à cette idée pour plusieurs raisons qu’il serait trop long d’expliciter ici. Citons tout de même le risque immédiat de voir apparaître, comme en Angleterre, une presse dite de « transgression » qui tirerait sa raison d’être économique dans le manquement aux règles édictées par un «ordre». Ou bien encore l’impossibilité de surmonter certains obstacles dûs au patriotisme d’entreprise et à l’émulation entre rédactions (on imagine mal un journaliste du « Monde » accepter une observation et a fortiori une remontrance d’un confrère du «Figaro» et réciproquement). Cette absence, salutaire, d’institution ordinale comparable à celles des professions libérales, n’empêche pas les associations - ensemble en certaines occasions - de défendre des positions de principe sur la liberté d’informer, le droit de ne pas révéler ses sources ou les pressions publicitaires. Leur travail pédagogique, dans le rappel des règles éthiques de la profession, n’est pas niable.
- Par leur nombre, leur diversité, leur capacité à réunir des journalistes réputés très «individualistes» dans des structures non pesantes, les associations de la presse auront sans doute, dans l’avenir, plus que leur mot à dire sur l’art et la manière d’informer les Français.
- Jean-François Bège MBA, Diplômé de l’Université Paris IX Dauphine, Président de l’association de la presse ministérielle1 Ancien vice-président de la Fédération Françaises des Société de Journaliste
- (1) Fondée en 1948, l’association de la presse ministérielle représente les journalistes accrédités auprès du premier Ministre. Son siège se siège à l’Hôtel Matignon.
- 38
- L'Industrie Nationale - Septembre 2001
- p.38 - vue 38/0
-
-
-
- ENCOURAGEMENT DES USAGES PROFESSIONNELS D'INTERNET collaboration entre la Société et la Chambre Syndicale des Entreprises d'Équipement Electrique
- Dans le cadre du Programme «Industries Mutlimédia» de la Société qui vise à promouvoir l’usage des nouvelles technologies de communication notamment pour l’information et la formation professionnelles, un protocole de collaboration a été signé avec la Chambre Syndicale des Entreprises d’Equipement Electrique de Paris et d’Ile de France.
- L’histoire de la C.S.E.E.E. débute en 1881 date à laquelle fût créée la Chambre Syndicale des entrepreneurs de sonneries électriques, à air, porte-voix et paratonnerres. Le succès très rapide de la nouvelle énergie « Electricité » amena à modifer très rapidement l’appellation du syndicat qui devint au début du XXe siècle la Chambre Syndicale des Entrepreneurs et Constructeurs Electriciens. Compte tenu du fort développement de ce secteur au niveau national, les responsables de la Chambre Syndicale prirent l’ini
- tiative de créer en 1924 le Syndicat Général des Installateurs Electriciens français qui allait devenir en 1945, la Fédération Nationale de l’Equipement Electrique, pour sa part la Chambre Syndicale exerçant ses missions à l’échelle de la Region Ile de France.
- En 2000, le poids du secteur de l’installation électrique représente 81 milliards de Francs en France métropolitaine et 27 milliards de Francs en Ile de France. Le secteur des installations électriques réprésente 19 % des travaux effectués par le BTP en France métropolitaine. Ces travaux sont réalisés par près de 35 000 entreprises, dont plus de 5 000 en Ile de France. Ce secteur emploie en France métropolitaine environ 165 000 salariés. Environ 1/3 des marchés et des emplois concerne la seule Région Ile de France.
- Outre ses missions institutionnelles, la C.S.E.E.E. est particulièrement soucieuse d’accompagner ses adhérents dans les transformations de grande enver-
- -aie "
- Messieurs les Présidents Mousson et Frattaroli
- L'industrie Nationale - Septembre 2001
- 39
- p.39 - vue 39/0
-
-
-
- gure que connait ce secteur. Ces dernières sont dues à trois facteurs majeurs : la diffusion des nouvelles technologies, la multiplication des offres de produits et de services nouveaux aux clients, et l’ouverture du marché de l’énergie. Ce secteur est par ailleurs soumis à de nombreuses et nouvelles réglementations et normes sans cesse en évolution. Sur ce sujet, la CSEEE agit à différents niveaux. Ses représentants sont administa-teurs des organismes nationaux et européens en la matière et porte une importance toute particulière non seulement à l’élaboration des textes mais aussi à leur diffusion et compréhension par le plus grand nombre de professionnels concernés.
- L’accord entre la Société et la C.S.E.E.E.. répond à deux objectifs : favoriser les usages professionnels d’Internet, utiliser cet outil pour faciliter l’information et la formation notamment en matière de normalisation et ce par la production de contenus multimédia intéractifs de formation téléchargeables à distance. Les principaux termes de l’accord conduisent à la production de contenus de formation multilingue sur la norme nationale et européenne d’installation électrique. La mise en œuvre de cette démarche et de cette production réalisée en Espagne ont été rendues possible entre autres par les soutiens ; des Ministères français de l’Industrie et du Travail, du Ministère espagnol de l’Industrie, de partenaires industriels (Schneider, Legrand, Philips, Edf, France-Télécom, ...). Un premier déploiement conduit dès 2002 à diffuser ce contenu au travers d’Internet auprès de 2000 électriciens dans le cadre d’un web-service permettant de certifier les usages.
- Le fait de proposer aux professionnels une réponse efficace à un besoin majeur au travers de nouveaux outils est susceptible d’encourager significativement l’utilisation d’Internet dans le travail quotidien avec de réels gains de productivité à la clé, et la création de nouveaux services à forte valeur ajoutée.
- Dans ce sens cette collaboration s’inscrit dans une philosophie d’action pragmatique assez éloignée des recentes tendances qui tentent de créer un distinguo entre ancienne et nouvelle economie liée à l’emer-gence d’Internet. A ce propos, il est rappelé les principales positions prises sur ce sujet lors du colloque annuel de la CSEEE.
- M. FAKIH, Délégué Général de la CSEEE
- « Il serait vain de rechercher dans le dictionnaire la définition de « nouvelle économie ». Si elle existe et qu ’un sas mène de l’ancienne à cette dernière, les entreprises adhérentes de la Chambre Syndicale des entreprises d’équipement électrique s ’y sont déjà engagées. A cela plusieurs raisons, tout d’abord leur importante contribution à la réalisation des infrastructures et équipements supportant les nouvelles technologies, mais également la culture du travail en réseaufortement imprégnée dans leur effectif qui compte plusieurs dizaine de milliers de salariés habitués à travailler sur un marché de plusieurs milliards de francs en perpétuel mouvement et au sein duquel toute nouveauté technologique a toujours été intégrée en terme d’évolution plus que de révolution.»
- M. DURDILLY, Directeur Commercial Particuliers et Entreprises d'EDF
- « L’impact des nouveaux services liés au développement d’Internet est très fort pour des sociétés engagées sur des marchés mondiaux, chaque élément de la chaîne de valeur va faire l’objet d’une concurrence acerbe ; capacité de créer une pression sur les prix à l’aide des comparateurs de prix, aide à la fluidité du marché de gros en facilitant la mise aux enchères de capacités de production, possibilité de créer ou de participer à des sites thématiques en relation avec des catégories de besoin d’utilisateurs, recours à des places de marché spécialisées en liaison avec d’autres « utilities », possibilité de déployer des agences en ligne, nécessité de s'ouvrir à de nouvelles formes de partenariats ...En ce domaine l’imagination ne doit pas avoir de limites en prenant soin de garder à l’esprit la pleine mesure de la relation client et de sa fidélisation.
- L’ensemble de ces nouveaux éléments incorporés à des rythmes plus ou moins rapides dans l’activité de l’entreprise est une occasion de se remettre en cause en gardant conscience des menaces comme des opportunités.»
- M. SIAUNNEAU, Président de la FNB
- «Dans un secteur comme celui du BTP, il est clair que la relation ne va pas devenir virtuelle du jour au lendemain. Cette réflexion met en exergue d’une part ce qui doit être préservé et d’autre part le cadre où des stratégies d’évolution peuvent être envisagées. Préserver l’économie du réel, l’entreprise, et la vraie valeur ajoutée face aux dérives spéculatives de la bourse constatées durant la période de liesse des valeurs Internet sont des nécessités.
- D’autre part, la ressource rare est la ressource humaine. Il ne faut pas oublier cette priorité qu ’ est l’individu qui implique defaire en sorte d’éviter la fascination de la technologie pour la technologie mais viser continuellement à ce qu ’elle lui profite réellement. L’époque reste très excitante, il faut être enthousiaste et critique à la fois.»
- 40
- L'Industrie Nationale - Septembre 2001
- p.40 - vue 40/0
-
-
-
- M. FAKIH, Délégué Général de la CSEEE.
- M. DURDILLY, Directeur Commercial Particuliers et Entreprises d’EDF
- M. SIAUNNEAU, Président de la FNB
- r
- M. FRATTAROLI. Président de la CSEEE
- VITVT
- 1 I
- I urouenoro *
- • .-
- L'Industrie Nationale - Septembre 2001
- 41
- p.41 - vue 41/0
-
-
-
- M. FRATTAROLI, Président de la CSEEE
- « Ces dernières années, on nous a fait croire que les lois de l’économie se trouveraient renversées par le développement d’Internet. Une illusion de courte durée mais qui a eu le mérite d’apporter de l’adrénaline au débat sur l’introduction d’Internet dans les échanges économiques. Ni panacée, ni placebo, la dite « nouvelle économie » se dissout dans l’économie traditionnelle plus qu’elle ne s’y oppose. En témoigne la révision à la baisse du potentiel de réussite, pour ne pas dire l’échec de certains nouveaux services d’E-commerce, d’E-learning, etc. lancés par effet de mode, d’objectifs de gains totalement inconsidérés tant en volume qu ’en rapidité et autres plus que sur une logique profonde d’apport de valeur à des dispositifs existants et rémunérés en conséquence.
- Maintenant que la ruée vers l’or est terminée, que la bulle s’est dégonflée, nous pouvons avoir le recul suffisant pour parler sérieusement et sereinement des opportunités d’Internet. L’état d’esprit a changé mais n ’a pas effacé le réel progrès apporté par cette technologie. Bien au contraire, c’est maintenant que les nouveaux services peuvent commencer à se diffuser dans l’économie traditionnelle, celle de l’industrie et de la construction. Pour les entreprises d’équipement électrique, imprégnées par nature de cette culture de l’innovation, il s’agit de bien orchestrer les évolutions actuelles et futures aussi bien en interne qu ’avec les partenaires et les clients.»
- Comme le Président MOUSSON l’a rappelé à différentes reprises, et notamment lors de la signature de l’accord de collaboration, fidèle à sa tradition historique, la Société agit en la matière pour l’innovation et le progrès en prenant soin de faire le tri avec ce qui est du phénoméne de mode, de la pensée gadget ou de solutions miracles que chaque époque nous apporte.
- Sur ces bases, elle veille à encourager, expérimenter, et promouvoir les initiatives visant la création de nouveaux services et entreprises susceptibles d’apporter de réels gains de compétitivité à celles qui les utilisent. La présente collaboration vise ces objectifs pour le secteur de l’équipement et de l’installation électrique.
- 42
- L'industrie Nationale - Septembre 2001
- p.42 - vue 42/0
-
-
-
- Pour vos conférences
- Pour vos séminaires
- Pour vos réunions de travai
- Des salles en plein cœur de Paris...
- Pour les Entreprises et Associations poursuivant des objectifs compatibles avec l’objet social et le souci de promouvoir l’Industrie, la SPI Société d’encouragement Pour l’Industrie nationale met à leur disposition des salles équipées destinées à leurs conférences et réunions de travail.
- [1] SALLE LOUIS LUMIÈRE
- (165 m2)
- Conférence : 1 20 places. Salle de prestige, sonorisée, enregistrement possible.
- 2] BIBLIOTHÈQUE MONTGOLFIER*
- (35 m2)
- Conférence : 30 places. Tour de table : 20 places. Écran.
- * Il est possible d'ouvrir cette salle sur la salle Louis Lumière.
- 3] BIBLIOTHÈQUE DE LASTEYRIE
- (47 m2)
- Tour de table : 18 places.
- [4 ] SALON PERRET
- (38 m2)
- Conférence : 30 places. Tour de table : 16 places.
- Tableau et écran.
- 5 SALON EIFFEL
- (39 m2)
- Conférence : 25 places. Tour de table : 14 places. Tableau.
- 6] SALLE FREYSSINET
- (35 m2)
- Conférence : 20 places. Tour de table : 16 places.
- Tableau et écran.
- 7] SALLE DES TROIS CONSULS
- (55 m2)
- Conférence : 22 places. Tour de table : 40 places. Écran.
- [8 SALLE CHAPTAL
- (85 m2)
- Conférence : 70 places. Tour de table : 50 places.
- Sonorisation, tableau, écran.
- 4, place Saint-Germain-des-Prés 75006 Paris
- Téléphone : 01 44 39 20 50
- Télécopie : 01 42 84 17 73
- E
- L'industrie Nationale - Septembre 2001
- 43
- p.43 - vue 43/0
-
-
-
- Société d’utilité publique fondée en 1801
- SOCIÉTÉ D'ENCOURAGEMENT POUR L'INDUSTRIE NATIONALE
- •
- 4, place Saint-Germain-des-Prés 75006 Paris
- Tél. (33) 01 44 39 20 50 - Fax 01 42 8417 73
- www.industrienationale.fr
- adm @ industrienationale.fr
- Deuxième et troisième trimestre 2001
- p.n.n. - vue 44/0
-
-