Quels étaient les principes de fonctionnement du MITI japonais dans les années 50 et 60 ?

Quels étaient les principes de fonctionnement du MITI japonais dans les années 50 et 60 ?

Le ministère japonais du Commerce international et de l'Industrie (MITI) a guidé l'économie japonaise pendant deux décennies de croissance économique sans précédent. Le MITI était le principal instrument de la politique industrielle du Japon, qui ne dirigeait pas l'ensemble de l'économie comme le ferait un système communiste à planification centralisée, mais « fournissait aux industries des conseils administratifs et d'autres orientations, à la fois formelles et informelles, sur la modernisation, la technologie, les investissements dans de nouvelles usines. et équipements, et concurrence nationale et étrangère » (source : wikipedia). Comment le MITI a-t-il été créé ? Comment at-il attiré des bureaucrates compétents et bien intentionnés ? Comment a-t-il empêché les conflits d'intérêts entre les industries bien implantées et les consommateurs ?

Des références à une description détaillée de la façon dont ils ont réalisé cet exploit (en anglais) seraient également appréciées.


Le MITI a été formé par la fusion de l'Agence du commerce et du ministère du Commerce et de l'Industrie. Son but était d'aider à freiner l'inflation et de fournir un leadership gouvernemental dans différents types d'industries. Le MITI a aidé ces industries en établissant des politiques sur les exportations et les importations ainsi que sur les industries nationales. En fait, la politique de commerce extérieur qu'ils ont élaborée visait à renforcer la fabrication nationale. Ils étaient également chargés d'établir des lignes directrices concernant le contrôle de la pollution, l'énergie et l'électricité, et les plaintes des clients.

La clé de leur succès du point de vue bureaucratique était qu'ils n'avaient pas de groupe de bureaucrates qui prenaient au hasard des décisions qui, selon eux, seraient couronnées de succès. Au lieu de cela, ils se sont appuyés sur le fait de réunir les plus grandes personnalités de chaque domaine industriel pour obtenir un consensus sur les politiques avant de les adopter. Ils ont également encouragé les leaders de l'industrie à partager leurs meilleures pratiques pour s'assurer que tout le monde avait une chance de réussir.

En ce qui concerne votre demande de description détaillée de la façon dont ils ont procédé, j'ai trouvé un document de recherche de Harvard qui se concentre spécifiquement sur le rôle du MITI dans les progrès des technologies de l'information. Cependant, les principes appliqués dans ce domaine particulier sont également pertinents dans d'autres formes d'industrie. Voici un exemple du point principal qui rassemble tout cela :

Le MITI à lui seul n'est pas responsable du succès économique du Japon. Son point fort semble plutôt être sa capacité à rassembler des points de vue divergents dans la création de politiques nationales qui sont généralement acceptables pour les divers secteurs de la société. La recherche de consensus reste l'un des traits marquants de la scène japonaise. Le succès du Japon et du MITI dans la période d'après-guerre est dû en grande partie à la stabilité politique dont ils ont bénéficié. Cette stabilité a permis au MITI de remplir efficacement son rôle d'orientation et de coordination.


Il y a une explication très complète sur la croissance économique japonaise dans le travail de l'universitaire asiatique Chalmers Johnson dans son travail Blowback: les coûts et les conséquences de l'empire américain. En plus d'une explication très bien documentée sur les actions américaines et le concept dérivé de la communauté du renseignement de « blowback », il fournit une explication très détaillée sur la réussite économique japonaise (vous seriez probablement intéressé par son travail avec une explication plus directe du rôle de le MITI en particulier, MITI et le miracle japonais : la croissance de la politique industrielle, 1925-1975). Son argumentation en Retour de flamme est qu'en plus des compétences japonaises dans l'industrie promues par des gens comme le MITI, une grande partie de leur croissance incroyable était due à leur capacité à utiliser leur environnement géopolitique à leur avantage.

"De 1950 à 1970 environ, les États-Unis ont traité le Japon comme un quartier bien-aimé, comblant tous ses besoins économiques et le parrainant fièrement comme un élève capitaliste vedette. Les États-Unis ont parrainé l'entrée du Japon dans de nombreuses institutions internationales… ont transféré des technologies cruciales aux Japonais à des conditions pratiquement concessionnelles et ont ouvert leurs marchés aux produits japonais tout en tolérant la production japonaise sur son propre marché intérieur."

-Chalmers Johnson, Blowback: les coûts et les conséquences de l'empire américain, p.177

L'un des points intéressants soulevés par Johsnon est son affirmation selon laquelle "Les régimes d'exportation d'Asie de l'Est ont prospéré sur la demande étrangère générée artificiellement par une puissance impérialiste… la stratégie n'a fonctionné que tant que le Japon et peut-être un ou deux pays plus petits ont poursuivi cette stratégie.« Alors que les politiques bénéfiques ont initialement profité au Japon et aux États-Unis, le premier tel que décrit ci-dessus et le second en fournissant des biens de consommation bon marché et un exemple des avantages du capitalisme à utiliser dans les conflits idéologiques qui font rage en Asie de l'Est. vers la fin des années 80, les Japonais développé une surcapacité à produire des biens destinés au marché américain en même temps que les politiques américaines au Japon (et ailleurs) avait vidé des industries américaines vitales, réduisant les opportunités d'emploi et les salaires aux États-Unis et réduisant ainsi la capacité du consommateur américain à absorber les produits japonais.

Son argument est plus élaboré dans le chapitre 9 de Blowback, et je vous recommande vraiment de le consulter dans votre bibliothèque locale ou de l'acheter, si vous voulez en savoir plus.


Underwriters Laboratories, Inc.

Underwriters Laboratories, Inc. (UL) et ses filiales dans le monde évaluent la sécurité et la conformité des produits, des matériaux et des systèmes aux normes américaines et étrangères. En 1998, plus de 14 milliards de marques UL sont apparues sur de nouveaux produits dans le monde. Le personnel d'UL a élaboré plus de 600 normes de sécurité, dont 80 pour cent sont approuvées en tant que normes nationales américaines. Les frais de test et de service des clients soutiennent l'organisation indépendante à but non lucratif.


USS Amberjack (SS-522)

Configuration Guppy II telle qu'elle était lorsque j'ai servi à son bord. Les canons de pont ont été retirés lors des conversions GUPPY.

Déplacement : 1 570 (surf.), 2 415 (sous-marin)
Longueur : 311′ 8″, Faisceau : 27′ 3″
Tirant d'eau : 15′ 5″ (moyenne), Vitesse : 20,25 k. (surf.), 8,75 k. (soumis.)
Complément : 81
Armement : 10 tubes lance-torpilles 21″, 1 canon de pont 5″, 1 40 mm. canon de pont
Classe : BALAO

Le deuxième AMBERJACK (SS-522) a été posé le 8 février 1944 au Boston Navy Yard, lancé le 15 décembre 1944 parrainé par Mme Dina C. Lang, et mis en service le 4 mars 1946, Comdr. William B. Parham aux commandes. Le premier sous-marin de ce nom, l'USS Amberjack (SS219), a été coulé par le torpilleur japonais Hiyodori le 16 février 1943, moins de 9 mois après sa mise en service. Pour en savoir plus sur les exploits et la perte du SS219, vous pouvez lire les deux rapports écrits de patrouille de guerre de son capitaine et ses rapports radio de la troisième patrouille jusqu'au moment de son naufrage. Cliquez ici pour lire l'histoire très poignante.

Après un entraînement au shakedown dans les Antilles et dans le golfe du Mexique, AMBERJACK s'est présenté le 17 juin pour travailler avec l'escadron de sous-marins (SubRon) 8. Opérant à partir de la base sous-marine de New London, dans le Connecticut, elle a effectué des missions d'entraînement dans l'Atlantique Nord. , et, en novembre 1946, a effectué une croisière au-dessus du cercle polaire arctique. En janvier 1947, le sous-marin est entré dans le chantier naval de Portsmouth (NH) pour d'importantes modifications et a ensuite passé environ un an à subir une conversion "Guppy" II (à partir d'une plus grande puissance de propulsion sous-marine) au cours de laquelle sa coque et sa voile ont été rationalisées et des batteries supplémentaires et un tuba ont été installés pour augmenter son endurance à la vitesse immergée et sa maniabilité. En janvier 1948, il s'est présenté au service avec le SubRon 4 basé à Key West, en Floride. Il a opéré le long de la côte est et aux Antilles pendant un peu plus de 11 ans. Son programme comprenait le développement de tactiques et d'exercices de navires indépendants, une formation sur type, des révisions périodiques et des exercices de flotte. Au cours de cette période, il a également visité de nombreux ports des Caraïbes. En juillet 1952, AMBERJACK a été transférée au SubRon 12 nouvellement créé, bien qu'elle soit restée basée à Key West et son emploi a continué comme avant.

L'édition de janvier 1950 du National Geographic Magazine contient un article de 23 pages sur la Marine à Key West avec de nombreuses photos de l'Amberjack et de son équipage. L'auteur était à bord lors de la montée raide rendue célèbre par la photo en bas de cette page.

Sériole plongée en apnée au large de Key West en 1950

Au début d'août 1959, après plus de 11 ans d'opérations à Key West, le port d'attache du sous-marin a été changé pour Charleston, SC. nouveau port d'attache, les opérations d'AMBERJACK sont restées à peu près telles qu'elles étaient auparavant, avec une différence significative : elle a commencé à effectuer des déploiements dans les eaux européennes. En août, septembre et octobre 1960, le sous-marin a participé à un exercice de l'OTAN avant de faire une escale d'une semaine à Portsmouth, en Angleterre. Elle est revenue à Charleston fin octobre et a repris ses fonctions normales. Entre mai et septembre 1961, le navire de guerre s'est déployé en mer Méditerranée pour servir dans la 6e flotte.

Je me suis présenté à bord le 9 septembre 1961 à Charleston, Caroline du Sud en tant qu'attaquant du Seaman 1C, ET. Ma tâche pendant les deux premières semaines était celle d'un cuisinier du mess qui faisait partie de la routine d'initiation. Nous sommes immédiatement partis en mer alors qu'un ouragan approchait et que tous les navires de l'USN devaient se mettre en haute mer afin d'éviter de cogner contre les jetées. Nous étions au milieu de quelques réparations qui nous empêchaient de nous immerger, nous l'avons donc fait remonter à la surface. Nous nous sommes agités comme une noix de coco dans les vagues et j'ai eu constamment le mal de mer pendant plusieurs jours alors que nous résistions à une mer immense. Nous ne pouvions pas sortir sur le pont, j'ai donc dû trimballer des poubelles dans la salle de contrôle, monter une échelle jusqu'à la tourelle de commandement et monter une autre échelle jusqu'au pont. Ensuite, j'ai dû attendre le bon angle de roulis pour que les ordures ne tombent pas sur le pont lorsque j'ai vidé le contenu sur le côté. Le tout sans vomir en chemin. Si je faisais du bon travail, le Conning Officer me laisserait rester à la surface pendant un certain temps pour avoir un peu d'air frais sur mon visage. Après la période d'initiation, je suis devenu un membre régulier du gang de l'électronique au sein du département des opérations.

Mes tâches comprenaient les surveillances permanentes de radars et de contre-mesures électroniques et l'entretien de l'équipement. J'ai parcouru les postes de barre, de contrôle de plongée et de surveillance, et mon poste de combat était au poste de contrôle des avions de proue car j'étais assez bon pour maintenir l'angle commandé sur le bateau.

Nous avons fait des arrêts fréquents à Fort Lauderdale, en Floride, où nous avons effectué des profils sonores au centre d'essais du sud de la Floride. Le fond marin est tombé à 600 pieds à moins de 3 miles du rivage, ce qui en faisait une plage de test idéale. Nous nous amarrions à une jetée commerciale à Port Everglades, partions le matin, montions et descendions la plage presque toute la journée et retournions à Fort Lauderdale liberty le soir. Pendant cette mission, nous effectuions des quarts à bâbord et à tribord (typiquement au port) plutôt que 3 quarts comme en mer. Parfois, nous laissions l'une des 2 sections de surveillance à terre pour la liberté car nous n'avions besoin que d'une seule montre pour la journée. Ils devaient juste être de retour à l'embarcadère à temps pour nous attacher. Après une journée en ville, ils avaient parfois du mal à attraper les lignes de soulèvement.

Les jours non opérationnels, nous organisions des journées portes ouvertes sur le bateau pour les visiteurs locaux. Nous avions l'habitude de plaisanter en disant que la raison pour laquelle nous étions si souvent là-bas était parce que le skipper avait une petite amie là-bas. Je sais que beaucoup de gars sur le bateau l'ont fait.

Nous nous sommes également arrêtés à Key West pour patrouiller les eaux entre la Floride et Cuba. En 1962, nous avons participé à un important exercice de flotte, « Spring Board ». Nous et plusieurs autres sous-marins avons suivi et « attaqué » la flottille militaire chaque nuit en route vers Porto Rico. Nous étions basés à San Juan lorsque nous ne transportions pas et ne « verrouillions » pas les Navy SEALs pendant qu'ils étaient submergés afin qu'ils puissent « envahir » l'île de Vieques dans leurs radeaux en caoutchouc.

Aujourd'hui, il n'est pas rare que les bateaux aient du personnel armé à la surface lorsqu'ils pénètrent dans des eaux resserrées. Mais à l'époque, nous n'avions pas beaucoup d'expérience avec les armes légères, à l'exception des tirs de requin occasionnels après l'appel à la nage. En plus de porter un .45 en position debout OOD, je n'ai porté une arme de poing qu'une autre fois. Notre machine cryptographique fonctionnait mal et devait se rendre dans un magasin sécurisé de la base de Charleston pour maintenance. Comme j'étais accéléré pour le programme nucléaire, j'avais déjà été contrôlé pour une habilitation de sécurité secrète. L'officier des opérations et moi avons donc mis la machine dans une sacoche en toile verrouillée avec des trous d'aération conçus pour couler au fond si nous devions la jeter du quai. Ensuite, nous avons chacun chargé nos .45, pris les 2 poignées de la sacoche et l'avons parcourue jusqu'à la jetée et à travers le chantier naval jusqu'à un bâtiment où 2 Marines armés ont signé pour elle et l'ont emmenée dans une pièce derrière une porte en forme de voûte.

J'ai gagné mes premiers dauphins après avoir obtenu mon diplôme de sous-marinier sur AMBERJACK en mars 1962. À l'époque, il fallait environ 7 mois pour apprendre tous les systèmes, commandes et postes de surveillance nécessaires à la qualification. En juin, j'ai été transféré à la Nuclear Power Training School de Bainbridge, dans le Maryland, pour rejoindre la classe à partir de ce mois.

Après un intermède de trois ans opérant le long de la côte est et dans les Antilles, AMBERJACK a fait une autre croisière en Méditerranée entre le 7 juillet et le 1er novembre 1964. Il a passé les 29 mois suivants à travailler à Charleston. En 1967, le sous-marin effectue un déploiement de trois mois en Méditerranée entre le 23 avril et le 24 juillet. Le 2 septembre 1969, après 25 mois supplémentaires d'opérations le long de la côte est et dans les Antilles, elle entame sa dernière période de service basée à Charleston dans les eaux européennes au cours de laquelle elle participe à un autre exercice de l'OTAN avec des unités des forces britanniques, canadiennes , et les marines néerlandaises. À la fin de l'exercice, AMBERJACK a visité un certain nombre de ports en Europe du Nord avant de retourner à Charleston le 12 décembre 1969.

Le 9 juillet 1970, AMBERJACK est arrivé dans son nouveau port d'attache, Key West, sa base pour le reste de son service dans la marine américaine. Il effectue son dernier déploiement en Méditerranée entre le 27 novembre 1972 et le 30 mars 1973. Le 17 octobre 1973, l'AMBERJACK est désarmé à Key West et son nom est rayé de la liste de la Navy. Le même jour, il est transféré à la marine brésilienne et commandé sous le nom de CEARA (S-12). À la fin de 1984, il était toujours actif dans la marine brésilienne. Vers 1995, j'ai rencontré un associé à Brasilia qui était dans la Réserve navale brésilienne. Il a confirmé que l'AMBERJACK/CEARA était toujours en service à ce moment-là.

Avant la conversion GUPPY. A toujours ses canons de pont. Après modifications GUPPY II. Après modifications complètes des voiles.

L'USS Pickerel (SS524) a également enregistré une montée très raide. Voici un compte rendu de son expérience :

Pickerel (SS-524), faisant surface à un angle de 48 degrés, à partir d'une profondeur de 150 pieds, lors d'essais au large de la côte d'Oahu, Hawaï, 1er mars 1952. "Le but de cette opération était de permettre aux experts sous-marins de la Marine de évaluer les capacités et les caractéristiques du sous-marin de type GUPPY-snorkel. Cette photo a été prise de Sabalo (SS-302). Ses sonars ont gardé Pickerel sous observation pendant qu'elle était submergée et se préparait à faire surface. Pendant les manœuvres de Pickerel, l'équipement sonar a fourni le relèvement relatif en constante évolution qui a permis aux photographes de prendre cette photo alors qu'elle brisait la surface. » Remarque : Le dossier officiel du « surfaçage » illustré ci-dessus est qu'il a commencé à 150 pieds et a atteint un angle ascendant de 48 degrés. D'un équipier manœuvrant la barre lors de cette évolution : « Nous avons démarré à 250 pieds, vitesse de flanc. L'ordre de surfaçage comprenait « utiliser 60 degrés » (la lecture la plus élevée sur l'indicateur d'angle de type à bulle). « Nous avons dépassé et perdu la bulle à 65 degrés. L'angle maximal (72 degrés) a été calculé plus tard par les laisses des hautes eaux dans les cales de la salle des pompes. En y repensant, même avec la proue collée au-dessus de l'eau jusqu'au pont Fairwater, les vis n'auraient pas été beaucoup au-dessus de notre point de départ, nous poussant toujours vers le haut. « Premier message du Queenfish (SS-393) qui nous accompagnait : « Quelle est la gravité spécifique de vos cales de la salle des torpilles ? » « Comme vous pouvez l'imaginer, le C.O. était en quelque sorte un homme sauvage et compétitif, poussant pour découvrir quelles étaient les limites de ces nouveaux bateaux GUPPY, après avoir supporté les anciens bateaux de la Seconde Guerre mondiale. Et, nous avons dû battre le record de l'Amberjack (SS-522) de 43 degrés.


Chronologie de l'histoire de l'hygiène

Le mot hygiène vient d'Hygie, la déesse grecque de la santé, qui était la fille d'Esculape, le dieu de la médecine. Depuis l'arrivée de la révolution industrielle (vers 1750-1850) et la découverte de la théorie des germes de la maladie dans la seconde moitié du XIXe siècle, l'hygiène et l'assainissement ont été au premier plan de la lutte contre la maladie.

4000 avant JC – Les femmes égyptiennes appliquent de la galène mesdemet (faite de minerai de cuivre et de plomb) et de la malachite sur leur visage pour la couleur et la définition.

Pour voir cette vidéo, veuillez activer JavaScript et envisagez de passer à un navigateur Web prenant en charge la vidéo HTML5.

3000 avant JC – Les Romains de l'Antiquité ont inventé les conduites d'eau et les réservoirs revêtus de plomb. Les riches payaient des compagnies d'eau privées pour leur eau potable et d'autres besoins en eau, même si ce n'était pas beaucoup mieux que l'approvisionnement en eau utilisé par les paysans. La plupart des systèmes d'approvisionnement en eau étaient fabriqués à partir de troncs d'orme et de tuyaux domestiques doublés de plomb. L'eau était stockée dans de grands réservoirs en plomb et stagnait souvent.

2800 avant JC - Certains des premiers signes de savon ou de produits similaires à du savon ont été trouvés dans des cylindres d'argile lors des fouilles de l'ancienne Babylone. Les inscriptions sur le côté des cylindres indiquent que les graisses étaient bouillies avec des cendres, mais ne faisaient pas référence au but du « savon ».

1550-1200 avant JC – Les anciens Israélites s'intéressaient vivement à l'hygiène. Moïse a donné aux Israélites des lois détaillées régissant la propreté personnelle. Il reliait aussi la propreté à la santé et à la purification religieuse. Les récits bibliques suggèrent que les Israélites savaient que le mélange de cendres et d'huile produisait une sorte de gel pour les cheveux.

1500 avant JC – Les archives montrent que les anciens Égyptiens se baignaient régulièrement. Le papyrus Ebers, un document médical datant d'environ 1500 av.

1200-200 avant JC – Les anciens Grecs se baignaient pour des raisons esthétiques et n'utilisaient apparemment pas de savon. Au lieu de cela, ils se sont nettoyés le corps avec des blocs d'argile, de sable, de pierre ponce et de cendres, puis se sont oints d'huile et ont gratté l'huile et la saleté avec un instrument en métal appelé strigile. Ils ont également utilisé de l'huile avec des cendres.

1000 avant JC – Les Grecs blanchissaient leur teint avec de la craie ou de la poudre de plomb pour le visage et fabriquaient du rouge à lèvres brut à partir d'argiles ocres mêlées de fer rouge.

600 avant JC – Les anciens Grecs commencent à utiliser les bains publics. Dans Le Livre du bain, Françoise de Bonneville écrit : « L'histoire des bains publics commence en Grèce au VIe siècle avant JC » où hommes et femmes se lavaient dans des bassins à proximité des lieux d'exercice. Les Grecs anciens ont également commencé à utiliser des pots de chambre. Utilisés depuis au moins 600 avant JC par les anciens Grecs, ils ont été utilisés jusqu'au XVIIIe siècle environ dans le monde entier.

300 avant JC - Les riches Romains de l'Antiquité ont commencé à utiliser des techniques d'essuyage dans leurs habitudes de toilette. Les matériaux couramment utilisés étaient la laine et l'eau de rose. Environ 100 ans plus tard, les Romains les plus communs utilisaient une éponge imbibée d'eau salée.

19 avant JC – Les anciens Romains ont commencé à utiliser les bains publics. Agrippa (bras droit de l'empereur Auguste) a construit les premiers bains publics appelés Thermae en l'an 19 av. Ils ont augmenté en nombre rapidement, au moins 170 opéraient à Rome en l'an 33 avant JC, avec plus de 800 opérant à l'apogée de leur popularité.

27 avant JC – Les Romains de l'Antiquité croyaient à la capacité de l'urine à éliminer les taches. Jusqu'à la période médiévale, les gens utilisaient de la lessive, faite de cendres et d'urine, pour nettoyer leurs vêtements.

100 après JC – Les anciens Romains ont développé des fosses d'aisance, généralement dans la cave ou le jardin. En 1183 avant JC, le sol d'une salle d'un empereur romain s'est effondré, envoyant des convives dans la fosse d'aisance où certains d'entre eux se sont malheureusement noyés.

400 après JC – Dans la Grande-Bretagne médiévale, la population avait pris diverses habitudes pour garder les dents propres. Cela incluait de vous rincer la bouche avec de l'eau, ou un mélange de vinaigre et de menthe, pour enlever la crasse. Des feuilles de laurier trempées dans de l'eau de fleur d'oranger étaient également utilisées et les dents étaient souvent frottées avec un chiffon propre.

1110 après JC – En Grande-Bretagne, une brochure recommandait aux gens de garder leurs dents blanches en se frottant les dents avec des arêtes de poisson en poudre, puis en se rinçant la bouche avec un mélange de vinaigre et d'acide sulfurique !

1308 après JC – En Grande-Bretagne, il était courant que votre coiffeur enlève les dents à problèmes ! Si les traitements de base ne résolvaient pas le problème, le barbier l'enlèverait, sans l'aide de novocaïne ! Un guide pour les barbiers a été créé en 1308 pour enseigner les techniques de chirurgie des barbiers.

1346-1353 après JC – La pandémie de peste noire a balayé l'Europe, tuant 40 à 50 % de la population au cours d'une période de 4 ans. Probablement originaire d'Asie centrale, il s'est probablement propagé par les routes commerciales.

1400 après JC – Les chinois ont inventé le papier toilette.

1500-1600 après JC - Les visages pâles étaient à la mode sous le règne d'Elizabeth I. Ceruse était le choix de maquillage de base pour les hommes et les femmes à l'époque d'Elizabeth, car il leur donnait un aspect lisse et pâle. Cependant, il contenait du plomb qui s'infiltrait dans le corps à travers la peau, entraînant un empoisonnement. Des variantes avec du plomb sont utilisées depuis des milliers d'années.

1566 - Le roi Jacques VI d'Écosse a porté les mêmes vêtements pendant des mois, dormant même dedans à l'occasion. Il a également gardé le même chapeau 24 heures sur 24 jusqu'à ce qu'il s'effondre ! Il n'a pas pris de bain car il pensait que c'était mauvais pour sa santé !

1586– Sir John Harington a inventé une valve qui, lorsqu'elle est tirée, libère l'eau d'un WC. Albert Giblin détient le brevet britannique de 1819 pour le dispositif de prévention des déchets d'eau silencieux sans valve, un système qui permet aux toilettes de tirer efficacement la chasse d'eau. Malheureusement, il n'y avait pas d'égouts ni d'eau courante à l'époque, il n'a donc pas pu être utilisé pratiquement.

1600 – De nouveaux développements dans le nettoyage des dents ont commencé à apparaître en Grande-Bretagne. Se frotter les dents avec les cendres de romarin était courant et la sauge en poudre était utilisée pour frotter les dents comme agent blanchissant. Du vinaigre et du vin ont également été mélangés pour former un bain de bouche.

1600-1700 – Les mêmes pratiques de nettoyage étaient utilisées, mais les « barbiers » (alias les dentistes) avaient commencé à en apprendre davantage sur la dentisterie. Les premières prothèses dentaires, couronnes en or et dents en porcelaine sont arrivées dans les années 1700. 1790 a donné naissance au moteur à pied dentaire qui faisait tourner une perceuse pour nettoyer les caries. Le premier fauteuil dentaire a été fabriqué à la fin des années 1700.

1750 - Une lettre de Lord Chesterfield à son fils recommande l'utilisation d'une éponge et d'eau chaude pour se brosser les dents chaque matin. La recommandation d'utiliser sa propre urine en France a été largement bafouée par Fouchard, le dentiste français. La poudre à canon et l'alun étaient également recommandés.

1789 – Les gens étaient déjà soucieux de la mode au XVIIIe siècle. Lorsque leurs sourcils n'avaient pas l'air à la mode, ils les masquaient souvent avec de minuscules morceaux de peau de souris. Des poèmes dès 1718 insinuaient leur utilisation.

1834 – Le London Medical and Surgical Journal de 1834 décrit des douleurs abdominales aiguës chez des patients ne présentant aucun signe de maladie. Cela les a amenés à croire que la «colique du peintre» était une «affection nerveuse» des intestins survenant lorsque le plomb «est absorbé dans le corps».

1846 – Les bains publics étaient populaires depuis le XIIIe siècle. En raison de la rareté du bois de chauffage, la baignade est devenue une pratique coûteuse. Des familles entières et des amis devaient partager un bain, sinon beaucoup d'entre eux restaient sales.

1847 – Un médecin appelé Ignaz Semmelwis a découvert que la fièvre du lit de l'enfant survenait chez des femmes assistées par des étudiants en médecine. Il a trouvé des étudiants qui ont aidé à l'accouchement l'ont fait après des autopsies. Après avoir instauré une politique stricte de lavage des mains, le nombre de décès a été multiplié par 20 en 3 mois.

1837 – 1901 – Un nez-gay était généralement un petit bouquet de fleurs ou un sachet d'herbes. Il était attaché au poignet sur un revers ou simplement tenu à la main. Il serait également tenu sous le nez pour les personnes marchant dans la foule. Les nez-gays ont gagné en popularité pendant le règne de la reine Victoria.

1854 – Au milieu du XVIIIe siècle en Angleterre, des épidémies de choléra ont conduit à une épidémie. Un médecin du nom de John Snow a observé que le choléra semblait se propager via l'eau contaminée par les eaux usées. Cela a été principalement remarqué autour d'une pompe à eau à Broad Street, à Londres. John a retiré la poignée de la pompe et la propagation a été instantanément contenue.

1858 – Le temps chaud a frappé la capitale en 1858, asséchant la Tamise et laissant les eaux usées pures et autres déchets entassés et exposés. C'était le début de « The Great Stink », forçant le Parlement à fermer pour la journée et initiant finalement une réforme des systèmes d'égouts et des fosses d'aisance.

1861 – Les toilettes à chasse d'eau modernes. Thomas Crapper n'a pas inventé les toilettes à chasse d'eau, mais on pense qu'il a apporté une contribution majeure à son développement en implantant un système septique moderne qui pompait les eaux sales hors de la ville. Cependant, ce sujet particulier est encore fortement débattu.

1920 – Lysol a été vendu comme désinfectant génital et méthode contraceptive. Les publicités Lysol proclamaient une multitude d'avantages pour tous les besoins gynécologiques et étaient la principale forme de contrôle des naissances de 1930 à 1960. Lysol est en fait un poison caustique provoquant des brûlures et des démangeaisons après la première goutte - la plupart des femmes l'appliquaient sur leur peau pendant 30 années.


Quels étaient les principes de fonctionnement du MITI japonais dans les années 50 et 60 ? - Histoire

Le moment semblait donc opportun pour faire une pause et réfléchir à la façon dont nous en sommes arrivés là. Comme pour toutes ces entreprises, le voyage a été en partie stratégique et en partie fortuit, mais à la base de tout cela a été un engagement à approfondir nos connaissances de la fabrication dans son sens le plus large, et à transmettre ces connaissances à l'industrie et au gouvernement et aux générations successives d'étudiants talentueux. .

À bien des égards, l'IfM suit les traces de James Stuart, le premier professeur &lsquotrue&rsquo d'ingénierie à Cambridge (1875-1890). Innovateur pédagogique et défenseur passionné de la mise en pratique de la théorie, il a défié les conventions de son époque. Face à ce qu'il considérait comme des installations d'enseignement inadéquates, sans se décourager, il a créé un atelier pour ses élèves dans une cabane en bois et, de manière moins populaire, a installé une fonderie à Free School Lane. L'histoire de la fabrication à Cambridge est imprégnée de son esprit indomptable.

1966 : étudiants du premier cours avancé en méthodes de production et gestion (maintenant le MPhil Industrial Systems, Manufacture and Management)

LES ANNÉES 50, 60 ET 70

Le début de l'enseignement de la fabrication à Cambridge : le cours avancé en méthodes et gestion de production.

Dans les années 1950, la Grande-Bretagne était encore un Goliath industriel. Le secteur manufacturier représentait environ un tiers de la production nationale et employait 40 pour cent de la main-d'œuvre. Il a joué un rôle vital dans la reconstruction de la Grande-Bretagne d'après-guerre, mais pour un certain nombre de raisons, notamment un manque de concurrence sérieuse et l'espoir qu'il fournirait des niveaux d'emploi élevés, les entreprises étaient peu incitées à moderniser leurs usines ou à améliorer les compétences de leurs gestionnaires et ouvriers.

À cette époque, il était courant pour les ingénieurs diplômés d'entrer dans l'industrie en tant qu'« apprentis diplômés » pour une période pouvant aller jusqu'à deux ans. Dans la pratique, cela était souvent mal organisé, entraînant déception et frustration pour toutes les personnes concernées.

Sir William Hawthorne, professeur de thermodynamique appliquée (et plus tard chef de département et maître du Churchill College), était lui-même un récipiendaire peu impressionné d'une formation supérieure. Il a comparé les apprentissages à un rituel d'initiation désagréable &ldquoin dans lequel les gens se faisaient frotter le nez puis frottaient le nez des autres&rsquo dedans.». et regarder ce qu'ils ont fait». Hawthorne a pu voir que cette approche perpétuait la pratique actuelle et inhibait l'innovation et l'entrepreneuriat.

Il a décidé que Cambridge pouvait et devrait faire quelque chose à ce sujet et a demandé à ses collègues John Reddaway et David Marples de concevoir de courts cours industriels pour les diplômés. Celles-ci comprenaient des conférences, des discussions et des visites de sites et ont examiné comment une entreprise entière fonctionnait et comment elle organisait sa conception technique, son contrôle de la production, son bien-être et sa commercialisation. Et les cours semblaient fonctionner. Ils ont été exécutés avec beaucoup de succès pour le constructeur de moteurs d'avion, D. Napier & Son Ltd. et sur la base de cette expérience, Reddaway, Marples et Napier & rsquos chef du personnel J. D. A. Radford, ont écrit un article sur &ldquoUne approche des techniques de formation des diplômés&rdquo. Ils ont présenté ce document à l'Institution of Mechanical Engineers en 1956 avec la suggestion qu'elle prendrait en charge la gestion de ces cours et les rendrait largement disponibles. Bien que les cours &ndash et le document &ndash aient été bien reçus, sans aucun sentiment d'urgence quant à la nécessité d'améliorer les pratiques actuelles, l'entreprise a succombé à un manque de financement. Entre-temps, l'Université avait demandé à Reddaway de préparer un plan de cours similaire dans le style et le contenu qui durerait un an. Cela est devenu connu sous le nom de plan Reddaway. Mais il n'y avait pas d'argent pour recruter quelqu'un pour le gérer, alors le plan a pris de la poussière pendant presque dix ans.

Au cours de ces dix années, l'inquiétude commençait à grandir au sujet du retard de productivité de la Grande-Bretagne et de sa part décroissante des marchés d'exportation mondiaux. Les gouvernements successifs se sont lancés dans une série d'interventions politiques et la fabrication est devenue en quelque sorte une préoccupation nationale. Lorsqu'on a demandé à John Reddaway de parler de son plan lors d'une conférence de la Cambridge University Engineering Association en 1965, il y avait peut-être un plus grand impératif de changement. Était présent Sir Eric Mensforth, président de Westland Aircraft. Par coïncidence, Reddaway avait été apprenti à Westland et lorsque Mensforth a établi une bourse à Cambridge, Reddaway en avait été le premier récipiendaire. Mensforth a offert à l'université 5 000 livres sterling s'ils pouvaient lancer le plan Reddaway.

Dans l'auditoire se trouvait également un ancien élève de Cambridge, Mike Sharman, qui s'est immédiatement porté volontaire pour quitter son poste de professeur à Hatfield Polytechnic pour diriger le cours, même si la contribution de Mensforth ne représentait que deux ans de financement.

Le cours avancé en méthodes de production et gestion était opérationnel l'année suivante, avec sa première promotion de 12 étudiants. D'une durée d'une année civile complète et conçu pour imiter les tâches et disciplines professionnelles plutôt qu'étudiantes, le cours impliquait une série intense de projets réels de deux à trois semaines dans des usines à travers le pays, entrecoupés de conférences de praticiens et d'universitaires.

Les projets, généralement analysant et améliorant les opérations de l'usine, ont presque toujours été couronnés de succès et parfois de manière spectaculaire. L'industrie a bien réagi en voyant ces étudiants se familiariser avec les aspects pratiques de l'ingénierie et de la fabrication et les diplômés du cours étaient et continuent d'être très demandés. L'idée qu'entrer dans une usine et entreprendre des projets courts et intensifs serait un moyen efficace d'apprendre n'était rien de moins et leur a donné la confiance nécessaire pour s'attaquer à des tâches de plus en plus difficiles, en les développant très rapidement en des personnes qui pourraient vraiment devenir des « capitaines de industrie&rsquo.

Mike Gregory a suivi le cours dans sa quatrième année : &ldquoPour beaucoup d'entre nous qui ont été initiés au monde de l'ingénierie et de la fabrication par l'ACMMM, l'expérience a littéralement changé la vie. Nous, les étudiants, avons été emportés par l'enthousiasme de Mike Sharman, sans parler du plaisir de voyager à travers le Royaume-Uni et à l'étranger, de visiter et de travailler dans toutes sortes d'usines. Comment faire une Volkswagen Beetle, comment faire une raquette de tennis, comment mettre la saveur des deux côtés d'un croustillant de pommes de terre & ndash nous avons appris tout cela et bien plus encore. & rdquo

En 1987, une option de conception a été ajoutée à l'ACMMM et il a changé son nom pour le cours avancé en conception, fabrication et gestion (ACDMM). C'était en réponse à la reconnaissance croissante de l'importance du design en tant que différenciateur concurrentiel.

Mais le chemin de ACPMM/ACDMM ne s'est pas toujours déroulé sans heurts. Pendant de nombreuses années, le cours a occupé une position anormale au sein de l'Université, qui restait méfiante à son égard et essayait périodiquement de le fermer. Jusqu'en 1984, lorsque Wolfson College a accepté de l'accueillir, il n'y avait pas de résidence universitaire appropriée, ce qui signifiait que les étudiants n'étaient pas membres de l'université. Le financement était un problème perpétuel, en particulier lorsque les universités étaient tenues d'être plus responsables de leurs dépenses. Pendant de nombreuses années, l'ACPM n'avait pas de diplôme et l'University Grants Committee (UCG) ne finançait les universités qu'en fonction du nombre d'étudiants ayant obtenu des grades ou des diplômes.

Un autre aspect inhabituel du cours était que dans les années 1970, il a développé des relations d'abord avec l'Université de Lancaster, puis avec Durham, afin d'élargir son expertise en enseignement et d'étendre sa portée géographique aux entreprises de toute la Grande-Bretagne. Cela est devenu une complication supplémentaire lorsque les fonds ont commencé à être alloués sur la base du nombre d'étudiants et que la tâche administrative consistant à partager le financement équitablement entre les partenaires s'est avérée trop difficile à résoudre. En 1996, Cambridge a été laissée à elle-même.

Élèves de l'ACPMM sortant d'une mine

Le problème de la qualification a été résolu lorsque le professeur Colin Andrew est arrivé au milieu des années 80 et s'est mis à concevoir un examen qui permettrait de décerner un diplôme. Il a réussi à persuader à la fois Mike Sharman et l'Université que c'était une bonne chose à faire. Mais lorsqu'un obstacle était surmonté, un autre apparaissait. D'autres déficits de financement sont apparus alors que les organismes d'attribution offraient moins de bourses d'études et réduisaient le soutien au personnel. Dans cet environnement peu propice, l'ACDMM cherchait à augmenter son nombre d'étudiants. À ce stade, David Sainsbury (maintenant Lord Sainsbury de Turville et chancelier de l'Université) et la Gatsby Charitable Foundation sont intervenus. La poursuite de l'ACDMM était conforme à l'un des principaux objectifs caritatifs de Gatsby : renforcer les compétences en sciences et en ingénierie au Royaume-Uni. Gatsby a donc accepté de fournir un financement pour une période de cinq ans.

Mike Sharman a finalement pris sa retraite en 1995, après avoir reçu un MBE l'année précédente pour ses efforts. Tom Ridgman est arrivé de l'Université de Warwick avec une carrière de 20 ans dans l'industrie automobile derrière lui et a pris la relève en tant que directeur de cours en 1996. En 2004, toujours confronté à des problèmes de financement et après un examen approfondi des options, le cours a été renommé à nouveau &ndash Industrial Systems, Manufacture and Management (ISMM) &ndash et est devenu MPhil. Il a été réduit à neuf mois intensifs, se terminant par une thèse majeure. Cela a entraîné une augmentation immédiate du nombre d'étudiants et le cours d'aujourd'hui, sous la direction de Simon Pattinson, est sursouscrit d'un facteur cinq et attire des candidats d'un calibre exceptionnellement élevé du monde entier.

Étudiants récents de l'ISMM en voyage d'étude à l'étranger

Un nouveau cours pour les étudiants de premier cycle : l'ingénierie de production Tripos

Dans les années 50 et 60, un diplôme de premier cycle en ingénierie à Cambridge était consacré aux sciences et aux mathématiques et la gestion était vraiment le parent pauvre. David Newland, qui a été chef de département entre 1996 et 2002, rappelle qu'en tant qu'étudiant de premier cycle dans les années 1950, il n'y avait que deux conférences par semaine sur la gestion, programmées le samedi matin, « c'était quand la plupart des gens faisaient du sport et, dans Dans les années 1970, les fabricants britanniques voyaient leur part des marchés d'exportation mondiaux continuer à diminuer et étaient confrontés à une série de défis nationaux, notamment dans le domaine. des relations de travail.

Les gouvernements ont continué à mener des politiques industrielles et ont annoncé que la University Grants Commission examinerait les candidatures pour un cursus d'ingénieur de quatre ans plutôt que les trois ans conventionnels, à condition que l'accent soit mis sur la préparation des diplômés pour l'industrie plutôt que pour la recherche. Le Département d'Ingénierie a répondu avec une proposition, qui a été acceptée, pour établir les Tripos d'Ingénierie de Production (PET). C'était une première pour Cambridge : cela a permis aux étudiants en génie de se spécialiser au cours de leurs deux dernières années dans l'apprentissage de la fabrication à la fois du point de vue de l'ingénierie et de la gestion. L'intention était de doter ces étudiants très brillants des connaissances théoriques et pratiques et de la capacité à résoudre de vrais problèmes industriels, ainsi que des compétences et de l'expérience nécessaires pour se débrouiller dans un environnement d'usine.

Mike Gregory qui avait été recruté en 1975 par Mike Sharman pour travailler sur ACPMM a déménagé pour mettre en place le nouveau cours PET. En 1988, PET a changé son nom en Manufacturing Engineering Tripos (MET) pour refléter l'étendue de son approche. Dès les premiers jours des cours abrégés de John Reddaway, il a été reconnu que la fabrication concernait bien plus que la simple production et englobait une gamme d'activités comprenant la compréhension des marchés et des technologies, la conception et la performance des produits et des processus, la gestion de la chaîne d'approvisionnement et la prestation de services. .

Mike Gregory et les étudiants du MET

à l'étranger
projet de recherche, 1988.

En 1997, comme nous le verrons, Mike était de plus en plus occupé et passa la direction du cours à Ken Platts.Ken a dirigé MET à travers sa première évaluation de la qualité de l'enseignement avant de la remettre d'abord à Jim Platts puis à Claire Barlow qui l'a dirigée avec succès pendant de nombreuses années. Aujourd'hui, les étudiants du MET, comme les &lsquoISMMs&rsquo, sont très recherchés et le cours a produit une série d'anciens élèves distingués qui ont lancé des start-ups réussies, transformé les organisations de fabrication existantes, développé de nouvelles technologies et fourni une large gamme de nouveaux produits et services autour du monde.

LES ANNÉES 80 ET 90

Recherche et pratique vont de pair

Au cours des années 80 et 90, le secteur manufacturier britannique a continué de diminuer en proportion de la production nationale. Mais si la fabrication au Royaume-Uni était en déclin, elle proliférait à la fois en échelle et en complexité ailleurs. Le Japon, en particulier, associe l'automatisation à des pratiques de travail innovantes et obtient des résultats spectaculaires tant en termes de qualité que de productivité. Les fabricants de toutes nationalités se mondialisaient, construisant de nouvelles usines dans les pays en développement, leur donnant accès à la fois à de nouveaux marchés en croissance rapide et à des sources de main-d'œuvre moins chères. Désormais, les fabricants se chargeaient de gérer des réseaux de production mondiaux interconnectés et d'avoir une vision encore plus large de leur rôle et de sous-traiter certaines parties de leurs opérations à d'autres entreprises.

Alors que les grandes entreprises s'internationalisent de plus en plus, l'entrepreneuriat prospère près de chez nous. Le &lsquoCambridge Phenomenon&rsquo &ndash un cluster de start-ups technologiques, des sciences de la vie et des services &ndash était en cours et commençait à attirer l'attention des chercheurs.

Lorsque Colin Andrew a été nommé professeur de mécanique en 1986, le nom de la chaire, à sa demande, a été changé pour Manufacturing Engineering. Cela a marqué une nouvelle orientation pour le département et une reconnaissance croissante du fait que la fabrication était un sujet important pour l'engagement universitaire. À peu près à la même époque, Mike Gregory a admis avoir l'ambition de créer un institut de fabrication. Colin était favorable à l'idée, mais a conseillé qu'un dossier académique convaincant était une condition préalable à une telle tâche. Avec une énergie caractéristique, Mike a relevé le défi et s'est mis à développer un ensemble d'activités de recherche qui refléteraient la définition large de la fabrication qui informait déjà l'enseignement de premier cycle et de troisième cycle.

Dix ans plus tard, les fondations étaient en place. En 1994, à la retraite de Colin Andrew, Mike a été nommé professeur de fabrication et chef d'une nouvelle division de fabrication et de gestion au sein du département d'ingénierie. Un groupe de recherche embryonnaire sur les systèmes de fabrication commençait à se faire un nom. Si James Stuart avait été dans les parages, il aurait reconnu une autre force imparable.

Recherche en gestion

À la suite d'une série de consultations industrielles et universitaires en 1985 et 1986, une bourse de recherche EPSRC, Audit de fabrication, a été remportée. Il a exploré comment les stratégies de fabrication pourraient être comprises et conçues dans un contexte commercial. Le recrutement de Ken Platts des laboratoires de recherche TI&rsquos en 1987, et sa poursuite du projet en tant que sujet de doctorat, ont abouti à une orientation académique plus précise et à la publication d'un manuel au nom du ministère du Commerce et de l'Industrie, Fabrication compétitive : un approche de l'élaboration de la stratégie de fabrication.

La nomination de Ken&rsquos était importante à bien des égards. Il a établi le précédent pour l'embauche de personnes ayant une expérience industrielle à des postes de recherche et a inscrit le principe selon lequel la recherche sur la fabrication à Cambridge devrait être utile pour l'industrie, à la fois dans son sujet et dans ses résultats. Le cahier d'exercices est devenu le modèle d'une méthode de travail distinctive. Pour chaque grand projet de recherche, un livre serait produit qui donnerait aux gestionnaires travaillant dans l'industrie un ensemble d'outils et d'approches qu'ils pourraient appliquer eux-mêmes. Le fait que cette première tentative se soit vendue à environ 10 000 exemplaires a également été utile pour établir les références de Cambridge.

Les travaux de Ken&rsquo ont démontré le potentiel d'adopter une approche de "recherche-action" en matière de gestion. En d'autres termes, au lieu de s'appuyer sur des enquêtes et des études de cas, aussi importantes soient-elles, les chercheurs emportaient leurs modèles théoriques dans les entreprises et les testaient dans des situations réelles. Ce volet de recherche a conduit au Centre pour la stratégie et la performance et a établi une approche qui serait largement adoptée à travers l'IfM. Les premiers travaux de Ken&rsquos ont également attiré un financement du Conseil de recherches en génie et en sciences physiques. Cette importante subvention continue a permis le recrutement de chercheurs supplémentaires, dont Andy Neely, et a fait de Cambridge un acteur sérieux dans le domaine de la stratégie de fabrication et de la mesure de la performance.

Le prochain poste de recherche clé était celui de David Probert en 1992, un autre ancien de l'ACMMM qui, comme Ken, venait de l'industrie. S'appuyant sur les bases posées par Mike et Ken dans la stratégie de fabrication, David a identifié et s'est concentré sur ce qui devenait une énigme de plus en plus courante : un fabricant doit-il fabriquer lui-même un produit ou une pièce, ou le sous-traiter à un fournisseur. Le travail de David dans ce domaine a immédiatement gagné du terrain auprès des entreprises et son cadre a été adopté par Rolls-Royce, entre autres. Cela a conduit directement aux travaux financés par l'EPSRC sur la gestion de la technologie, qui sont depuis devenus un programme de recherche très réussi et de grande envergure. L'accent a été mis sur la création de systèmes de gestion de la technologie robustes pour aider les entreprises à transformer de nouvelles idées en produits et services performants. Ce travail s'est articulé autour de cinq processus clés : comment identifier, sélectionner, acquérir, exploiter et protéger les nouvelles technologies. La force dans ce domaine a été renforcée par l'ajout de l'expertise de James Moultrie en design industriel et développement de nouveaux produits et, plus récemment, par l'arrivée de Frank Tietze avec son intérêt pour la recherche en innovation et propriété intellectuelle. La recherche d'outils de gestion d'entreprise largement applicables est également apparue comme un domaine d'investigation fructueux, Rob Phaal ayant établi l'IfM en tant que centre d'expertise en matière de feuille de route.

Une grande partie de cette activité de recherche s'est surtout appliquée aux grandes et moyennes entreprises, mais il y a également eu un intérêt important pour des activités plus entrepreneuriales basées sur la technologie, notamment celles qui se déroulent dans le &lsquoCambridge Cluster&rsquo et les défis inhérents à la commercialisation de nouvelles technologies. . Ce travail a été lancé par Elizabeth Garnsey dans les années 1980 et est poursuivi aujourd'hui par Tim Minshall et son Technology Enterprise Group.

En 1994, Yongjiang Shi a rejoint ce petit groupe de chercheurs pour commencer son doctorat sur les réseaux de fabrication internationaux. Ce fut le début d'un tout nouveau volet de recherche qui s'est initialement concentré sur &lsquofabrication empreinte&rsquo. Son travail révolutionnaire dans ce domaine a conduit à une collaboration majeure avec Caterpillar et l'unité IfM&rsquos Industry Links (dont plusieurs plus tard) et au développement d'un ensemble d'approches qui aideraient les entreprises multinationales à « faire les bonnes choses aux bons endroits ». Alors que la fabrication internationale est devenue de plus en plus complexe et dispersée, la recherche, sous la direction de Jag Srai, s'est élargie pour englober des chaînes d'approvisionnement de bout en bout, en concevant des réseaux de valeur mondiaux et en créant des réseaux plus résilients et durables. Comme pour les premiers travaux sur l'empreinte manufacturière, cette nouvelle recherche est menée en partenariat avec des collaborateurs industriels.

Recherche technologique

Des progrès significatifs avaient été réalisés dans la gestion et la recherche opérationnelle lorsque Duncan McFarlane a rejoint la nouvelle division en 1995, apportant son expertise en automatisation industrielle et ajoutant une dimension technique importante à l'équipe. Duncan a ensuite créé le Cambridge Auto-ID Lab, l'un d'un groupe de sept laboratoires dans le monde, menant des travaux sur le suivi et le traçage d'objets au sein de la chaîne d'approvisionnement à l'aide de la RFID. C'est ce groupe qui a inventé l'expression « l'internet des objets » et a mené des recherches dans ce domaine. L'équipe de Duncan&rsquos s'est ensuite élargie pour englober un plus large éventail d'intérêts, en examinant comment les systèmes intelligents et les données intelligentes à la fois dans les usines et dans les chaînes d'approvisionnement peuvent être utilisés pour créer des produits et des services plus intelligents. Les travaux d'Ajith Parlikad sur la gestion d'actifs sont devenus un élément clé de ce programme de recherche et font également partie intégrante du travail innovant que le Cambridge&rsquos Centre for Smart Infrastructure and Construction effectue pour améliorer l'infrastructure et l'environnement bâti du Royaume-Uni.

Installation de robots à Mill Lane

Les processus de production étaient clairement un sujet important pour un programme de recherche en fabrication et un nouveau groupe s'appuyant sur les travaux de l'ensemble de la Division a été mis en place pour y répondre à la fin des années 90. En 2001, GKN a financé une nouvelle chaire d'ingénierie de fabrication à laquelle Ian Hutchings a été nommé. Ian venait du Département des sciences des matériaux et de la métallurgie et avait une réputation internationale pour son travail en tribologie. Il a ensuite développé le Groupe des Procédés de Production, qui a réuni un certain nombre d'activités de recherche dont Claire Barlow&rsquos travaille sur le développement de procédés plus durables. En 2005, Ian a créé le Inkjet Research Centre avec un financement EPSRC pour travailler avec un groupe d'entreprises britanniques, dont un certain nombre dans le cluster local de Cambridge, pour mener des recherches à la fois sur la science derrière cette technologie importante et son utilisation comme processus de production. .

En 2003, Bill O&rsquoNeill avait rejoint l'IfM de l'Université de Liverpool, apportant avec lui son EPSRC Innovative Manufacturing Research Center (IMRC) en micro-ingénierie laser. C'est devenu le Centre de photonique industrielle qui abrite désormais, avec l'Université de Cranfield, le Centre EPSRC pour la fabrication innovante en ultra-précision et le Centre EPSRC pour la formation doctorale en ultra-précision. Le Laboratoire d'information et d'automatisation distribuées et le Centre de photonique industrielle ont pu commercialiser leur propriété intellectuelle par le biais d'essaimages, le premier créant RedBite, une société de solutions &lsquotrack and trace&rsquo et le second, Laser Fusion Technologies qui utilise la fusion laser à froid. technologie de pulvérisation pour une large gamme d'applications énergétiques, manufacturières et aérospatiales.

Une nouvelle identité

L'ambition de Mike de créer un institut de fabrication s'est finalement concrétisée en 1998 lorsqu'une alliance a été forgée avec la Fondation pour la fabrication et l'industrie (la FM&I). Il s'agissait d'une organisation créée pour aider les entreprises à comprendre comment les considérations économiques et politiques affecteraient leurs activités et pour améliorer le profil public de la fabrication au Royaume-Uni. Elle a apporté avec elle un large réseau de partenaires industriels et a complété la Division & rsquos maintenant une force et une étendue considérables dans la recherche de fabrication et de gestion et son embryonnaire Industry Links Unit (voir ci-dessous). L'Institute for Manufacturing est né, intégré au département d'ingénierie et à la division de la fabrication et de la gestion, mais avec un caractère distinct et un ensemble de capacités qui lui ont permis de relever les défis auxquels les fabricants étaient confrontés et le contexte politique dans lequel ils opéraient.

Recherche sur les politiques

L'une des aspirations de Mike pour le nouvel institut était d'utiliser son expertise de fabrication à la fois stratégique et technique pour soutenir la réflexion du gouvernement et sensibiliser à l'importance continue de la fabrication dans le contexte d'une économie de plus en plus axée sur les services. La fusion avec le FM&I a ajouté une dimension économique et politique à l'IfM. Cela deviendrait un important volet de recherche posant la question fondamentale : pourquoi certains pays sont-ils meilleurs que d'autres pour traduire la recherche scientifique et technique en nouvelles industries et en prospérité économique ? L'équipe de recherche sur les politiques d'IfM&rsquos, fondée par Finbarr Livesey et aujourd'hui dirigée par Eoin O&rsquoSullivan, est très activement engagée auprès de la communauté politique pour répondre à ces questions (voir page 6).

Comme pour toutes les entreprises IfM, l'intention était que la recherche dans ce domaine s'avère utile. Il est donc basé sur un engagement pratique avec les décideurs politiques pour comprendre leurs besoins et fournir des résultats qui les soutiennent dans leur prise de décision. En 2003, Mike a également créé le Manufacturing Professors&rsquo Forum, un événement annuel qui rassemble les principaux universitaires, industriels et décideurs politiques du Royaume-Uni pour développer une compréhension commune de la manière de créer les conditions dans lesquelles la fabrication britannique peut prospérer.

Mettre la recherche en pratique

Cette notion selon laquelle les recherches menées à l'IfM doivent avoir une réelle valeur ajoutée pour ses collaborateurs industriels et gouvernementaux a été inscrite dans la création d'une Industry Links Unit (ILU) qui avait été mise en place en 1997, un an avant la naissance de l'IfM. . À cette époque, stimuler des collaborations fructueuses entre universités et industries n'était pas une priorité pour les financements publics. La Gatsby Charitable Foundation, qui avait auparavant joué un rôle essentiel dans le maintien de l'ACMMM pendant une période financière difficile, estimait que la promotion de telles interactions était la clé du développement de la croissance économique à long terme et que la nouvelle unité proposée pourrait avoir un rôle utile à jouer dans ce qui concerne. Il a fourni un premier financement à l'ILU qui lui a permis de développer les trois principaux volets d'activité destinés à faciliter le transfert des connaissances : l'éducation, le conseil et les publications. Gatsby a également encouragé l'ILU à se positionner sur une base commerciale claire en créant une société distincte appartenant à l'université (Cambridge Manufacturing Industry Links ou CMIL) grâce à laquelle elle pourrait générer des revenus des activités de l'ILU pour financer de futures recherches.

Le CMIL a été nourri avec succès tout au long de ses premières années par John Lucas puis par Paul Christodoulou. En 2003, Peter Templeton a été recruté en tant que directeur général et en 2009, la gamme et l'échelle de ses activités s'étaient tellement étendues qu'il a été décidé de fusionner ILU et CMIL dans IfM Education and Consultancy Services Limited. Cela a créé une structure organisationnelle plus claire et un nom qui « fait ce qu'il dit sur l'étain ».

Services éducatifs

Le CMIL visait à transférer des connaissances et des compétences aux personnes travaillant dans l'industrie à travers une variété de cours, dont certains étaient des ateliers pratiques d'un ou deux jours tandis que d'autres étaient des programmes plus longs tels que le Manufacturing Leaders&rsquo Programme, un cours de deux ans pour les jeunes talents -des ingénieurs et des technologues de carrière qui avaient le potentiel d'occuper des rôles plus stratégiques dans l'industrie. En 2006, le CMIL a mis en place un MSc en innovation industrielle, éducation et gestion pour l'Université de Trinité-et-Tobago qui a fonctionné avec beaucoup de succès jusqu'en 2013 et a démontré sa capacité à exporter la pratique éducative IfM. La création de cours personnalisés pour les très grandes entreprises était et continue d'être une activité importante.

Services de conseil

En nommant des &lsquoindustrial fellows&rsquo, dont beaucoup sont d'anciens élèves de l'ACPM et du MET, le CMIL a pu établir une branche de conseil qui pourrait diffuser et appliquer les résultats de la recherche IfM&rsquos aux entreprises de toutes tailles, des multinationales aux start-ups et aux gouvernements nationaux et régionaux. Initialement, l'accent était principalement mis sur les petits et moyens constructeurs qui, selon l'ancien président-directeur général de Jaguar Land Rover et ami de longue date et conseiller de l'IfM, Bob Dover, avaient été largement négligés par les universitaires. L'intention était de donner une rigueur académique aux décisions prises par les entreprises, étayée par les recherches du Centre de Stratégie et de Performance. Cela a conduit au développement de l'outil ECS&rsquos &lsquoprioritisation&rsquo qui a maintenant été utilisé avec plus de 750 entreprises et son approche &lsquofast-start&rsquo pour le développement de la stratégie commerciale.

Le programme de conseil n'a cessé de croître ces dernières années, réalisant des projets qui ont eu un impact réel sur les organisations concernées et l'environnement de fabrication au sens large. IfM ECS, par exemple, a facilité de nombreuses feuilles de route qui définissent la vision et les plans de mise en œuvre des nouvelles technologies au Royaume-Uni, telles que la biologie synthétique, la robotique et les systèmes autonomes et les technologies quantiques. En 2012, il a été mandaté par le Technology Strategy Board (maintenant Innovate UK) pour effectuer un exercice d'aménagement paysager examinant les opportunités de fabrication à haute valeur ajoutée à travers le Royaume-Uni. Elle s'emploie actuellement à « rafraîchir » le paysage afin d'établir des priorités claires pour le gouvernement et, en particulier, d'identifier les domaines où l'investissement dans les capacités de fabrication peut être maximisé en coordonnant les efforts des agences de prestation.

IfM ECS mène également un large éventail d'activités de conseil basées sur la recherche avec des entreprises, y compris des projets majeurs avec des multinationales pour repenser leurs réseaux de production ou leurs chaînes d'approvisionnement de bout en bout. Il travaille avec des entreprises de toutes formes et tailles pour aligner leurs stratégies technologiques et commerciales et les aider à transformer les nouvelles technologies en produits ou services performants.

Années 2000 ET 2010

Expansion rapide &ndash et une nouvelle maison

Depuis 2000, le paysage manufacturier a changé très rapidement. Les technologies perturbatrices et les nouveaux modèles commerciaux présentent des menaces et des opportunités que l'industrie et les gouvernements doivent comprendre et exploiter. Une préoccupation de plus en plus pressante est de savoir comment nous pouvons continuer à satisfaire l'appétit mondial pour les produits et services sans détruire la planète dans le processus.

La position proposée du nouveau bâtiment sur le site de West Cambridge

Comme nous l'avons déjà vu, la recherche, l'éducation et la pratique à l'IfM se développaient rapidement à l'aube du nouveau millénaire. En 2001, l'IfM a reçu une subvention importante et est devenu le siège de l'un des centres de recherche de fabrication innovante phares de l'EPSRC. Cependant, il fonctionnait à partir d'un ensemble de bureaux et de laboratoires plutôt délabrés à Mill Lane dans le centre de Cambridge et cela devenait un facteur limitant, dans la mesure où la nouvelle équipe de photonique a été exilée au Science Park.

Une campagne de collecte de fonds a permis de récolter 15 millions de livres sterling auprès d'un certain nombre de bienfaiteurs très généreux, dont Alan Reece par le biais de la Reece Foundation et de la Gatsby Charitable Foundation, ce qui a suffi pour construire une nouvelle maison à l'IfM. En 2009, elle a déménagé dans ses locaux construits à cet effet sur le site de West Cambridge. Il s'agissait d'un développement extrêmement important, non seulement du point de vue du confort et du moral du personnel. Cela signifiait que l'IfM pouvait accueillir toute une gamme d'événements et d'activités qui étaient utiles en eux-mêmes, mais donnaient également à de plus en plus de personnes un aperçu du travail qui s'y faisait et suscitaient un intérêt accru pour les collaborations de recherche et les projets de conseil.

19 novembre 2009 : le duc d'Édimbourg dévoile la plaque lors de l'inauguration du nouveau bâtiment, applaudie par Dame Alison Richard, alors vice-chancelière de l'Université de Cambridge.

Le nouveau bâtiment a également permis d'étendre davantage le programme de recherche, grâce à l'augmentation des bureaux et des installations de laboratoire. En 2010, le professeur Andy Neely est revenu à l'IfM de Cranfield &ndash après avoir travaillé avec Ken Platts sur la mesure de la performance dans les années 1990 &ndash pour fonder la Cambridge Service Alliance, qui rassemble des universitaires et des entreprises multinationales pour relever le défi auquel une organisation est confrontée lorsqu'elle passe du statut de un fabricant de produits à un fournisseur de services.

Un groupe interdisciplinaire de fabrication durable fonctionnait à l'IfM depuis la fin des années 1990 et le développement de pratiques industrielles durables a été un fil conducteur à travers les différents programmes de recherche de l'IfM&rsquos. En 2011, cela a été considérablement renforcé lorsque le Centre EPSRC pour la fabrication innovante en matière de durabilité industrielle dirigé par Steve Evans a été créé au sein de l'IfM. Il s'agit d'une collaboration entre quatre universités (Cambridge, Cranfield, Imperial College, Londres et Loughborough), avec un programme d'adhésion pour garantir que les entreprises manufacturières contribuent à la fois à définir le programme de recherche et à participer activement à ses projets.

La compréhension des modèles économiques est au cœur de nombreuses activités de recherche d'IfM&rsquos : comment une entreprise peut-elle donner l'exemple, ou apprendre à fonctionner de manière plus durable ? Quel impact les nouvelles technologies telles que l'impression 3D auront-elles sur les entreprises établies et les nouveaux entrants sur le marché ? Comment les entreprises doivent-elles reconcevoir leurs réseaux d'exploitation en réponse aux technologies de rupture ? Chander Velu a mis en place une nouvelle initiative de recherche qui adopte une approche de gestion et d'économie de l'innovation des modèles commerciaux et vise à rassembler différentes perspectives de l'IfM et des principales universités britanniques et internationales pour établir un programme de recherche coordonné.

Plus d'espace de laboratoire a permis à l'IfM d'étendre ses intérêts de recherche scientifique et technologique, en acquérant récemment des équipes multidisciplinaires cherchant à fabriquer de nouveaux matériaux à grande échelle, tels que des nanotubes de carbone (voir page 9) et des biocapteurs, dirigés par Michaël De Volder et Ronan Daly respectivement. En travaillant avec des collègues ayant une expertise en matière de politique, de gestion et d'exploitation, ces équipes sont en mesure de relever les défis scientifiques et technologiques dans le contexte plus large de la chaîne de valeur de fabrication afin de comprendre les facteurs de risque dès le début et de maximiser les chances de réussite de la commercialisation.

La salle commune IfM et un espace conçu pour encourager le réseautage et la collaboration.

IfM ECS a continué à élargir sa gamme de services. Par exemple, il gère actuellement un programme de développement professionnel et exécutif sur mesure pour Atos (voir page 27) et développe activement son portefeuille de cours et d'ateliers ouverts pour refléter les nouvelles recherches émergeant des centres de recherche IfM&rsquos. De même, le nombre d'outils et de techniques que IfM ECS a à sa disposition pour soutenir l'industrie et le gouvernement par le biais de conseils augmente pour englober des activités telles que la conception de produits et la servitisation.

En 2010, IfM ECS a pris en charge la gestion d'ideSpace, un centre d'innovation à Cambridge qui offre des espaces de bureau flexibles et des opportunités de réseautage aux entrepreneurs et aux innovateurs cherchant à démarrer de nouvelles entreprises à fort impact. En plus d'aider à créer de nouvelles entreprises prospères et une valeur économique, ideaSpace travaille également avec les gouvernements, les agences et les universités pour développer des politiques, des stratégies et des programmes qui soutiennent un secteur des start-up florissant.

Faire le point

La recherche, la formation et la pratique en matière de fabrication à Cambridge ont parcouru un long chemin au cours des 50 dernières années, mais elles restent toujours fidèles à la vision de Hawthorne et Reddaway : la fabrication va bien au-delà de la mise en forme des matériaux. Pour comprendre les complexités des systèmes industriels modernes avec leurs dimensions techniques, managériales et économiques, vous devez être pleinement engagé avec les personnes et les entreprises qui le font "pour de vrai". Le programme de recherche ici est maintenant étendu, couvrant l'éventail complet des activités de fabrication. Cette année, l'Université de Cambridge dans son ensemble a reçu plus de fonds EPSRC pour la recherche sur la fabrication que toute autre université britannique. IfM a un rôle important à jouer non seulement en faisant sa part de cette recherche, mais en facilitant la recherche sur la fabrication à travers l'Université.

L'éducation est florissante. Les cours ISMM et MET vont de mieux en mieux et cette année, nous avons plus de 75 étudiants en doctorat ou en recherche MPhils.

IfM ECS continue de croître, mettant la recherche IfM en pratique, qu'il s'agisse de reconcevoir les réseaux d'opérations des entreprises multinationales, d'aider à développer des stratégies et des systèmes d'innovation et de technologie robustes, ou de proposer des programmes de développement exécutif et professionnel et des cours ouverts.

Utilisation du microscope électronique à balayage au Centre de photonique industrielle

Regarder vers l'avenir

Alors, où les 50 prochaines années mèneront l'IfM ? Notre sens aigu du but ne changera pas et nous restons déterminés à faire une différence dans le monde en améliorant les performances et la durabilité de la fabrication. Nous continuerons à créer des connaissances, des idées et des technologies qui ont une réelle valeur pour les industries manufacturières nouvelles et établies et pour la communauté politique associée. Et nous continuerons à faire en sorte que nos connaissances aient un impact, à travers nos activités de formation et de conseil.

James Moultrie inspirant les récents étudiants du MET

Mais l'IfM est fondamentalement une question d'innovation. Ainsi, tout en continuant à faire ce que nous faisons le mieux, nous chercherons également des opportunités de faire les choses différemment. Nous avons des plans ambitieux pour l'avenir qui incluent le développement possible d'un &lsquoscale-up center&rsquo, un espace physique consacré à soutenir la transition d'idées et de concepts de prototypes de laboratoire vers des applications industrielles évolutives. James Stuart aurait approuvé l'énergie et la détermination qui ont permis de créer l'IfM tel que nous le connaissons aujourd'hui et son esprit pionnier continuera de nous inspirer. De cette façon, nous espérons faire en sorte que les 50 prochaines années soient encore plus productives et agréables que les 50 dernières.

Cet article a été écrit par Sarah Fell sur la base d'entretiens menés par les doctorantes d'IfM Chara Makri, Katharina Greve et Kirsten Van Fossen avec des membres du personnel passés et présents et avec des amis de longue date d'IfM.


Massagana 99

Les Masagana 99 Le programme a été lancé en 1973 en tant que programme de survie pour faire face aux pénuries alimentaires aiguës et plus tard pour augmenter la production de riz. L'objectif était d'atteindre un rendement de 99 cavans (soit 4,4 tonnes) de riz non usiné par hectare. Masagana 99 reposait sur deux prestations de service – un programme de crédit et un transfert de technologie. Masagana 99 était un programme de crédit supervisé innovant et le premier du genre à son époque. Pour émanciper les agriculteurs de l'usure et des conditions onéreuses des banques imposées par les banques dans l'octroi de prêts aux agriculteurs, le gouvernement a garanti 85 % de toutes les pertes sur Masagana 99 prêts. Cette garantie a incité les banques rurales à renoncer à leur pratique traditionnelle d'exiger des garanties. Même la politique de réescompte a été repensée pour les rendre faciles et au moindre coût pour l'agriculteur-créancier. Par la suite, quelque 420 banques rurales et 102 succursales de la Philippine National Bank ont ​​accepté d'accorder des prêts à ces conditions.

Les demandes de prêt ont été traitées rapidement et sur place. Les employés de la banque, en collaboration avec les techniciens agricoles, ont traité le plan et le budget de la ferme pour les agriculteurs. seldas[4] ou coopératives. Un agriculteur individuel ayant une garantie à offrir peut également obtenir un crédit. Le prêt maximum autorisé a atteint l'équivalent de 100 USD par hectare avec un intérêt mensuel de 1% (1%). Une fois approuvés, de nombreux prêts ont été envoyés sur les sites de la ferme à pied, à moto, en jeep et même en bateau-pompe. La Banque nationale des Philippines a appelé ce programme « Bank on Wheels ». Une partie du prêt a été accordée en espèces pour couvrir les coûts de main-d'œuvre tandis que le solde a été donné sous forme de bons de commande et qui pouvait être échangé contre des engrais et des pesticides dans les magasins participants.

Le programme Bank on Wheels de PNB conçu pour compléter le programme Masagana 99 en fournissant des prêts et même en les livrant aux agriculteurs dans les champs

Si le programme de crédit était novateur, le transfert de technologie l'était aussi. Les agriculteurs ont maintenant été initiés à de nouvelles variétés de riz appelées HYV (variétés à haut rendement) qui étaient radicalement différentes de celles qu'ils plantaient auparavant. Ces variétés nécessitaient une préparation et une utilisation intensives d'engrais et de pesticides, de sorte que l'agriculteur, avec l'aide de techniciens agricoles, devait suivre la méthode spécifiée par le programme.

Pour assurer la coordination et la coopération de toutes les initiatives liées à l'agriculture, les chefs d'entreprise locaux ont été associés au programme. Les gouverneurs ont été nommés présidents des comités d'action provinciaux tandis que les maires ont été nommés chefs d'équipes d'action municipales. Les deux fonctionnaires étaient chargés de coordonner diverses agences – banques, meuniers et commerçants, revendeurs d'intrants agricoles, réseaux de radio locaux, DA, DAR et DLGCD – à leurs niveaux respectifs.

Dans sa première année, Masagana 99 a été un énorme succès. En raison des conditions politiques qui prévalaient, les acteurs de mise en œuvre ont accompli les tâches qui leur étaient confiées, même à contrecœur. De plus, le pays a généralement bénéficié d'un beau temps en 1974, de sorte que les pertes pour l'agriculture ont été minimes, contrairement aux trois dernières années. De plus, alors que les prix des engrais augmentaient fortement en 1974 en raison des troubles au Moyen-Orient et du diktat imposé par l'Organisation des pays exportateurs de pétrole (OPEP), le gouvernement a amorti son impact par le biais de subventions, s'élevant à environ 21 % du prix de détail. Enfin, le gouvernement a fourni un prix garanti à la sortie de l'exploitation de 6 dollars EU par sac, soulageant les agriculteurs de lourdes pertes lorsque les prix du marché chutaient au moment de la récolte. En ce qui concerne l'autosuffisance en riz, Masagana 99 a été un énorme succès. En fait, après seulement deux ans de sa mise en œuvre, les Philippines ont pu atteindre la suffisance en 1976[5] et ont peut-être exporté du riz[6].

Tableau 3 : Statut de Masagana Programme de 99 crédits après expiration (31 avril 1979)

Phase Terme Nombre d'emprunteurs Superficie (a.) Prêts accordés (en M pesos) Taux de remboursement (en %)
je mai – octobre 1973 401,461 620,922 369.5
II Novembre ’73 – Avril ‘74 236,115 355,387 230.7 94
III mai – octobre 1974 529,161 866,351 716.2 94
IV Novembre ’74 – Avril ‘75 354,901 593,609 572.1 84
V mai – octobre 1975 301,879 558,330 572.9 82
VI Novembre '75 - Avril '76 151,862 255,882 255.9 76
VII mai – octobre 1976 144,265 244,477 274.3 81
VIII Novembre '76 - Avril '77 89,623 148,763 164.3 80
IX mai – octobre 1977 131,842 222,622 250.5 81
X Novembre '77 - Avril '78 92,476 155,095 176.1 74
XI mai – octobre 1978 116,624 202,606 236.9 80
XII Novembre ’78 – Avril ‘79 85,401 157,521 158.0 68


GM : Comment le géant a perdu sa voix - Le point de vue d'un initié

[publié pour la première fois le 21/05/2013. CraigInNC est un ancien employé de GM et partage les avantages de ses connaissances et de son point de vue d'initié depuis son arrivée chez CC. Dans cet article, qui était à l'origine un commentaire laissé par Craig, il partage ses réflexions sur les forces externes et internes à l'œuvre pendant l'ère cruciale qui a commencé avec l'embargo pétrolier de l'OPEP, et qu'il identifie comme un tournant clé chez GM. Le déclin de GM est la plus grande histoire automobile de tous les temps, et il y a évidemment de nombreuses prises et perspectives. N'hésitez pas à être d'accord ou en désaccord, mais veuillez garder le ton civil. – PN]

Les voitures C-Body 1985 à traction avant réduite de GM (Cadillac DeVille et Fleetwood, Olds 98, Buick Electra) et les voitures E/K 1986 (Eldorado/Séville) représentent l'un des principaux tournants de GM. La situation avec ces toutes nouvelles voitures ne se limitait pas seulement à ces modèles, mais faisait partie d'un ensemble plus large d'orientations que GM a décidé de prendre dix ans avant qu'elles ne prennent la rue. Dire que l'OPEP a eu une influence là-dessus serait un euphémisme, mais cela a affecté toutes les voitures, plus particulièrement les domestiques qui ont construit de grosses voitures. À cette époque, la plupart des importations étaient très faibles, à l'exception de certains modèles Mercedes.

Autant nous blâmons Roger Smith pour tous les troubles des années 1980, il n'a eu qu'une influence marginale dans le processus qui a déclenché tout cela. Il aurait pu faire plus probablement pour faire pression sur les modèles, mais les dés étaient déjà jetés avant qu'il n'assume la présidence à l'automne 1980. La situation telle que je la voyais était la suivante :

Bien sûr, l'embargo pétrolier de l'OPEP de 1973-1974 a tout changé - il a fait éclater la bulle pour la plupart des Américains et nous a fait réaliser que le pétrole qui a engendré l'essence était une ressource naturelle limitée et une ressource qui n'était pas entièrement contrôlée par les États-Unis. Nous connaissons et comprenons tous à peu près cette partie de l'histoire, donc rien de plus n'a besoin d'être dit.

CAFE a été promulgué en 1975, pour prendre effet pour les voitures particulières MY1978 et les camions légers MY1979. GM a été le plus touché par cette législation car ils étaient le maître constructeur de grosses voitures. L'économie de carburant de Chrysler était probablement légèrement inférieure à celle de GM au cours des années 1970, mais étant donné la situation financière désastreuse de Chrysler à la fin des années 1970, l'objectif de Chrysler était de maintenir l'entreprise en vie plutôt que la menace d'une action du gouvernement sur CAFE. Étant également le plus faible des trois grands avec une part de marché d'environ 15%, Chrysler était moins une menace pour l'action du gouvernement que GM, qui a toujours vécu sous la menace de l'anti-trust, tout comme AT&T et IBM.

Comme je l'ai commenté dans l'article avec l'Olds Firenza, GM ne répondant pas aux normes CAFE aurait probablement entraîné de graves conséquences. À cette époque, Washington a rédigé une loi et l'a de nouveau évaluée GM. AT&T vous a donné des téléphones, RCA vous a donné des téléviseurs, NBC/ABC/CBS vous a donné des programmes télévisés, Kodak vous a vendu des films pour votre appareil photo et IBM vous a vendu des ordinateurs. C'était tout en un mot. Mais comme nous pouvons le voir, chacune de ces sociétés n'existe plus sous une forme historique. Certains comme AT & ampT ont été démantelés de force, d'autres comme IBM & amp GM ont subi un déclin et se sont rétablis sous une nouvelle forme, et bien sûr, nous savons comment la télévision est passée de 3 chaînes à 3 851 et plus.

Ed Cole (à gauche) a pris sa retraite en tant que président de GM en 1974. Il était l'un des derniers présidents de GM vraiment influents qui était considéré comme un « gars de la voiture ». Il a commencé sa carrière en travaillant dans un magasin de pièces automobiles et l'a terminée en tant que président de Checker avant de mourir tragiquement. Pete Estes (à droite) a suivi Cole et était un gars opérationnel, mais sous lui, le gars a démarré et malgré sa carrière légendaire avec Oldsmobile, Pontiac et Chevrolet, il n'avait pas le fanfaron d'Ed Cole et d'autres. Mais il était très aimé. Et un homme d'innovations extrêmes. Alors que d'autres étaient plus larges dans leurs déclarations, Estes a compris tous les détails. En tant que jeunes étudiants du GMI, nous étions tous impressionnés par les grands noms comme Mitchell et Cole, et même Iacocca chez Ford, parce qu'ils étaient des célébrités. Mais pour ceux qui ne possédaient pas une extraversion extrême, un gars comme Pete Estes dont l'influence se faisait moins sentir dans ce que vous voyiez à l'extérieur d'une voiture que dans ce que vous ressentiez à l'intérieur en la conduisant. Il était un véritable ingénieur et il est tout à fait approprié qu'il y ait un sanctuaire proche de lui exposé dans les archives de Scharchburg à l'université de Kettering.

Roger Smith était un homme de chiffres pendant son mandat avant que le président-directeur général ne soit vice-président exécutif des relations publiques, des affaires gouvernementales et des finances. Des choses que nous considérions nécessaires pour faire des affaires, mais dont nous ne nous attendions pas à ce que quelqu'un soit promu à la tête de l'entreprise. Une situation très inhabituelle et à laquelle beaucoup ont eu du mal à s'adapter. Nous étions habitués à faire approuver ou désapprouver nos idées par des gars qui avaient déjà marché à notre place. Discuter des coûts avant les résultats revenait à écraser la créativité et la productivité.

Une partie du génie de GM pendant tant d'années était vraiment une organisation collective de mini-confessions cérébrales et d'idées et d'énergie circulant vers le haut par le bas. Des choses comme la genèse du turbo Buick V6 provenant d'un projet Boy Scout en témoignent. Cela aurait été presque impossible après les années 1980. Il n'y avait tout simplement pas ce niveau de flux de communications. Issu d'un contexte non opérationnel, Smith ne ressentait aucun lien avec l'équipe d'ingénierie qui fabriquait en fait tout ce que nous vendions. Il n'avait d'affinité personnelle pour aucun d'entre eux et ne connaissait même souvent que le personnel le plus haut placé des divisions au moment où il est devenu PDG. Ainsi, il se sentait libre de se lancer dans divers projets de son goût sans douleur de culpabilité.

Bill Mitchell a pris sa retraite en 1977. Mitchell a exercé une influence sur la gestion de l'entreprise contrairement à ce qui avait été vu auparavant ou depuis. À peu près tout ce que Mitchell voulait, il l'a obtenu. À moins que cela ne soit mandaté par le gouvernement, personne n'a dit à Mitchell quoi faire. Malheureusement, Irv Rybicki, qui a remplacé Mitchell, n'avait pas la colonne vertébrale ni l'influence que Mitchell avait. Au moment où Rybicki a pris sa retraite en 1986, il concevait essentiellement des voitures qu'on lui avait dit de concevoir et non l'inverse.

Au moment où Chuck Jordan a assumé le règne du design, les choses étaient déjà trop avancées pour pouvoir être corrigées de manière concrète, mais si Jordan avait suivi Mitchell, je pense personnellement que les choses auraient été bien meilleures. Jordan était un vrai fan de Cadillac et son influence s'est surtout fait sentir avec les designs E/K de 1992 qui sont largement considérés comme élégants. Jordan a également influencé la direction pour convaincre la direction de recommencer à augmenter la taille des voitures et était en grande partie responsable de la croissance des voitures à partir de 1988. Bien sûr, Mitchell est deuxième derrière Jésus-Christ dans le style automobile chez GM, mais Jordan avait un flair pour la présence après cela. L'actuel chef de la conception de GM, Ed Welburn est lui-même très talentueux, mais Jordan était le dernier des vieux gars avec l'œil critique.

Au lendemain de l'OPEP, avec l'arrivée de CAFE et l'évolution des goûts des clients, la décision a été prise en 1975 au sein de GM au niveau de l'entreprise, de passer à pleine vitesse à la traction avant et de maximiser l'efficacité de l'espace. La croyance était, à juste titre, que les jours tels que nous les connaissions étaient révolus. Les paradigmes qui guidaient la conception et le développement automobiles depuis la première Oldsmobile ne s'appliquaient plus. Jusqu'à la fin des années 1960, les constructeurs automobiles construisaient tout ce qu'ils voulaient, totalement dégagés de quoi que ce soit, qu'il s'agisse de réglementations gouvernementales ou d'événements mondiaux. L'Europe et le Japon creusaient encore sur les cendres de la Seconde Guerre mondiale. Les voitures construites à Detroit représentaient tout ce que nous pensions des États-Unis.

Je me souviens d'être assis dans un auditorium à GMI lorsqu'un dirigeant de GM a prononcé un discours nous vantant les vertus de GM et comment il s'intègre dans le reste du pays. Vous savez « ce qui est bon pour GM est bon pour les États-Unis, etc… » La voiture était l'expression ultime de la liberté qui a construit ce pays. Manifester le destin, vivre libre ou mourir, et le pouvoir de l'individu. Les citoyens soviétiques conduisaient des Ladas et les Allemands de l'Est conduisaient des Trabants. Nous conduisions des voitures qui représentaient la puissance industrielle du pays, et elles étaient conçues en conséquence.

Puis tout a changé.Un groupe de petits hommes, vêtus de chemises blanches avec de fines cravates noires et des verres à bouteille de coca, est entré et nous a dit que tout cela n'était qu'un rêve. Enfin pas vraiment, mais c'était comme ça. Soudain, nous avons eu des compagnies d'assurance qui nous revenaient dans le dos, l'EPA à la recherche d'ennuis, la NTHSA nous disant que les gens étaient fous, et l'OPEP nous a dit que des hommes au son étrange avec des bronzages permanents vêtus de peignoirs nous ont montré qu'ils avaient plus de contrôle sur notre comportement que notre propre gouvernement élu. C'était très surréaliste au bout d'un moment.

Après 1978, tout semblait être une ruée géante si ce n'était pas CAFE, c'était des flux de trésorerie ou autre chose. Rien ne donnait l'impression que cela coulait librement du cerveau au garage. Tout ressemblait à un compromis réussi, comme si vous aviez accompli autant que vous le pouviez. Tout était un et si… L'époque où l'on construisait des voitures à partir des rêves que Bill Mitchell avait de voitures sortant des nuages ​​en Angleterre était révolue.

Compte tenu de tous ces facteurs, la décision a été prise au niveau de l'entreprise de prendre la direction de l'entreprise vers le FWD et l'efficacité de l'espace. La deuxième crise pétrolière (1980) et les deux années suivantes de prix de l'énergie incertains et d'inflation n'ont fait que valider cela. D'abord vinrent les voitures X (Citation, etc.). Puis sont venues les voitures J & A, et les autres ont suivi telles que nous les connaissons. C'était un engagement total, non seulement au niveau du modèle, mais à l'échelle de l'entreprise. Le RWD était parti, terminé, fini pour tous les modèles de voitures de tourisme, sauf les plus spécialisés, comme la Corvette.

Si tout s'était déroulé comme prévu, il n'y aurait eu AUCUNE voiture RWD, à l'exception de quelques-unes, avant l'AM1985. C'était un changement de paradigme sans précédent dans le monde de l'automobile qui se classe probablement au troisième rang derrière l'invention du démarreur automatique et de la transmission automatique, en termes de ce qui a changé la perception des gens de ce qu'était une voiture. Oui, le marché avait le VW Rabbit qui était petit, efficace et à traction avant avec un moteur transversal à quatre cylindres, mais le Rabbit était un véhicule de niche. Elle a été achetée par des personnes qui avaient besoin d'une petite voiture, et VW à cette époque ne produisait rien qui correspondait au centre du public acheteur, la grosse voiture RWD.

Même si nous dénigrons le Citation, quand il est sorti, il a vraiment changé la façon de penser du public acheteur de Detroit et des États-Unis. D'autant plus que le temps passait avec la sortie des carrosseries J et A, tout le monde savait où allait le marché. Chrysler est sorti avec les voitures K. Si GM avait décidé de fabriquer des voitures RWD plus petites avec des moteurs longitudinaux, il est très probable que les voitures transversales FWD seraient restées du ressort des importations, et/ou uniquement des voitures plus petites. Sous-estimer l'impact ne rendrait pas justice au changement radical qui a affecté à la fois la culture du design à Detroit et dans l'esprit des acheteurs américains. Il suffit de penser à la Chevette et à la Vega comme des voitures ultra-petites au design ultra-conventionnel. Bien que tous ces « péchés capitaux » des années 1980 aient pu coûter cher aux concessionnaires GM, leur influence a engendré l'efficacité de l'espace comme référence pour la conception automobile qui reste avec nous aujourd'hui.

Le pivot de l'influence chez GM est passé des divisions au niveau exécutif sous Roger Smith. La réorganisation malheureuse de 1984, qui a largement démoli l'autonomie des entreprises, n'en est plus un reflet. Je suppose que d'un point de vue commercial, l'ancien modèle n'allait pas durer éternellement. Comme nous l'avons vu avec les affaires de mixage de moteurs des années 1970, l'intégration verticale totale des divisions n'était plus rentable compte tenu de l'escalade continue des coûts des marchandises vendues, de la réglementation et des coûts associés au plan d'entreprise de passer à FWD.

Autrefois, les voitures étaient simples, elles étaient à propulsion, principalement des véhicules à châssis, des V8, à carburateur et de grande taille. La majeure partie du budget du développement automobile a été consacrée au style. Les moteurs ont évolué progressivement, les carrosseries pouvaient être changées assez facilement et à moindre coût avec une conception de carrosserie sur cadre. Tout était bien mis en place. Même en utilisant des cadres et des sous-structures identiques, vous pouvez donner à une voiture un aspect et une sensation complètement différents avec une relative facilité. GM était le maître à cela. Avec FWD et monocoque, ce n'était plus possible, au moins aussi facilement et à moindre coût que par le passé.

FWD coûte de l'argent, beaucoup d'argent. Les conceptions monocoques coûtent plus cher à concevoir car elles doivent être conçues comme un emballage et non comme un corps pouvant être déposé sur un cadre existant. Et ils ne peuvent pas être facilement rendus différents. D'où toutes les voitures à l'emporte-pièce des années 1980. Malheureusement, les autres constructeurs automobiles, en particulier les importations, n'ont construit qu'un seul type de voiture, il n'y avait donc rien à quoi ressembler, jusqu'à ce que les Japonais sortent leurs marques haut de gamme et que beaucoup de ces modèles ont commencé à avoir l'air et à se sentir beaucoup plus conçus avec des badges ( même si, certes, pas au niveau des véhicules GM).

Ainsi, lorsque cinq divisions doivent maintenant construire des voitures à traction avant de taille similaire sur des conceptions monocoques, vous passez de plates-formes qui pouvaient être facilement modifiées auparavant pour s'adapter aux thèmes de style et aux caractéristiques des clients de chaque division, à des plates-formes pratiquement impossibles à rendre différentes. C'était une mauvaise situation qui ne pouvait pas être facilement rectifiée. Croyez-moi, cette idée n'a été perdue pour PERSONNE au niveau de la division et cela a peiné beaucoup de gens. Mais lorsqu'une entreprise prend la décision d'entreprendre l'entreprise dans une direction et investit l'équivalent du PIB de probablement plusieurs États, les directions ne peuvent pas être changées facilement. Compte tenu des prévisions de hausse des prix du gaz et de la poursuite de la réglementation, FWD était là pour rester et nous devions en tirer le meilleur parti.

Étant donné que GM s'est engagé de tout cœur dans le programme FWD, non seulement la structure de base du corps a changé, mais tout le reste a changé avec lui. Les voitures X ont été l'un des premiers véhicules du marché de masse à disposer de la norme d'injection de carburant. Une véritable injection de carburant, comme celle qui a fait entrer les voitures dans les âges modernes et a duré jusque dans les années 1990. C'était un autre changement de paradigme incroyable. Bien sûr, la Séville a été le premier grand modèle GM à disposer d'un système EFI moderne, mais c'était un modèle de niche et géré uniquement par les concessionnaires Cadillac qui pouvaient former du personnel sélectionné pour l'entretenir. Et ce système EFI s'est fortement inspiré des systèmes européens existants.

Le système GM TBI qui a fait ses débuts en 1980 a établi la norme pour le système d'injection de carburant de corps de papillon de base mais très efficace en production. Bien qu'il y ait eu de nombreuses défaillances techniques au fil des ans, ce système TBI n'en faisait pas partie et est devenu une conception solide comme le roc très fiable avec le SFI développé par la suite qui est sorti dans les Buick turbo pour 1984 qui a de nouveau établi la norme pour le contrôle du carburant dans le industrie. Jusqu'à l'adoption récente des systèmes d'injection directe, les systèmes d'injection de carburant étaient en grande partie des copies conformes du système d'origine qui a fait ses débuts dans les Regals de 1984.

Tout cela a été fait à une échelle massive, sans précédent auparavant. La chose la plus proche d'une réingénierie totale était la Toronado de 1966 et cela était justifié parce qu'elle a été vendue à Oldsmobile et finalement à Cadillac et Buick parce qu'il s'agissait de voitures haut de gamme. Maintenant, nous construisions des voitures de tous les jours bon marché pour les masses qui avaient développé des mouvements qui avaient été consacrés au développement de la bombe atomique de la Seconde Guerre mondiale. Si vous additionnez toutes les sommes dépensées du premier dollar dépensé pour la Citation à la dernière voiture convertie de RWD en FWD et les convertissez en dollars de 2013, vous pourriez presque équilibrer le budget fédéral. Sans blague. C'était à ce niveau. C'était écrasant. Cela ne ressemblait en rien à tout ce que l'on aurait pu rêver ou imaginer lorsqu'ils sont entrés en école d'ingénieurs.

Lorsque nous avons commencé à l'université, nous nous attendions tous à construire pour toujours des variantes de carrosserie RWD sur des voitures à châssis. Ceux qui ont été conçus comme chaque division les voulait. Certaines voitures comme la Vette et la Toronado étaient différentes, mais il s'agissait de véhicules à faible volume et d'un personnel dévoué. Je ne savais pas qu'au moment où j'ai effectivement pris ma retraite à temps plein après 41 ans, nous conduirions des véhicules à traction avant massivement informatisés avec des matériaux anciens qui pourraient nous protéger de toutes les situations, sauf les plus extrêmes.

Et c'est vraiment de là que venaient tous les échecs. Certains d'entre eux, comme le V864, étaient des stop gap, clairement introduits pour faire le pont entre l'ancien et le nouveau. D'autres comme le HT4100, un moteur qui s'est avéré assez solide à la fin mais a été précipité en production en raison du temps et des circonstances. Donc, d'une certaine manière, c'était comme se mobiliser pour la guerre. Les changements ont tout affecté. Presque rien n'était pareil de 1975 à 1985. Je ne suis pas sûr qu'une seule entreprise automobile ait changé comme ça en dix ans sur la surface de la terre. Peut-être les entreprises du bloc soviétique, mais je suppose que nous pourrions le limiter aux pays de libre marché.

Chaque fois que vous entreprenez un changement aussi massif à ce niveau, avec une entreprise aussi grande, avec une telle influence dans l'industrie, des erreurs vont se produire. Cela n'absout personne des effets, mais il aurait été difficile d'imaginer comment cela aurait pu être totalement perfectionné car il se passait tellement de choses que nous avions les mains pleines pour tout garder en mouvement.

Alors les gens demandent, eh bien, comment Honda ou Mercedes ont-ils réussi à rester ensemble pendant cette période et à grandir ? Eh bien, tout simplement, ils étaient beaucoup plus petits, fabriquaient moins de produits et n'étaient en grande partie pas affectés par les forces qui affectaient les Big Three et GM en particulier. Toyota n'a rien construit de taille particulière à l'exception de la Cressida qui n'était qu'un petit joueur sur le marché. Honda n'a vendu que des Accords, des Civic et des Preludes, dont trois étaient de petits véhicules non affectés par CAFE, de sorte que Honda en tant que société n'a pas eu à subir un changement radical que les Big Three ont connu après l'OPEP. Ils pouvaient tranquillement continuer à consacrer leurs énergies à continuer à développer leurs véhicules sans changements radicaux.

Lorsque l'essence était rare et que l'économie de carburant était une préoccupation primordiale, les gens achetaient beaucoup de petites voitures importées, ainsi que beaucoup de petites voitures nationales. Mais lorsque ces inquiétudes se sont dissipées, nous avons vu les acheteurs revenir à des modèles d'achat plus traditionnels, ne serait-ce que pour de courtes périodes. Au cours des années 1990, nous avons connu une longue période de prospérité et de faibles prix relatifs de l'essence qui, à cette époque, les voitures particulières étaient déjà entièrement repensées et beaucoup plus petites, ont entraîné les ventes de SUV qui étaient les successeurs spirituels du design automobile américain traditionnel. Le gaz a remonté et les gens ont recommencé à acheter plus petit et le cycle a tourné comme ça pendant un certain temps.

Donc, d'une certaine manière, du moins pour les constructeurs automobiles japonais, qui ne construisaient que de petites voitures, lorsque les choses ont commencé à changer sur le plan énergétique, ils ne sont pas allés sur le marché, mais le marché est venu vers eux. Ils se trouvaient en quelque sorte là, comme la Mustang II en 1974, conçu sans aucun égard réel pour l'OPEP, mais il s'est avéré que c'était quelque chose qui semblait si bien pour le moment. Et elle s'est vendue, en partie parce qu'elle était plus maniable que les récentes Mustang, mais souvent parce qu'elle était juste beaucoup plus efficace. Même chose avec la Vega, malgré les problèmes des deux premières années, MY1974 a été une année record car c'était une petite voiture efficace lorsque le monde des gens a été bouleversé.

Dans les années 1980, le plus gros péché de Roger Smith était l'argent dépensé pour des projets superflus sans rapport avec la conception et la construction de voitures. Des choses comme EDS, Hughes Electronics et l'achat de robots pour lécher les enveloppes alors que l'argent aurait pu être dépensé pour raffiner le produit. C'était comme le gouvernement fédéral, des milliards de dollars volant partout mais personne ne savait vraiment où cela allait. En 1965, chaque dollar a servi à mettre des voitures dans les garages des gens. Oui, Frigidaire a construit des réfrigérateurs et des appareils électroménagers, mais ils l'ont fait en partie parce qu'ils fabriquaient également la climatisation pour les voitures, et ces gammes de produits étaient rentables et ne consommaient pas les ressources de l'entreprise. Je ne savais pas jusqu'à il y a environ huit ans qu'une division de Hughes Electronics a développé et introduit DIRECTV, oui QUE DirecTV qui rivalise avec DishNetwork et TimeWarner pour notre visionnage de la télévision. Donc, tous ceux qui détestent les GM avec DirecTV, mieux vaut changer rapidement ! Eh bien, en fait, vous n'êtes pas obligé de le faire puisqu'il s'agit d'une société entièrement distincte (séparée en 2003), mais juste pour que vous sachiez…

Au moment où Roger Smith a pris sa retraite en 1990 et que Bob Stempel a pris les rênes, les choses étaient en désordre. Bob aurait dû remplacer Pete Estes en 1981, mais il n'était pas à ce stade de la chaîne alimentaire à l'époque, mais comme Pete, il était un gars des opérations. Il savait comment faire avancer les choses. Il n'aurait pas pu inverser la tendance à la traction avant, mais il n'aurait pas dépensé l'argent que Roger Smith a fait pour tout, mais aurait peut-être fait de ces voitures les meilleurs véhicules jamais produits, ou du moins bien meilleurs qu'ils ne l'étaient. Au moment où il a obtenu les clés, il était paralysé. L'entreprise saignait de l'argent, rien ne se vendait et il passait le plus clair de son temps à essayer de redresser le navire. Malheureusement pour lui, il a été à l'étranger pendant une grande partie des années 1980 à la tête d'Opel (qui gagnait de l'argent à l'époque, contrairement à aujourd'hui où il est en train de mourir) et n'a pas eu d'influence sur les opérations nord-américaines. Mais Stempel était un gars de la voiture et aurait bien fait s'il avait eu les ressources pour le faire.

Pour lier cela à quelque chose que Paul pourrait apprécier, en 2007, il y avait un article écrit sur TTAC :

Alors que la majeure partie de la (première) histoire documente divers maux vécus par le propriétaire et d'autres, je pense qu'il désigne à juste titre la voiture X comme le début de la fin. En réalité, cette date était le 21 juin 1975, lorsque le comité exécutif a approuvé l'ensemble de la plate-forme FWD X pour commencer, mais cela reste discret.

Il est difficile de dire si c'est la décision de passer à la traction avant qui a déclenché le déclin lui-même ou les maux que la voiture a subis en tant que produit. Parce que nous devons revenir à la prémisse originale de ce qui a fait de GM ce qu'elle était et ce qui l'a rendu formidable. Tout cela a changé avec la décision de passer au monocoque FWD. Les gens achetaient des voitures GM parce que chaque division fabriquait quelque chose d'unique et non seulement c'était unique, mais au moins en ce qui concerne les importations, la seule concurrence provenait des trois grands.

Avant l'OPEP, personne ne se souciait vraiment des véhicules importés, sauf en marge. Mercedes réduisait les ventes de luxe, mais à moins qu'ils ne commencent à construire des véhicules grand public, ils auraient été confinés à une petite partie de ce marché. Comme l'auraient fait VW et les autres Européens qui ont construit de petits véhicules originaux qui s'adressaient à des segments de niche de la population qui avaient des besoins spécifiques ou étaient juste assez bizarres pour ne pas se soucier de conduire des bus VW de 55 ch qui n'allaient nulle part rapidement. Si l'OPEP ne s'était pas produite, l'une des deux choses se serait produite : les importations seraient restées grignotées aux deux extrémités des extrêmes, ou elles auraient été obligées d'introduire des produits plus gros qui auraient ressemblé beaucoup plus à des voitures américaines à l'ancienne que ce qu'ils construisaient actuellement. Autant que nous parlons de combien l'OPEP et le CAFE ont affecté les Big Three, juste pour jouer l'avocat du diable, j'ai souvent pensé à ce qui se serait passé si l'inverse était vrai que le gouvernement aurait adopté une loi rendant obligatoires les voitures d'une taille minimale. GM aurait volontiers abandonné la Vega et le chaos aurait régné à Tokyo. Un peu comme il a régné à Detroit pendant si longtemps.

Donc la morale de toutes ces choses, nous pourrions affirmer que Roger Smith a gaspillé de l'argent qui aurait pu être dépensé en produits, nous pourrions blâmer l'OPEP pour avoir détruit le modèle commercial américain, blâmer l'UAW pour en tirer le maximum d'avantages, blâmez-le sur les décisions des entreprises d'aller FWD. C'est impossible de vraiment faire ça de manière constructive. C'était tellement gros. Il se passait tellement de choses. Le vrai péché mortel était que tout cela était tout simplement accablant. Presque comme une toxicomanie.

Une fois que la balle est revenue en 1975, elle a explosé dans cette énorme quantité de changements sans précédent dans l'histoire. C'est devenu incontrôlable, et malheureusement, probablement au point qu'aucun homme n'aurait pu s'arrêter. Lorsque vous avez une entreprise de la taille de GM à un moment donné, qui était probablement plus grande que la moitié des pays des Nations Unies, c'était comme la fission nucléaire. Lorsque les réactions commencent à se produire, elles sont difficiles à contrôler. C'était comme l'effondrement de Tchernobyl.

Donc, pendant que je regarde en arrière les 40+ années de ma vie, et que je pense à tout cela, à l'histoire et à ma place dans celle-ci, ce qui aurait pu être fait différemment, ce que j'aurais pu faire différemment, à la fin je n'ai vraiment pas toutes les réponses. Cela aurait été comme essayer de comprendre comment diriger le monde pendant la Seconde Guerre mondiale. Je suppose qu'à la fin tout a dû disparaître. L'époque des grandes entreprises verticalement intégrées avec des parts de marché dominantes est révolue. Certains domineront pendant une courte période, généralement lorsqu'un nouveau produit est introduit, mais l'époque de GM, AT&T, IBM, Kodak et RCA est révolue. Fini, fini. La mondialisation, la technologie, la communication, quels qu'en soient les facteurs, ne laisseront plus jamais de telles choses se reproduire.

Mais c'était une balade, une balade amusante, une balade dont je n'aurais jamais rêvé qu'elle se passerait comme ça, mais malgré toute l'amertume que je pouvais avoir à propos de tout, je ne l'aurais probablement pas eu autrement.

270 commentaires

Il y avait trop de marques qui se chevauchaient (ou, plus précisément, trop de canaux de distribution.) Cela a encouragé une culture d'ingénierie des badges et de cannibalisation, qui a érodé la valeur des marques individuelles et est devenue nécessairement plus désespérée à mesure que l'entreprise commençait à perdre des parts de marché.

GM et Detroit n'étaient généralement pas préparés à la crise de l'OPEP, qui offrait une opportunité de vente à des concurrents étrangers.

Et les Japonais les ont battus avec une gestion de la qualité totale et une production au plus juste. Les consommateurs ont commencé à se rendre compte que la qualité de construction et l'ingénierie n'étaient tout simplement pas bonnes.

Ford a inventé la production de masse automobile, et GM a inventé l'idée de rivaliser sur la base de l'image de marque, du style et des caractéristiques. GM ne s'attendait pas à ce que ce modèle d'entreprise évolue au-delà de ce qu'il avait pris, et n'était pas disposé à accepter que certains étrangers soient meilleurs qu'eux dans le jeu. Le plus grand coût hérité était l'orgueil, qui a favorisé cette incapacité à s'adapter au changement.

C'est un article exceptionnel !
Le trottoir devient l'endroit où il faut être!

Sur une période d'une décennie, GM est passé de la fabrication de voitures qui rendaient les Américains heureux à la fabrication de voitures qui ne le faisaient pas. D'une manière ou d'une autre, la plus grande entreprise automobile des États-Unis a décidé que l'avenir était à l'extérieur et leur marché est parti à la place. D'une manière ou d'une autre, le plus grand constructeur automobile des États-Unis n'a pas envisagé d'avoir à la fois thisaway et thataway dans son portefeuille de produits.

Personne n'a demandé à GM de laisser tomber les voitures que les Américains aimaient conduire. Personne n'a dit à GM qu'il ne voulait plus de propulsion arrière, carrosserie sur châssis, automobile. GM a décidé d'arrêter de fabriquer les voitures que les Américains aimaient conduire. GM s'est engagé à croire que l'avenir des automobiles n'était pas les automobiles qui en ont fait la plus grande entreprise automobile au monde. C'était comme si le phénomène New Coke s'était infiltré chez GM.

GM était monolithique et pense toujours de manière monolithique. C'était tellement lié à cela que, indépendamment de la marque et du marché de la marque, GM a décidé qu'il s'agissait d'une taille unique pour toutes les tractions avant, la voiture monocoque du futur allait s'adapter à toutes les marques et tous les marchés.Donc, ce qui est décrit dans ce merveilleux article était AUTO-INFLICITÉ. L'OPEP ne l'a pas fait. La technologie ne l'a pas fait. Le travail ne l'a pas fait. Parce que si ce sont vraiment les raisons pour lesquelles cela a été fait, alors pourquoi GM ne produit-il plus les mêmes pilotes avant à l'emporte-pièce aujourd'hui ? nous sommes en 2013 et il y a plus de diversité de transmissions et de méthodologies de fabrication qu'il n'y en avait en 1985. Les problèmes de GM se sont auto-infligés, pas imposés.

GM a décidé de se réinventer de manière à ce que seule une grosse entreprise monolithique liée au cuir puisse le faire exploser. GM a gaspillé des milliards de dollars à se réinventer alors que personne ne l'y obligeait. H. Ross Perot a mentionné avec précision que GM aurait pu ACHETER Toyota pour ce qu'ils ont gaspillé pendant les années Roger Smith. Cependant, les hommes au sommet de l'organisation ne pouvaient pas comprendre comment faire en sorte qu'une organisation aussi grande que GM fasse un backflip à 180 degrés, même lorsque ce n'était pas nécessaire.

Les nouvelles voitures de GM ont été aspirées comme une tornade F5 dans un trou noir. Ce que nous voulions dans une voiture GM n'était plus fabriqué. Vous vouliez une Park Avenue à propulsion arrière ? Robuste, vous avez un conducteur avant qui ne pourrait pas être un Park Avenue, même avec du velours écrasé touffeté.

Nous voulions de vraies voitures GM. GM nous a dit que leurs pseudomobiles monocoques à traction avant craptastiques étaient meilleurs. Nous savions ce qu'ils savaient au moment où ils ont dit cela - ces voitures n'étaient pas de vraies voitures GM.

Lorsque les conducteurs de devant ne nous ont pas donné ce que nous voulions dans une voiture GM, nous avons quitté GM.


Années 90

Dans les années 1990, l'Australie accédait régulièrement aux données de télédétection des satellites américains Landsat et NOAA, des satellites français SPOT, du satellite radar européen ERS-1 et du satellite météorologique géostationnaire japonais (GMS). L'Australie était désormais reconnue internationalement comme un fournisseur hautement professionnel d'assistance au sol et un utilisateur innovant et efficace des données fournies par d'autres pays, en particulier dans l'analyse et le traitement des données brutes.

La sonde spatiale de l'ESA Ulysse a été lancée en octobre 1990 pour une mission d'étude plus approfondie des pôles du Soleil. Pour y parvenir, il s'est d'abord envolé vers Jupiter, puis est revenu vers le sud, hors du plan de l'écliptique, pour survoler le pôle Sud du Soleil. Pendant ce temps, Tidbinbilla avait une vue exclusive du vaisseau spatial lorsque les premiers détails ont émergé. Le vaisseau spatial a duré plus de 12 ans.

L'Australian Space Research Institute (ASRI) a vu le jour au début des années 1990 à la suite d'une fusion entre l'AUSROC Launch Vehicle Development Group de l'Université Monash à Melbourne et l'Australian Space Engineering Research Association (ASERA). Ils ont commencé l'ingénierie de développement de la propulsion, ont été certifiés agents de sécurité et agents de lancement pour les fusées-sondes, ont repris une grande quantité de fusées Zuni et les ont offertes comme opportunités de lancement de charges utiles, menant des campagnes de lancement à Woomera deux fois par an jusqu'en 2010, lorsque l'ADF essentiellement interdit l'utilisation non militaire de Woomera. De nombreuses thèses universitaires ont été achevées grâce à l'ASRI et les Zunis, y compris les projets étudiants supersoniques dans le Queensland.

Après des rencontres aléatoires en tant que club spatial, la National Space Society of Australia a organisé la première conférence australienne sur le développement spatial en 1990 à Sydney avec le soutien financier de GIO Reinsurance, OTC Australia, Baker & McKenzie, successeur de l'agence spatiale de Cape York. Essington Group, Australian Airlines et American Airlines, et l'Australian Space Office.

ASRI a tenu sa première conférence spatiale nationale en 1991 et a organisé 19 conférences par an au total jusqu'en 2009.

Le vaisseau spatial Magellan Mission to Venus est entré en orbite en août 1990 et a ensuite cartographié la surface de Vénus avec des détails sans précédent jusqu'en 1994. Tidbinbilla a soutenu la mission.

Le CSIRO et l'industrie australienne ont contribué à la conception et à la construction de composants pour les instruments de radiomètre à balayage longitudinal (ATSR)-1 et -2 et l'instrument avancé ATSR (AATSR). La série d'instruments ATSR a été financée conjointement par les gouvernements britannique et australien et a été embarquée à bord des satellites ERS-1 (ATSR-1, lancé en 1991) et -2 (ATSR-2, lancé en 1995) de l'Agence spatiale européenne. L'instrument Advanced ATSR a été lancé à bord du satellite ENVISAT de l'ESA en 2002, et a continué à fonctionner jusqu'en 2012.

Optus a acquis AUSSAT et ses satellites lorsqu'il est devenu le nouvel opérateur de télécommunications australien en janvier 1992. Le satellite de communication, Optus B1, a été mis en orbite en 1992.

Le groupe Essington (formé pour remplacer l'Agence spatiale du Cap York) a cessé en 1992 et sa place a été prise par le système de transport spatial (STS) formé en 1992. STS prévoyait de lancer des Proton-K depuis Darwin et l'île Melville en collaboration avec la Russie.

Un accord entre l'Australie et les États-Unis concernant la conduite de vols scientifiques en ballon à des fins de recherche civile a été conclu en 1992.

La même année, un vol de navette de la NASA a transporté en orbite un télescope spatial ultraviolet australien Endeavour.

La 2e Conférence australienne sur le développement spatial s'est tenue à Sydney en octobre 1992 et comprenait la création de la Chambre de commerce de l'industrie spatiale australienne (qui deviendrait dans les années 2010 la Space Industry Association of Australia).

Rocketplane Kistler a été constituée en 1993 en Australie-Méridionale en tant que coentreprise australo-américaine dans le but de lancer un programme RLV COTS en deux étapes. Tout s'est terriblement mal passé et s'est terminé à grands frais en 2001, finalement désenregistré en 2007.

Le gouvernement australien a commandé un examen par un groupe d'experts (l'examen Curtis) du Programme spatial national en 1992. En conséquence, le Loi de 1994 sur le Conseil australien de l'espace a été adoptée, qui a créé un conseil de l'espace. Le mandat du conseil était de faire rapport sur les questions affectant l'application de la science spatiale et de recommander une politique spatiale nationale appelée National Space Program pour encourager l'application de la science et de la technologie spatiales par les secteurs public et privé en Australie.

La station terrienne de Lockridge a été construite en 1993 et ​​continue de prendre en charge les services satellitaires internationaux et certains services nationaux. Il est toujours doté de personnel 24 heures sur 24 en reconnaissance de son rôle clé en tant qu'installation de suivi, de télémétrie et de contrôle des amplis.

La 3e Conférence australienne sur le développement spatial s'est tenue à Sydney en 1994 et a été utilisée par l'Office spatial australien de l'époque pour lancer son plan quinquennal pour l'industrie spatiale australienne.

Le DCG d'UniSA est devenu l'Institut de recherche sur les télécommunications (ITR) en 1994. L'ITR est le plus grand organisme de recherche universitaire dans le domaine des communications sans fil en Australie et mène ses recherches dans quatre domaines principaux : les communications par satellite, les communications de données à haute vitesse. , radios et réseaux flexibles et neurosciences computationnelles et théoriques. Ils ont développé des modems de station au sol par satellite utilisés dans ACRES et les stations au sol commerciales. ITR exploite également les antennes ASTRA et S-Band, utilisées par l'ESA pour les missions ATV vers l'ISS et les premières missions Dragon de SpaceX.

En 1994, le satellite de communication Optus B3 a été mis en orbite pour remplacer le satellite Optus B2 en panne, qui n'a jamais atteint l'orbite en raison d'une panne du lanceur. Il est situé sur la fente orbitale 164°E en orbite inclinée avec une empreinte couvrant l'Australie et la Nouvelle-Zélande. Optus B3 embarque 16 répéteurs, dont 15 fonctionnant en bande Ku et les autres en bande L avec des liaisons de connexion en bande Ku.

En 1995, la sonde Galileo est entrée dans l'atmosphère de Jupiter. Le CDSCC était la principale station de localisation et de communication pour cette mission. La sonde a révélé que la composition chimique et la structure de l'atmosphère n'étaient pas celles attendues.

Voyant une niche dans la distribution de données satellitaires, John Douglas a fondé en 1995 Apogee Imaging International, une société de télédétection basée à Adélaïde. Il a parcouru le monde et dirigé des projets en Afrique, en Asie et en Australie pendant les 15 années suivantes.

La station terrienne d'Oxford Falls a été créée en 1995. L'installation est la passerelle internationale Optus pour les services vocaux, de données et vidéo des collecteurs d'informations internationaux, ainsi que la fourniture de communications internationales pour les principaux départements du gouvernement australien et les fournisseurs de télévision payante.

Le gouvernement a aboli l'Australian Space Office et l'Australian Space Council, et a mis fin au financement du Programme spatial national en 1996. Plusieurs personnes clés ont tenté de le transformer en Australian Space Agency Office, mais cela est tombé dans l'oreille d'un sourd.

Avec l'ASICC, la NSSA a appelé à la création d'une agence spatiale nationale australienne (ANSA) et, grâce aux efforts de Philip Young, a publié le livre blanc « Space Australia » au gouvernement. Rien n'a résulté de ces pétitions.

L'astronaute d'origine australienne, le Dr Andy Thomas AO, a effectué son premier vol dans l'espace à bord d'Endeavour la même année.

En 1996, le CSIRO, au nom de l'Australie, présidait l'organe coopératif international d'observation de la Terre, le Comité sur les satellites d'observation de la Terre (CEOS).

Le satellite Western Pacific Laser Tracking Network, WESTPAC, appartenant à Electro Optics Systems Pty Ltd, basée à Canberra, a été lancé en 1998.

Le Centre de recherche coopérative pour les systèmes satellitaires a été créé en 1998, pour étudier les applications des petits satellites pour l'Australie.

En 1998, Melbourne a accueilli le 49e Congrès international d'astronautique – la première fois que cet événement mondial annuel se tenait en Australie.

La 5e Conférence australienne sur le développement spatial s'est tenue à Sydney en juillet 1998 et la Melbourne Space Frontier Society a connu une brève résurgence. Un groupe dérivé a également organisé des conférences Space Frontier pendant quelques années.

Spacelift Australia Ltd (SLA) a été créée en 1999 en tant qu'entreprise conjointe australo-russe dans le but de créer 150 emplois et une industrie de 200 millions de dollars à Woomera en utilisant le START-1 LV et en convertissant un ICBM russe. Il s'est terminé en 2001.

United Launch Systems International (ULSI) a proposé un véhicule de nouvelle génération, le Unity-22, destiné au marché LEO. Le consortium ULSI était composé d'International Space Development of Bermuda, qui détenait 90 % des actions, et de Projects International Australia, qui détenait les 10 % restants. International Space Development était à son tour détenue majoritairement par Thai Satellite Telecommunications (TST). ULSI a proposé d'entreprendre des lancements d'essai à partir d'une nouvelle gamme près de Gladstone dans le nord du Queensland, en Australie, en 2002, avec des opérations commerciales commençant en 2003 à un rythme initial de six lancements par an. Rien de tout cela n'est arrivé.

Spacelift Australia a levé près d'un million de dollars de capital auprès d'un investisseur russe et a ciblé le segment inférieur du marché des lancements commerciaux, dans le but d'utiliser la fusée russe Start basée sur SS-25 comme base pour un service clé en main total fourni par STC-Complex MIHT. À partir de novembre 2000, Spacelift a planifié trois vols de démonstration depuis Woomera et a activement recherché des clients et des prépaiements, promettant des vols commerciaux complets à partir de 2001. Il n'a pas brûlé de carburant pour fusée, mais il brûlera beaucoup d'argent au cours des deux prochaines années.

En 1999, il y avait cinq consortiums de ports spatiaux différents en Australie, dont quatre étaient basés sur du matériel russe, tous visant à mettre en place des installations de lancement commerciales.

Les Loi de 1994 sur le Conseil australien de l'espace a été abrogée en 1999.

L'installation de défense conjointe de Nurrungar (JDFN), située près de Woomera, a cessé ses activités et a été déclassée. L'ADF utilise maintenant le site occasionnellement pour des tests et des travaux d'évaluation de l'armée sous l'approbation du champ d'essai de Woomera. L'ensemble de l'installation est complètement vide et dépouillé, même les lumières et les prises de courant. L'une des boules de golf géantes reste intacte sous la forme d'une impressionnante structure de radôme (non opérationnelle, tous les mécanismes supprimés).


Test NTR Hot Fire Partie I : Test Rover et NERVA

Bonjour et bienvenue à Beyond NERVA, où nous examinons aujourd'hui les essais au sol de fusées nucléaires. Il s'agit du premier de deux articles sur les tests au sol des NTR, axés sur les méthodes de test utilisées pendant le projet ROVER, y compris un aperçu des tests de puissance nulle et des tests d'assemblage effectués au laboratoire scientifique de Los Alamos, et les tests à feu chaud effectués au Station de recherche pour la défense nationale à Jackass Flats, Nevada. Le prochain article se concentrera sur les options qui ont et sont envisagées pour tester à chaud la prochaine génération de LEU NTP, ainsi qu'un bref aperçu des estimations de coûts pour les différentes options, et les plans que la NASA a proposés pour les installations qui sont nécessaires pour soutenir ce programme (le peu qui est disponible).

Nous avons déjà examiné comment tester les éléments combustibles NTR dans des situations non nucléaires et examiné deux des bancs d'essai qui ont été développés pour tester les effets thermiques, chimiques et d'érosion sur eux en tant que composants individuels, le simulateur d'environnement d'élément combustible compact (CFEET ) et le simulateur d'effets sur l'environnement des fusées thermiques nucléaires (NTREES). Ces bancs d'essai fournissent des moyens économiques de tester des éléments combustibles avant de les charger dans un réacteur nucléaire pour des tests comportementaux neutroniques et physiques des réacteurs, et peuvent détecter de nombreux problèmes en termes de problèmes chimiques et structurels sans faire face aux maux de tête liés aux tests d'un réacteur nucléaire.

Cependant, comme n'importe quel ingénieur peut vous le dire, la modélisation informatique est loin d'être suffisante pour tester un système complet. Sans tests approfondis en conditions réelles, aucun système ne peut être utilisé dans des situations réelles. Cela est particulièrement vrai pour quelque chose d'aussi complexe qu'un réacteur nucléaire – et encore moins un moteur de fusée. Les NTR ont le défi d'être les deux.

Installation de maintenance et de démontage du moteur, image via Wikimedia Commons

À l'époque du projet Rover, de nombreux tests de propulsion nucléaire ont été effectués. Les plus célèbres d'entre eux étaient les tests effectués à Jackass Flats, NV, sur le site national d'essais nucléaires (maintenant le National Criticality Experiment Research Center), lors d'essais en plein air sur des wagons spécialisés. C'était loin d'être la grande majorité des habitations humaines (il y avait un petit ranch - moins de 100 personnes - en amont de l'installation, mais sous le vent était le site d'essai pour les essais d'armes nucléaires, de sorte que les retombées d'une fusion de réacteur n'étaient pas considérées comme un problème majeur. préoccuper).

Le programme d'essais sur le site du Nevada a commencé avec l'arrivée des moteurs de fusée entièrement construits et testés préliminairement arrivant par chemin de fer de Los Alamos, NM, ainsi qu'un contingent de scientifiques, d'ingénieurs et de techniciens supplémentaires. Après avoir effectué une autre vérification du réacteur, ils ont été reliés (toujours attachés au wagon sur mesure sur lequel il a été expédié) à l'instrumentation et au propulseur à hydrogène, et ont subi une série de tests, atteignant la pleine puissance ou une panne de moteur. . Le développement des moteurs de fusée à cette époque (et même aujourd'hui, parfois) pouvait être une entreprise explosive, et l'hydrogène était un nouveau propulseur à utiliser, de sorte que les accidents étaient malheureusement courants aux premiers jours de Rover.

Après le test, les fusées ont été transportées sur un tronçon de piste éloigné pour refroidir (du point de vue des radiations) pendant un certain temps, avant d'être démontées dans une cellule chaude (une installation fortement blindée utilisant des télémanipulateurs pour protéger le ingénieurs) et examinés de près. Cet examen a permis de vérifier la quantité d'énergie produite en fonction des taux de produits de fission du combustible, d'examiner et de détailler toutes les défaillances matérielles et mécaniques survenues et de lancer les procédures de démantèlement et de stockage du réacteur.

Au fil du temps, de grands progrès ont été réalisés non seulement dans la conception de NTR, mais aussi dans la métallurgie, la dynamique des réacteurs, la dynamique des fluides, l'ingénierie des matériaux, les techniques de fabrication, la cryogénie et bien d'autres domaines. Ces moteurs de fusée étaient bien au-delà de la pointe de la technologie, même pour la NASA et l'AEC – deux des organisations les plus avancées scientifiquement au monde à l'époque. Malheureusement, cela signifiait également qu'au début, il y avait eu de nombreux échecs, pour des raisons qui n'étaient pas immédiatement apparentes ou qui n'avaient pas de solution basée sur les capacités de conception de l'époque. Cependant, ils ont persisté, et à la fin du programme Rover en 1972, une fusée thermique nucléaire a été testée avec succès à plusieurs reprises en configuration de vol, les éléments combustibles de la fusée avançaient à pas de géant au-delà des spécifications nécessaires, et avec la capacité de itérer et tester à moindre coût de nouvelles versions de ces éléments dans de nouveaux réacteurs d'essai polyvalents et réutilisables, les améliorations étaient loin de stagner - elles s'accéléraient.

Cependant, comme nous le savons, le programme Rover a été annulé après que la NASA n'allait plus sur Mars, et le programme de développement a été en grande partie abandonné. Les scientifiques et les ingénieurs du Westinghouse Astronuclear Laboratory (l'entrepreneur commercial pour le moteur de vol NERVA), du Oak Ridge National Laboratory (où a été réalisée une grande partie de la fabrication des éléments combustibles) et du Los Alamos Scientific Laboratory (l'installation AEC principalement responsable de la conception du réacteur et tests) a passé environ un an à terminer les documents et les rapports finaux, et le programme a été en grande partie fermé. Le rapport final sur les programmes d'essais à feu chaud pour la NASA, cependant, ne sera publié qu'en 1991.

Dans les coulisses : Essais de pré-incendie à chaud des réacteurs ROVER

Zone d'essai de Pajarito, image avec l'aimable autorisation de LANL

Ces tests de feu à chaud étaient en fait le résultat final de nombreux autres tests effectués au Nouveau-Mexique, au laboratoire scientifique de Los Alamos, en particulier dans la zone de test de Pajarito. Ici, il y avait de nombreux bancs d'essai et réacteurs expérimentaux utilisés pour mesurer des éléments tels que la neutronique, le comportement du réacteur, le comportement des matériaux, les limites critiques de l'assemblage, etc.

Nid d'abeille, avec une maquette KIWI chargée. Image via LANL

Le premier d'entre eux était connu sous le nom de nid d'abeille, en raison de son utilisation de grilles carrées en aluminium (qui est pour la plupart transparente aux neutrons), maintenues dans de grands cadres en aluminium. Des prismes de combustible nucléaire, des réflecteurs, des absorbeurs de neutrons, un modérateur et d'autres matériaux ont été assemblés avec soin (pour éviter la criticité accidentelle, ce que le site d'essai de Pajarito avait vu au début de son existence dans les expériences Demon Core et l'accident ultérieur) pour s'assurer que le le comportement modélisé des configurations de cœur possibles correspondait suffisamment au comportement prévu pour justifier les efforts et les dépenses nécessaires pour passer aux étapes suivantes de raffinage et de test des éléments combustibles dans un cœur de réacteur en fonctionnement. Surtout pour les tests de criticité à froid et à chaud, ce banc d'essai était inestimable, mais avec l'annulation de Project Rover, il n'était plus nécessaire de continuer à utiliser le banc d'essai, et il a donc été largement mis en veilleuse.

PARKA, image avec l'aimable autorisation de LANL

Le second était un réacteur KIWI-A modifié, qui utilisait un îlot à basse pression modéré à l'eau lourde au centre du réacteur pour réduire la quantité de combustible fissile nécessaire au réacteur pour atteindre la criticité.Ce réacteur, connu sous le nom de Zepo-A (pour zéro puissance, ou criticité froide), était le premier d'une expérience qui a été réalisée avec chaque conception successive du programme Rover, soutenant le Westinghouse Astronuclear Laboratory et les opérations de conception et de test du NNTS. Au fur et à mesure que chaque réacteur passait ses tests neutroniques à puissance nulle, la conception a été affinée et les problèmes corrigés. Ce type d'essais a été achevé fin 2017 et début 2018 au NCERC à l'appui de la série d'essais KRUSTY, qui a culminé en mars avec le premier essai à pleine puissance d'un nouveau réacteur nucléaire aux États-Unis depuis plus de 40 ans, et restent une phase d'essai cruciale pour tous les développements de réacteurs nucléaires et d'éléments combustibles. Un premier test d'assemblage critique de type KIWI a fini par être réutilisé dans un banc d'essai appelé PARKA, qui a été utilisé pour tester le réacteur surgénérateur à métal liquide (LMFBR, maintenant connu sous le nom de « Integral Fast Reactor ou IFR », en cours de développement à Idaho National Labs) des aiguilles à combustible dans un environnement neutronique épithermique de faible puissance pour les tests de comportement transitoire de démarrage et d'arrêt, tout en étant une source de rayonnement générale bien comprise.

Fournaise au gaz chaud au LASL, image avec l'aimable autorisation de LANL

Enfin, il y avait une paire de fours à gaz chaud (un au LASL, un au WANL) pour le chauffage électrique des éléments combustibles dans un environnement H2 qui utilisait un chauffage résistif pour amener l'élément combustible à température. Cela est devenu de plus en plus important au fur et à mesure que le projet se poursuivait, car le développement de la gaine sur l'élément combustible était une entreprise majeure. Au fur et à mesure que les éléments combustibles devenaient plus complexes ou que les matériaux utilisés dans l'élément combustible changeaient, les propriétés thermiques (et les propriétés chimiques à la température) de ces nouvelles conceptions devaient être testées avant les tests d'irradiation pour s'assurer que les changements n'avaient pas été involontaires. conséquences. Ce n'était pas seulement pour le revêtement, la composition de la matrice de graphite a également changé au fil du temps, passant de l'utilisation de farine de graphite avec une résine thermodurcie à un mélange de farine et de flocons, et les particules de combustible elles-mêmes sont passées de l'oxyde d'uranium au carbure d'uranium, et les particules eux-mêmes étaient également enduits à la fin du programme. La fournaise au gaz a été inestimable dans ces tests et peut être considérée comme le grand-père des bancs d'essai NTREES et CFEET d'aujourd'hui.

Maquette KIWI-A, Zepo-A et Honeycomb dans Kiva 3. Image reproduite avec l'aimable autorisation de LANL

Un excellent exemple de l'importance de ces tests, et du contrôle minutieux que chacun des réacteurs Rover a reçu, peut être vu avec le réacteur KIWI-B4. Les maquettes initiales, à la fois sur Honeycomb et dans des maquettes Zepo plus rigoureuses du réacteur, ont montré que la conception avait une bonne réactivité et une bonne capacité de contrôle, mais alors que l'équipe de Los Alamos assemblait le réacteur d'essai réel, il a été découvert qu'il y avait tellement de réactivité le noyau n'a pas pu être assemblé ! Un matériau inerte a été utilisé à la place de certains des éléments combustibles, et des poisons neutroniques ont été ajoutés au cœur, pour contrer cet excès de réactivité. Des tests minutieux ont montré que les particules de combustible de carbure d'uranium en suspension dans la matrice de graphite subissaient une hydrolyse, modérant les neutrons et augmentant ainsi la réactivité du cœur. Les versions ultérieures du carburant utilisaient des particules plus grosses d'UC2, qui étaient ensuite enrobées individuellement avant d'être distribuées à travers la matrice de graphite, pour empêcher cette absorption d'hydrogène. Des tests et un assemblage minutieux de ces réacteurs expérimentaux par l'équipe de Los Alamos ont assuré la sécurité des tests et de l'exploitation de ces réacteurs une fois qu'ils ont atteint le site d'essai du Nevada, et ont soutenu les travaux de conception de Westinghouse, les efforts de fabrication d'Oak Ridge National Lab et l'ultime pleine puissance tests effectués à Jackass Flats.

NTR Core Design Process, image avec l'aimable autorisation de l'AIEA

Une fois cette série d'essais de criticité du brut sur maquette, d'essais à puissance nulle, d'assemblage et de vérification terminée, les réacteurs ont été chargés sur un wagon spécial qui servirait également de banc d'essai avec la buse relevée, et - accompagnés d'une équipe de des scientifiques et des ingénieurs du Nouveau-Mexique et du Nevada - transportés par train jusqu'au site d'essai de Jackass Flats, adjacent à la base aérienne de Nellis et au site d'essai du Nevada, où des essais d'armes nucléaires ont été effectués. Une fois sur place, une dernière série de contrôles a été effectuée sur les réacteurs pour s'assurer que rien de fâcheux ne s'était produit pendant le transport, et les réacteurs ont été raccordés à l'instrumentation de test et à l'alimentation en liquide de refroidissement d'hydrogène pour les tests.

Problèmes à Jackass Flats : la fission est la partie facile !

Les défis de test auxquels l'équipe du Nevada a été confrontée se sont étendus bien au-delà des essais nucléaires qui étaient l'objectif principal de cette série de tests. L'hydrogène est un matériau notoirement difficile à manipuler en raison de sa taille et de sa masse incroyablement petites. Il s'infiltre à travers le métal solide, les vannes doivent être fabriquées avec des dégagements incroyablement serrés, et lorsqu'il est exposé à l'atmosphère, il s'agit d'un risque d'explosion majeur. Pour ajouter aux problèmes, c'étaient les premiers jours de l'expérimentation cryogénique de H2. Même aujourd'hui, la manipulation de H2 cryogénique est loin d'être une procédure de routine, et les problèmes souvent inévitables liés à l'utilisation de l'hydrogène comme propulseur peuvent être observés dans de nombreux domaines - le plus spectaculaire peut-être est celui du lancement d'une fusée Delta-IV Heavy, qui est une fusée hydrolox (H2/O2). Lors de l'allumage des moteurs de fusée, il semble que la fusée ne soit pas lancée depuis la plate-forme, mais explose dessus, en raison du dégazage de H2 non seulement des soupapes de surpression dans les réservoirs, mais aussi de l'infiltration des soupapes, des soudures et à travers le corps des chars eux-mêmes - la fusée qui s'enflamme est en fait une procédure d'exploitation standard !

Test de pression du réservoir Plu Brook Cryo, image avec l'aimable autorisation de la NASA

À la fin des années 1950, ces problèmes venaient juste d'être découverts – à la dure. La station de recherche Plum Brook de la NASA dans l'Ohio était une installation clé pour explorer les techniques de gestion de l'hydrogène gazeux et liquide en toute sécurité. Non seulement ils ont expérimenté des équipements cryogéniques, des méthodes de densification de l'hydrogène et le transport et la manipulation de H2 liquide, mais ils ont également effectué des essais de matériaux et mécaniques sur des vannes, des capteurs, des réservoirs et d'autres composants, ainsi que des techniques de soudage et des capacités de test et de vérification développées pour améliorer la capacité de gérer ce propulseur, liquide de refroidissement et modérateur nucléaire extrêmement difficile, potentiellement explosif, mais aussi incroyablement précieux (en raison de sa faible masse atomique – exactement la même propriété qui a causé les problèmes en premier lieu !). Les autres options disponibles pour le propulseur NTR (essentiellement tout ce qui est un gaz aux températures de fonctionnement du réacteur et ne laissera pas de résidus excessifs) n'étaient pas aussi bonnes comme option en raison de la vitesse d'échappement plus faible - et donc de l'impulsion spécifique plus faible.

Plum Brook est une autre installation souvent négligée qui a été essentielle au succès non seulement de NERVA, mais de tous les systèmes actuels alimentés à l'hydrogène liquide. Je prévois de faire un autre article (celui-ci est déjà TRÈS long) en examinant l'histoire des différentes installations impliquées dans le programme Rover et NERVA.

En effet, tous les tests KIWI-A et le KIWI-B1A ont utilisé de l'hydrogène gazeux au lieu de l'hydrogène liquide, car l'équipement qui devait être utilisé (et serait utilisé dans les tests ultérieurs) a été retardé en raison de problèmes de construction, de soudure, de vanne les pannes et les incendies lors de la vérification des nouveaux systèmes. Ces problèmes de démarrage avec le propulseur ont causé des problèmes majeurs à Jackass Flats et ont causé bon nombre des accidents les plus éclatants qui se sont produits pendant le programme d'essais. Les incendies d'hydrogène étaient monnaie courante, et un accident lors de l'installation des conduites de propulsion dans un réacteur a fini par causer des dommages importants à la voiture d'essai, au hangar dans lequel elle était contenue et à l'instrumentation exposée, mais seulement des dommages apparents mineurs au réacteur lui-même, retardant le test du réacteur pendant un mois complet pendant que les réparations étaient effectuées (ce test a également vu deux incendies d'hydrogène pendant les tests, un problème commun qui s'est amélioré au fur et à mesure que le programme se poursuivait et que les méthodes de traitement du H2 s'amélioraient).

Alors que le liquide de refroidissement H2 était à l'origine de nombreux problèmes à Jackass Flats, d'autres problèmes sont survenus en raison du fait que ces NTR utilisaient une technologie bien au-delà de l'avant-garde à l'époque. Les nouvelles méthodes de construction ne commencent pas à décrire le niveau d'innovation technologique dans pratiquement tous les domaines requis par ces moteurs. Des matériaux qui étaient des possibilités théoriques du génie chimique quelques années auparavant (parfois même des mois !) De nouveaux alliages métalliques ont été développés, de nouvelles formes de graphite ont été utilisées, des méthodes expérimentales de revêtement des éléments combustibles pour empêcher l'hydrogène d'attaquer le carbone de la matrice des éléments combustibles (comme dans le réacteur KIWI-A, qui utilisait des plaques de graphite non revêtues pour le combustible, c'était une préoccupation majeure) étaient constamment ajustés - en effet, l'expérimentation des matériaux de revêtement se poursuit à ce jour, mais avec des capacités avancées de micro-imagerie et un demi-siècle d'expérience en science des matériaux et en fabrication depuis lors, les résultats sont maintenant à des années-lumière d'avance de ce qui était disponible pour les scientifiques et les ingénieurs dans les années 50 et 60. Des principes hydrodynamiques qui n'étaient que mal compris, des modèles de contraintes et de vibrations qui n'étaient pas prévisibles et des interactions de matériaux à des températures plus élevées que celles rencontrées dans la grande majorité des situations ont causé de nombreux problèmes aux réacteurs Rover.

Un problème courant dans bon nombre de ces réacteurs était la fissuration transversale de l'élément combustible, où un élément combustible se fendrait sur l'axe étroit, perturbant l'écoulement du liquide de refroidissement à travers les canaux intérieurs, exposant la matrice de graphite au H2 chaud (qu'il rongerait alors férocement, exposer à la fois les produits de fission et le combustible non brûlé au flux H2 et le transporter ailleurs - principalement hors de la buse, mais il s'est avéré que l'uranium se rassemblerait aux points les plus chauds du réacteur - même contre le flux H2 - ce qui pourrait avoir des implications terrifiantes pour points chauds accidentels de puissance de fission. Parfois, de grandes sections des éléments combustibles étaient éjectées de la buse, pulvérisant du combustible nucléaire partiellement brûlé dans l'air - parfois sous forme de gros morceaux, mais presque toujours une partie du combustible était en aérosol. certainement inacceptable, mais à l'époque, le gouvernement américain testait des armes nucléaires littéralement à côté de cette installation, donc cela n'était pas considéré comme une cause de con cerne.

Si cela ressemble à des défis majeurs et des accidents importants qui se produisaient à Jackass Flats, eh bien au début du programme, c'était certainement correct. Ces premiers problèmes ont également été cités dans la décision du Congrès de ne pas continuer à financer le programme (bien que, sans mission habitée sur Mars, il n'y avait vraiment aucune raison d'utiliser les systèmes coûteux et difficiles à construire, de toute façon). La chose à retenir, cependant, c'est qu'il s'agissait de premiers tests, avec des matériaux qui avaient été un concept dans l'imagination d'un ingénieur en matériaux quelques années (ou parfois des mois) à l'avance, des contraintes mécaniques et thermiques que personne n'avait jamais traitées, et une technologie qui semblait être le seul moyen d'envoyer des humains sur une autre planète. La lune était assez dure, Mars était à des millions de kilomètres plus loin.

Test de feu à chaud : à quoi ressemblait un test ?

Les essais nucléaires sont bien plus complexes que de simplement raccorder le réacteur d'essai aux lignes de refroidissement et d'instrumentation, de tourner les tambours de contrôle et les vannes d'hydrogène et de regarder les cadrans. Non seulement il y a de nombreux défis associés au simple fait de décider quelle instrumentation est possible et où elle serait placée, mais l'installation de ces instruments et la collecte de données à partir d'eux étaient souvent également un défi au début du programme.

Diagramme de flux NRX A2, image via la NASA (Finseth, 1991)

Pour avoir une idée de ce à quoi ressemble un test de feu à chaud réussi, examinons la série de tests d'un seul réacteur plus tard dans le programme : le test de démonstration de la technologie NRX A2. Il s'agissait de la première conception de réacteur NERVA à être testée à pleine puissance par Westinghouse ANL. LASL. Le cœur lui-même était constitué de 1626 éléments combustibles prismatiques hexagonaux. Ce réacteur était très différent du réacteur XE-PRIME qui serait testé cinq ans plus tard. Une des différences était le chemin d'écoulement de l'hydrogène : après avoir traversé la tuyère, il entrait dans une chambre à côté de la tuyère et au-dessus du réflecteur axial (le moteur a été testé buse haute, en configuration de vol, ce serait en dessous du réflecteur) , puis passer à travers le réflecteur pour le refroidir, avant d'être à nouveau dévié par le bouclier, à travers la plaque support, et dans les canaux ergols du noyau avant de sortir de la tuyère

Deux tests de puissance ont été effectués, les 24 septembre et 15 octobre 1964.

Avec deux objectifs majeurs et 22 objectifs moindres, le test du 24 septembre a beaucoup emballé les six minutes de fonctionnement à mi-puissance à pleine puissance (le réacteur n'a été à pleine puissance que pendant 40 secondes). Les principaux objectifs étaient les suivants : 1. Fournir des informations importantes pour vérifier l'analyse de conception en régime permanent pour le fonctionnement avec moteur, et 2. Fournir des informations importantes pour aider à évaluer l'aptitude du réacteur à fonctionner à des niveaux de puissance et de température en régime permanent qui étaient requis s'il était être un composant dans un système de moteur expérimental. En plus de ces objectifs d'essais majeurs, mais pas très spécifiques, un certain nombre d'objectifs plus spécifiques ont été définis, notamment des objectifs prioritaires d'évaluation des conditions environnementales sur l'intégrité structurelle du réacteur et de ses composants, l'évaluation des performances de l'assemblage du cœur, analyse des performances de support et d'étanchéité, analyse du système de support axial central, évaluation de l'ensemble réflecteur externe, évaluation du système de tambour de contrôle et évaluation de la réactivité globale. Les objectifs les moins urgents étaient également plus étendus et comprenaient les performances de l'assemblage des buses, les performances des récipients sous pression, l'évaluation de la conception du bouclier, l'analyse des instruments, l'analyse du système d'alimentation et de contrôle du propergol, l'analyse du système de contrôle de puissance nucléonique et avancé, l'environnement radiologique et l'évaluation des risques de rayonnement, l'environnement thermique autour du réacteur, évaluation du système de contrôle de la température dans le cœur et la chambre de la tuyère, analyse de la réactivité et des transitoires thermiques, et évaluation de la voiture d'essai.

Image via la NASA (Finseth, 1991)

Plusieurs prises de puissance ont été effectuées au cours du test, à 51 %, 84 % et 93 à 98 %, toutes étant légèrement supérieures à la puissance à laquelle les prises étaient prévues. Cela était dû à la compressibilité de l'hydrogène gazeux (entraînant plus de modération que prévu) et à des problèmes avec les débitmètres venturi utilisés pour mesurer les débits de H2, ainsi qu'à des problèmes avec les thermocouples internes utilisés pour l'instrumentation (un problème courant dans le programme ), et fournit un bon exemple des types de défis imprévus que ces tests sont censés évaluer. La durée du test était limitée par la disponibilité d'hydrogène pour entraîner la turbopompe, mais malgré le fait qu'il s'agisse d'un test court, c'était un test doux : tous les objectifs du test ont été atteints, et une impulsion spécifique idéale dans un vide équivalent à 811 s a été déterminé (faible pour un NTR, mais toujours plus de deux fois meilleur que n'importe quel moteur chimique à l'époque).

Image via la NASA (Finseth, 1991)

L'essai du 15 octobre était un essai à faible puissance et à faible débit destiné à évaluer le fonctionnement du réacteur lorsqu'il ne fonctionne pas dans un état de fonctionnement stable à haute puissance, en se concentrant sur le comportement du réacteur au démarrage et au refroidissement. La partie pertinente du test a duré environ 20 minutes et fonctionnait à une puissance de 21 à 53 MW et à un débit de 2,27 à 5,9 kg/s de LH2. Comme pour tout système, fonctionner dans l'état dans lequel le réacteur a été conçu pour fonctionner était plus facile à évaluer et à modéliser qu'au démarrage et à l'arrêt, deux conditions que chaque moteur doit traverser mais qui sont bien en dehors des conditions « idéales » pour le système. , et fonctionner avec de l'hydrogène liquide n'a fait qu'aggraver les questions. Seuls quatre objectifs spécifiques ont été fixés pour cet essai : démonstration de stabilité à faible débit de LH2 (en utilisant la pression de Dewar comme jauge), démonstration d'adéquation à puissance constante mais avec variation de débit de H2, démonstration de stabilité avec des ballons de contrôle fixes mais débit de H2 variable à effectuer un changement de puissance du réacteur, et obtenir une valeur de retour de réactivité associée à LH2 à l'entrée du cœur. Bon nombre de ces tests reposent sur le fait que le LH2 n'est pas seulement un liquide de refroidissement, mais une source majeure de modération des neutrons, de sorte que le débit (et les changements associés de température et de pression) du propulseur ont des impacts s'étendant au-delà de la simple température de l'échappement. Ce test a montré qu'il n'y avait pas d'instabilités de puissance ou de débit dans les conditions de faible puissance et de faible débit qui seraient observées même pendant le démarrage du réacteur (lorsque le H2 entrant dans le cœur était le plus dense, et donc le plus modéré). Le comportement prévu et les résultats des tests ont montré une bonne corrélation, d'autant plus que l'instrumentation utilisée (comme le réacteur lui-même) n'était vraiment pas conçue pour ces conditions et que la majorité des transducteurs utilisés fonctionnaient dans la plage extrêmement basse de leur échelle.

Après l'essai d'octobre, le réacteur a été acheminé sur une piste de dérivation pour se refroidir radiologiquement (permettre aux produits de fission à courte durée de vie de se désintégrer, réduisant ainsi le flux de rayonnement gamma sortant du réacteur), puis a été démonté dans la cellule chaude du NRDC. Ces examens post mortem ont été un outil extrêmement important pour évaluer un certain nombre de variables, notamment la quantité d'énergie produite pendant le test (basée sur la distribution des produits de fission, qui changerait en fonction d'un certain nombre de facteurs, mais principalement en raison de la puissance produite et le spectre de neutrons dans lequel le réacteur fonctionnait lorsqu'ils ont été produits), des problèmes de réactivité chimique, des problèmes mécaniques dans le réacteur lui-même et plusieurs autres facteurs. Malheureusement, il est difficile de démonter même un système simple sans casser accidentellement quelque chose, et c'était loin d'être un système simple. Un défi est devenu « le réacteur s'est-il cassé lui-même ou l'avons-nous fait ? » Cela est particulièrement vrai pour les éléments combustibles, qui se cassaient souvent en raison d'un support latéral inadéquat sur toute leur longueur, mais qui se cassaient également souvent en raison de la manière dont ils étaient reliés à l'extrémité froide du cœur (ce qui impliquait généralement des températures élevées, raisonnablement stables sur le plan neutronique adhésifs).

Ce problème a été illustré dans l'essai A2, lorsqu'il y avait plusieurs éléments combustibles cassés qui n'avaient pas d'érosion à la rupture. C'est un indicateur fort qu'ils se sont cassés pendant le démontage, pas pendant le test lui-même : l'H2 chaud a tendance à éroder fortement le carbone dans la matrice de graphite - et les pastilles de combustible en carbure - et est un très bon indicateur si les crayons de combustible se sont cassés pendant un test.Les éléments combustibles cassés étaient un problème persistant dans l'ensemble des programmes Rover et NERVA (conduisant parfois à l'éjection de la partie chaude des éléments combustibles), et le fait que tous les éléments alimentés semblent ne pas s'être cassés a été une grande victoire pour le fabricants de carburant.

Cela ne signifie pas que les éléments combustibles n'étaient pas sans problèmes. Chaque génération de réacteurs utilisait différents éléments combustibles, parfois plusieurs types différents dans un même cœur, et dans ce cas, les canaux de propergol, les extrémités des éléments combustibles et les pointes de l'extérieur des éléments étaient revêtus de NbC, mais toute la longueur du en dehors des éléments ne l'était pas, pour tenter d'économiser de la masse et ne pas trop compliquer l'environnement neutronique du réacteur lui-même. Malheureusement, cela signifie que la petite quantité de gaz qui s'est glissée entre les bandes de remplissage et les tuiles pyro placées pour éviter ce problème pourrait ronger le milieu de l'extérieur de l'élément combustible (vers l'extrémité chaude), ce qu'on appelle le milieu corrosion de la bande. Cela se produisait principalement à la périphérie du cœur et présentait un motif caractéristique de stries sur les éléments combustibles. Une modification a été apportée pour s'assurer que tous les éléments combustibles périphériques étaient entièrement revêtus de NbC, car les zones qui avaient ce revêtement n'étaient pas affectées. Une fois de plus, le noyau est devenu plus complexe, et plus difficile à modéliser et à construire, mais un problème particulier a été résolu en raison des données empiriques recueillies lors du test. Un certain nombre d'éléments combustibles non combustibles et instrumentés dans le cœur se sont rompus de telle sorte qu'il n'a pas été possible d'exclure de manière concluante une manipulation lors du démontage, de sorte que l'intégrité des éléments combustibles était toujours mise en doute.

Les problèmes associés à ces éléments combustibles composites en graphite n'ont jamais vraiment disparu pendant ROVER ou NERVA, avec un certain nombre d'éléments combustibles cassés (qui étaient connus pour avoir été cassés pendant l'essai) ont été trouvés dans le réacteur PEWEE, le dernier test de ce genre de matrice d'éléments combustibles (NF-1 utilisait soit des éléments combustibles CERMET - alors appelés composites - soit des éléments combustibles en carbure, aucun élément combustible GC n'a été utilisé). Le réacteur A3 de suivi présentait une forme d'érosion du combustible connue sous le nom d'érosion par trou d'épingle, que le revêtement NbC n'a pas pu traiter, forçant l'équipe de la NERVA à d'autres alternatives. C'était un autre domaine où l'utilisation à long terme des éléments combustibles GC s'est avérée non durable pour une utilisation de longue durée au-delà des paramètres de mission spécifiques, et une grande partie de la raison pour laquelle l'ensemble du moteur NERVA a été mis au rebut pendant la mise en scène, plutôt que juste le propulseur réservoirs comme dans les conceptions modernes. Les nouveaux matériaux de revêtement et les nouvelles techniques d'application sont très prometteurs, et la GC peut être utilisée dans un réacteur LEU soigneusement conçu, mais c'est quelque chose qui n'est pas vraiment exploré en profondeur dans la plupart des cas (les concepts LANTR et NTER utilisent toujours des éléments combustibles GC, le NTER les spécifiant exclusivement en raison de problèmes de gonflement du carburant, mais cela semble être la seule fois où cela est réellement nécessaire).

Pire que le pire des cas : KIWI-TNT

Une question qui est souvent posée par ceux qui ne connaissent pas les NTR est « que se passe-t-il s'il explose ? » La réponse courte est qu'ils ne peuvent pas, pour un certain nombre de raisons. Il n'y a pas beaucoup de réactivité dans un réacteur nucléaire, et seulement si vite qu'il peut être utilisé. La quantité de réactivité est soigneusement gérée par le chargement de combustible dans les éléments combustibles et des poisons neutroniques placés stratégiquement. Aussi, les systèmes de contrôle utilisés pour les réacteurs nucléaires (dans ce cas, les tambours de contrôle placés autour du réacteur dans le réflecteur radial) ne peuvent être tournés que si vite. Je vous recommande de consulter le rapport sur la neutronique de sécurité dans les réacteurs Rover aimé à la fin de cet article si c'est quelque chose que vous souhaitez examiner de plus près.

Cependant, lors des essais du Rover au NRDS, l'un d'eux A explosé, après des modifications importantes qui ne seraient jamais apportées à un réacteur de vol. Il s'agit du test KIWI-TNT (TNT est l'abréviation de Transient Nuclear Test). Le comportement d'un réacteur nucléaire à l'approche d'une réaction d'emballement, ou d'une défaillance quelconque, est quelque chose qui est étudié dans tous les types de réacteurs, généralement dans des types de réacteurs spécialement construits. Cela est nécessaire, car la conception de la production de chaque réacteur est hautement optimisée pour empêcher ce type de défaillance de se produire. C'était également le cas des réacteurs Rover. Cependant, savoir ce qu'une réaction d'excursion rapide ferait au réacteur était une question importante au début du programme, et un test a donc été conçu pour découvrir exactement à quel point les choses pourraient être mauvaises et caractériser ce qui s'est passé dans un cas pire que le pire. scénario. Il a fourni des données précieuses sur la possibilité d'un avortement au cours du lancement qui a entraîné la chute du réacteur dans l'océan (l'eau étant un excellent modérateur, ce qui rend plus probable qu'une criticité accidentelle se produise), si le lanceur explosait sur la plate-forme, et aussi a testé l'option de détruire le réacteur dans l'espace après qu'il ait été épuisé de son ergol (chose qui n'était finalement pas prévue dans les profils de mission finaux).

Réacteur KIWI B4A, sur lequel KIWI-TNT était basé, image via LANL

Qu'était le réacteur KIWI-TNT ? Le dernier de la série de réacteurs KIWI, sa conception était très similaire au réacteur KIWI-B4A (le prédécesseur de la série de réacteurs NERVA-1), qui était à l'origine conçu comme un réacteur de 1000 MW avec une température de chambre de sortie d'échappement de 2000 C. Cependant, un certain nombre de choses ont empêché une excursion rapide de se produire dans ce réacteur : d'une part, les cales utilisées pour les éléments combustibles étaient en tantale, un poison neutronique, pour éviter une réactivité excessive. étaient suffisamment lents pour qu'une réaction d'emballement ne soit finalement pas possible, cette expérience serait réalisée sans liquide de refroidissement, qui agissait également comme modérateur, tellement plus de réactivité était nécessaire que la conception B4A ne le permettait. Une fois les cales retirées, l'excès de réactivité s'est ajouté au point que le réacteur était inférieur à 1 sous-critique (avec les tambours de contrôle complètement insérés) et 6 $ de réactivité excédentaire disponible par rapport à la vitesse critique, et le taux de rotation des tambours a été multiplié par 89 (!!), de 45 deg/s à 4000 deg/s, le décor était planté pour ce démontage rapide programmé le 12 janvier 1965. Ce degré de modification montre combien il serait difficile d'avoir un accident de criticité accidentel dans un Conception NTR.

Schéma du banc d'essai KIWI-TNT, image via LANL

Le test avait six objectifs spécifiques : 1. Mesurer l'historique des réactions et les fissions totales produites sous une réactivité connue et les comparer aux prédictions théoriques afin d'améliorer les calculs pour les prédictions d'accidents, 2. déterminer la distribution de l'énergie de fission entre le chauffage du cœur et la vaporisation, et la cinétique énergétiques, 3. détermination de la nature de la rupture du cœur, y compris le degré de vaporisation et la taille des particules produites, pour tester un éventuel système de destruction nucléaire, 4. mesurer le rejet dans l'atmosphère de débris de fission dans des conditions connues pour mieux calculer d'autres possibles scénarios d'accidents, 5. mesurer l'environnement radiatif pendant et après le transitoire de puissance, et 6. évaluer les dommages au site de lancement et les techniques de nettoyage pour un accident similaire, s'il devait se produire (bien que le degré de modification requis pour le cœur du réacteur montre que il s'agit d'un événement hautement improbable, et si un accident explosif se produisait sur le pad, il aurait été de nature chimique h le réacteur ne devenant jamais critique, les produits de fission ne seraient donc pas présents en quantités significatives).

11 mesures ont été prises au cours du test : historique de la réactivité, historique du taux de fission, fissions totales, températures du cœur, mouvement du cœur et du réflecteur, pressions externes, effets du rayonnement, formation et composition des nuages, études sur la fragmentation et les particules, et répartition géographique des débris . Un miroir incliné au-dessus du cœur du réacteur (où se trouverait la tuyère s'il y avait du propulseur alimenté dans le réacteur) a été utilisé en conjonction avec des caméras à grande vitesse au bunker Nord pour prendre des images de l'extrémité chaude du cœur pendant le test, et un certain nombre de thermocouples placés dans le noyau.

Test KIWI-TNT, image AEC via SomethingAwful

Comme on peut s'y attendre, il s'agissait d'un test très court, avec un total de 3,1 × 10^20 fissions obtenues après seulement 12,4 millisecondes. Il s'agissait d'une explosion très inhabituelle, incompatible avec une explosion chimique ou nucléaire. La température du cœur dépassait 17 500 °C à certains endroits, vaporisant environ 5 à 15 % du cœur (la majorité du reste brûlait dans l'air ou était aérosolisée dans le nuage d'effluents), et produisait 150 MW/s d'énergie cinétique d'environ la même quantité d'énergie cinétique qu'environ 100 livres d'explosifs puissants (bien qu'en raison de la nature de cette explosion, causée par une surchauffe rapide plutôt que par une combustion chimique, obtenir le même effet des explosifs chimiques nécessiterait beaucoup plus d'HE). Il a été observé que le matériau dans le cœur se déplaçait à 7 300 m/s avant d'entrer en contact avec le récipient sous pression et projetait le plus gros morceau intact du récipient sous pression (un morceau de 0,9 m² et 67 kg du récipient sous pression) 229 m du lieu de test. Il y avait quelques problèmes avec l'instrumentation dans ce test, notamment avec les transducteurs de pression utilisés pour mesurer l'onde de choc. Tous ces instruments sauf deux (placés à 100 pieds) n'ont pas enregistré l'onde de pression, mais plutôt un signal électromagnétique au moment du pic de puissance (ces deux ont enregistré une surpression de 3 à 5 psi).

KIWI-TNT reste, image via LANL

Rejet radioactif pendant les tests du Rover Prequel : les radiations sont compliquées

Les radiations sont une source majeure de peur pour de nombreuses personnes et sont à l'origine d'une énorme confusion dans la population générale. Pour être tout à fait honnête, lorsque j'examine les détails de la physique de la santé (l'étude des effets des rayonnements sur les tissus vivants), je passe beaucoup de temps à relire la plupart des documents car il est facile de se tromper avec les termes qui sont utilisés. Pour aggraver les choses, en particulier pour la documentation Rover, tout est dans les anciennes mesures de radioactivité dépassées. Désolé, utilisateurs de SI, toute la documentation de l'AEC et de la NASA utilise Ci, rad et rem, et tout convertir serait un casse-tête majeur. Si quelqu'un souhaite faire du bénévolat pour m'aider à tout convertir en unités de bon sens, contactez-moi, j'aimerais beaucoup d'aide ! Cependant, l'environnement naturel est radioactif et le Soleil émet une quantité prodigieuse de rayonnement, dont une partie seulement est absorbée par l'atmosphère. En effet, il existe des preuves que le corps humain A BESOIN d'une certaine quantité de rayonnement pour maintenir la santé, sur la base d'un certain nombre d'études réalisées en Union soviétique en utilisant des grottes et des régimes totalement non radioactifs et spécialement préparés.

La quantité exacte qui est saine et non est un sujet de débat intense, et peu d'études, cependant, et trois principales théories concurrentes ont surgi. Le premier, le modèle linéaire sans seuil, est la loi du pays, et stipule qu'il y a une quantité maximale de rayonnement qui est admissible à une personne au cours d'une année, peu importe si c'est dans un incident (qui généralement est une mauvaise chose), ou régulièrement espacées tout au long de l'année. Chaque rad (ou gray, nous y reviendrons ci-dessous) de rayonnement augmente les chances d'une personne d'avoir un cancer d'un certain pourcentage de manière linéaire, et donc efficacement le modèle LNT (comme on l'appelle) détermine une augmentation minimale acceptable de la risque qu'une personne contracte un cancer dans un laps de temps donné (généralement des trimestres et des années). Cependant, cela ne prend pas en compte les mécanismes de réparation naturels du corps humain, qui peuvent remplacer les cellules endommagées (peu importe comment elles sont endommagées), ce qui conduit la plupart des physiciens de la santé à voir des problèmes avec le modèle, même s'ils travaillent dans le modèle. pour leurs métiers.

Le deuxième modèle est connu sous le nom de modèle à seuil linéaire, qui indique qu'un rayonnement de faible intensité (sous le seuil des mécanismes de réparation du corps) n'a pas de sens pour être pris en compte dans la probabilité de développer un cancer. Après tout, si vous remplacez votre plan de travail en Formica dans votre cuisine par un plan en granit, la radioactivité naturelle du granit va vous exposer à plus de radiations, mais il n'y a aucune différence dans la probabilité que vous ayez un cancer du monnaie. Ramsar, en Iran (qui a le rayonnement de fond naturel le plus élevé de tous les endroits habités sur Terre) n'a pas de taux de cancer plus élevés, en fait ils sont légèrement inférieurs, alors pourquoi ne pas définir le seuil auquel les mécanismes de réparation normaux du corps humain peuvent contrôler aucun dommage, et ENSUITE commencer à utiliser le modèle linéaire d'augmentation de la probabilité de cancer ?

Le troisième modèle, hormesis, va encore plus loin. Dans un certain nombre de cas, tels que Ramsar, et un immeuble d'appartements à Taïwan qui a été construit avec de l'acier contaminé par du cobalt radioactif (causant l'exposition des résidents à une dose chronique ou au fil du temps BEAUCOUP supérieure à la moyenne de rayonnement gamma), les gens ont non seulement été exposés à des doses de rayonnement plus élevées que la normale, mais ont également présenté des taux de cancer inférieurs lorsque d'autres facteurs cancérogènes connus étaient pris en compte. C'est la preuve qu'une exposition accrue aux radiations peut en fait stimuler le système immunitaire et rendre une personne plus saine, et réduire le risque de cancer ! Un certain nombre d'endroits dans le monde utilisent en fait des sources radioactives comme lieux de guérison, notamment les sources de radium au Japon, en Europe et aux États-Unis, et les sables noirs de monazite au Brésil. Il y a eu très peu de recherches dans ce domaine, puisque le modèle standard d'exposition aux rayonnements dit que cela donne effectivement à quelqu'un un risque beaucoup plus élevé de cancer.

Je ne suis pas physicien de la santé. C'est devenu une sorte de passe-temps pour moi l'année dernière, mais c'est un domaine bien plus complexe que l'ingénierie astronucléaire. En tant que tel, je ne vais pas peser dans le débat sur laquelle de ces trois théories est juste, et j'apprécierais que la section des commentaires sur le blog ne devienne pas une guerre de flammes en physique de la santé. En discutant avec des amis à moi qui SONT des physiciens de la santé (et que je consulte lorsque ce sujet est abordé), j'ai tendance à pencher quelque part entre les théories du seuil linéaire et de l'hormèse de l'exposition aux rayonnements, mais comme je l'ai déjà noté, la LNT est la loi du pays , et c'est donc ce que ce blog va principalement travailler.

Le rayonnement (dans le contexte de l'énergie nucléaire, en particulier) commence par l'émission d'une particule ou d'un rayon d'un radio-isotope, ou du noyau instable d'un atome. Ceci est mesuré avec le Curie (Cu) qui est une mesure de la quantité de radioactivité EN GÉNÉRAL libérée, ou 3,7X10^10 émissions (alpha, bêta, neutrons ou gamma) par seconde. SI utilise le terme Becquerels (Bq), qui est simple : une désintégration = 1 Bq. Donc 1 Cu = 3,7X10^10 Bq. Parce qu'il est si petit, le mégaBequerels (Mbq) est souvent utilisé, car à moins que vous ne regardiez des expériences de laboratoire très sensibles, même une douzaine de Bq n'est en réalité rien.

Cependant, chaque type de rayonnement affecte différemment les matériaux et les systèmes biologiques. Il existe donc une autre unité utilisée pour décrire l'énergie produite par le rayonnement déposé sur un matériau, la dose absorbée : c'est le rad, et l'unité SI est le gray (Gy) . Le rad est défini comme 100 ergs d'énergie déposés dans un gramme de matière, et le gray est défini comme 1 joule de rayonnement absorbé par un kilogramme de matière. Cela signifie que 1 rad = 0,01 Gy. Ceci est principalement observé pour les matériaux inertes, tels que les composants de réacteurs, les matériaux de blindage, etc. S'il est utilisé pour des tissus vivants, c'est généralement un TRÈS mauvais signe, car il n'est utilisé de cette façon que dans le cas d'une explosion nucléaire ou majeure. accident de réacteur. Il est utilisé dans le cas d'une dose de rayonnement aiguë ou soudaine, mais pas pour des expositions à plus long terme.

C'est parce qu'il y a beaucoup de choses qui entrent dans la gravité d'une dose de rayonnement particulière : si vous avez un faisceau gamma qui traverse votre main, par exemple, c'est beaucoup moins dommageable que s'il traverse votre cerveau ou votre estomac. C'est là que la mesure finale entre en jeu : dans la documentation de la NASA et de l'AEC, ils utilisent le terme rem (ou équivalent de rayonnement homme), mais en unités SI, il est connu sous le nom de Sievert. Il s'agit de l'équivalent de dose, ou de la normalisation des effets de tous les différents types de rayonnement sur les différents tissus du corps, en appliquant un facteur de qualité à chaque type de rayonnement pour chaque partie du corps humain qui est exposée à ce type de rayonnement. Si vous vous êtes déjà demandé ce que font les physiciens de la santé, c'est tout le travail caché qui se déroule lorsque ce facteur de qualité est appliqué.

Le résultat de tout cela est la façon dont la dose de rayonnement est évaluée. Il y a un certain nombre de variables qui ont été évaluées à l'époque (et sont actuellement évaluées, avec cela comme un point de départ efficace pour les essais au sol, qui a une considération minuscule mais qui doit être évaluée en ce qui concerne la libération de radioactivité au grand public) . L'exposition a été largement divisée en trois types d'exposition : exposition corporelle totale (5 rem/an pour un travailleur professionnel, 0,5 rem/an pour le public), exposition cutanée, osseuse et thyroïdienne (30 rem/an professionnelle, 3 rem/an pour le public) et d'autres organes (15 rem/an professionnel, 1,5 rem/an pour le public). En 1971, les directives pour le public ont été modifiées en 0,5 rem/an pour le corps entier et 1,5 rem/an pour la population générale, mais comme cela a été noté (y compris dans le rapport final sur les effluents du NRDS), il s'agissait davantage d'une commodité administrative que biomédicale. avoir besoin.

1974 Normes de libération radiologique professionnelle, image via EPA

Des considérations supplémentaires ont été faites pour les particules discrètes d'éléments combustibles éjectées du cœur – moins d'une chance sur dix mille qu'une personne entre en contact avec une, et un certain nombre de facteurs ont été pris en compte pour déterminer cette probabilité. La plus grande préoccupation est que le contact avec la peau peut entraîner une lésion, à une exposition supérieure à 750 rads (il s'agit d'une mesure de dépôt d'énergie, et non d'une mesure expressément médicale, car ce n'est qu'un type de tissu qui est évalué).

Enfin, et peut-être le plus complexe à traiter, est l'effluent aérosolisé du panache d'échappement, qui pourrait être à la fois des produits de fission gazeux (qui n'ont pas été capturés par les matériaux de revêtement utilisés) et des particules suffisamment petites pour flotter dans l'atmosphère plus longtemps. durée – et éventuellement pouvoir être inhalé. Les limites pertinentes d'exposition aux rayonnements pour ces tests pour les populations hors site étaient une dose gamma de 170 mrem/an pour le corps entier et une dose d'exposition à la thyroïde de 500 mrem/an. La dose corporelle totale la plus élevée enregistrée dans le programme était en 1966, de 20 mrem, et la dose thyroïdienne la plus élevée enregistrée était de 1965 de 72 mrem.

L'impact sur la santé et l'environnement du développement des essais de propulsion nucléaire à Jackass Flats

Alors, à quel point ces tests sur la libération de matières radioactives étaient-ils mauvais, exactement ? Compte tenu de la zone peu peuplée, peu de personnes - voire aucune - qui n'étaient pas directement associées au programme ont reçu une dose de rayonnement provenant de matières radioactives en aérosol (inhalables, fines particules). Selon les réglementations en vigueur, aucune dose supérieure à 15 % de la dose autorisée par l'AEC/FRC (Federal Radiation Council, un premier conseil consultatif fédéral de la santé physique) pour le grand public n'a jamais été estimée ou enregistrée. Le rejet réel de produits de fission dans l'atmosphère (à l'exception du Cadmium-115) n'a jamais été supérieur à 10 %, et souvent inférieur à 1 % (le rejet de 115Cd était de 50 %). La grande majorité de ces produits de fission ont une durée de vie très courte, se désintégrant en quelques minutes ou jours, il n'y a donc pas eu beaucoup de changement pour la migration des retombées (produits de fission liés à la poussière atmosphérique qui est ensuite tombée le long du panache d'échappement du moteur) hors du site d'essai. Selon une étude réalisée en 1995 par le ministère de l'Énergie, la libération totale de rayonnement de tous les tests de propulsion nucléaire Rover et Tory-II était d'environ 843 000 Curies. Pour mettre cela en perspective, un explosif nucléaire produit 30 300 000 curies par kilotonne (en fonction de la taille et de l'efficacité de l'explosif), donc le rejet total de rayonnement était l'équivalent d'une explosion équivalente à 30 tonnes de TNT.

Résumé du rejet radiologique, image via le DOE

Ce rejet provenait soit de la migration des produits de fission à travers la gaine métallique et dans le réfrigérant à l'hydrogène, soit d'une défaillance de la gaine ou de l'élément combustible, ce qui avait pour conséquence que l'hydrogène chaud attaquait agressivement les éléments combustibles en graphite et les particules de combustible en carbure.

La quantité de produit de fission libérée dépend fortement de la température et du niveau de puissance auxquels les réacteurs ont fonctionné, de la durée de l'essai, de la rapidité avec laquelle les réacteurs ont été portés à pleine puissance et d'un certain nombre d'autres facteurs. Le prélèvement proprement dit de l'effluent du réacteur s'est fait de trois manières : prélèvement par avion équipé de capteurs spéciaux à la fois pour le rayonnement et les particules, le prélèvement d'effluents « pistolet à éléphants » placé dans le flux d'échappement du moteur, et par analyse chimique post-mortem des éléments combustibles. pour déterminer la combustion du combustible, la migration et l'inventaire des produits de fission. Une chose à noter est que pour les tests KIWI, les rejets d'effluents n'étaient pas aussi bien caractérisés que pour les tests ultérieurs de Phoebus, NRX, Pewee et Nuclear Furnace, de sorte que les données de ces tests sont non seulement plus précises, mais beaucoup plus complètes. également.

Carte de dose hors site, 1967 (une année avec une libération supérieure à la moyenne, et la première à utiliser de meilleures techniques d'échantillonnage) Image via EPA

Deux ensembles de données d'aéronefs ont été collectés : l'un (par LASL/WANL) provenait de hauteurs fixes et de transects dans les six milles entourant le panache d'effluent, collectant les effluents particulaires qui seraient utilisés (combinés avec des taux de rejet connus de 115Cd et une analyse post-mortem du réacteur) pour déterminer la libération totale de l'inventaire des produits de fission à ces altitudes et vecteurs, et a été abandonnée en 1967, la deuxième méthode (NERC) utilisait un système de coordonnées fixes pour mesurer la taille et la densité des nuages, en utilisant un échantillonneur de particules en masse, un lit de charbon de bois, échantillonneur cryogénique, capteur de rayonnement externe et autres équipements, mais étant donné que ces échantillons ont été prélevés à plus de 16 kilomètres des tests du réacteur, il est fort probable qu'une plus grande partie des produits de fission se soient désintégrés ou soient tombés au sol sous forme de retombées , de sorte que l'épuisement d'une grande partie de l'inventaire des produits de fission aurait facilement pu se produire au moment où le nuage a atteint les emplacements de l'avion. Cette technique a été utilisée après 1967.

La méthode d'échantillonnage suivante a également été mise en ligne en 1967 - le pistolet à éléphant. Il s'agissait d'une sonde qui était directement enfoncée dans l'hydrogène chaud sortant de la buse et collectait plusieurs moles d'hydrogène chaud du flux d'échappement à plusieurs moments du test, qui étaient ensuite stockées dans des réservoirs d'échantillonnage. Combiné aux données de température et de pression de l'hydrogène, à l'analyse de la lixiviation acide des produits de fission et aux données d'échantillons de gaz, cela a fourni une estimation plus précise de la libération des produits de fission, ainsi qu'une meilleure vue des produits de fission gazeux qui ont été libéré par le moteur.

Bâtiment de maintenance et de démontage des moteurs au NRDC en construction, image via Wikimedia Commons

Enfin, après les tests et le refroidissement, chaque moteur a été soumis à une inspection post-mortem rigoureuse. Ici, la quantité de réactivité perdue par rapport à la quantité d'uranium présente, les niveaux de puissance et la durée du test, et l'analyse chimique et radiologique ont été utilisés pour déterminer quels produits de fission étaient présents (et dans quels rapports) par rapport à ce qui DEVRAIENT être présents. Cette technique a amélioré la compréhension du comportement du réacteur, du profil neutronique et de la puissance réelle obtenue pendant l'essai ainsi que du rejet radiologique dans le flux d'échappement.

Les rejets radioactifs de ces tests de moteurs variaient considérablement, comme on peut le voir dans le tableau ci-dessus, mais la quantité totale libérée par le "plus sale" des tests du réacteur, le deuxième test du Phoebus 1B, n'était que de 240 000 curies, et la majorité des tests sorti moins de 2000 Curies. Une autre chose qui variait considérablement était la COMMENT le rayonnement a été libéré. La zone immédiate (à quelques mètres près) du réacteur serait exposée à des rayonnements pendant le fonctionnement, sous la forme à la fois de rayonnements neutroniques et gamma. Le panache d'échappement contiendrait non seulement le propulseur d'hydrogène (qui n'était pas dans le réacteur assez longtemps pour accumuler des neutrons supplémentaires et se transformer en deutérium, encore moins en tritium, en quantités significatives), mais les produits de fission gazeux (dont la plupart le corps humain n'est pas capable d'absorber, comme le 135Xe) et - en cas d'érosion ou de rupture d'un élément combustible - une certaine quantité de particules qui peuvent avoir été irradiées ou contenir du combustible de fission brûlé ou non brûlé.

Image via EPA

Ces particules, et le nuage d'effluent créé par le flux de propulseur pendant le test, étaient la principale préoccupation pour les humains et l'environnement à partir de ces tests. La raison en est que le rayonnement est capable de se propager beaucoup plus loin de cette façon (une fois émis, et toutes choses égales par ailleurs, le rayonnement va en ligne droite), et surtout il peut être absorbé par le corps, par inhalation ou ingestion. , et certains de ces éléments ne sont pas seulement radioactifs, mais aussi chimiquement toxiques. Comme complication supplémentaire, alors que les rayonnements alpha et bêta ne sont généralement pas un problème pour le corps humain (votre peau arrête facilement les deux particules), quand ils sont DANS le corps humain, c'est un tout autre jeu de balle. C'est particulièrement vrai de la thyroïde, qui est plus sensible que la plupart aux radiations, et absorbe l'iode (131I est un radio-isotope assez actif) comme personne. C'est pourquoi, après un accident nucléaire majeur (ou une frappe nucléaire théorique), des comprimés d'iode, contenant un isotope radio-inerte, sont distribués : une fois la thyroïde pleine, l'excès d'iode radioactif traverse l'organisme puisque rien d'autre dans l'organisme peut le prendre et le stocker.

Il existe de nombreux facteurs qui déterminent jusqu'où ces particules vont se propager, notamment la masse des particules, la température, la vitesse, l'altitude, le vent (à différentes altitudes), la teneur en humidité de l'air (les particules pourraient être absorbées par les gouttelettes d'eau), la hauteur du panache , et une foule d'autres facteurs. Le rapport final du programme NRDS sur les effluents approfondit la modélisation utilisée et les méthodes de collecte de données utilisées pour recueillir des données afin d'affiner ces estimations.

Une autre chose à considérer dans le contexte de Rover en particulier est que des essais en plein air d'armes nucléaires avaient lieu dans la zone entourant immédiatement les essais de Rover, qui ont libéré BEAUCOUP plus de retombées (de plusieurs dizaines d'ordres de grandeur), donc cela a contribué à un quantité très faible par rapport à la quantité de radionucléides libérés à l'époque.

Le programme de surveillance radiologique hors site, qui comprenait l'échantillonnage du lait des vaches pour estimer l'exposition thyroïdienne, a recueilli des données jusqu'en 1972, et toutes les expositions mesurées étaient bien inférieures aux limites d'exposition fixées dans le programme.

Puisque nous avons examiné le test KIWI-TNT plus tôt, examinons les effets environnementaux de ce test particulier. Après tout, l'explosion d'une fusée nucléaire doit être le test le plus dangereux, n'est-ce pas ? Étonnamment, dix autres tests ont libéré plus de radioactivité que le KIWI-TNT. Les particules discrètes ne se sont pas déplacées à plus de 600 pieds de l'explosion. Le nuage d'effluent a été enregistré de 4 000 pieds à 50 milles sous le vent du site d'essai, et les avions qui surveillaient le nuage ont pu le suivre jusqu'à ce qu'il sorte au-dessus de l'océan Pacifique (bien qu'à ce moment-là, il était beaucoup moins radioactif). Au moment où le nuage s'était déplacé de 16 000 pieds du site de test, la dose corporelle totale la plus élevée du nuage mesurée était de 1,27X10^-3 rad (à la station 16-210), et la même station a enregistré une dose thyroïdienne par inhalation de 4,55X10 ^-3 rads. Cela montre que même le pire accident crédible possible avec un réacteur de type NERVA n'a qu'un impact environnemental et biologique négligeable en raison soit du rayonnement émis, soit de l'explosion du réacteur lui-même, attestant encore de la sécurité de ce type de moteur.

Carte de distribution de particules discrètes, image via LANL

Si vous souhaitez obtenir des informations plus détaillées sur les effets radiologiques et environnementaux des tests KIWI-TNT, j'ai mis en lien les rapports (incroyablement détaillés) sur l'expérience à la fin de cet article.

Répartition radiologique des moniteurs de particules, image via LANL

Les résultats du programme de test Rover

Tout au long du programme d'essais Rover, les éléments combustibles étaient à l'origine de la plupart des problèmes non liés au H2. Alors que d'autres problèmes, tels que l'instrumentation, ont également été rencontrés, le principal casse-tête était les éléments combustibles eux-mêmes.

Une grande partie des problèmes résultaient des propriétés mécaniques et chimiques de la matrice de combustible en graphite. Le graphite est facilement attaqué par le H2 chaud, ce qui entraîne une érosion massive des éléments combustibles, et un certain nombre de solutions ont été expérimentées tout au long de la série d'essais. À l'exception du réacteur KIWI-A (qui utilisait des plaques de combustible non revêtues et était fortement affecté par le propergol), chacun des réacteurs comportait des FE plus ou moins revêtus, utilisant une variété de méthodes et de matériaux. Souvent, le carbure de niobium (NbC) était le matériau de revêtement préféré, mais d'autres options, telles que le tungstène, existent.

Dispositif de revêtement CVD, image avec l'aimable autorisation de LANL

Le dépôt chimique en phase vapeur était une option précoce, mais malheureusement, il n'était pas possible de revêtir l'intérieur des tubes propulseurs de manière cohérente et sûre, et la dilatation thermique différentielle était un défi majeur. Au fur et à mesure que les éléments combustibles chauffaient, ils se dilataient, mais à un rythme différent de celui du revêtement. Cela a conduit à la fissuration et, dans certains cas, à l'écaillage du matériau de gaine, entraînant l'exposition du graphite au propulseur et son érosion. Les inserts usinés étaient une forme plaquée plus fiable, mais leur installation était plus complexe.

À l'origine, l'extérieur des éléments combustibles n'était pas revêtu, mais au fil du temps, il était évident qu'il faudrait également y remédier. Un peu de propergol fuirait entre les prismes, entraînant une érosion de l'extérieur des éléments combustibles. Cela a modifié la géométrie de fission du réacteur, conduit à la libération de produits de fission et de combustible par érosion et a affaibli les éléments combustibles déjà quelque peu fragiles. Habituellement, cependant, le dépôt de vapeur de NbC était suffisant pour éliminer ce problème

Heureusement, ces problèmes sont exactement le genre de choses que CFEET et NTREES sont capables de tester, et ces systèmes sont beaucoup plus économiques à utiliser qu'un NTR à chaud. Il est probable qu'au moment où un essai à feu chaud sera effectué, les éléments combustibles seront complètement caractérisés chimiquement et thermiquement, de sorte que ces problèmes ne devraient pas se poser.

L'autre problème avec les éléments combustibles était une défaillance mécanique due à un certain nombre de problèmes. La pression à travers le système change considérablement, ce qui conduit à une contrainte différentielle le long des éléments combustibles. Les éléments combustibles d'origine, à support minimal, subiraient souvent une fissuration transversale, entraînant le blocage du propulseur et l'érosion. Dans un certain nombre de cas, après la rupture de l'élément combustible de cette manière, l'extrémité chaude de l'élément combustible était éjectée du cœur.

Image du tube de cravate Rover avec l'aimable autorisation de la NASA

Cela a conduit au développement d'une structure que l'on trouve encore aujourd'hui dans de nombreuses conceptions NTR : le tube de liaison. Il s'agit d'un prisme hexagonal, de la même taille que les éléments combustibles, qui supporte les éléments combustibles adjacents sur toute leur longueur. En plus d'être un moyen de support, ceux-ci sont également une source majeure de modération des neutrons, du fait qu'ils sont refroidis par le propulseur hydrogène de la tuyère refroidie par régénération. L'hydrogène ferait deux passages à travers le tube de liaison, un dans chaque direction, avant d'être injecté dans l'extrémité froide du réacteur pour être alimenté à travers les éléments combustibles.

Les tubes de liaison n'ont pas éliminé tous les problèmes mécaniques auxquels l'élément combustible était confronté. En effet, même dans l'essai NF-1, une défaillance importante des éléments combustibles a été observée, bien qu'aucun des éléments combustibles n'ait été éjecté du cœur. Cependant, de nouveaux types d'éléments combustibles étaient testés (composite carbone carbure d'uranium-carbure de zirconium et carbure (U,Zr)C), qui offraient de meilleures propriétés mécaniques ainsi que des tolérances thermiques plus élevées.

Les conceptions actuelles de NTR incorporent encore généralement des tubes de liaison, en particulier parce que l'uranium faiblement enrichi qui est la principale différence notable dans la dernière conception de la NASA nécessite un spectre de neutrons beaucoup plus modéré qu'un réacteur HEU. Cependant, la capacité de supporter mécaniquement l'élément combustible sur toute sa longueur (plutôt que juste à l'extrémité froide, comme cela était courant dans les conceptions NERVA) augmente également la stabilité mécanique du réacteur et aide à maintenir l'intégrité des éléments combustibles.

Les réacteurs KIWI-B et Phoebus étaient des conceptions suffisamment réussies pour être utilisées comme points de départ pour les moteurs NERVA. NERVA est un acronyme pour Nuclear Energy for Rocket Vehicle Applications, et s'est déroulé en deux parties : NERVA-1, ou NERVA-NRX, a développé le réacteur KIWI-B4D dans une conception plus prototype de vol, y compris l'équilibre de l'optimisation de la centrale, amélioré la documentation du fonctionnement du réacteur et les études de flux de fluide caloporteur. Le deuxième groupe de moteurs, NERVA-2, était basé sur le type de réacteur Phoebus 2 de Rover, et a finalement été développé pour devenir le NERVA-XE, qui était censé être le moteur qui propulserait la mission habitée vers Mars. Le test NERVA-XE PRIME portait sur la configuration du moteur en vol, avec toutes les turbopompes, les réservoirs de liquide de refroidissement, l'instrumentation et même l'orientation du réacteur (buse vers le bas, au lieu de vers le haut) était tout ce qu'il aurait été configuré pendant la mission .

Installation et vérification avant l'incendie du NERVA XE-PRIME, image via Westinghouse Engineer (1974)

La série d'essais XE-PRIME a duré neuf mois, de décembre 1968 à septembre 1969, et a impliqué 24 démarrages et arrêts du réacteur. Utilisant un réacteur de 1140 MW, fonctionnant à une température d'échappement de 2272 K, et produisant 247 kN de poussée à 710 secondes d'impulsion spécifique. Cela comprenait l'utilisation de nouvelles techniques de démarrage à partir de conditions de démarrage à froid, la vérification des systèmes de contrôle du réacteur - y compris l'utilisation de différents sous-systèmes pour pouvoir manipuler la puissance et la température de fonctionnement du réacteur - et a démontré que le programme NERVA avait produit avec succès un réacteur nucléaire prêt au vol. fusée thermique.

Mettre fin à une ère : tests de conception post-vol

Vers la fin du programme Rover, la conception du moteur elle-même avait été en grande partie finalisée, avec le test NERVA XE-Prime démontrant un moteur testé en configuration de vol (avec tout le matériel de support pertinent en place et la buse pointant vers le bas), cependant, certains défis subsistaient pour les éléments combustibles eux-mêmes. Afin d'avoir un programme d'essais plus rentable pour les éléments combustibles, deux nouveaux réacteurs ont été construits.

Banc d'essai PEWEE, image avec l'aimable autorisation de LANL

Le premier, Pewee, était un moteur de fusée nucléaire plus petit (75 klbf, de la même taille que le nouveau NTR de la NASA), qui a pu faire remplacer le noyau pour plusieurs séries de tests, mais n'a été utilisé qu'une seule fois avant l'annulation du programme - mais pas avant d'avoir atteint l'impulsion spécifique la plus élevée de l'un des moteurs Rover. Ce réacteur n'a jamais été testé en dehors d'une configuration de maquette, car il n'a jamais été destiné à être utilisé en vol. Au lieu de cela, c'était une mesure d'économie pour la NASA et l'AEC : en raison de sa petite taille, il était beaucoup moins cher à construire, et en raison de son débit de propulseur plus faible, il était également beaucoup plus facile à tester. Cela signifiait que les éléments combustibles expérimentaux qui avaient subi des tests thermiques et d'irradiation pourraient être testés dans un environnement à flux complet alimenté par fission à moindre coût.

NF-1 Vue transversale, image avec l'aimable autorisation de la NASA

Le second était le four nucléaire, qui imitait l'environnement neutronique et les débits de propergol des plus grandes NTR, mais n'était pas configuré comme un moteur. Ce réacteur a également été le premier à intégrer un laveur d'effluents, captant la majorité des produits de fission non gazeux et réduisant significativement le rejet radiologique dans l'environnement. Il a également atteint les températures de fonctionnement les plus élevées de tous les réacteurs testés au Nevada, ce qui signifie que les contraintes thermiques sur les éléments combustibles seraient plus élevées que celles qui seraient subies lors d'une combustion à pleine puissance d'un NTR réel. Encore une fois, cela a été conçu pour pouvoir être réutilisé à plusieurs reprises afin de maximiser le bénéfice financier de la construction du réacteur, mais n'a été utilisé qu'une seule fois avant l'annulation du programme. Les éléments combustibles ont été testés dans des bidons séparés, et aucun d'entre eux n'était sous forme de combustible composite graphite : à la place, des éléments combustibles CERMET (alors appelés composites) et carbure, qui avaient été en cours de développement mais pas largement utilisés dans les réacteurs Rover ou NERVA, ont été testé. Ce système utilisait également un système de nettoyage des effluents, mais c'est quelque chose que nous allons examiner plus en profondeur dans le prochain article, car cela reste une méthode théoriquement possible de faire des tests à feu chaud pour un NTR moderne.

Réacteur NRX A, sur lequel PAX était basé, image avec l'aimable autorisation de la NASA

Westinghouse ANL a également proposé une conception basée sur le NERVA XE, appelé réacteur PAX, qui serait conçu pour remplacer son cœur, mais cela n'a jamais quitté les planches à dessin. Encore une fois, l'accent s'est déplacé vers des bancs d'essai NTR expérimentaux à moindre coût et plus faciles à entretenir, bien que celui-ci soit beaucoup plus proche de la configuration de vol.Cela aurait été très utile, car non seulement le carburant serait soumis à un environnement radiologique et chimique très similaire, mais les liaisons mécaniques, les chemins d'écoulement de l'hydrogène et les problèmes d'harmoniques et de dynamique des gaz qui en résultent auraient pu être évalués dans un environnement proche du prototype. Cependant, ce réacteur n'a jamais été testé.

Comme nous l'avons vu, les essais à feu chaud étaient quelque chose qui préoccupait particulièrement les ingénieurs impliqués dans les programmes Rover et NERVA. Oui, il y a eu des rejets radiologiques dans l'environnement qui sont bien au-delà de ce qui serait considéré aujourd'hui, mais comparés aux rejets des essais d'armes nucléaires en plein air qui se produisaient dans le voisinage immédiat, ils étaient minuscules.

Aujourd'hui, cependant, ces rejets seraient inacceptables. Ainsi, dans le prochain article de blog, nous examinerons les options et les restrictions d'une installation de test moderne pour le tir à chaud NTR, y compris un aperçu des propositions au fil des ans et du plan actuel de la NASA pour les tests NTR. Cela comprendra le système de filtration des gaz d'échappement sur le four nucléaire, un système de filtrage plus complexe (mais aussi plus efficace) proposé pour le réacteur à galets SNTP (TimberWind), un concept de filtration géologique appelé SAFE, et un système complet de capture et de combustion des gaz d'échappement qui pourrait être installé dans les installations d'essais de fusées actuelles de la NASA au Stennis Space Center.

Ce post est déjà commencé, et j'espère l'avoir dans les prochaines semaines. J'ai hâte d'entendre tous vos commentaires, et s'il y a d'autres ressources sur ce sujet que j'ai manquées, partagez-les dans les commentaires ci-dessous !

Site de Los Alamos Pajarito

Installation d'assemblages critiques de Los Alamos, LA-8762-MS, par R. E. Malenfant,
https://www.osti.gov/servlets/purl/6463833

Une histoire des expériences critiques sur le site de Pajarito, LA-9685-H, par R.E. Malenfant, 1983

Rapports sur les impacts environnementaux et les rejets radiologiques

NRDS Nuclear Rocket Effluent Program, 1959-1970 NERC-LV-539-6, par Bernhardt et al, 1974

Rapport de surveillance hors site pour NRX-A2 1965

Mesures de rayonnement de l'effluent de l'expérience Kiwi-TNT LA-3395-MS, par Henderson et al, 1966

Effets environnementaux de l'effluent KIWI-TNT : examen et évaluation LA-3449, par R.V.Fultyn, 1968

Développement technologique et essais non nucléaires

Un examen du développement des éléments combustibles pour les moteurs de fusée nucléaires LA-5931, par J.M. Taub

Programme Rover Nuclear Rocket Engine : Aperçu des essais de moteurs Rover N92-15117, par J.L. Finseth, 1992

Rapport d'essai du four nucléaire 1 LA-5189-MS, W.L. Kirk, 1973

KIWI-Essai nucléaire transitoire LA-3325-MS, 1965

Kiwi-TNT Explosion LA-3551, par Roy Reider, 1965

Une analyse de l'expérience KIWI-TNT avec le code MARS Journal of Nuclear Science and Technology, Hirakawa et al. 1968

Ressources diverses

Neutronique de sécurité pour les réacteurs Rover LA-3558-MS, Laboratoire scientifique de Los Alamos, 1965

Le comportement des produits de fission lors des essais de réacteur nucléaire à fusée LA-UR-90-3544, par Bokor et al, 1996


Quels étaient les principes de fonctionnement du MITI japonais dans les années 50 et 60 ? - Histoire

Juifs de New York ? . La convention a eu lieu dans le Wisconsin. » [in MACDONALD, 1998, p. 72]

"Le problème s'est posé", dit Arthur Liebman,

« aux moyens d'accomplir l'objectif d'américanisation de ce qui était un mouvement socialiste essentiellement juif et européen. [LIEBMAN, A., 1986, p. 340] . l'absence relative de non-juifs et d'Américains de souche a troublé nombre de ses dirigeants, juifs et non-juifs. Le parti communiste, par exemple, dans les années 1920 était presque entièrement composé de juifs et de personnes nées à l'étranger, dont la plupart étaient en langue étrangère. fédérations. Les Juifs à eux seuls dans les années 1930 et 1940 représentaient environ 40 à 50 pour cent des membres du parti communiste. [LIEBMAN, A.,|
1986, p. 339]

Nathaniel Weyl note que :

"Bien que les dirigeants communistes soient normalement taciturnes sur l'étendue

seulement neuf « américains ». Sur la base d'un examen minutieux des noms de famille, Glazer a conclu que tous les enseignants « de rang et de classe » (communistes) jugés par le Syndicat des enseignants en 1932 étaient juifs. » [WEYL., N., 1968, p. 118-119]

L'association populaire des Juifs avec le communisme », note Peter Novick, « ​​datait de la Révolution bolchevique. La plupart des « agitateurs extraterrestres » déportés des États-Unis pendant la peur rouge après la Première Guerre mondiale étaient juifs. » [NOVICK, P., 1999, p. 92] secrétaire du Parti socialiste, qui a été arrêté pour sédition en 1919 : « L'affaire a marqué la première fois que la Cour suprême a statué sur la mesure dans laquelle le gouvernement américain peut limiter la parole. » [KNAPPMAN, E., 1995, p. 61, 60] De même, en 1927, la Cour suprême « a confirmé la condamnation du socialiste Benjamin Gitlow en vertu d'une loi de l'État de New York pour avoir prôné l'anarchie criminelle. » [KNAPPMAN, E., 1995, p. 63]

Peter Pulzer a noté un jour que, dans les rangs socialistes allemands du début du 20e siècle, « leurs origines [des Juifs] bourgeoises de manière disproportionnée et leur tendance à dériver leurs points de vue des principes premiers plutôt que de l'expérience empirique, les ont conduits à une position dominante [en] les débats du parti." [WEISBERGER, A., 1997, p. 93] Arthur Liebman note le contexte de l'élection de Morris Hillquit à la présidence du parti socialiste américain en 1932 :

"Hilquit, à son tour, a mis l'innommable au centre de la scène dans un discours émouvant, déclarant:" Je m'excuse d'être né à l'étranger, d'être juif et de vivre à New York. " La référence indirecte de Hilquit à l'antisémitisme lui a assuré la victoire. Comme Thomas [l'adversaire de Hilquit à la présidence] l'a commenté plus tard, « une fois que la question antisémite a été soulevée, même si injustement, j'étais enclin à penser qu'il valait mieux que Hillquit gagne ». Le Parti socialiste ne voulait pas risquer d'être qualifié d'antisémite." [LIEBMAN, A., 1986, p. 341]

Certaines estimations suggèrent que 60% des dirigeants du SDS radical des années 60 (Étudiants pour une société démocratique) étaient juifs (des radicaux bien connus comprenaient Kathy Boudin, Bettina Aptheker, parmi beaucoup d'autres). [PRAGER, p. 61] De 1960 à 1970, cinq des neuf présidents changeants de l'organisation étaient des hommes juifs (Al Haber, Todd Gitlin et les trois derniers pour la décennie : Mike Spiegel, Mike Klonsky et Mark Rudd). [VENTE, K., 1973, p. 663] "Peut-être que 50 pour cent des étudiants révolutionnaires pour une société démocratique", dit Milton Plesur, "et jusqu'à 50 à 75 pour cent de ceux qui participaient aux activités radicales du campus à la fin des années 1960 étaient juifs." [PLESUR, M., 1982, p. 137] Comme le notent Stanley Rothman et S. Robert Lichter :

« Les premiers SDS étaient fortement juifs à la fois dans sa direction et ses cadres militants. Les principaux dirigeants du SDS comprenaient Richard Flacks, qui a joué un rôle important dans sa formation et sa croissance, ainsi qu'Al Haber, Robb Ross, Steve Max, Mike Spiegel, Mike Klonsky, Todd Gitlin, Mark Rudd et d'autres. En effet, pendant les premières années, le SDS a été largement financé par la League for Industrial Democracy, une organisation fortement juive socialiste (mais anticommuniste). un nombre substantiel d'étudiants juifs et de professeurs juifs sympathiques, y compris l'Université du Wisconsin à Madison, Brandeis, Oberlin et l'Université de Californie. A Berkeley, les dirigeants du SDS n'ignoraient pas leurs racines. Comme Robb Ross l'a dit, décrivant la situation au Unversity of Wisconsin au début des années 1960, ". mon impression est que la gauche à Madison n'est pas seulement une nouvelle gauche, mais un renouveau de l'ancienne. avec tous les problèmes que cela comporte. Je suis frappé par le manque de Wisconsi n-nés [dans la région de Madison à gauche] et la prépondérance massive des Juifs de New York. La situation à l'Université du Minnesota est similaire' . [Le chercheur] Berns et ses associés ont découvert que 83 % d'un petit échantillon d'activistes radicaux étudiés à l'Université de Californie au début des années 1970 étaient d'origine juive. » [ROTHMAN/LICHTER, 1982, p. 61]

Susan Stern fait partie de ceux qui se tournent vers la violente organisation clandestine Weatherman. Ted Gold, un autre membre de Weatherman, est mort lorsqu'une bombe qu'il fabriquait a explosé dans ses mains. [ROTHMAN/LICHTER, 1982, p. 61] Dans un incident emblématique de 1970, trois des quatre étudiants abattus par des gardes nationaux lors d'une célèbre manifestation de l'Université d'État de Kent étaient juifs. [BYARD, K., 5-5-00]

Une étude de Joseph Adelson à l'Université du Michigan, l'un des foyers américains de l'activisme des années 1960, a suggéré que 90 % de ceux définis comme des « étudiants radicaux » politiquement dans cette école étaient des Juifs. [PRAGER, p. 61, 66] Et, "lorsque, par exemple, le Queens College SDS a organisé un sit-in dans un centre d'intégration il y a plusieurs années", a écrit Gabriel Ende, "ils ont choisi de chanter des chants de Noël pour dramatiser leur activité, bien que le président et presque tous les membres étaient juifs." [ENDE, G., 1971, p. 61]

« Dans des institutions d'élite comme l'Université de Chicago, 63 % des étudiants radicaux étaient juifs. Tom Hayden était peut-être le nom le plus célèbre du SDS de l'Université du Michigan, mais 90 % des étudiants restant [dans cette d'origine juive" et à l'échelle nationale, 60 pour cent des membres du SDS étaient juifs. Comme mon ancien ami Paul Breines l'a écrit à propos de ma propre alma mater, l'Université du Wisconsin, "le vrai levain dans toute la scène avait été
les étudiants juifs de New York dans le Wisconsin'. Jusqu'en 1946, un tiers des Juifs américains avaient une opinion favorable de l'Union soviétique. » [RADOSH, R., 6-5-01]

Des décennies plus tôt, notez Rothman et Lichter :

« L'American Student Union, le groupe d'étudiants radicaux le plus important des années 1930, était fortement concentré dans les collèges et universités de New York avec de nombreux étudiants juifs. Et sur d'autres campus,
comme l'Université de l'Illinois, une partie substantielle de ses membres limités étaient des étudiants d'origine juive de la ville de New York. » [ROTHMAN/LICHTER, 1982, p. 101]


Voir la vidéo: Pourquoi De Nombreux Japonais Se Lavent Le Soir