Comment se faisait la planification avant les ordinateurs ?

Comment se faisait la planification avant les ordinateurs ?

En particulier, comment les opérations à grande échelle telles que les campagnes de guerre ont-elles été organisées, comment la logistique a-t-elle été suivie et comment les gens ont-ils veillé à ce que des chaînes complexes d'événements urgents se déroulent correctement ? Quelles méthodes stylo et papier (ou autres) existaient ?


Le diagramme de Gantt était à l'origine une méthode de planification de projet sur papier. L'article de Google dit

Le premier outil connu de ce type a été développé en 1896 par Karol Adamiecki… La carte porte le nom d'Henry Gantt (1861-1919), qui a conçu sa carte vers les années 1910-1915.

Ça continue

L'une des premières applications majeures des diagrammes de Gantt a été faite par les États-Unis pendant la Première Guerre mondiale…

Les diagrammes de Gantt sont suffisants (mais un peu démodés) pour de nombreux projets, mais lorsque vous commencez à rechercher une solution optimale (en temps, en matériaux, en personnes), des outils plus puissants deviennent utiles.

Les deux techniques les plus courantes (souvent utilisées ensemble) sont la technique d'évaluation et d'examen du programme (PERT) et la méthode du chemin critique.

Développement et utilisation précoce du PERT :

Le bureau des projets spéciaux de la Marine, chargé de développer le système d'armes Polaris-Submarine et la capacité de missiles balistiques de la flotte, a développé une technique statistique pour mesurer et prévoir les progrès des programmes de recherche et développement. Cette technique d'évaluation et d'examen de programme (nom de code PERT) est appliquée comme un outil de prise de décision conçu pour gagner du temps dans la réalisation des objectifs finaux, et est particulièrement intéressante pour ceux qui sont engagés dans des programmes de recherche et développement pour lesquels le temps est un facteur critique. .

Développement et utilisation précoce de la méthode du chemin critique :

Les précurseurs de ce qui allait être connu sous le nom de Critical Path ont été développés et mis en pratique par DuPont entre 1940 et 1943 et ont contribué au succès du projet Manhattan.

Chacun de ces outils était à l'origine manuel, mais étant donné qu'il s'agit de techniques fortement normatives, ils sont facilement implémentés dans un logiciel. Par exemple, je me souviens qu'ICL avait un produit PERT au milieu des années 70.


La programmation informatique était autrefois un travail de femme

Aujourd'hui, le domaine de la programmation informatique est dominé par les hommes. Mais cela n'a pas toujours été le cas. En fait, pendant longtemps, la programmation informatique était un domaine réservé aux femmes.  À Gender News, Brenda D. Frink explique comment “computer geek” a dépassé “computer girl” le stéréotype. Elle écrit:

Contenu connexe

Jusque dans les années 1960, de nombreuses personnes considéraient la programmation informatique comme un choix de carrière naturel pour les jeunes femmes avisées. Même les observateurs de tendances de Cosmopolitan Magazine ont exhorté leur lectorat féminin à la mode à envisager une carrière dans la programmation. Dans un article intitulé "The Computer Girls", le magazine a décrit le domaine comme offrant de meilleures opportunités d'emploi pour les femmes que de nombreuses autres carrières professionnelles. Comme l'informaticienne Dr Grace Hopper l'a dit à un journaliste, programmer était « comme planifier un dîner. Vous devez planifier à l'avance et tout planifier pour qu'il soit prêt quand vous en avez besoin. Les femmes sont "naturelles" en programmation informatique. James Adams, directeur de l'éducation de l'Association for Computing Machinery, a convenu : "Je ne connais aucun autre domaine, en dehors de l'enseignement, où il y a autant d'opportunités pour une femme.”

Maintenant, ce n'est pas que les managers d'autrefois respectaient les femmes plus qu'ils ne le font maintenant. Ils considéraient simplement la programmation informatique comme un travail facile. C'était comme taper ou classer et le développement de logiciels était moins important que le développement de matériel. Ainsi, les femmes ont écrit des logiciels, programmé et même expliqué à leurs collègues masculins comment améliorer le matériel. (Il s'avère que la programmation est difficile, et les femmes sont en fait aussi douées que les hommes.)

Qu'est ce qui a changé? Eh bien, les programmeurs masculins voulaient élever leur travail hors de la catégorie « travail des femmes ». Ils créent des associations professionnelles et découragent l'embauche de femmes. Les publicités ont commencé à mettre en relation les femmes membres du personnel avec l'erreur et l'inefficacité. Ils ont institué des tests de casse-tête mathématiques à des fins d'embauche qui donnaient un avantage aux hommes qui avaient suivi des cours de mathématiques, et des tests de personnalité censés trouver le type de programmation idéal. Frink écrit :

Selon les développeurs de tests, les programmeurs à succès avaient la plupart des mêmes traits de personnalité que les autres cols blancs. La distinction importante, cependant, était que les programmeurs affichaient un "désintérêt pour les gens" et qu'ils n'aimaient pas les "activités impliquant une interaction personnelle étroite". Ce sont ces profils de personnalité, dit Ensmenger, qui sont à l'origine de notre stéréotype moderne de l'anti- geek informatique social.

Et nous voici donc aujourd'hui, avec un monde de programmeurs informatiques censés être des hommes, des ringards et des antisociaux, une prophétie étrange et auto-réalisatrice qui oublie les femmes sur lesquelles tout le domaine a été construit.

À propos de Rose Eveleth

Rose Eveleth est rédactrice pour Smart News et productrice/conceptrice/rédactrice scientifique/animatrice basée à Brooklyn. Son travail est paru dans le New York Times, Scientifique américain, Collisionneur d'histoire, TED-Ed et Sur Terre.


1947 - 1974 : Fondations

Jusqu'au 4004 d'Intel, le premier microprocesseur commercial

Au début, l'informatique personnelle exigeait des passionnés qu'ils possèdent des compétences à la fois dans l'assemblage de composants électriques (principalement la capacité de souder) et le codage machine, car le logiciel à cette époque était une affaire sur mesure où il était disponible.

Les leaders du marché commercial établis n'ont pas pris l'informatique personnelle au sérieux en raison de la fonctionnalité et des logiciels d'entrée-sortie limités, d'un manque de normalisation, d'exigences élevées en matière de compétences des utilisateurs et du peu d'applications envisagées. Les propres ingénieurs d'Intel avaient fait pression pour que l'entreprise poursuive une stratégie d'informatique personnelle presque dès que le 8080 a commencé à être implémenté dans une gamme de produits beaucoup plus large que prévu à l'origine. Steve Wozniak plaiderait auprès de son employeur, Hewlett-Packard, pour qu'il fasse de même.

John Bardeen, William Shockley et Walter Brattain aux Bell Labs, 1948.

Alors que les amateurs ont initié le phénomène de l'informatique personnelle, la situation actuelle est en grande partie une extension de la lignée qui a commencé avec les travaux de Michael Faraday, Julius Lilienfeld, Boris Davydov, Russell Ohl, Karl Lark-Horovitz, à William Shockley, Walter Brattain, John Bardeen, Robert Gibney et Gerald Pearson, qui ont co-développé le premier transistor (une conjugaison de résistance de transfert) aux Bell Telephone Labs en décembre 1947.

Bell Labs continuerait d'être le moteur principal des progrès des transistors (notamment le transistor Metal Oxide Semiconductor, ou MOSFET en 1959), mais a accordé des licences étendues en 1952 à d'autres sociétés pour éviter les sanctions antitrust du ministère américain de la Justice. Ainsi, Bell et sa société mère, Western Electric, ont été rejoints par quarante sociétés, dont General Electric, RCA et Texas Instruments, dans le secteur des semi-conducteurs en pleine expansion. Shockley quittera Bell Labs et lancera Shockley Semi-Conductor en 1956.

Le premier transistor jamais assemblé, inventé par Bell Labs en 1947

Excellent ingénieur, la personnalité caustique de Shockley alliée à sa mauvaise gestion des employés condamna l'entreprise en peu de temps. Moins d'un an après avoir constitué son équipe de recherche, il s'était aliéné suffisamment de membres pour provoquer l'exode massif de "The Traitorous Eight", qui comprenait Robert Noyce et Gordon Moore, deux des futurs fondateurs d'Intel, Jean Hoerni, inventeur du processus de fabrication planaire pour les transistors. , et Jay Last. Les membres de The Eight fourniraient le noyau de la nouvelle division Fairchild Semiconductor de Fairchild Camera and Instrument, une société qui est devenue le modèle de la start-up de la Silicon Valley.

La direction de la société Fairchild continuerait à marginaliser de plus en plus la nouvelle division en raison de l'accent mis sur le profit des contrats de transistors de haut niveau tels que ceux utilisés dans les systèmes de vol construits par IBM du bombardier stratégique nord-américain XB-70 Valkyrie, l'ordinateur de vol Autonetics du Système Minuteman ICBM, supercalculateur CDC 6600 et ordinateur de guidage Apollo de la NASA.

Alors que les amateurs ont lancé le phénomène de l'informatique personnelle, la situation actuelle est en grande partie une extension de la lignée qui a commencé avec les premiers travaux sur les semi-conducteurs à la fin des années 1940.

Cependant, les bénéfices ont diminué alors que Texas Instruments, National Semiconductor et Motorola ont gagné leur part de contrats. À la fin de 1967, Fairchild Semiconductor était devenue l'ombre d'elle-même alors que les coupes budgétaires et les départs de personnel clé commençaient à s'installer. Le sens aigu de la R&D ne se traduisait pas en produit commercial, et les factions combatives au sein de la direction se sont avérées contre-productives pour l'entreprise.

Les Huit traîtres qui ont quitté Shockley pour lancer Fairchild Semiconductor. De gauche à droite : Gordon Moore, Sheldon Roberts, Eugene Kleiner, Robert Noyce, Victor Grinich, Julius Blank, Jean Hoerni, Jay Last. (Photo © Wayne Miller/Magnum)

Le principal parmi ceux qui partiraient serait Charles Sporck, qui a revitalisé National Semiconductor, ainsi que Gordon Moore et Robert Noyce. Alors que plus de cinquante nouvelles entreprises remonteraient leurs origines à l'éclatement de la main-d'œuvre de Fairchild, aucune n'a atteint autant que la nouvelle Intel Corporation en si peu de temps. Un seul appel téléphonique de Noyce à Arthur Rock, le capital-risqueur, a permis de réunir un financement de démarrage de 2,3 millions de dollars en un après-midi.

La facilité avec laquelle Intel a vu le jour était en grande partie due à la stature de Robert Noyce et Gordon Moore. Noyce est largement crédité de la co-invention du circuit intégré avec Jack Kilby de Texas Instrument, bien qu'il ait presque certainement beaucoup emprunté aux travaux antérieurs effectués par l'équipe de James Nall et Jay Lathrop au Diamond Ordnance Fuze Laboratory (DOFL) de l'armée américaine. , qui a produit le premier transistor construit à l'aide de photolithographie et d'interconnexions en aluminium évaporé en 1957-59, ainsi que l'équipe de circuits intégrés de Jay Last (y compris le nouvellement acquis James Nall) à Fairchild, dont Robert Noyce était chef de projet.

Premier circuit intégré planaire (Photo © Fairchild Semiconductor).

Moore et Noyce emporteraient avec eux de Fairchild la nouvelle technologie MOS (semiconducteur à oxyde métallique) auto-alignée adaptée à la fabrication de circuits intégrés qui avait récemment été lancée par Federico Faggin, un prêteur d'une joint-venture entre les sociétés italiennes SGS et Fairchild. . S'appuyant sur le travail de l'équipe Bell Labs de John Sarace, Faggin apportera son expertise à Intel en devenant résident permanent aux États-Unis.

Fairchild se sentirait à juste titre lésé par la défection, tout comme par de nombreuses percées d'employés qui se sont retrouvées entre les mains d'autres, notamment National Semiconductor. Cette fuite des cerveaux n'était pas aussi unilatérale qu'il n'y paraît, puisque le premier microprocesseur de Fairchild, le F8, a selon toute vraisemblance son origine dans le projet de processeur C3PF non réalisé d'Olimpia Werke.

À une époque où les brevets n'avaient pas encore pris l'importance stratégique qu'ils ont aujourd'hui, le temps de mise sur le marché était d'une importance primordiale et Fairchild était souvent trop lent à réaliser l'importance de ses développements. La division R&D est devenue moins orientée produit, consacrant des ressources importantes aux projets de recherche.

Texas Instruments, le deuxième plus grand producteur de circuits intégrés, a rapidement érodé la position de leader de Fairchild sur le marché. Fairchild occupait toujours une place prépondérante dans l'industrie, mais en interne, la structure de gestion était chaotique. L'assurance de la qualité de la production (AQ) était médiocre par rapport aux normes de l'industrie, des rendements de 20 % étant courants.

Plus de cinquante nouvelles entreprises remonteraient à l'origine de l'éclatement de la main-d'œuvre de Fairchild, aucune n'a réalisé autant que la nouvelle Intel Corp en si peu de temps.

Alors que le roulement du personnel d'ingénierie augmentait à mesure que "Fairchildren" partait pour des environnements plus stables, Jerry Sanders de Fairchild est passé du marketing de l'aérospatiale et de la défense à celui de directeur général du marketing et a décidé unilatéralement de lancer un nouveau produit chaque semaine - le plan "Fifty-Two". L'accélération du time to market condamnerait nombre de ces produits à des rendements de l'ordre de 1%. On estime que 90 % des produits expédiés plus tard que prévu présentaient des défauts dans les spécifications de conception, ou les deux. L'étoile de Fairchild était sur le point d'être éclipsée.

Si la stature de Gordon Moore et Robert Noyce donnait à Intel un bon départ en tant qu'entreprise, le troisième homme à rejoindre l'équipe deviendrait à la fois le visage public de l'entreprise et sa force motrice. Andrew Grove, né András Gróf en Hongrie en 1936, est devenu directeur des opérations d'Intel malgré ses connaissances limitées dans le domaine de la fabrication. Le choix semblait déroutant à première vue – même en tenant compte de son amitié avec Gordon Moore – car Grove était un scientifique en R&D avec une formation en chimie à Fairchild et un conférencier à Berkeley sans aucune expérience en gestion d'entreprise.

Le quatrième homme de l'entreprise définirait sa stratégie marketing précoce. Bob Graham était techniquement le troisième employé d'Intel, mais devait donner un préavis de trois mois à son employeur. Le retard dans le passage à Intel permettrait à Andy Grove d'acquérir un rôle de gestion beaucoup plus important qu'initialement envisagé.


Les cent premiers employés d'Intel posent devant le siège social de l'entreprise à Mountain View, en Californie, en 1969.
(Source : Intel/Associated Press)

Excellent vendeur, Graham était considéré comme l'un des deux candidats exceptionnels pour l'équipe de direction d'Intel - l'autre, W. Jerry Sanders III, était un ami personnel de Robert Noyce. Sanders a été l'un des rares dirigeants de Fairchild à conserver son emploi à la suite de la nomination de C. Lester Hogan en tant que PDG (d'un Motorola en colère).

La confiance initiale de Sanders à rester le meilleur responsable du marketing de Fairchild s'est rapidement évaporée alors que Hogan n'était pas impressionné par la flamboyance de Sanders et la réticence de son équipe à accepter de petits contrats (1 million de dollars ou moins). Hogan a effectivement rétrogradé Sanders à deux reprises en quelques semaines avec les promotions successives de Joseph Van Poppelen et Douglas J. O'Conner au-dessus de lui. Les rétrogradations ont atteint ce que Hogan avait prévu - Jerry Sanders a démissionné et la plupart des postes clés de Fairchild ont été occupés par les anciens dirigeants de Motorola de Hogan.

En quelques semaines, Jerry Sanders avait été approché par quatre autres anciens employés de Fairchild de la division analogique intéressés par la création de leur propre entreprise. Telle que conçue à l'origine par les quatre, la société produirait des circuits analogiques puisque la dissolution (ou l'effondrement) de Fairchild favorisait un grand nombre de start-up cherchant à tirer profit de l'engouement pour les circuits numériques. Sanders s'est joint à l'idée que la nouvelle société poursuivrait également les circuits numériques. L'équipe comprendrait huit membres, dont Sanders, Ed Turney, l'un des meilleurs vendeurs de Fairchild, John Carey, et le concepteur de puces Sven Simonssen, ainsi que les quatre membres originaux de la division analogique, Jack Gifford, Frank Botte, Jim Giles et Larry Stenger.

Advanced Micro Devices, comme l'entreprise serait connue, a connu des débuts difficiles. Intel avait obtenu un financement en moins d'une journée sur la base de la création de la société par des ingénieurs, mais les investisseurs étaient beaucoup plus réticents face à une proposition commerciale de semi-conducteurs dirigée par des responsables marketing. Le premier arrêt pour obtenir le capital initial de 1,75 million de dollars d'AMD a été Arthur Rock, qui avait fourni un financement à la fois à Fairchild Semiconductor et à Intel. Rock a refusé d'investir, tout comme une succession de sources d'argent possibles.

Finalement, Tom Skornia, le nouveau représentant légal d'AMD, est arrivé à la porte de Robert Noyce. Le co-fondateur d'Intel deviendrait ainsi l'un des investisseurs fondateurs d'AMD. Le nom de Noyce sur la liste des investisseurs a ajouté une certaine légitimité à la vision commerciale qui manquait jusqu'à présent à AMD aux yeux des investisseurs potentiels. Un financement supplémentaire a suivi, l'objectif révisé de 1,55 million de dollars étant atteint juste avant la fermeture des bureaux le 20 juin 1969.

AMD a connu des débuts difficiles. Mais Robert Noyce d'Intel devenant l'un des investisseurs fondateurs de l'entreprise a ajouté une certaine légitimité à sa vision commerciale aux yeux des investisseurs potentiels.

La formation d'Intel a été un peu plus simple, permettant à l'entreprise de se lancer directement une fois le financement et les locaux sécurisés. Son premier produit commercial était également l'une des cinq « premières » notables de l'industrie réalisées en moins de trois ans qui devaient révolutionner à la fois l'industrie des semi-conducteurs et le visage de l'informatique.

Honeywell, l'un des fournisseurs d'ordinateurs qui vivait dans la vaste ombre d'IBM, a approché de nombreuses sociétés de puces avec une demande pour une puce RAM statique de 64 bits.

Intel avait déjà formé deux groupes pour la fabrication de puces, une équipe de transistors MOS dirigée par Les Vadász et une équipe de transistors bipolaires dirigée par Dick Bohn. L'équipe bipolaire a été la première à atteindre l'objectif, et la première puce SRAM 64 bits au monde a été remise à Honeywell en avril 1969 par son concepteur en chef, H.T. Chua. Être capable de produire une première conception réussie pour un contrat d'un million de dollars ne ferait qu'ajouter à la réputation initiale d'Intel dans l'industrie.

Le premier produit d'Intel, une SRAM 64 bits basée sur la nouvelle technologie Schottky Bipolar. (CPU-Zone)

Conformément aux conventions de dénomination de l'époque, la puce SRAM était commercialisée sous son numéro de pièce 3101. Intel, ainsi que pratiquement tous les fabricants de puces de l'époque, ne commercialisaient pas leurs produits auprès des consommateurs, mais auprès des ingénieurs des entreprises. Les numéros de pièces, en particulier s'ils avaient une signification telle que le nombre de transistors, étaient considérés comme plus attrayants pour leurs clients potentiels. De même, donner au produit un nom réel pourrait signifier que le nom masque des lacunes techniques ou un manque de substance. Intel a eu tendance à s'éloigner de la dénomination numérique des pièces uniquement lorsqu'il est devenu douloureusement évident que les nombres ne pouvaient pas être protégés par le droit d'auteur.

Alors que l'équipe bipolaire a fourni le premier produit de rupture pour Intel, l'équipe MOS a identifié le principal coupable dans ses propres défaillances de puces. Le processus MOS à grille de silicium a nécessité de nombreux cycles de chauffage et de refroidissement lors de la fabrication des puces. Ces cycles ont provoqué des variations dans le taux d'expansion et de contraction entre le silicium et l'oxyde métallique, ce qui a conduit à des fissures qui ont rompu les circuits de la puce. La solution de Gordon Moore consistait à « doper » l'oxyde métallique avec des impuretés pour abaisser son point de fusion permettant à l'oxyde de s'écouler avec le chauffage cyclique. La puce résultante qui est arrivée en juillet 1969 de l'équipe MOS (et une extension du travail effectué chez Fairchild sur la puce 3708) est devenue la première puce mémoire MOS commerciale, la 1101.

Honeywell a rapidement signé pour un successeur du 3101, surnommé le 1102, mais au début de son développement, un projet parallèle, le 1103, dirigé par Vadász avec Bob Abbott, John Reed et Joel Karp (qui a également supervisé le développement du 1102) a montré un potentiel considérable . Les deux étaient basés sur une cellule mémoire à trois transistors proposée par William Regitz de Honeywell qui promettait une densité de cellules beaucoup plus élevée et un coût de fabrication inférieur. L'inconvénient était que la mémoire ne conserverait pas les informations dans un état non alimenté et que les circuits auraient besoin d'une tension appliquée (rafraîchie) toutes les deux millisecondes.

La première puce mémoire MOS, Intel 1101, et la première puce mémoire DRAM, Intel 1103. (CPU-Zone)

À l'époque, la mémoire vive des ordinateurs était l'apanage des puces de mémoire à noyau magnétique. Cette technologie est devenue pratiquement obsolète avec l'arrivée de la puce 1103 DRAM (mémoire dynamique à accès aléatoire) d'Intel en octobre 1970, et au moment où les bugs de fabrication ont été résolus au début de l'année prochaine, Intel avait une avance considérable sur un marché dominant et en croissance rapide. -- une avance dont il a bénéficié jusqu'à ce que les fabricants de mémoires japonais provoquent une forte baisse des prix des mémoires au début des années 1980 en raison d'injections massives de capitaux dans la capacité de fabrication.

Intel a lancé une campagne de marketing à l'échelle nationale invitant les utilisateurs de mémoire à noyau magnétique à téléphoner à Intel et à réduire leurs dépenses en mémoire système en passant à la DRAM. Inévitablement, les clients se renseigneraient sur la deuxième source d'approvisionnement des puces à une époque où les rendements et l'approvisionnement ne pouvaient être tenus pour acquis.

Andy Grove était farouchement opposé au second sourcing, mais tel était le statut d'Intel en tant que jeune entreprise qui devait répondre à la demande de l'industrie. Intel a choisi une société canadienne, Microsystems International Limited comme première deuxième source d'approvisionnement en puces plutôt qu'une société plus grande et plus expérimentée qui pourrait dominer Intel avec son propre produit. Intel gagnerait environ 1 million de dollars de l'accord de licence et gagnerait encore plus lorsque MIL tenterait d'augmenter ses bénéfices en augmentant la taille des plaquettes (de deux pouces à trois) et en réduisant la puce. Les clients de MIL se sont tournés vers Intel alors que les puces de la société canadienne sortaient défectueuses de la chaîne de montage.

Intel a lancé une campagne de marketing à l'échelle nationale invitant les utilisateurs de mémoire à noyau magnétique à téléphoner à Intel et à réduire leurs dépenses en mémoire système en passant à la DRAM.

L'expérience initiale d'Intel n'était pas révélatrice de l'industrie dans son ensemble, ni de ses propres problèmes ultérieurs avec le second approvisionnement. La croissance d'AMD a été directement aidée en devenant une deuxième source pour les puces TTL (Transistor-Transistor Logic) de la série 9300 de Fairchild et en sécurisant, concevant et livrant une puce personnalisée pour la division militaire de Westinghouse que Texas Instruments (l'entrepreneur initial) avait du mal à produire à temps.

Les premiers échecs de fabrication d'Intel à l'aide du processus de porte en silicium ont également conduit à la troisième puce, la plus immédiatement rentable, ainsi qu'à une avance de l'industrie en termes de rendement. Intel a chargé un autre ancien élève de Fairchild, le jeune physicien Dov Frohmann, d'enquêter sur les problèmes liés au processus. Ce que Frohmann a supposé, c'est que les grilles de certains des transistors s'étaient déconnectées, flottant au-dessus et enfermées dans l'oxyde les séparant de leurs électrodes.

Frohmann a également démontré à Gordon Moore que ces grilles flottantes pouvaient contenir une charge électrique en raison de l'isolant environnant (dans certains cas plusieurs décennies), et pouvaient donc être programmées. De plus, la charge électrique de la grille flottante pourrait être dissipée par un rayonnement ultraviolet ionisant qui effacerait la programmation.

La mémoire conventionnelle nécessitait que les circuits de programmation soient définis lors de la fabrication de la puce avec des fusibles intégrés dans la conception pour les variations de programmation. Cette méthode est coûteuse à petite échelle, nécessite de nombreuses puces différentes pour répondre à des besoins individuels et nécessite une modification des puces lors de la refonte ou de la révision des circuits.

L'EPROM (Erasable, Programmable Read-Only Memory) a révolutionné la technologie, rendant la programmation de la mémoire beaucoup plus accessible et beaucoup plus rapide puisque le client n'a pas eu à attendre la fabrication de ses puces spécifiques à l'application.

L'inconvénient de cette technologie était que pour que la lumière UV efface la puce, une fenêtre en quartz relativement coûteuse a été incorporée dans l'emballage de la puce directement au-dessus de la puce ROM pour permettre l'accès à la lumière. Le coût élevé serait plus tard atténué par l'introduction d'EPROM programmables une fois (OTP) qui supprimaient la fenêtre à quartz (et la fonction d'effacement) et de ROM programmables effaçables électriquement (EEPROM).

Comme pour le 3101, les rendements initiaux étaient très faibles - moins de 1% pour la plupart. L'EPROM 1702 nécessitait une tension précise pour les écritures en mémoire. Les écarts de fabrication se sont traduits par une exigence de tension d'écriture incohérente - trop peu de tension et la programmation serait incomplète, trop risqué de détruire la puce. Joe Friedrich, récemment attiré loin de Philco, et un autre qui avait perfectionné son art à Fairchild, a frappé en passant une tension négative élevée à travers les puces avant d'écrire des données. Friedrich a nommé le processus "sortie" et cela augmenterait les rendements d'une puce toutes les deux plaquettes à soixante par plaquette.

Intel 1702, la première puce EPROM. (musée de l'ordinateur.li)

Parce que le retrait n'a pas modifié physiquement la puce, les autres fabricants vendant des circuits intégrés conçus par Intel ne découvriraient pas immédiatement la raison de la hausse des rendements d'Intel. Ces rendements accrus ont eu un impact direct sur la fortune d'Intel, car les revenus ont grimpé de 600 % entre 1971 et 1973. Les rendements, excellents par rapport aux sociétés de la deuxième source, ont conféré un avantage marqué à Intel par rapport aux mêmes pièces vendues par AMD, National Semiconductor, Sigtronics et MIL. .

La ROM et la DRAM étaient deux composants essentiels d'un système qui allait devenir une étape importante dans le développement de l'informatique personnelle. En 1969, la Nippon Calculating Machine Corporation (NCM) a approché Intel pour un système à douze puces pour une nouvelle calculatrice de bureau. Intel à ce stade était en train de développer ses puces SRAM, DRAM et EPROM et était impatient d'obtenir ses premiers contrats commerciaux.

La proposition initiale de NCM décrivait un système nécessitant huit puces spécifiques à la calculatrice, mais Ted Hoff d'Intel a eu l'idée d'emprunter aux plus gros mini-ordinateurs de l'époque. Plutôt que des puces individuelles gérant des tâches individuelles, l'idée était de créer une puce qui s'attaque aux charges de travail combinées, transformant les tâches individuelles en sous-routines comme le faisaient les gros ordinateurs - une puce à usage général. L'idée de Hoff réduirait le nombre de puces nécessaires à seulement quatre - un registre à décalage pour les entrées-sorties, une puce ROM, une puce RAM et la nouvelle puce du processeur.

NCM et Intel ont signé le contrat pour le nouveau système le 6 février 1970, et Intel a reçu une avance de 60 000 $ contre une commande minimale de 60 000 kits (avec huit puces par kit minimum) sur trois ans. Le travail pour mener à bien le processeur et ses trois puces de support serait confié à un autre employé de Fairchild mécontent.

Federico Faggin est devenu désillusionné à la fois par l'incapacité de Fairchild à traduire ses avancées en R&D en produits tangibles avant d'être exploité par ses rivaux et par son propre poste d'ingénieur des procédés de fabrication, alors que son principal intérêt résidait d'abord dans l'architecture des puces. Contactant Les Vadász d'Intel, il est invité à diriger un projet de conception sans plus de connaissances préalables que sa description de "challenging". Faggin devait découvrir ce que le projet MCS-4 à 4 puces impliquait le 3 avril 1970, son premier jour de travail, lorsqu'il fut briefé par l'ingénieur Stan Mazor. Le lendemain, Faggin a été plongé dans le grand bain, rencontrant Masatoshi Shima, le représentant de NCM, qui s'attendait à voir la conception logique du processeur plutôt que d'entendre un aperçu d'un homme qui avait participé au projet moins d'une journée.

Intel 4004, le premier microprocesseur commercial, avait 2300 transistors et fonctionnait à une vitesse d'horloge de 740KHz. (CPU-Zone)

L'équipe de Faggin, qui comprenait désormais Shima pour la durée de la phase de conception, s'est rapidement mise au développement des quatre puces. Conçu pour le plus simple d'entre eux, le 4001 a été achevé en une semaine et la mise en page a pris un seul dessinateur par mois. En mai, les 4002 et 4003 avaient été conçus et les travaux avaient commencé sur le microprocesseur 4004. Le premier cycle de pré-production est sorti de la chaîne de montage en décembre, mais comme la couche de contact enterrée vitale a été omise de la fabrication, ils ont été rendus inopérants. Une deuxième révision a corrigé l'erreur et trois semaines plus tard, les quatre puces fonctionnelles étaient prêtes pour la phase de test.

Le 4004 aurait pu être une note de bas de page dans l'histoire des semi-conducteurs s'il était resté une pièce personnalisée pour NCM, mais la chute des prix de l'électronique grand public, en particulier sur le marché concurrentiel des calculatrices de bureau, a poussé NCM à approcher Intel et à demander une réduction du prix unitaire du contrat convenu. Sachant que le 4004 pourrait avoir de nombreuses autres applications, Bob Noyce a proposé une baisse de prix et un remboursement du paiement anticipé de 60 000 $ de NCM en échange de la possibilité pour Intel de commercialiser le 4004 auprès d'autres clients sur des marchés autres que les calculatrices. Ainsi, le 4004 est devenu le premier microprocesseur commercial.

Deux autres conceptions de l'époque appartenaient à des systèmes entiers. Le MP944 de Garrett AiResearch était un composant du Central Air Data Computer du Grumman F-14 Tomcat, qui était responsable de l'optimisation des ailes à géométrie variable et des aubes à gants du chasseur, tandis que le TMS 0100 et le TMS 0100 de Texas Instruments 1000 étaient initialement disponibles uniquement en tant que composant de calculatrices portables telles que la Bowmar 901B.

Le 4004 aurait pu être une note de bas de page dans l'histoire des semi-conducteurs s'il était resté une pièce personnalisée pour NCM.

Alors que les 4004 et MP944 nécessitaient un certain nombre de puces de support (ROM, RAM et E/S), la puce Texas Instruments combinait ces fonctions dans un processeur - le premier microcontrôleur au monde, ou "ordinateur sur puce" comme il était commercialisé à l'époque.

Texas Instruments et Intel concluraient une licence croisée impliquant la logique, les processus, le microprocesseur et la propriété intellectuelle du microcontrôleur en 1971 (et à nouveau en 1976) qui annoncerait une ère de licences croisées, de coentreprises et du brevet en tant qu'arme commerciale.

L'achèvement du système NCM (Busicom) MCS-4 a libéré des ressources pour la poursuite d'un projet plus ambitieux dont les origines sont antérieures à la conception 4004. À la fin de 1969, au ras des liquidités de son introduction en bourse initiale, Computer Terminal Corporation (CTC, plus tard Datapoint) a contacté Intel et Texas Instruments pour demander un contrôleur de terminal 8 bits.

Texas Instruments a abandonné assez tôt et le développement du projet 1201 d'Intel, commencé en mars 1970, était au point mort en juillet, le chef de projet Hal Feeney ayant été coopté sur un projet de puce RAM statique. CTC finirait par opter pour une collection discrète puis plus simple de puces TTL à mesure que les échéances approchaient. Le projet 1201 languirait jusqu'à ce que Seiko manifeste de l'intérêt pour une utilisation dans une calculatrice de bureau et que Faggin ait mis le 4004 en service en janvier 1971.

Dans l'environnement d'aujourd'hui, il semble presque incompréhensible que le développement des microprocesseurs soit le second violon de la mémoire, mais à la fin des années 1960 et au début des années 1970, l'informatique était l'apanage des ordinateurs centraux et des mini-ordinateurs.

Dans l'environnement d'aujourd'hui, il semble presque incompréhensible que le développement de microprocesseurs soit le second violon de la mémoire, mais à la fin des années 1960 et au début des années 1970, l'informatique était l'apanage des ordinateurs centraux et des mini-ordinateurs. Moins de 20 000 mainframes étaient vendus dans le monde chaque année et IBM dominait ce marché relativement restreint (dans une moindre mesure UNIVAC, GE, NCR, CDC, RCA, Burroughs et Honeywell - les "Sept Nains" à "Blanche-Neige" d'IBM) . Pendant ce temps, Digital Equipment Corporation (DEC) détenait effectivement le marché des mini-ordinateurs. La direction d'Intel et d'autres sociétés de microprocesseurs ne pouvaient pas voir leurs puces usurper le mainframe et le mini-ordinateur alors que de nouvelles puces mémoire pourraient desservir ces secteurs en grande quantité.

Le 1201 est dûment arrivé en avril 1972 avec son nom changé en 8008 pour indiquer qu'il s'agissait d'un successeur du 4004. La puce a connu un succès raisonnable mais a été handicapée par sa dépendance à l'emballage à 18 broches qui limitait son entrée-sortie (I/ O) et des options de bus externes. Étant relativement lent et utilisant toujours la programmation par le premier langage d'assemblage et le code machine, le 8008 était encore loin de la convivialité des processeurs modernes, bien que le lancement et la commercialisation récents de la disquette de huit pouces 23FD d'IBM donneraient un élan au microprocesseur. market in the next few years.

Intellec 8 development system (computinghistory.org.uk)

Intel's push for wider adoption resulted in the 4004 and 8008 being incorporated in the company's first development systems, the Intellec 4 and Intellec 8 -- the latter of which would figure prominently into the development of the first microprocessor-orientated operating system -- a major “what if” moment in both industries as well as Intel's history. Feedback from users, potential customers, and the growing complexity of calculator-based processors resulted in the 8008 evolving into the 8080, which finally kick-started personal computer development.

This article is the first installment on a series of five. If you enjoyed this, read on as delve into the birth of the first personal computer companies. Or if you feel like reading more about the history of computing, check out our amazing series on the history of computer graphics.


“First actual case of bug being found”

The word ‘bug,’ when applied to computers, means some form of error or failure. On September 9th, Grace Hopper records what she jokingly called the first actual computer bug — in this case, a moth stuck between relay contacts of the Harvard Mark II computer.

Hopper helped program the Mark II, and the earlier Harvard Mark I computer, while working for professor Howard Aiken. She worked tirelessly on developing these computers to the fullest through inventive programming. After Harvard, she worked for computer manufacturer Remington-Rand where she developed what is often considered the first compiler, A-0. She also served on the committee to develop COBOL, a standard and widely adopted programming language that transformed the way software was developed for business applications. COBOL is still in use today. Hopper was made a Fellow of the Computer History Museum in 1987.


Computer investigation model

According to Kruse II, W.G., and Heiser, J.G. (2010), a computer investigation is to identify the evidences, preserve those evidences, extract them, document each and every process, and validate those evidences and to analyse them to find the root cause and by which to provide the recommendations or solutions.

“Computer Forensics is a new field and there is less standardization and consistency across the courts and industry” (US-CERT, 2012). Each computer forensic model is focused on a particular area such as law enforcement or electronic evidence discovery. There is no single digital forensic investigation model that has been universally accepted. However, it was generally accepted that the digital forensic model framework must be flexible, so that it can support any type of incidents and new technologies (Adam, R., 2012).

Kent, K., et.al, (2006) developed a basic digital forensic investigation model called the Four Step Forensics Process (FSFP) with the idea of Venter (2006) that digital forensics investigation can be conducted by even non-technical persons. This model gives more flexibility than any other model so that an organization can adopt the most suitable model based on the situations that occurred. These are the reasons we chose this model for this investigation. FSFP contains the following four basic processes, as shown in the figure:

Figure 1: FSFP Forensic Investigation Model

The “Preserve and Document Evidence” arrow mark indicates that we must preserve and document the all evidences during the course of investigation, as this can be submitted to the court as evidences in some cases. We will discuss each and every process or stage of the FSFP investigation model in following sections.


In January 1975, Allen read an article in Électronique populaire magazine about the Altair 8800 microcomputer and showed it to Gates. Gates called MITS, makers of the Altair, and offered his and Allen's services to write a version of the new BASIC programming language for the Altair.

After eight weeks, Allen and Gates demonstrated their program to MITS, which agreed to distribute and market the product under the name Altair BASIC. The deal inspired Gates and Allen to form their own software company. Thus, Microsoft was started on April 4, 1975 in Albuquerque, New Mexico—the home of MITS—with Gates as the first CEO.


Six Ways Proper Preparation and Planning Will Pay Off

  • Make you a better teacher: A significant part of planning and preparation is conducting research. Studying educational theory and examining best practices helps define and shape your own teaching philosophy. Studying the content that you teach in depth will also help you grow and improve.
  • Boost student performance and achievement: As a teacher, you should have the content that you teach mastered. You should understand what you are teaching, why you are teaching it, and you should create a plan for how to present it to your students every single day. This ultimately benefits your students. It is your job as a teacher to not only present the information but to present in a way that resonates with the students and makes it important enough for them to want to learn it. This comes through planning, preparation, and experience.
  • Make the day go by faster: Downtime is a teacher’s worst enemy. Many teachers use the term “free time”. This is simple code for I did not take the time to plan enough. Teachers should prepare and plan enough material to last the entire class period or school day. Every second of every day should matter. When you plan enough students remain engaged, the day goes by quicker, and ultimately student learning is maximized.
  • Minimize classroom discipline issues: Boredom is the number one cause of acting out. Teachers who develop and present engaging lessons on a daily basis rarely have classroom discipline issues. Students enjoy going to these classes because learning is fun. These types of lessons do not just happen. Instead, they are created through careful planning and preparation.
  • Make you confident in what you do: Confidence is an important characteristic for a teacher to possess. If for nothing else, portraying confidence will help your students buy what you are selling. As a teacher, you never want to ask yourself if you could have done more to reach a student or group of students. You might not like how a particular lesson goes, but you should take pride in knowing that it was not because you lacked in preparation and planning.
  • Help earn the respect of your peers and administrators: Teachers know which teachers are putting in the necessary time to be an effective teacher and which teachers are not. Investing extra time in your classroom will not go unnoticed by those around you. They may not always agree with how you run your classroom, but they will have a natural respect for you when they see how hard you work at your craft.

The Process of Development of Information System: A Typical Software Development Life Cycle

The process of development of information systems in an organization may vary from case to case but ideally the stages of development can be clearly demarcated. The process of development of information system involves the following stages:

  1. Planning-planning is required as without planning the outcome will be below expectations. Planning sets the objectives of the system in clear and unambiguous terms so that the developer may conform to a well laid set of deliverables rather than a high-sounding statement that may mean little to him. Planning also enables the development process to be structured so that logical methodology is used rather than working in fits and starts. It ensures user participation and helps in greater acceptability and a better outcome from the development process. It leads to a system that is well balanced in both the managerial and technical aspects.
  2. Analysis-is an activity of technical representation of a system. Over the years many methods have been developed of which the structured analysis and object oriented analysis are most widely used. This step or activity is the first technical representation in abstract terms of the system.
  3. Design-is the stage where the model or representation of an entity or a system is done (in detail). It is based on the idea that the developer will be able to develop a working system conforming to all the specifications of the design document which would satisfy the user. ·It is a concept which has been borrowed from other branches in engineering where the blueprint of a system or entity to be built later is first created on a piece of paper or digitally to help developers in conceptualization of the system and to understand the specifications of the system.
  4. Coding-is the actual stage of writing codes to develop the application software according to the specifications as set by the design document. The programming done at this stage to build the system is dictated by the needs of the design specifications. The programmer cannot go beyond the design document.
  5. Testing-is the testing of the system to check if the application is as per the set specification and to check whether the system will be able to function under actual load of data. The testing is also done to remove any bugs or errors in the code.
  6. Implementation-is the stage when the system is deployed in the organization. This is a process which often is a difficult one as it involves some customization of the code to fit context specific information in the system.

Before commencing IS planning, one must also identify the need for new information system. The above figure gives a flow chart to find out if the existing IS is fulfilling the objectives of the organization with respect to IS. Sometimes, an existing IS can be tweaked or redesigned to align it with the changing objectives and business needs of the organization but sometimes, that become too costly or technically infeasible, in which case, one has to start the process for a new IS. The above flowchart also gives us a tool to use to understand whether our existing IS is relevant for our business operations.


A Very Short History Of EMC Corporation

Traders work near the post that handles EMC Corp. on the floor of the New York Stock Exchange, . [+] Monday, Oct. 12, 2015. Dell is buying data storage company EMC in a deal valued at approximately $67 billion. (AP Photo/Richard Drew)

EMC has been one of the best kept secrets in tech. Even in the 1990s, when it was the second most successful stock on Wall Street, just behind Dell, it has remained relatively unknown.

Still, it had a profound impact on the IT industry, for a while making entreprise data big with its exclusive focus on developing and selling data storage and data management hardware and software and convincing its customers to buy its products independent of their other IT buying decisions. In doing so, it has joined a handful of other “best-of-breed” vendors driving the restructuring during the 1990s of an IT industry previously dominated by a few vertically integrated, “one-stop-shopping” vendors.

Then data became really big and started eating the world, leading to the rise of digital natives (especially Google, Amazon and Facebook) and another restructuring of the IT industry, and another shift in the nature of IT buying decisions and the type of IT buyers. In response to these changes, EMC has agreed to be acquired by Dell in the largest-ever tech merger.

Gallery: 2016 30 Under 30: Consumer Tech

EMC was founded in August 1979 in Massachusetts and went through three distinct eras: The Dick Egan and Roger Marino era when it successfully developed and sold computer memory systems the Moshe Yanai and Mike Ruettgers era, when it developed (Yanai) and sold (Ruettgers) high-end, disk-based computer storage systems (hardware and software) and the Joe Tucci era, continuing EMC’s tradition of focused execution and sales excellence, while relying mostly on a long string of acquisitions for innovation and diversification.

August 23, 1979 43-year-old Dick Egan and 40-year-old Roger Marino quit their jobs and the former college roommates incorporate EMC in Massachusetts. Like other entrepreneurs they wanted to be their own bosses, but without an idea or a plan for a product, they initially sold office furniture.

1980 Egan and Marino become New England representatives for Intel, selling the company’s product line and renting out microprocessor development systems. They also sell computer memory for DEC’s PDP-11 and other companies’ minicomputers.

1981 On the suggestion of one of their customers, Egan, Marino and a handful of other engineers develop EMC’s first product, a Prime Computer minicomputer compatible memory, offering higher reliability and capacity at half the price of Prime’s comparable product.

1983 EMC continues on the successful path of using Intel’s standard components to develop compatible solid state memory products for DEC VAX and Wang Laboratories minicomputers. Annual revenues: $6 million. Roger Marino, who is credited with developing EMC’s assertive sales force, knew where to find motivated recent college graduates who were also good team players: “I hired guys I liked. I like smart people. I like athletes. These guys that worked for me were smart athletes, and they went out and killed” (quoted in Boston magazine, November 2003).

April 1986 EMC goes public on Nasdaq, raising $30 million. Revenues for 1986 were $66.6 million (up from $33.3 million the year before) and income was $18.6 million (up from $7.5 million), with 400 employees.

In their letter to shareholders in EMC’s first annual report, Dick Egan and Roger Marino analyzed the shift in buying behavior and customer expectations driving EMC’s success:

…the increased competition for new business has created an attitude of user independence that heretofore did not exist. The realization that the users are Customers with all the rights to which Customers are entitled has become widespread. One way the end users are exercising their rights is by demanding performance improvements at the lowest price from the best suppliers regardless of who manufactured the original processor. By treating end users like Customers and by making optimum use of new technology to provide better performance and reliability, EMC has become a valued supplier to over 10,000 computer users.

At EMC’s 25 th anniversary celebration in 2004, Egan recounted how during a presentation to Wall Street analysts and investors before the EMC IPO, one not-too-friendly analyst asked: “As we know, all companies eventually go out of business. What is it that will cause EMC’s demise?” Said Egan (in 2004), “I confess I was not prepared for this. I had never ever really thought about it and, standing here today, I can’t see why I ever will!”

August 1987 Dick Egan hires Moshe Yanai and gives him free reign to develop a mainframe disk storage system. Dave Vellante (then at IDC): “Moshe has made a number of key technical calls which flew in the face of conventional wisdom but were spot-on. The company would not be where it is today without Moshe” (quoted in the 1999 Radical Marketing, see below).

In a 1999 interview Dick Egan explained the decision to enter the disk storage market by pointing out that the “storage pyramid” is actually a diamond. The “pyramid” was the traditional way of segmenting the data storage market, with a small market—in terms of the total bytes of data storage—at the top, represented by high-cost memory providing fast access to data, and a large market with lots of bytes at the bottom represented by relatively inexpensive, slow-access tape. But he realized that one of the segments in the middle of the pyramid, represented by disk storage with a relatively high cost per megabyte was a much larger market in terms of potential revenues than the markets at the top and bottom of the pyramid. This market anomaly was mainly due to the dominance of IBM in the mainframe disk storage market resulting in disk storage at time selling for more than $10 per megabyte. With the right product, EMC could repeat the success it had in the plug-compatible memory market where it had enjoyed the price umbrella provided by mini-computer vendors selling their proprietary (and expensive) memory products.

March 1988 EMC’s stock begins trading on the New York Stock Exchange. Egan told À l'envers in 1994: “I wanted to get on the New York Stock Exchange as soon as I could because the customers I was selling to all played on that board.”

April 1988 EMC opens a manufacturing plant in Cork, Ireland, to meet growing international demand.

1988 EMC suffers its first annual loss ($7.8 million) when its first disk-based storage product for the IBM mainframe market repeatedly failed after it was installed. It took 18 months (and another loss of $18.5 million in 1989) before the problem was traced to disk drives that were shipped to EMC with specks of face powder (the assemblers were not properly trained) that caused them to fail randomly. In response, EMC institutes company-wide quality and continuous improvement programs and becomes ISO certified.

September 1990 EMC introduces Symmetrix Integrated Cached Disk Array, a mainframe computer storage device, combining an array of PC disks with large cache memory for fast access to data and high availability in a small footprint. Previously, storage had been an afterthought for mainframe makers—a passive container that came with a “Single Large Expensive Disk (SLED).” In 1991, the product comprised 38% of EMC’s annual revenues.

1991 EMC eliminates many of its memory products, focusing on disk-based storage systems. Roger Marino to À l'envers in 1994: “At the time, I couldn’t understand why Egan would want to sell such a profitable line. But now I see it was superlative timing on Egan’s part.”

December 1991 Revenues for 1991 increase 37% to $260 million and income grows 223% to $11 million.

January 1992 Mike Ruettgers becomes President and CEO.

January 1992 Capitalizing on the server-agnostic nature of the Symmetrix product line, EMC signs an OEM agreement with Unisys to supply it with compatible storage systems. A similar agreement was signed with France-based Groupe Bull in April 1993.

September 1993 EMC acquires Magna Computer, provider of tape storage for AS/400 computers and Epoch Systems, developer of storage management software.

May 1994 EMC announces Symmetrix 5500, the world’s first terabyte-sized storage system.

May 1994 Inc. magazine publishes “Opposite Attractions,” an in-depth profile of the winners of the 1994 Master EOY award, Ely Callaway of Callaway Golf and Dick Egan of EMC. David Whitford captured well Egan’s “alley fighter” personality and drive:

"There's got to be a they before there's a we," says Egan, paraphrasing somebody, he's not sure whom. There has always been a "they" -- Cifrino [the owner of the supermarket where Egan’s father worked as a meatcutter] and his son, the classy friends on the Cape, IBM -- always someone for Egan to set himself against, someone to fight and unseat. Rich as he is, Egan now burns as hot as ever. He stokes the fire in his employees by making bets against them, by giving them big odds on meeting a product deadline or on solving an engineering riddle and then putting up his own money and demanding they do the same. He hopes like hell he'll lose, because then, of course, the company wins, and Egan gets to play the tough guy in front of the troops and pay the winners in cash…

And the "we"? That's his company and his family, which in many cases are one and the same. He has three sons and one daughter, all of whom have worked for EMC at one time or another, all of whom, he says proudly, are millionaires… All over the company—in telephone marketing, in facilities management, and among the engineers—are Egans and Fitzgeralds, no apologies necessary. ("He's a good man," Egan says as he passes a young man in the hall. "He also happens to be the father of two of my grandchildren.") And who's on the board? "Ha-ha-ha! Me, my wife, my son, and my brother-in-law." Plus four others, but they hardly count. "Let me settle the board thing with you," he says. "I want only one thing from the board: compliance. Directors can make only one of two statements. It's either 'I agree' or 'I resign."

October 1994 EMC announces Symmetrix Remote Data Facility (SRDF), its first storage-based software application. SRDF restores data from a secondary site within minutes of an outage or interruption. EMC Customers invented more uses for it, including data center consolidations and migrations. With the subsequent release of additional applications, EMC became by 1998 one of the world’s fastest-growing software companies. In 2004, software accounted for 26% of revenues.

November 1994 EMC establishes a new division, the Open Storage Group, and announces Centriplex, a newly-developed product aimed at the Unix storage market. The product will be discontinued by the end of 1995 in light of the rapid success of the Symmetrix 3000, also aimed at the Unix storage market.

December 1994 1994 revenues grew 76% to $1.37 billion and income rose 97% to $251 million. The number of employees is 3,200.

February 1995 With partners Alcatel and Pacific Bell, EMC demonstrates the “Cinema of the Future,” streaming high definition video from Symmetrix to high definition projection systems and television monitors.

June 1995 EMC announces Symmetrix 3000, an adaptation of its mainframe storage product for servers running the Unix operating system. By 1997, Symmetrix became the leading server-agnostic or Enterprise Storage system, the first to support simultaneously mainframes and Unix and NT servers. EMC’s open systems (Unix and NT) revenues that year had grown to $1.5 billion, surpassing mainframe storage sales for the first time.

October 1995 EMC acquires network switch vendor McData Corporation, positioning EMC for the emerging network storage market.

November 1995 EMC signs OEM agreement with Hewlett-Packard and ATT GIS (NCR), to market and sell Symmetrix 3000. EMC announces Symmetirx ESP, the first system to provide simultaneous storage of mainframe and open systems (Unix, etc.) data on the same device.

December 1995 EMC takes the lead in the mainframe storage market. In 1990, when EMC entered the mainframe storage market with Symmetrix, IBM held 76% of the market while EMC held 0.2%. In 1995, EMC accounted for 41% of mainframe storage terabytes shipped while IBM’s share fell to 35%.

April 1996 A new 3,000 square foot Network Storage Technology Center opens at EMC headquarters in Hopkinton, Massachusetts.

[Update] May 1996 Ethernet inventor Bob Metcalfe visits the Network Storage Technology Center in Hopkinton and writes in his Infoworld column:


EMC's vice president of engineering, Moshe Yanai, is way ahead of me. EMC's storage systems are high-capacity, already up into the terabytes (thousands of gigabytes). Yanai said that EMC's push into networking is all about economies of scale and "storage consolidation." With a twinkle in his eye, he told me that his goal is to put all the information in the world on one EMC server.

OK, now listen to this: Yanai's worry, which he explained with a graph drawn in my notebook, is whether, after the perfection of "atom-manipulation" disk technology, the demand for information storage will be able to keep up with the supply of high-capacity disks. Yes, Yanai asked me to reassure him that the Internet is going to have uses for all the storage capacity that EMC is working to make available.

A 17-square-foot terabyte EMC Media Server had already been demonstrated for the National Association of Broadcasters in Las Vegas. It's NFS that has yet to be shipped. Isn't that backward, MPEG before NFS? EMC found doing a media server "easy." . Extranets will require big servers. And as electronic commerce ramps, those servers will have to be reliable and fast. As millions of consumers get involved, video will be required.

So I suggest you keep your eye on EMC and that worldwide server Yanai is building in Hopkinton.

October 1996 EMC enters the file server market, calling it the Network-Attached Storage (NAS) market (and convincing all competitors and analysts to use that term), with Symmetrix Network File Storage (SNFS), later renamed Celerra.

April 1997 EMC introduces TimeFinder business continuance software, allowing customers to non-disruptively create multiple copies of their production data to be used for a variety of purposes such as backups, Year 2000 testing, Euro Currency conversion, data warehouse loading, and application development.

1999 Radical Marketing by Sam Hill and Glenn Rifkin, which includes a chapter on EMC, is published. In a section titled “let your customers be your marketing department,” Hill and Rifkin write:

For Denis O’Leary, Chase Manhattan former CIO and now executive vice president of national consumer services, EMC is not just a radical marketer but a high-tech marketing model for the next millennium. EMC’s penchant for staying close to the customer is at the root of the company’s success. “If we have a problem in storage at 3:00am, I know I can get Mike Ruettgers on the phone and he isn’t going to ask why I’m calling,” O’Leary says. He says Egan and Ruettgers epitomize a new CEO-centric selling model that has started to pervade the high-tech sector, a model that put CEOs of high-tech companies in constant touch with customers.

October 1999 EMC acquires Data General for $1.1 billion. Founded in 1968, it developed the first minicomputer based on integrated circuit technology, and, in 1992, introduced the CLARiiON disk storage system. Cnet reported: “EMC estimated the midrange [storage] push gained from Data General will increase its target market presence by almost 40 percent by 2001. ‘It's very unusual circumstances where a company can increase the size of the target market, yet stay within their core competency,’ said [CEO Mike] Ruettgers.”

November 1999 EMC enters the storage area network (SAN) market, making it easier to connect multiple storage devices to multiple servers via Fibre Channel networking technology.

December 2000 EMC opens the world’s largest interoperability lab for storage area networks.

January 2001 Joe Tucci is named President and CEO Mike Ruettgers becomes Executive Chairman and founder Dick Egan becomes Chairman Emeritus.

January 2001 The Harvard Business Review publishes “Managing for the next big thing: An interview with EMC’s Michael Ruettgers.” In response to interviewer Paul Hemp’s question whether the server vendors had an additional leverage with customers because they sold other IT components in addition to storage, Ruettgers explained the advantages of EMC’s “maniacal focus” on storage:

I think our focus on a single business actually helps us stay ahead of the curve. In some respects, this runs counter to what I learned in business school, where the prevailing wisdom was to diversify. But our single-minded focus creates a special lens through which to view and interpret customers’ current and future needs. For example, our perspective allowed us to see that the computer industry had, in some ways, lost sight of its reason for being. It had become so consumed with the “T” in IT—the creation of faster processors and more efficient networks—that it had forgotten about the “I.” Yet ultimately, it’s information that customers care about: the speed of access to it, its availability, the ability to share it across an organization. Other companies, with the distractions of their different business areas, weren’t as quick to see this.

… look at Data General, which we acquired in 1999. The company faced terrific challenges as the minicomputer business collapsed, but it moved into the open-storage business about the same time we did. It had an excellent storage product and a relatively good position in certain segments of the storage marketplace. Still, its executives were never willing to give up their other business until we acquired them, even though their minicomputer revenue was declining and they understood their opportunities were on the storage side. Acting on an opportunity, as well as merely identifying it, is to some extent easier when you’re committed to a single industry.

October 2001 Dell and EMC sign a five-year, multi-billion dollar alliance for Dell to sell EMC’s CLARiiON storage. Analyst Steve Duplessie of the Enterprise Storage Group reacted: “The move, in theory, is just stinking brilliant.”

April 2002 A year after EMC acquired Belgian software company FilePool, it introduces the concept of “content-addressed storage” and a product, Centera, the first storage solution designed specifically for fixed, or unchanging, content. Centera became EMC’s fastest-growing storage system ever.

August 2002 EMC introduces the EMC CLARiiON CX series, altering the industry’s mid-tier price-performance curve.

September 2002 EMC share price hits a low of $3.62, down from $104 in September 2000. Revenues in 2001 fell to $7 billion from $8.9 billion in 2000 and EMC lost $508 million for the year. In 2002, revenues went further down to $5.4 billion and EMC lost $119 million. Recovery came in 2003 with $6.2 billion in revenues and income of $496 million. “Companies afraid to disrupt themselves almost 100% of the time end up being disrupted,” Tucci told Fortune magazine in 2002. “We’re doing what competitors never thought we’d have the intestinal fortitude to do.”

February 2003 EMC introduces the EMC Symmetrix DMX series of storage systems.

July 2003 EMC announces an agreement to acquire Legato Systems in a stock transaction valued at $1.3 billion. The acquisition adds to EMC’s storage management portfolio backup and recovery capabilities, hierarchical storage management and e-mail and content archiving.

October 2003 EMC announces an agreement to acquire enterprise content management vendor Documentum in a stock transaction valued at for $1.7 billion.

December 2003 EMC announces an agreement to acquire virtualization software vendor VMware in a cash transaction of approximately $635 million. One financial analyst noted: “We believe that the VMware line has the potential to be EMC’s killer app.” In August 2007, EMC offered 10% of VMware stock in an IPO. At the end of the first trading day, VMware’s market cap was $19.1 billion. “I’m 59 years old and VMware is the best investment I made in my life," Joe Tucci told the New York Times in February 2007.

August 2005 EMC announces an agreement to acquire Rainfinity, a provider of virtualization solutions for heterogeneous networked attached storage (NAS) and file system environments. The acquisition is valued at less than $100 million.

May 2006 EMC announces that it has acquired Kashya, a privately held provider of enterprise-class data replication and data protection software in a cash transaction valued at approximately $153 million.

June 2006 EMC announces an agreement to acquire RSA Security for approximately $2.1 billion.

November 2006 EMC announces an agreement to acquire privately-held Avamar Technologies, a provider of enterprise-class data protection software featuring industry-leading data de-duplication technology in a cash transaction valued at approximately $165 million.

2008 EMC is the first to integrate Flash drives into enterprise storage systems. Revenues for the year reach $14.8 billion with income of $1.3 billion.

July 2009 EMC completes its acquisition of Data Domain, a pioneer of data deduplication, for $2.4 billion.

July 2010 EMC acquires Greenplum, provider of big data analytics software.

November 2010 EMC announces an agreement to acquire Isilon Systems, a fast-growing a provider of network-attached storage systems for approximately $2.25 billion.

January 2011 EMC introduces VNX, a new family of unified storage systems combining the features of CLARiiON (mid-tier storage) and Celerra (network-attached storage).

March 2012 According to the IDC Worldwide Quarterly Disk Storage Systems Tracker, EMC has remained the top provider (in revenues) of external disk storage systems for the 15th consecutive year.

March 2012 EMC announces it has acquired Pivotal Labs, a privately-held provider of agile software development services and tools.

May 2012 EMC announces that it has acquired privately held XtremIO, a pioneer in the development of Flash storage architecture.

July 2013 EMC announces an agreement to acquire privately-held ScaleIO, a pioneer in server-side storage software.

September 2013 EMC announces availability of ViPR software-defined storage platform.

November 2013 EMC announces general availability of XtremIO all-flash array.

May 2014 EMC announces an agreement to acquire privately-held DSSD, developer of an innovative new rack-scale flash storage architecture for I/O-intensive in-memory databases and Big Data workloads.

May 2015 EMC announces an agreement to acquire privately-held Virtustream, a provider of cloud software and services.

October 12, 2015 Dell Inc. and EMC Corporation announce they have signed a definitive agreement under which Dell, together with its owners, Michael S. Dell, founder, chairman and chief executive officer of Dell, MSD Partners and Silver Lake, will acquire EMC Corporation. The transaction is valued at approximately $67 billion.

December 2015 Revenues for 2015 grew 1% to $24.7 billion and income fell 35% to $2 billion.

March 2016 According to IDC’s Quarterly Enterprise Storage System Tracker, EMC led the $24 billion external enterprise storage systems market (down 2.4% from 2014) with 29.6% share. EMC also led the all flash array market with 37.7% share.

August 30, 2016 Dell Inc. and EMC Corporation announce that they intend to close the transaction to combine Dell and EMC on September 7, 2016. Dell Technologies, the name of the new combined company, will begin operating immediately following the close of the transaction. From the announcement:

“This is an historic moment for both Dell and EMC. Combined, we will be exceptionally well-positioned for growth in the most strategic areas of next generation IT including digital transformation, software-defined data center, converged infrastructure, hybrid cloud, mobile and security,” said Michael Dell, chairman and CEO of Dell Technologies. “Our investments in R&D and innovation, along with our 140,000 team members around the world, will give us unmatched scale, strength and flexibility, deepening our relationships with customers of all sizes.”

“I am proud of everything we’ve built at EMC – from humble beginnings as a Boston-based startup to a global, world-class technology company with an unyielding dedication to our customers,” said Joe Tucci, chairman and chief executive officer of EMC. “The combination of Dell and EMC creates a new powerhouse in the industry - providing the essential technology for the next era in IT.”

Upon close of the transaction, EMC shares under the ticker symbol “EMC” will be suspended from trading on the New York Stock Exchange.


Analog Computers

Systron Donner Analog Computer

Some electronic computers used analog voltage levels instead of binary numbers. They could solve complex equations but were limited to about three digits of precision. They couldn't do most of the things computers do today.

This one was programmed by wiring the patch panel on the top. The knobs are used for input data, and the answer reads on the meter. Suite.

The collection also includes an early Heathkit analog computer.


Voir la vidéo: Tietokone kierrätykseen