Bref historique du développement informatique. Principales étapes de l'histoire du développement informatique

Un des les plus grandes inventions de son époque. Des milliards de personnes utilisent des ordinateurs dans leur Vie courante mondial.

Au fil des décennies, l'ordinateur est passé d'un appareil très coûteux et lent aux machines extrêmement intelligentes d'aujourd'hui, dotées d'une puissance de traitement incroyable.

Personne n'est crédité d'avoir inventé l'ordinateur ; beaucoup pensent que Konrad Zuse et sa machine Z1 ont été le premier d'une longue lignée d'innovations qui nous ont amenés à l'ordinateur. Konrad Zuse était un Allemand devenu célèbre pour avoir créé le premier appareil informatique mécanique librement programmable en 1936. La Z1 de Zuse a été créée en mettant l'accent sur 3 éléments principaux encore utilisés dans les calculatrices modernes. Plus tard, Konrad Zuse a créé les Z2 et Z3.

Les premiers ordinateurs de la série Mark ont ​​été construits à Harvard. MARK a été créé en 1944 et cet ordinateur avait la taille d'une pièce, mesurant 55 pieds de long et 8 pieds de haut. MARK pourrait effectuer large éventail calculs. C’est devenu une invention à succès et a été utilisé par l’US Navy jusqu’en 1959.

L'ordinateur ENIAC a été l'une des avancées les plus importantes en informatique. Il a été commandé pendant la Seconde Guerre mondiale par l’armée américaine. Cet ordinateur utilisait des tubes à vide au lieu de moteurs électriques et de leviers pour des calculs rapides. Sa vitesse était des milliers de fois supérieure à celle de tout autre appareil informatique de l’époque. Cet ordinateur était énorme et coûtait au total 500 000 $. ENIAC était en service jusqu'en 1955.

La RAM ou Random Access Memory a été introduite en 1964. La première RAM était une plaque de détection de métaux située à côté d'un tube à vide qui détectait les différences de charges électriques. C’était un moyen simple de stocker des instructions informatiques.

Les innovations furent nombreuses en 1940. Manchester a développé le Centre de recherche en télécommunications. C'était le premier ordinateur à utiliser un programme stocké et il est devenu opérationnel en 1948. Manchester MARK I a continué à vivre en 1951 et a fait d'énormes progrès.

UNIVAC a été construit par les créateurs d'ENIAC. C'était l'ordinateur le plus rapide et le plus innovant, capable de traiter de nombreux calculs. C'était un chef-d'œuvre de son époque et il a été très apprécié par le public.

IBM, le premier ordinateur personnel largement utilisé et accessible au grand public. L'IBM 701 a été le premier ordinateur à usage général développé par IBM. Un nouveau langage informatique appelé « Fortran » a été utilisé dans le nouveau modèle 704. L'IBM 7090 fut également un grand succès et domina les deux ordinateur de bureau au cours des 20 prochaines années. À la fin des années 1970 et dans les années 1980, IBM a développé l’ordinateur personnel connu sous le nom de PC. IBM a eu une énorme influence sur les ordinateurs utilisés aujourd'hui.

Avec la croissance du marché des ordinateurs personnels au début et au milieu des années 1980, de nombreuses entreprises ont réalisé que les interfaces graphiques étaient plus conviviales. Cela a conduit au développement d'un système d'exploitation appelé Windows par Microsoft. La première version s'appelait Windows 1.0, puis Windows 2.0 et 3.0. Microsoft devient de plus en plus populaire aujourd'hui.

Aujourd’hui, les ordinateurs sont extrêmement puissants et plus abordables que jamais. Ils ont infiltré pratiquement tous les aspects de nos vies. Ils sont utilisés comme un puissant outil de communication et de trading. L’avenir des ordinateurs est immense.

Les ordinateurs personnels d'aujourd'hui sont très différents des appareils massifs et encombrants apparus pendant la Seconde Guerre mondiale, et la différence ne réside pas seulement dans leur taille. Les « pères » et « grands-pères » des ordinateurs de bureau et portables modernes ne savaient pas comment faire une grande partie de ce qu'ils gèrent facilement. voitures modernes. Cependant Le tout premier ordinateur au monde a constitué une avancée majeure dans le domaine de la science et de la technologie.. Asseyez-vous devant votre moniteur et nous vous raconterons comment l'ère du PC a commencé.

Qui a créé le tout premier ordinateur au monde

Dans les années 40 du siècle dernier, plusieurs appareils pouvaient prétendre au titre de premier ordinateur.

Z3

Konrad Zuse

Un des premiers ordinateurs créé par l'ingénieur allemand Konrad Zuse, qui a travaillé en totale indépendance des développements des autres scientifiques. Il disposait d'un bloc de mémoire séparé et d'une console séparée pour la saisie des données. Et leur support était une carte perforée à huit pistes fabriquée par Zuse à partir d'un film 35 mm.

La machine disposait de 2 600 relais téléphoniques et pouvait être librement programmée en code binaire à virgule flottante. Le Z3 fut utilisé pour des calculs aérodynamiques, mais fut détruit lors du bombardement de Berlin fin 1943. Zuse a supervisé la reconstruction de son idée dans les années 1960 et la machine programmable est désormais exposée dans un musée de Munich.

Le Mark 1, conçu par le professeur Howard Aiken et commercialisé par IBM en 1941, fut le premier ordinateur programmable américain. La machine a coûté un demi-million de dollars et a été utilisée pour développer des équipements pour la marine américaine, tels que des torpilles et des systèmes de détection sous-marine. Mark 1 a également été utilisé dans le développement de dispositifs d'implosion pour la bombe atomique.

C'est « Mark 1 » que l'on peut appeler le tout premier ordinateur au monde. Ses caractéristiques, contrairement au Z3 allemand, permettaient d'effectuer des calculs automatiquement, sans nécessiter d'intervention humaine dans le processus de travail.

Ordinateur Atanasoff-Berry (ABC)

En 1939, le professeur John Vincent Atanasoff reçut des fonds pour créer une machine appelée Atanasoff-Berry Computer (ABC). Il a été conçu et assemblé par Atanasov et l'étudiant diplômé Clifford Berry en 1942. Cependant, le dispositif ABC n'était pas largement connu jusqu'au conflit de brevet entourant l'invention de l'ordinateur. Le problème n'a été résolu qu'en 1973, lorsqu'il a été prouvé que le co-auteur d'ENIAC, John Mauchly, avait vu l'ordinateur ABC peu de temps après qu'il soit devenu fonctionnel.

L'issue juridique du litige a été historique : Atanasov a été déclaré à l'origine de plusieurs idées informatiques majeures, mais l'ordinateur en tant que concept a été déclaré non brevetable et donc librement ouvert à tous les développeurs. Une copie de travail à grande échelle d'ABC a été achevée en 1997, prouvant que la machine ABC fonctionnait comme le prétendait Atanasov.

ENIAC

ENIAC

ENIAC a été développé par deux scientifiques de l'Université de Pennsylvanie : John Eckert et John Mauchly. Il pouvait résoudre « un large éventail de problèmes numériques » par reprogrammation. Bien que la machine ait été présentée au public après la guerre, en 1946, elle a joué un rôle important dans les calculs lors des conflits ultérieurs tels que la guerre froide et la guerre de Corée. Il a été utilisé pour les calculs lors de la création Bombe à hydrogène, calculs d'ingénierie et création de tables de tir. Elle a également fait des prévisions météorologiques en URSS pour que les Américains sachent où ils pourraient tomber. Tomber en cas de guerre nucléaire.

Contrairement au Mark 1 avec ses relais électromécaniques, l'ENIAC disposait de tubes à vide. On pense qu'ENIAC a effectué plus de calculs au cours de ses dix années d'activité que l'ensemble de l'humanité jusqu'à cette époque.

EDSAC

EDSAC

Le premier ordinateur avec mémoire stockée logiciel appelé EDSAC. Il a été collecté en 1949 à l'Université de Cambridge. Le projet de création a été dirigé par Maurice Wilkes, professeur de Cambridge et directeur du laboratoire de recherche informatique de Cambridge.

L'une des avancées majeures en matière de programmation a été l'utilisation par Wilkes d'une bibliothèque de programmes courts appelés « sous-programmes ». Il était stocké sur des cartes perforées et utilisé pour effectuer des calculs généraux répétitifs au sein du programme plus léger.

À quoi ressemblait le premier ordinateur au monde ?

L'américain Mark 1 était immense, mesurant plus de 17 mètres de long et plus de 2,5 mètres de haut. La machine, recouverte de verre et d'acier inoxydable, pesait 4,5 tonnes et la longueur totale de ses câbles de connexion atteignait presque 800 km. Un arbre de quinze mètres, qui entraînait un moteur électrique de 4 kW, était chargé de synchroniser les principaux modules informatiques.

Mark 1 au Musée IBM

L'ENIAC était encore plus lourd que le Mark 1. Il pesait 27 tonnes et nécessitait 174 kW d'électricité. Lorsqu'il était allumé, les lumières de la ville s'éteignaient. La machine n'avait ni clavier ni moniteur, occupait une superficie de 135 mètres carrés et était entrelacée de kilomètres de fils. Pour avoir une idée de l'apparence d'ENIAC, imaginez une longue rangée d'armoires métalliques remplies de haut en bas d'ampoules. Comme l'ordinateur ne disposait pas encore d'un refroidissement de haute qualité, il faisait très chaud dans la pièce où il se trouvait et ENIAC fonctionnait mal.

ENIAC

L'URSS ne voulait pas être à la traîne de l'Occident et a réalisé ses propres développements pour créer des ordinateurs. Le résultat des efforts des scientifiques soviétiques fut (MESM). Son premier lancement a eu lieu en 1950. Le MESM utilisait 6 000 lampes et occupait une superficie de 60 mètres carrés. m et puissance requise jusqu'à 25 kW pour le fonctionnement.

MESM

L'appareil pourrait effectuer jusqu'à 3 000 opérations par seconde. Le MESM a été utilisé pour des calculs scientifiques complexes, puis comme outil pédagogique et en 1959, la machine a été démantelée.

En 1952, le MESM avait sœur ainée- (BESM). Le nombre de tubes électroniques qu'il contient est passé à 5 000 et le nombre d'opérations par seconde a également augmenté - de 8 à 10 000.

BESM

Le premier ordinateur commercial au monde

Introduit aux États-Unis en 1951, il peut être considéré comme le premier ordinateur destiné à un usage commercial.

Il est devenu célèbre après avoir utilisé les données d'un sondage auprès de 1 % de la population électorale pour prédire correctement que le général Dwight Eisenhower remporterait les élections de 1952. Lorsque les gens ont réalisé les capacités du traitement des données informatiques, de nombreuses entreprises ont commencé à acheter cette machine pour leurs besoins.

Le tout premier ordinateur personnel au monde

Pour la première fois, le terme « ordinateur personnel » a été appliqué à la création de l'ingénieur italien Pier Giorgio Perotto appelée Programme 101. Il a été publié par Olivetti.

Programme 101

L'appareil a coûté 3 200 dollars et s'est vendu à environ 44 000 exemplaires. La NASA en a acheté dix pour les utiliser dans les calculs de l'alunissage d'Apollo 11 en 1969. Le réseau ABC (American Broadcasting Company) a utilisé Programma 101 pour prédire l’élection présidentielle de 1968. L'armée américaine l'a utilisé pour planifier ses opérations pendant la guerre du Vietnam. Il a également été acheté pour des écoles, des hôpitaux et des agences gouvernementales et a marqué le début d'une ère de développement et de ventes rapides de PC.

Le premier ordinateur domestique produit en série à l’étranger

En 1975, un article sur un nouveau kit informatique, l'Altair 8800, est paru dans un numéro du magazine Popular Electronics. Quelques semaines après l'introduction de l'appareil, les clients ont inondé son fabricant, MITS, de commandes. La machine était équipée d'une mémoire de 256 octets (extensible jusqu'à 64 Ko) et d'un bus d'interface universel, qui a évolué vers la norme "S-100", largement utilisée dans les ordinateurs amateurs et personnels de l'époque.

Altair 8800 pourrait être acheté pour 397 $. Après l'achat, le propriétaire radioamateur a dû souder et vérifier indépendamment le fonctionnement des composants assemblés. Les difficultés ne s'arrêtaient pas là, il fallait encore maîtriser l'écriture de programmes utilisant des zéros et des uns. L'Altair 8800 n'avait ni clavier ni moniteur, ni disque dur ni lecteur de disquette. Entrer le programme souhaité l'utilisateur a cliqué sur les interrupteurs à bascule sur le panneau avant de l'appareil. Et la vérification des résultats a été effectuée en observant les voyants clignotants sur le panneau avant.

UN en 1976, le premier ordinateur Apple est né, conçu et fabriqué à la main par Steve Wozniak et promu par son ami comme premier produit de l'entreprise ordinateur Apple Entreprise. L'Apple 1 est considéré comme le premier PC commercialisé.

Pomme 1

En fait, l'appareil n'avait ni moniteur ni clavier (la possibilité de les connecter était prévue). Mais il y avait un circuit imprimé entièrement équipé, contenant 30 microcircuits. L'Altair 8800 et d'autres appareils entrés sur le marché ne disposaient pas de cela, ils devaient être assemblés à partir d'un kit. L'Apple 1 avait à l'origine un prix quasi infernal de 666,66 dollars, mais a été réduit à 475 dollars un an plus tard. Plus tard, une carte supplémentaire a été lancée, permettant d'enregistrer des données sur un magnétophone à cassette. Cela a coûté 75 dollars.

Le premier ordinateur domestique produit en série en URSS

Depuis les années 80 du 20e siècle, un ordinateur appelé « Pravets » a commencé à être produit en Bulgarie. C'était un clone de la deuxième version d'Apple. Un autre clone inclus dans la gamme Pravets était le PC IBM « soviétique », basé sur les processeurs Intel 8088 et 8086. Un clone ultérieur d'Oric Atmos était le modèle « domestique » « Pravets 8D » dans un petit boîtier et avec un clavier intégré. Elle a été produite de 1985 à 1992. Des ordinateurs Pravets ont été installés dans de nombreuses écoles de l'Union soviétique.

Ceux qui souhaitaient assembler un ordinateur personnel pouvaient utiliser les instructions du magazine Radio en 1982-83. et reproduire un modèle appelé "Micro-80". Il était basé sur le microprocesseur KR580VM80, similaire à l'Intel i8080.

En 1984, l'ordinateur Agat est apparu en Union soviétique, assez puissant par rapport aux modèles occidentaux. La quantité de RAM était de 128 Ko, soit le double de la quantité de RAM des modèles Apple du début des années 80 du XXe siècle. L'ordinateur a été produit en plusieurs modifications, avait un clavier externe avec 74 touches et un écran noir et blanc ou couleur.

La production des "Agates" s'est poursuivie jusqu'en 1993.

Les ordinateurs de notre époque

De nos jours, la technologie informatique moderne évolue très rapidement. les hommes modernes sont des milliards de fois plus grands que leurs ancêtres. Chaque entreprise souhaite surprendre des utilisateurs déjà blasés, et jusqu’à présent, beaucoup y sont parvenus. Voici quelques-uns des principaux sujets de ces dernières années :

  • L'ordinateur portable qui a eu un impact important sur le développement de l'industrie : Apple Macbook (2006).
  • Un smartphone qui a eu une influence importante sur le développement de l'industrie : Apple iPhone (2007).
  • La tablette qui a eu une influence importante sur le développement de l'industrie : Apple iPad (2010).
  • La première montre intelligente : Pulsar Time Computer (1972). On peut les voir sur la main de James Bond dans le film d'action Live and Let Die de 1973.

Et bien sûr diverses consoles de jeux : Playstation, Xbox, Nintendo, etc.

Nous vivons dans période intéressante(même si cela ressemble à une malédiction chinoise). Et qui sait ce qui nous attend dans un avenir proche. Des ordinateurs neuronaux ? Des ordinateurs quantiques ? Attend et regarde.

Retour dans la première moitié du 19ème siècle. Le mathématicien anglais Charles Babbage a tenté de construire un dispositif informatique universel, c'est-à-dire un ordinateur (Babbage l'appelait le moteur analytique). C'est Babbage qui a eu le premier l'idée qu'un ordinateur devait contenir de la mémoire et être contrôlé par un programme. Babbage voulait construire son ordinateur comme un appareil mécanique et prévoyait de définir des programmes à l'aide de cartes perforées - des cartes faites de papier épais avec des informations imprimées à l'aide de trous.

Cependant, Babbage n'a pas pu terminer ce travail - il s'est avéré trop complexe pour la technologie de l'époque.

L'ingénieur allemand Konrad Zuse a construit en 1941 un petit ordinateur basé sur plusieurs relais électromécaniques. Mais à cause de la guerre, les œuvres de Zuse ne furent pas publiées.

Et aux États-Unis, en 1943, dans l'une des entreprises IBM, l'Américain Howard Aiken a créé un ordinateur plus puissant appelé « Mark-1 ». Il permettait déjà d'effectuer des calculs des centaines de fois plus rapidement qu'à la main et était même utilisé pour des calculs militaires.

Aux États-Unis, dès 1943, un groupe de spécialistes dirigé par John Mauchly et Presper Eckert commença à construire un ordinateur ENIAC basé sur des tubes à vide. L'ordinateur qu'ils ont créé fonctionnait mille fois plus vite que Mark-1. Pour simplifier et accélérer le processus de configuration des programmes, Eckert et Mauchly ont commencé à concevoir un nouvel ordinateur capable de stocker un programme dans sa mémoire.

En 1945, le célèbre mathématicien John von Neumann a participé aux travaux et a préparé un rapport sur cet ordinateur. Le rapport a été envoyé à de nombreux scientifiques et est devenu largement connu parce que von Neumann y formulait clairement et simplement les principes généraux du fonctionnement des ordinateurs, c'est-à-dire appareils informatiques universels. Et à ce jour, la grande majorité des ordinateurs sont fabriqués conformément aux principes exposés par John von Neumann dans son rapport de 1945. Le premier ordinateur intégrant les principes de von Neumann a été construit en 1949 par le chercheur anglais Maurice Wilkes.

Dans les années 40 et 50, les ordinateurs ont été créés à l’aide de tubes à vide. Par conséquent, les ordinateurs étaient très gros (ils occupaient d'immenses salles), chers et peu fiables - après tout, les tubes à vide, comme les ampoules ordinaires, grillent souvent.

Mais en 1948, les transistors ont été inventés : des dispositifs électroniques miniatures et peu coûteux qui pouvaient remplacer les tubes à vide. Cela a conduit à une réduction de plusieurs centaines de fois de la taille des ordinateurs et à une augmentation de leur fiabilité.

Les premiers ordinateurs à transistors sont apparus à la fin des années 50 et au milieu des années 60. Après l’avènement des transistors, l’opération la plus exigeante en main-d’œuvre dans la fabrication d’ordinateurs consistait à connecter et à souder des transistors pour créer des circuits électroniques. Mais en 1959, Robert Noyce (le futur fondateur d'Intel) a inventé une méthode permettant de créer des transistors et toutes les connexions nécessaires entre eux sur une seule plaquette de silicium. Les circuits électroniques résultants sont devenus connus sous le nom de circuits intégrés ou puces.

En 1968, Burroughs a lancé le premier ordinateur à circuits intégrés et en 1970, Intel a commencé à vendre des circuits intégrés à mémoire. Par la suite, le nombre de transistors pouvant être placés par unité de surface circuit intégré, a environ doublé chaque année, ce qui assure une réduction constante du coût des ordinateurs et une augmentation des performances.

Au début de 1975, le premier ordinateur personnel commercialisé, l'Altair-8800, basé sur le microprocesseur Intel-8080, est apparu. Et bien que ses capacités soient très limitées (la RAM n'était que de 256 octets, il n'y avait ni clavier ni écran), son apparition a été accueillie avec beaucoup d'enthousiasme : plusieurs milliers d'ensembles de la machine ont été vendus au cours des premiers mois.

Fin 1975, Paul Allen et Bill Gates (futurs fondateurs de Microsoft) créent un interprète pour l'ordinateur Altairo. Langage de base, qui permettait aux utilisateurs de communiquer avec l'ordinateur de manière assez simple et d'écrire facilement des programmes pour celui-ci. Cela a également contribué à la popularité des ordinateurs personnels. Les ordinateurs personnels ont commencé à être vendus entièrement équipés, avec clavier et écran ; la demande s'élevait à des dizaines puis des centaines de milliers d'unités par an.

En 1976, une nouvelle société, Apple Computer, est entrée sur le marché avec l'ordinateur Apple I à 666 $. Sa carte mère était vissée à un morceau de contreplaqué, et il n'y avait ni boîtier ni alimentation du tout.

Mais l'ordinateur Apple II, apparu en 1977, est devenu le prototype de la plupart des modèles ultérieurs, y compris le PC IBM.

À la fin des années 70, la diffusion des ordinateurs personnels a même entraîné une légère diminution de la demande de gros ordinateurs et de mini-ordinateurs (mini-ordinateurs). Cela est devenu un sujet de préoccupation sérieux pour IBM (International Business Machines Corporation), une entreprise leader dans la production de grands ordinateurs, et en 1979, IBM a décidé de s'essayer au marché des ordinateurs personnels.

Tout d'abord, le dernier microprocesseur 16 bits Intel-8088 a été choisi comme microprocesseur principal de l'ordinateur. Son utilisation a permis d'augmenter considérablement les capacités potentielles de l'ordinateur, puisque le nouveau microprocesseur permettait de travailler avec 1 Mo de mémoire, et que tous les ordinateurs disponibles à cette époque étaient limités à 64 Ko.

Les utilisateurs ont pu mettre à niveau leurs ordinateurs de manière indépendante et les équiper d'appareils supplémentaires provenant de centaines de fabricants différents.

Tout cela a conduit à une réduction du coût des ordinateurs compatibles IBM PC et à une amélioration rapide de leurs caractéristiques, et donc à une augmentation de leur popularité.

IBM n'a pas fait de son ordinateur un appareil tout-en-un unique et n'a pas protégé sa conception par des brevets. Au lieu de cela, elle a assemblé l’ordinateur à partir de pièces fabriquées indépendamment et n’a pas gardé secrets les spécifications de ces pièces ni la manière dont elles étaient connectées. En revanche, les principes de conception du PC IBM étaient accessibles à tous. Cette approche, appelée principe d'architecture ouverte, a fait du PC IBM un succès retentissant, même si elle a empêché IBM de partager les bénéfices de son succès.


Le besoin de compter est apparu chez les hommes avec l’avènement de la civilisation. Ils devaient effectuer des transactions commerciales, effectuer des relevés fonciers, gérer les réserves de récoltes et surveiller les cycles astronomiques. À cette fin, divers instruments ont été inventés depuis l'Antiquité, depuis les bâtons de comptage et les bouliers, qui, au cours du développement de la science et de la technologie, ont évolué vers des calculatrices et divers appareils informatiques, y compris des ordinateurs personnels.



La vie humaine au XXIe siècle est directement liée à l’intelligence artificielle. La connaissance des principales étapes de la création des ordinateurs est un indicateur personne instruite. Le développement des ordinateurs est généralement divisé en 5 étapes - on parle généralement de cinq générations.

1946-1954 - ordinateurs de première génération

Il faut dire que la première génération d'ordinateurs (ordinateurs électroniques) était basée sur des tubes. Des scientifiques de l'Université de Pennsylvanie (États-Unis) ont développé ENIAC – c'est le nom du premier ordinateur au monde. Le jour de sa mise en service officielle est le 15/02/1946. Lors de l'assemblage de l'appareil, 18 000 tubes à vide ont été utilisés. L'ordinateur, selon les normes actuelles, avait une superficie colossale de 135 mètres carrés, et le poids est de 30 tonnes. Les besoins en électricité étaient également élevés : 150 kW.

C’est un fait bien connu que cette machine électronique a été créée directement pour aider à résoudre les problèmes les plus complexes liés à la création d’une bombe atomique. L'URSS rattrapait rapidement son retard et en décembre 1951, sous la direction et avec la participation directe de l'académicien S.A. Lebedev, l'ordinateur le plus rapide d'Europe fut présenté au monde. Elle portait l'abréviation MESM (Small Electronic Calculating Machine). Cet appareil pourrait effectuer de 8 à 10 000 opérations par seconde.

1954 - 1964 - ordinateurs de deuxième génération

L'étape suivante du développement a été le développement d'ordinateurs fonctionnant à l'aide de transistors. Les transistors sont des dispositifs fabriqués à partir de matériaux semi-conducteurs qui vous permettent de contrôler le courant circulant dans un circuit. Le premier transistor à fonctionnement stable connu a été créé en Amérique en 1948 par une équipe de physiciens et de chercheurs Shockley et Bardin.

En termes de vitesse, les ordinateurs électroniques différaient considérablement de leurs prédécesseurs : la vitesse atteignait des centaines de milliers d'opérations par seconde. Les tailles et la consommation ont diminué énergie électrique est devenu moins. Le champ d'utilisation a également considérablement augmenté. Cela est dû au développement rapide des logiciels. Notre meilleur ordinateur, le BESM-6, avait une vitesse record de 1 000 000 d’opérations par seconde. Développé en 1965 sous la direction du concepteur en chef S. A. Lebedev.

1964 - 1971 - ordinateurs de troisième génération

La principale différence de cette période est le début de l'utilisation de microcircuits à faible degré d'intégration. Grâce à des technologies sophistiquées, les scientifiques ont pu placer des circuits électroniques complexes sur une petite plaquette semi-conductrice d’une superficie inférieure à 1 centimètre carré. L'invention des microcircuits a été brevetée en 1958. Inventeur : Jack Kilby. L'utilisation de cette invention révolutionnaire a permis d'améliorer tous les paramètres : les dimensions ont été réduites à environ la taille d'un réfrigérateur, les performances ont augmenté, ainsi que la fiabilité.

Cette étape du développement des ordinateurs se caractérise par l'utilisation d'un nouveau périphérique de stockage - un disque magnétique. Le mini-ordinateur PDP-8 a été introduit pour la première fois en 1965.

En URSS, des versions similaires sont apparues beaucoup plus tard - en 1972 et étaient analogues aux modèles présentés sur le marché américain.

1971 - temps modernes - ordinateurs de quatrième génération

Une innovation dans les ordinateurs de quatrième génération est l’application et l’utilisation de microprocesseurs. Les microprocesseurs sont des ALU (unités arithmétiques et logiques) placées sur une seule puce et possédant haut degré l'intégration. Cela signifie que les puces commencent à prendre encore moins de place. Autrement dit, un microprocesseur est petit cerveau, effectuant des millions d'opérations par seconde selon le programme qui y est intégré. La taille, le poids et la consommation électrique ont été considérablement réduits et les performances ont atteint des niveaux records. Et c'est à ce moment-là qu'Intel est entré en jeu.

Le premier microprocesseur s'appelait Intel-4004 - le nom du premier microprocesseur assemblé en 1971. Il avait une capacité de 4 bits, mais à l’époque il s’agissait d’une gigantesque avancée technologique. Deux ans plus tard, Intel a présenté au monde l'Intel-8008 à huit bits ; en 1975, l'Altair-8800 est né - il s'agit du premier ordinateur personnel basé sur l'Intel-8008.

Ce fut le début de toute une ère pour les ordinateurs personnels. La machine a commencé à être utilisée partout en complètement à des fins diverses. Un an plus tard, Apple entre dans le jeu. Le projet a été un grand succès et Steve Jobs est devenu l'une des personnes les plus célèbres et les plus riches de la planète.

L'IBM PC devient le standard incontesté de l'informatique. Il est sorti en 1981 avec 1 Mo de RAM.

Il est à noter qu'à l'heure actuelle, les ordinateurs électroniques compatibles IBM occupent environ quatre-vingt-dix pour cent des ordinateurs produits ! De plus, nous ne pouvons nous empêcher de mentionner le Pentium. Le développement du premier processeur avec coprocesseur intégré a été couronné de succès en 1989. Aujourd'hui, cette marque est une autorité incontestable dans le développement et l'utilisation de microprocesseurs sur le marché informatique.

Si l'on parle de perspectives, il s'agit bien entendu du développement et de la mise en œuvre des dernières technologies : circuits intégrés ultra-larges, éléments magnéto-optiques, voire éléments d'intelligence artificielle.

Auto-apprentissage systèmes électroniques- c'est l'avenir prévisible, appelé la cinquième génération dans le développement des ordinateurs.

Une personne s'efforce d'effacer la barrière de la communication avec un ordinateur. Le Japon a travaillé sur ce sujet pendant très longtemps et, malheureusement, sans succès, mais c'est le sujet d'un article complètement différent. Pour le moment, tous les projets sont seulement en développement, mais au rythme de développement actuel, c'est un avenir proche. Le temps présent est celui où l’histoire s’écrit !

Partager.

L'un des premiers appareils (V-IV siècles avant JC), à partir duquel l'histoire du développement des ordinateurs peut être considérée comme ayant commencé, était une planche spéciale, appelée plus tard le « boulier ». Les calculs étaient effectués en déplaçant des os ou des pierres dans les creux de planches en bronze, pierre, ivoire, etc. En Grèce, le boulier existait déjà au Ve siècle. Avant JC, les Japonais l'appelaient « serobayan », les Chinois l'appelaient « suanpan ». Dans la Russie antique, un appareil semblable à un boulier était utilisé pour compter - un « comptage de planches ». Au XVIIe siècle, cet appareil prenait la forme du boulier russe habituel.

Boulier (V-IV siècles avant JC)

Le mathématicien et philosophe français Blaise Pascal a créé la première machine en 1642, qui a reçu le nom de Pascalina en l'honneur de son créateur. Un dispositif mécanique sous la forme d'une boîte avec de nombreux engrenages, en plus de l'addition, effectuait également une soustraction. Les données étaient saisies dans la machine en tournant des cadrans correspondant aux chiffres de 0 à 9. La réponse apparaissait en haut du boîtier métallique.


Pascaline

En 1673, Gottfried Wilhelm Leibniz créa un appareil de calcul mécanique (calculateur de pas de Leibniz - calculatrice de Leibniz), qui pour la première fois ajoutait et soustrayait, mais aussi multipliait, divisait et calculait Racine carrée. Par la suite, la roue de Leibniz est devenue le prototype des instruments de calcul de masse - les machines à additionner.


Modèle de calculateur de pas de Leibniz

Le mathématicien anglais Charles Babbage a développé un appareil qui non seulement effectuait des opérations arithmétiques, mais imprimait également immédiatement les résultats. En 1832, un modèle dix fois plus petit fut construit à partir de deux mille pièces en laiton, pesant trois tonnes, mais capable d'effectuer des opérations arithmétiques précises à la sixième décimale et de calculer des dérivées du second ordre. Cet ordinateur est devenu le prototype des vrais ordinateurs ; on l’a appelé machine différentielle.

Machine différentielle

Un appareil de sommation à transmission continue de dizaines est créé par le mathématicien et mécanicien russe Pafnuty Lvovich Chebyshev. Cet appareil permet d'automatiser toutes les opérations arithmétiques. En 1881, un accessoire pour la machine à additionner pour la multiplication et la division a été créé. Le principe de transmission continue des dizaines a été largement utilisé dans divers compteurs et ordinateurs.


Appareil de sommation Chebyshev

Le traitement automatisé des données est apparu à la fin du siècle dernier aux USA. Herman Hollerith a créé un appareil - la Hollerith Tabulator - dans lequel les informations imprimées sur des cartes perforées étaient déchiffrées par le courant électrique.

Tabulateur Hollerith

En 1936, un jeune scientifique de Cambridge, Alan Turing, inventa une machine à calculer mentale qui n'existait que sur papier. Sa « machine intelligente » fonctionnait selon un algorithme spécifique. Selon l’algorithme, la machine imaginaire pourrait être utilisée à des fins très diverses. Cependant, à cette époque, il s'agissait de considérations et de schémas purement théoriques qui servaient de prototype d'ordinateur programmable, en tant que dispositif informatique traitant les données conformément à une certaine séquence de commandes.

Les révolutions de l'information dans l'histoire

Dans l'histoire du développement de la civilisation, plusieurs révolutions de l'information ont eu lieu - des transformations des relations sociales sociales dues à des changements dans le domaine du traitement, du stockage et de la transmission de l'information.

D'abord La révolution est associée à l’invention de l’écriture, qui a conduit à un gigantesque bond qualitatif et quantitatif de la civilisation. Il existe une opportunité de transférer des connaissances de génération en génération.

Deuxième(milieu du XVIe siècle) la révolution a été provoquée par l’invention de l’imprimerie, qui a radicalement changé la société industrielle, la culture et l’organisation des activités.

Troisième(fin du XIXe siècle) révolution avec les découvertes dans le domaine de l'électricité, grâce auxquelles sont apparus le télégraphe, le téléphone, la radio et les appareils qui permettent de transmettre et d'accumuler rapidement des informations dans n'importe quel volume.

Quatrième(depuis les années 70 du 20e siècle) la révolution est associée à l'invention de la technologie des microprocesseurs et à l'avènement de l'ordinateur personnel. Les ordinateurs et les systèmes de transmission de données (communications d'informations) sont créés à l'aide de microprocesseurs et de circuits intégrés.

Cette période est caractérisée par trois innovations fondamentales :

  • transition des moyens mécaniques et électriques de conversion d'informations vers les moyens électroniques ;
  • miniaturisation de tous les composants, dispositifs, instruments, machines ;
  • création d'appareils et de processus contrôlés par logiciel.

Histoire du développement de la technologie informatique

Le besoin de stocker, de convertir et de transmettre des informations est apparu chez l'homme bien avant la création de l'appareil télégraphique, du premier central téléphonique et de l'ordinateur électronique (ordinateur). En fait, toute l'expérience, toutes les connaissances accumulées par l'humanité, d'une manière ou d'une autre, ont contribué à l'émergence de la technologie informatique. Histoire de la création des ordinateurs - Nom commun machines électroniques pour effectuer des calculs - commence il y a longtemps et est associée au développement de presque tous les aspects de la vie et de l'activité humaines. Depuis que la civilisation humaine existe, une certaine automatisation des calculs est utilisée depuis aussi longtemps.

Histoire du développement équipement informatique remonte à environ cinq décennies. Durant cette période, plusieurs générations d’ordinateurs ont changé. Chaque génération suivante se distinguait par de nouveaux éléments (tubes électroniques, transistors, circuits intégrés) dont la technologie de fabrication était fondamentalement différente. Actuellement, il existe une classification généralement acceptée des générations d'ordinateurs :

  • Première génération (1946 - début des années 50). La base de l'élément est constituée de tubes électroniques. Les ordinateurs se distinguaient par leurs grandes dimensions, leur consommation d'énergie élevée, leur faible vitesse, leur faible fiabilité et leur programmation par codes.
  • Deuxième génération (fin des années 50 - début des années 60). Base d'élément - semi-conducteur. Amélioré par rapport aux ordinateurs la génération précédente presque toutes les caractéristiques techniques. Les langages algorithmiques sont utilisés pour la programmation.
  • 3ème génération (fin des années 60 - fin des années 70). Base d'éléments - circuits intégrés, assemblage de circuits imprimés multicouches. Une forte réduction de la taille des ordinateurs, augmentant leur fiabilité, augmentant leur productivité. Accès depuis des terminaux distants.
  • Quatrième génération (du milieu des années 70 à la fin des années 80). La base des éléments est constituée de microprocesseurs, de grands circuits intégrés. Les caractéristiques techniques ont été améliorées. Production de masse d'ordinateurs personnels. Orientations de développement : systèmes informatiques multiprocesseurs puissants à hautes performances, création de micro-ordinateurs bon marché.
  • Cinquième génération (à partir du milieu des années 80). Le développement des ordinateurs intelligents a commencé, mais n’a pas encore été couronné de succès. Introduction à tous les domaines des réseaux informatiques et à leur intégration, recours au traitement distribué des données, généralisation des technologies de l'information informatique.

Parallèlement au changement de génération d'ordinateurs, la nature de leur utilisation a également changé. Si au début ils étaient créés et utilisés principalement pour résoudre des problèmes de calcul, leur champ d'application s'est ensuite élargi. Cela comprend le traitement de l'information, l'automatisation de la production, les technologies et processus scientifiques et beaucoup plus.

Principes de fonctionnement des ordinateurs par Konrad Zuse

L'idée de la possibilité de construire un appareil de calcul automatisé est venue à l'esprit de l'ingénieur allemand Konrad Zuse, et en 1934, Zuse a formulé les principes de base sur lesquels devraient fonctionner les futurs ordinateurs :

  • système de numération binaire;
  • utilisation d'appareils fonctionnant sur le principe « oui/non » (1/0 logique) ;
  • processus informatique entièrement automatisé ;
  • contrôle logiciel du processus de calcul ;
  • prise en charge de l'arithmétique à virgule flottante ;
  • utilisant une mémoire de grande capacité.

Zuse a été le premier au monde à déterminer que le traitement des données commence par un bit (il a appelé le bit « statut oui/non », et les formules de l'algèbre binaire - propositions conditionnelles), le premier à introduire le terme « mot machine » ( Word), le premier à combiner le fonctionnement d’une calculatrice arithmétique et logique, notant que « le fonctionnement élémentaire d’un ordinateur consiste à tester l’égalité de deux nombres binaires. Le résultat sera également un nombre binaire à deux valeurs (égale, non égale).

Première génération - ordinateurs à tubes à vide

Colossus I est le premier ordinateur à tube, créé par les Britanniques en 1943 pour déchiffrer les chiffres militaires allemands ; il se composait de 1 800 tubes à vide (dispositifs de stockage d'informations) et fut l'un des premiers ordinateurs numériques électroniques programmables.

ENIAC - a été créé pour calculer les tables balistiques de l'artillerie ; cet ordinateur pesait 30 tonnes, occupait 1 000 pieds carrés et consommait 130 à 140 kW d'électricité. L'ordinateur contenait 17 468 tubes à vide de seize types, 7 200 diodes à cristal et 4 100 éléments magnétiques, et ils étaient contenus dans des armoires d'un volume total d'environ 100 m 3 . ENIAC avait une performance de 5 000 opérations par seconde. Le coût total de la machine était de 750 000 dollars, la consommation d'électricité était de 174 kW et l'espace total occupé était de 300 m2.


ENIAC - un appareil de calcul de tables balistiques d'artillerie

Un autre représentant de la 1ère génération d'ordinateurs auquel vous devez prêter attention est l'EDVAC (Electronic Discrete Variable Computer). EDVAC est intéressant car il tentait d’enregistrer électroniquement des programmes dans ce que l’on appelle des « lignes à retard ultrasoniques » à l’aide de tubes au mercure. Dans 126 de ces lignes, il était possible de stocker 1 024 lignes de nombres binaires à quatre chiffres. C'était un souvenir « rapide ». En tant que mémoire « lente », elle était censée enregistrer des nombres et des commandes sur un fil magnétique, mais cette méthode s'est avérée peu fiable et il a fallu revenir aux bandes de télétype. EDVAC était plus rapide que son prédécesseur, ajoutant 1 µs et divisant en 3 µs. Il ne contenait que 3,5 mille tubes électroniques et était situé sur 13 m 2 de superficie.

UNIVAC (Universal Automatic Computer) était un appareil électronique avec des programmes stockés en mémoire, qui y étaient saisis non pas à partir de cartes perforées, mais à l'aide d'une bande magnétique ; il a fourni grande vitesse lecture et écriture d'informations et, par conséquent, des performances plus élevées de la machine dans son ensemble. Une bande peut contenir un million de caractères, écrits sous forme binaire. Les bandes pourraient stocker à la fois des programmes et des données intermédiaires.


Représentants de la première génération d'ordinateurs : 1) Ordinateur électronique à variable discrète ; 2) Ordinateur automatique universel

La deuxième génération est un ordinateur à transistors.

Les transistors ont remplacé les tubes à vide au début des années 60. Les transistors (qui agissent comme des interrupteurs électriques) consomment moins d'énergie, génèrent moins de chaleur et prennent moins de place. La combinaison de plusieurs circuits à transistors sur une seule carte produit un circuit intégré (puce, littéralement, plaque). Les transistors sont des compteurs de nombres binaires. Ces pièces enregistrent deux états - la présence de courant et l'absence de courant, et traitent ainsi les informations qui leur sont présentées exactement sous cette forme binaire.

En 1953, William Shockley invente le transistor à jonction p-n. Le transistor remplace le tube à vide et fonctionne en même temps à une vitesse plus élevée, produit très peu de chaleur et ne consomme presque pas d'électricité. Parallèlement au processus de remplacement des tubes électroniques par des transistors, les méthodes de stockage des informations ont été améliorées : des noyaux magnétiques et des tambours magnétiques ont commencé à être utilisés comme dispositifs de mémoire, et déjà dans les années 60, le stockage d'informations sur des disques s'est généralisé.

L'un des premiers ordinateurs à transistors, l'Atlas Guidance Computer, a été lancé en 1957 et a été utilisé pour contrôler le lancement de la fusée Atlas.

Créé en 1957, le RAMAC était un ordinateur à faible coût doté d'une mémoire sur disque externe modulaire, une combinaison de mémoire vive à noyau magnétique et à tambour. Et bien que cet ordinateur ne soit pas encore complètement transistorisé, il se distinguait par ses performances élevées et sa facilité de maintenance et était très demandé sur le marché de la bureautique. Par conséquent, un « grand » RAMAC (IBM-305) a été lancé d'urgence pour les entreprises clientes : pour accueillir 5 Mo de données, le système RAMAC avait besoin de 50 disques d'un diamètre de 24 pouces. Basé sur ce modèle Système d'Information des tableaux de requêtes parfaitement traités en 10 langues.

En 1959, IBM a créé son premier grand ordinateur central entièrement transistorisé, le 7090, capable d'effectuer 229 000 opérations par seconde, un véritable ordinateur central transistorisé. En 1964, basée sur deux ordinateurs centraux 7090, la compagnie aérienne américaine SABRE utilise pour la première fois un système automatisé de vente et de réservation de billets d'avion dans 65 villes du monde.

En 1960, DEC a présenté le premier mini-ordinateur au monde, le PDP-1 (Programmed Data Processor), un ordinateur doté d'un écran et d'un clavier qui est devenu l'un des phénomènes les plus remarquables du marché. Cet ordinateur était capable d'effectuer 100 000 opérations par seconde. La machine elle-même n'occupait que 1,5 m 2 au sol. Le PDP-1 est en fait devenu la première plate-forme de jeu au monde grâce à Steve Russell, étudiant au MIT, qui a écrit un jouet informatique Star War pour lui !


Représentants de la deuxième génération d'ordinateurs : 1) RAMAC ; 2) PDP-1

En 1968, Digital a lancé la première production en série de mini-ordinateurs : il s'agissait du PDP-8 : leur prix était d'environ 10 000 dollars et le modèle avait la taille d'un réfrigérateur. Ce modèle PDP-8 particulier a pu être acheté par des laboratoires, des universités et des petites entreprises.

Les ordinateurs domestiques de cette époque peuvent être caractérisés comme suit : en termes de solutions architecturales, de circuits et fonctionnelles, ils correspondaient à leur époque, mais leurs capacités étaient limitées en raison de l'imperfection de la production et de la base d'éléments. Les machines les plus populaires étaient la série BESM. La production en série, plutôt insignifiante, a commencé avec la sortie des ordinateurs Ural-2 (1958), BESM-2, Minsk-1 et Ural-3 (tous en 1959). En 1960, les séries M-20 et Ural-4 entrent en production. La performance maximale à la fin de 1960 était "M-20" (4 500 lampes, 35 000 diodes semi-conductrices, mémoire de 4 096 cellules) - 20 000 opérations par seconde. Les premiers ordinateurs basés sur des éléments semi-conducteurs (« Razdan-2 », « Minsk-2 », « M-220 » et « Dnepr ») étaient encore en phase de développement.

Troisième génération - ordinateurs de petite taille basés sur des circuits intégrés

Dans les années 50 et 60, l'assemblée équipement électroniqueétait un processus à forte intensité de main d’œuvre qui était ralenti par la complexité croissante des circuits électroniques. Par exemple, un ordinateur de type CD1604 (1960, Control Data Corp.) contenait environ 100 000 diodes et 25 000 transistors.

En 1959, les Américains Jack St. Clair Kilby (Texas Instruments) et Robert N. Noyce (Fairchild Semiconductor) ont inventé indépendamment un circuit intégré (CI), un ensemble de milliers de transistors placés sur une seule puce de silicium à l'intérieur d'un microcircuit.

La production d'ordinateurs utilisant des circuits intégrés (appelés plus tard microcircuits) était beaucoup moins coûteuse que l'utilisation de transistors. Grâce à cela, de nombreuses organisations ont pu acheter et utiliser de telles machines. Et ceci, à son tour, a conduit à une augmentation de la demande d'ordinateurs à usage général conçus pour résoudre diverses tâches. Durant ces années, la production informatique acquiert une ampleur industrielle.

Dans le même temps, est apparue la mémoire à semi-conducteurs, qui est encore utilisée aujourd'hui dans les ordinateurs personnels.


Représentant de la troisième génération d'ordinateurs - ES-1022

Quatrième génération - ordinateurs personnels basés sur des processeurs

Les précurseurs du PC IBM étaient l'Apple II, le Radio Shack TRS-80, l'Atari 400 et 800, le Commodore 64 et le Commodore PET.

La naissance des ordinateurs personnels (PC) est à juste titre associée aux processeurs Intel. La société a été fondée à la mi-juin 1968. Depuis lors, Intel est devenu le plus grand fabricant mondial de microprocesseurs avec plus de 64 000 employés. L'objectif d'Intel était de créer une mémoire à semi-conducteurs et, pour survivre, la société a commencé à accepter des commandes de tiers pour le développement de dispositifs à semi-conducteurs.

En 1971, Intel a reçu une commande pour développer un ensemble de 12 puces pour microcalculateurs programmables, mais les ingénieurs d'Intel ont trouvé la création de 12 puces spécialisées encombrantes et inefficaces. Le problème de la réduction de la portée des microcircuits a été résolu en créant une « paire » de mémoire à semi-conducteur et un actionneur capable de fonctionner selon les commandes qui y sont stockées. Il s'agissait d'une percée dans la philosophie informatique : une unité logique universelle sous la forme d'une unité centrale de traitement 4 bits, le i4004, qui fut plus tard appelé le premier microprocesseur. Il s'agissait d'un ensemble de 4 puces, dont une contrôlée par des commandes stockées dans la mémoire interne du semi-conducteur.

Dans le cadre d'un développement commercial, le micro-ordinateur (c'est ainsi qu'on appelait alors la puce) est apparu sur le marché le 11 novembre 1971 sous le nom de 4004 : 4 bits, contenant 2 300 transistors, cadencés à 60 kHz, coûtait 200 dollars. En 1972, Intel a lancé le microprocesseur huit bits 8008, et en 1974 - sa version améliorée Intel-8080, qui à la fin des années 70 est devenue la norme pour l'industrie des micro-ordinateurs. Déjà en 1973, le premier ordinateur basé sur le processeur 8080, Micral, faisait son apparition en France. Pour diverses raisons, ce processeur n'a pas connu de succès en Amérique (en Union soviétique, il a été copié et produit pendant longtemps appelé 580VM80). Au même moment, un groupe d'ingénieurs quitte Intel et crée Zilog. Son produit le plus en vue est le Z80, qui dispose d'un jeu d'instructions étendu du 8080 et qui a assuré son succès commercial pendant appareils ménagers, géré avec une tension d'alimentation de 5V. Sur sa base, en particulier, a été créé l'ordinateur ZX-Spectrum (parfois appelé du nom de son créateur - Sinclair), qui est pratiquement devenu le prototype du Home PC du milieu des années 80. En 1981, Intel a lancé les processeurs 16 bits 8086 et 8088 - un analogue du 8086, à l'exception du bus de données externe 8 bits (tous les périphériques étaient encore 8 bits à l'époque).

Concurrent d'Intel, l'ordinateur Apple II se distinguait par le fait qu'il ne s'agissait pas d'un appareil complètement fini et qu'il restait une certaine liberté de modification directement par l'utilisateur - il était possible d'installer des cartes d'interface supplémentaires, des cartes mémoire, etc. C’est cette fonctionnalité, appelée plus tard « architecture ouverte », qui est devenue son principal avantage. Le succès de l'Apple II a été facilité par deux autres innovations développées en 1978. Stockage sur disquette bon marché et premier programme de calcul commercial, le tableur VisiCalc.

L'ordinateur Altair-8800, construit sur le processeur Intel-8080, était très populaire dans les années 70. Même si les capacités de l'Altair étaient assez limitées - la RAM n'était que de 4 Ko, le clavier et l'écran manquaient, son apparition a été accueillie avec beaucoup d'enthousiasme. Elle a été lancée sur le marché en 1975 et plusieurs milliers de machines ont été vendues au cours des premiers mois.


Représentants de la quatrième génération d'ordinateurs : a) Micral ; b) Pomme II

Cet ordinateur, développé par MITS, était vendu par correspondance sous forme d'un kit de pièces à monter soi-même. L'ensemble du kit d'assemblage coûte 397 $, tandis que le processeur Intel à lui seul coûte 360 ​​$.

La diffusion des PC à la fin des années 70 a entraîné une légère diminution de la demande de gros ordinateurs et mini-ordinateurs - IBM a lancé le PC IBM basé sur le processeur 8088 en 1979. Les logiciels qui existaient au début des années 80 étaient axés sur le traitement de texte. et de simples tables électroniques, et l'idée même qu'un « micro-ordinateur » puisse devenir un appareil familier et nécessaire au travail et à la maison semblait incroyable.

Le 12 août 1981, IBM a présenté l'ordinateur personnel (PC) qui, associé aux logiciels de Microsoft, est devenu la norme pour l'ensemble du parc PC. monde moderne. Le prix d'un modèle de PC IBM avec un écran monochrome était d'environ 3 000 $, et celui d'un écran couleur de 6 000 $. Configuration IBM PC : processeur Intel 8088 avec une fréquence de 4,77 MHz et 29 000 transistors, 64 Ko de RAM, 1 lecteur de disquette d'une capacité de 160 Ko et un haut-parleur intégré classique. A cette époque, lancer et travailler avec des applications était une vraie galère : faute de disque dur, il fallait constamment changer de disquette, il n'y avait pas de « souris », pas de fenêtre d'interface utilisateur graphique, pas de correspondance exacte entre l'image à l'écran et le résultat final (WYSIWYG ). Les graphiques couleur étaient extrêmement primitifs, on ne parlait pas d'animation tridimensionnelle ou de traitement photo, mais l'histoire du développement des ordinateurs personnels a commencé avec ce modèle.

En 1984, IBM a lancé deux nouveaux produits supplémentaires. Tout d'abord, un modèle destiné aux utilisateurs domestiques a été lancé, appelé PCjr, basé sur le processeur 8088, qui était peut-être équipé du premier clavier sans fil, mais ce modèle n'a pas connu de succès sur le marché.

Le deuxième nouveau produit est l'IBM PC AT. Caractéristique clé: Migration vers des microprocesseurs de niveau supérieur (80286 avec coprocesseur numérique 80287) tout en conservant la compatibilité avec les modèles précédents. Cet ordinateur s'est avéré être un standard pendant de nombreuses années à plusieurs égards : il a été le premier à introduire un bus d'extension 16 bits (qui reste la norme à ce jour) et des adaptateurs graphiques EGA avec une résolution de 640 x 350. et une profondeur de couleur de 16 bits.

En 1984, les premiers ordinateurs Macintosh ont été lancés avec une interface graphique, une souris et de nombreux autres attributs d'interface utilisateur essentiels aux ordinateurs de bureau modernes. La nouvelle interface n'a pas laissé les utilisateurs indifférents, mais l'ordinateur révolutionnaire n'était pas compatible avec les programmes ou composants matériels précédents. Et dans les entreprises de cette époque, WordPerfect et Lotus 1-2-3 étaient déjà devenus des outils de travail normaux. Les utilisateurs se sont déjà habitués et adaptés à l'interface en caractères DOS. De leur point de vue, le Macintosh semblait même quelque peu frivole.

Cinquième génération d'ordinateurs (de 1985 à nos jours)

Particularités de la génération V :

  1. Nouvelles technologies de production.
  2. Refus des langages de programmation traditionnels comme Cobol et Fortran au profit de langages dotés de capacités accrues de manipulation de symboles et d'éléments de programmation logique (Prolog et Lisp).
  3. Accent sur les nouvelles architectures (par exemple architecture de flux de données).
  4. Nouvelles méthodes d'entrée/sortie conviviales (par exemple, reconnaissance de la parole et des images, synthèse vocale, traitement des messages en langage naturel)
  5. Intelligence artificielle (c'est-à-dire automatisation des processus de résolution de problèmes, conclusion, manipulation des connaissances)

C’est au tournant des années 80-90 que se forme l’alliance Windows-Intel. Lorsqu'Intel a lancé le microprocesseur 486 au début de 1989, les fabricants d'ordinateurs n'ont pas attendu qu'IBM ou Compaq ouvrent la voie. Une course a commencé, à laquelle des dizaines d'entreprises ont participé. Mais tous les nouveaux ordinateurs étaient extrêmement similaires les uns aux autres - ils étaient unis par la compatibilité avec Windows et les processeurs Intel.

En 1989, le processeur i486 est sorti. Il disposait d'un coprocesseur mathématique, d'un pipeline et d'un cache L1 intégré.

Orientations du développement informatique

Les neuroordinateurs peuvent être classés comme la sixième génération d'ordinateurs. Bien que l’utilisation réelle des réseaux neuronaux ait commencé relativement récemment, la neuroinformatique en tant que domaine scientifique en est maintenant à sa septième décennie et le premier neuroordinateur a été construit en 1958. Le développeur de la voiture était Frank Rosenblatt, qui a donné à son idée le nom de Mark I.

La théorie des réseaux de neurones a été décrite pour la première fois dans les travaux de McCulloch et Pitts en 1943 : toute fonction arithmétique ou logique peut être implémentée à l'aide d'un simple réseau de neurones. L’intérêt pour la neuroinformatique a repris au début des années 1980 et a été alimenté par de nouveaux travaux sur les perceptrons multicouches et le calcul parallèle.

Les neuroordinateurs sont des PC constitués de nombreux éléments informatiques simples, appelés neurones, fonctionnant en parallèle. Les neurones forment ce qu'on appelle des réseaux de neurones. Les hautes performances des neuroordinateurs sont obtenues précisément grâce à énorme montant neurones. Les neuroordinateurs sont construits sur des principes biologiques : système nerveux l'humain est constitué de cellules individuelles - des neurones, dont le nombre dans le cerveau atteint 10 12, malgré le fait que le temps de réponse d'un neurone est de 3 ms. Chaque neurone en fait assez fonctions simples, mais comme il est connecté en moyenne à 1 à 10 000 autres neurones, un tel collectif assure avec succès le fonctionnement du cerveau humain.

Représentant de la génération VI d'ordinateurs - Mark I

Dans les ordinateurs optoélectroniques, le support d'information est le flux lumineux. Les signaux électriques sont convertis en signaux optiques et vice versa. Le rayonnement optique en tant que support d'informations présente un certain nombre d'avantages potentiels par rapport aux signaux électriques :

  • Les flux lumineux, contrairement aux flux électriques, peuvent se croiser ;
  • Les flux lumineux peuvent être localisés dans la direction transversale de dimensions nanométriques et transmis à travers l'espace libre ;
  • L'interaction des flux lumineux avec les médias non linéaires est distribuée dans tout l'environnement, ce qui donne de nouveaux degrés de liberté dans l'organisation de la communication et la création d'architectures parallèles.

Actuellement, des développements sont en cours pour créer des ordinateurs entièrement constitués de dispositifs de traitement optique de l'information. Aujourd'hui, cette direction est la plus intéressante.

L'ordinateur optique a des performances sans précédent et est complètement différent de ordinateur électronique, architecture : en 1 cycle d'horloge d'une durée inférieure à 1 nanoseconde (cela correspond à une fréquence d'horloge supérieure à 1000 MHz), un ordinateur optique peut traiter un ensemble de données d'environ 1 mégaoctet ou plus. À ce jour, des composants individuels d'ordinateurs optiques ont déjà été créés et optimisés.

Un ordinateur optique de la taille d'un ordinateur portable peut donner à l'utilisateur la possibilité d'y placer presque toutes les informations sur le monde, tandis que l'ordinateur sera capable de résoudre des problèmes de toute complexité.

Les ordinateurs biologiques sont des PC ordinaires, uniquement basés sur le calcul de l'ADN. Il existe si peu de travaux véritablement démonstratifs dans ce domaine qu'il n'est pas nécessaire de parler de résultats significatifs.

Les ordinateurs moléculaires sont des PC dont le principe de fonctionnement repose sur l'utilisation des modifications des propriétés des molécules au cours du processus de photosynthèse. Au cours du processus de photosynthèse, la molécule prend différents états, de sorte que les scientifiques ne peuvent attribuer que certaines valeurs logiques à chaque état, c'est-à-dire « 0 » ou « 1 ». À l'aide de certaines molécules, les scientifiques ont déterminé que leur photocycle se compose de seulement deux états, qui peuvent être « commutés » en modifiant l'équilibre acido-basique de l'environnement. Cette dernière est très simple à réaliser à l’aide d’un signal électrique. Les technologies modernes permettent déjà de créer des chaînes entières de molécules ainsi organisées. Il est donc fort possible que des ordinateurs moléculaires nous attendent « au coin de la rue ».

L'histoire du développement informatique n'est pas encore terminée : en plus d'améliorer les anciennes, des technologies complètement nouvelles sont en cours de développement. Un exemple de ceci est celui des ordinateurs quantiques - des appareils qui fonctionnent sur la base mécanique quantique. Un ordinateur quantique à grande échelle est un dispositif hypothétique dont la possibilité de construction est associée à un développement sérieux. théorie des quanta dans le domaine des nombreuses particules et des expériences complexes ; ces travaux sont à la pointe de la physique moderne. Des ordinateurs quantiques expérimentaux existent déjà ; des éléments d’ordinateurs quantiques peuvent être utilisés pour augmenter l’efficacité des calculs sur les instruments existants.