Ordinateur

Un ordinateur est une machine électronique numérique qui peut être programmée pour effectuer automatiquement des séquences d’ opérations arithmétiques ou logiques ( calcul ). Les ordinateurs modernes peuvent effectuer des ensembles génériques d’opérations appelées programmes . Ces programmes permettent aux ordinateurs d’effectuer un large éventail de tâches. Un système informatique est un ordinateur “complet” qui comprend le matériel , le système d’exploitation ( logiciel principal ) et les périphériques équipement nécessaire et utilisé pour un fonctionnement “complet”. Ce terme peut également faire référence à un groupe d’ordinateurs qui sont reliés et fonctionnent ensemble, comme un réseau informatique ou une grappe d’ordinateurs .

Ordinateurs et appareils informatiques de différentes époques – dans le sens des aiguilles d’une montre à partir du haut à gauche :
Premier ordinateur à tube à vide ( ENIAC ) Ordinateur
central ( IBM System 360 )
Ordinateur de bureau ( IBM ThinkCentre S50 avec moniteur )
Superordinateur ( IBM Summit )
Console de jeux vidéo ( Nintendo GameCube )
Smartphone ( Eau LYF 2)

Une large gamme de produits industriels et de consommation utilisent des ordinateurs comme systèmes de contrôle . Les appareils spéciaux simples comme les fours à micro-ondes et les télécommandes sont inclus, tout comme les appareils d’usine comme les robots industriels et la conception assistée par ordinateur , ainsi que les appareils à usage général comme les ordinateurs personnels et les appareils mobiles comme les smartphones . Les ordinateurs alimentent Internet , qui relie des milliards d’autres ordinateurs et utilisateurs.

Les premiers ordinateurs étaient destinés à être utilisés uniquement pour les calculs. Des instruments manuels simples comme le boulier ont aidé les gens à faire des calculs depuis l’Antiquité. Au début de la révolution industrielle , certains dispositifs mécaniques ont été construits pour automatiser de longues tâches fastidieuses, telles que le guidage des patrons pour les métiers à tisser . Des machines électriques plus sophistiquées effectuaient des calculs analogiques spécialisés au début du XXe siècle. Les premières machines à calculer électroniques numériques ont été développées pendant la Seconde Guerre mondiale . Les premiers transistors à semi- conducteurs à la fin des années 1940 ont été suivis par le MOSFET à base de silicium(transistor MOS) et les technologies de puces à circuits intégrés (CI) monolithiques à la fin des années 1950, menant à la révolution des microprocesseurs et des micro-ordinateurs dans les années 1970. La vitesse, la puissance et la polyvalence des ordinateurs ont considérablement augmenté depuis lors, le nombre de transistors augmentant à un rythme rapide (comme prévu par la loi de Moore ), conduisant à la révolution numérique de la fin du 20e au début du 21e siècle.

Classiquement, un ordinateur moderne se compose d’au moins un élément de traitement , généralement une Unité centrale de traitement (CPU) sous la forme d’un microprocesseur , ainsi que d’un certain type de mémoire d’ordinateur , généralement des puces de mémoire à semi -conducteurs. L’élément de traitement exécute des opérations arithmétiques et logiques, et une unité de séquencement et de commande peut modifier l’ordre des opérations en réponse aux informations stockées . Les périphériques comprennent les périphériques d’entrée (claviers, souris, joystick , etc.), les périphériques de sortie (écrans de contrôle, imprimantes , etc.) et les périphériques d’entrée/sortie qui remplissent les deux fonctions (par exemple, l’ère des années 2000écran tactile ). Les dispositifs périphériques permettent de récupérer des informations à partir d’une source externe et ils permettent de sauvegarder et de récupérer le résultat d’opérations.

Étymologie

Un Ordinateur humain, avec microscope et calculatrice, 1952

Selon l’ Oxford English Dictionary , la première utilisation connue de l’ordinateur se trouve dans un livre de 1613 intitulé The Yong Mans Gleanings de l’écrivain anglais Richard Brathwait : “I haue [ sic ] read the trueest computer of Times, and the best Arithmetician that euer [ sic] a respiré, et il a réduit tes jours en un petit nombre.” Cet usage du terme faisait référence à un Ordinateur humain , une personne qui effectuait des calculs ou calculs. Le mot a continué avec le même sens jusqu’au milieu du 20e siècle. Au cours de la dernière partie de cette période, les femmes étaient souvent embauchées comme informaticiennes parce qu’elles pouvaient être moins bien payées que leurs homologues masculins. [1]En 1943, la plupart des ordinateurs humains étaient des femmes. [2]

Le dictionnaire d’étymologie en ligne donne la première utilisation attestée de l’ordinateur dans les années 1640, signifiant «celui qui calcule»; c’est un “nom d’agent de calcul (v.)”. Le dictionnaire d’étymologie en ligne indique que l’utilisation du terme pour signifier ” ” machine à calculer “(de tout type) date de 1897.” Le dictionnaire d’étymologie en ligne indique que « l’usage moderne » du terme, pour signifier « ordinateur électronique numérique programmable », date de « 1945 sous ce nom ; [dans un] [sens] théorique de 1937, comme machine de Turing ». [3]

Histoire

Pré-20ème siècle

L’ os d’Ishango , un outil en os datant de l’Afrique préhistorique .

Des appareils ont été utilisés pour faciliter le calcul pendant des milliers d’années, principalement en utilisant une correspondance biunivoque avec les doigts . Le premier dispositif de comptage était probablement une forme de bâton de pointage . Plus tard, les aides à la tenue de registres dans tout le Croissant fertile comprenaient des calculs (sphères d’argile, cônes, etc.) qui représentaient le nombre d’articles, probablement du bétail ou des céréales, scellés dans des récipients creux en argile non cuite. [a] [4] L’utilisation de bâtonnets de comptage en est un exemple.

Le suanpan chinois (算盘). Le nombre représenté sur cet abaque est 6 302 715 408.

Le boulier était initialement utilisé pour les tâches arithmétiques. Le boulier romain a été développé à partir d’appareils utilisés en Babylonie dès 2400 av. Depuis lors, de nombreuses autres formes de planches ou de tables de calcul ont été inventées. Dans une maison de comptage européenne médiévale , une nappe à carreaux était placée sur une table et des marqueurs y étaient déplacés selon certaines règles, comme une aide au calcul des sommes d’argent. [5]

Le mécanisme d’Anticythère , datant de la Grèce antique vers 150-100 av. J.-C., est l’un des premiers appareils informatiques analogiques .

Le mécanisme d’Anticythère est considéré comme le premier ordinateur analogique mécanique connu , selon Derek J. de Solla Price . [6] Il a été conçu pour calculer des positions astronomiques. Il a été découvert en 1901 dans l’ épave d’Anticythère au large de l’île grecque d’ Anticythère , entre Cythère et la Crète , et a été daté d’environ c. 100 avant JC . Des dispositifs d’une complexité comparable au mécanisme d’Anticythère ne réapparaîtront qu’au XIVe siècle. [7]

De nombreuses aides mécaniques au calcul et à la mesure ont été construites à des fins d’astronomie et de navigation. Le planisphère était une carte du ciel inventée par Abū Rayhān al-Bīrūnī au début du XIe siècle. [8] L’ astrolabe a été inventé dans le monde hellénistique au 1er ou au 2ème siècle avant JC et est souvent attribué à Hipparque . Combinaison du planisphère et de la dioptrie , l’ astrolabe était en fait un ordinateur analogique capable de résoudre plusieurs types de problèmes différents en astronomie sphérique . Un astrolabe incorporant un calculateur de calendrier mécanique [9][10] et les roues dentées ont été inventées par Abi Bakr d’ Ispahan , Perse en 1235. [11] Abū Rayhān al-Bīrūnī a inventé le premierastrolabe à calendrier luni -solaire à engrenages mécaniques, [12] une première machine de traitement des connaissances à fil fixe [13] avec un train d’ engrenages et des roues dentées, [14] c. 1000 après JC .

Le secteur , un instrument de calcul utilisé pour résoudre des problèmes de proportion, de trigonométrie, de multiplication et de division, et pour diverses fonctions, telles que les carrés et les racines cubiques, a été développé à la fin du XVIe siècle et a trouvé une application dans l’artillerie, l’arpentage et la navigation.

Le planimètre était un instrument manuel permettant de calculer l’aire d’une figure fermée en traçant dessus avec une liaison mécanique.

Une règle à calcul .

La règle à calcul a été inventée vers 1620-1630 par le pasteur anglais William Oughtred , peu après la publication du concept de logarithme . C’est un ordinateur analogique manuel pour faire des multiplications et des divisions. Au fur et à mesure que le développement des règles à calcul progressait, des échelles ajoutées fournissaient des inverses, des carrés et des racines carrées, des cubes et des racines cubiques, ainsi que des fonctions transcendantales telles que les logarithmes et les exponentielles, la trigonométrie circulaire et hyperbolique et d’autres fonctions . Les règles à calcul avec des échelles spéciales sont toujours utilisées pour effectuer rapidement des calculs de routine, tels que l’ E6Brègle à calcul circulaire utilisée pour les calculs de temps et de distance sur les avions légers.

Dans les années 1770, Pierre Jaquet-Droz , un horloger suisse , construit une poupée mécanique ( automate ) capable d’écrire en tenant une plume d’oie. En changeant le nombre et l’ordre de ses roues internes, différentes lettres, et donc différents messages, pourraient être produites. En effet, il pourrait être “programmé” mécaniquement pour lire des instructions. Avec deux autres machines complexes, la poupée se trouve au Musée d’Art et d’Histoire de Neuchâtel , en Suisse , et fonctionne toujours. [15]

En 1831-1835, le mathématicien et ingénieur Giovanni Plana a conçu une machine à calendrier perpétuel qui, grâce à un système de poulies et de cylindres et plus, pouvait prédire le calendrier perpétuel pour chaque année de AD 0 (c’est-à-dire 1 BC) à AD 4000, garder une trace des années bissextiles et de la durée variable du jour. La machine de prévision des marées inventée par le scientifique écossais Sir William Thomson en 1872 était d’une grande utilité pour la navigation en eaux peu profondes. Il a utilisé un système de poulies et de câbles pour calculer automatiquement les niveaux de marée prévus pour une période définie à un endroit particulier.

L’ analyseur différentiel , un ordinateur analogique mécanique conçu pour résoudre des équations différentielles par intégration , utilisait des mécanismes de roue et de disque pour effectuer l’intégration. En 1876, Sir William Thomson avait déjà discuté de la construction possible de telles calculatrices, mais il avait été bloqué par le couple de sortie limité des intégrateurs à billes et à disques . [16] Dans un analyseur différentiel, la sortie d’un intégrateur conduisait l’entrée de l’intégrateur suivant, ou une sortie graphique. L’ amplificateur de couple était l’avancée qui permettait à ces machines de fonctionner. À partir des années 1920, Vannevar Bush et d’autres ont développé des analyseurs différentiels mécaniques.

Premier ordinateur

Une partie du moteur Différence de Babbage .

Charles Babbage , un ingénieur en mécanique anglais et polymathe , est à l’origine du concept d’ordinateur programmable. Considéré comme le « père de l’ordinateur », [17] il conceptualise et invente le premier ordinateur mécanique au début du 19e siècle. Après avoir travaillé sur son moteur de différence révolutionnaire , conçu pour faciliter les calculs de navigation, en 1833, il réalisa qu’une conception beaucoup plus générale, un moteur analytique , était possible. L’entrée des programmes et des données devait être fournie à la machine via des cartes perforées , une méthode utilisée à l’époque pour diriger les métiers mécaniques tels que le Métier Jacquard .. Pour la sortie, la machine aurait une imprimante, un traceur de courbes et une cloche. La machine serait également capable de poinçonner des numéros sur des cartes à lire plus tard. Le moteur incorporait une unité logique arithmétique , un flux de contrôle sous forme de Branchement conditionnel et de boucles , et une mémoire intégrée , ce qui en faisait la première conception d’un ordinateur à usage général qui pourrait être décrit en termes modernes comme Turing-complet . [18] [19]

La machine avait environ un siècle d’avance sur son temps. Toutes les pièces de sa machine devaient être fabriquées à la main – c’était un problème majeur pour un appareil avec des milliers de pièces. Finalement, le projet a été dissous avec la décision du gouvernement britannique de cesser le financement. L’échec de Babbage à achever le moteur d’analyse peut être principalement attribué à des difficultés politiques et financières ainsi qu’à son désir de développer un ordinateur de plus en plus sophistiqué et d’avancer plus vite que quiconque ne pourrait suivre. Néanmoins, son fils, Henry Babbage, a achevé une version simplifiée de l’unité de calcul du moteur analytique (le moulin ) en 1888. Il a fait une démonstration réussie de son utilisation dans les tables de calcul en 1906.

Ordinateurs analogiques

Conception de la troisième machine de prévision des marées de Sir William Thomson , 1879-1881

Au cours de la première moitié du XXe siècle, de nombreux besoins en informatique scientifique ont été satisfaits par des ordinateurs analogiques de plus en plus sophistiqués , qui utilisaient un modèle mécanique ou électrique direct du problème comme base de calcul . Cependant, ceux-ci n’étaient pas programmables et manquaient généralement de la polyvalence et de la précision des ordinateurs numériques modernes. [20] Le premier ordinateur analogique moderne était une machine de prédiction des marées , inventée par Sir William Thomson (qui deviendra plus tard Lord Kelvin) en 1872. L’ analyseur différentiel , un ordinateur analogique mécanique conçu pour résoudre des équations différentielles par intégration à l’aide de la roue et mécanismes de disque, a été conceptualisé en 1876 parJames Thomson , le frère aîné du plus célèbre Sir William Thomson. [16]

L’art de l’Informatique analogique mécanique a atteint son apogée avec l’ analyseur différentiel , construit par HL Hazen et Vannevar Bush au MIT à partir de 1927. Celui-ci s’appuyait sur les intégrateurs mécaniques de James Thomson et les amplificateurs de couple inventés par HW Nieman. Une douzaine de ces appareils ont été construits avant que leur obsolescence ne devienne évidente. Dans les années 1950, le succès des ordinateurs électroniques numériques avait sonné le glas de la plupart des machines informatiques analogiques, mais les ordinateurs analogiques sont restés utilisés pendant les années 1950 dans certaines applications spécialisées telles que l’éducation ( règle à calcul ) et les avions ( systèmes de contrôle ).

Ordinateurs numériques

Électromécanique

En 1938, la marine américaine avait développé un ordinateur analogique électromécanique suffisamment petit pour être utilisé à bord d’un sous- marin . Il s’agissait du Torpedo Data Computer , qui utilisait la trigonométrie pour résoudre le problème du tir d’une torpille sur une cible en mouvement. Pendant la Seconde Guerre mondiale , des dispositifs similaires ont également été développés dans d’autres pays.

Réplique du Z3 de Konrad Zuse , le premier ordinateur numérique (électromécanique) entièrement automatique.

Les premiers ordinateurs numériques étaient électromécaniques ; des interrupteurs électriques pilotaient des relais mécaniques pour effectuer le calcul. Ces appareils avaient une faible vitesse de fonctionnement et ont finalement été remplacés par des ordinateurs entièrement électriques beaucoup plus rapides, utilisant à l’origine des tubes à vide . Le Z2 , créé par l’ingénieur allemand Konrad Zuse en 1939, était l’un des premiers exemples d’ordinateur à relais électromécanique. [21]

En 1941, Zuse a suivi sa machine précédente avec le Z3 , le premier ordinateur numérique électromécanique programmable et entièrement automatique au monde. [22] [23] Le Z3 a été construit avec 2000 relais , implémentant une longueur de mot de 22 bits qui fonctionnait à une fréquence d’horloge d’environ 5 à 10 Hz . [24] Le code de programme était fourni sur un film perforé tandis que les données pouvaient être stockées dans 64 mots de mémoire ou fournies à partir du clavier. Il était assez similaire aux machines modernes à certains égards, pionnier de nombreuses avancées telles que les nombres à virgule flottante. Plutôt que le système décimal plus difficile à mettre en œuvre (utilisé dans la conception antérieure de Charles Babbage ), l’utilisation d’un système binaire signifiait que les machines de Zuse étaient plus faciles à construire et potentiellement plus fiables, compte tenu des technologies disponibles à l’époque. [25] Le Z3 n’était pas lui-même un ordinateur universel mais pouvait être étendu pour être Turing complet . [26] [27]

Le prochain ordinateur de Zuse, le Z4 , est devenu le premier ordinateur commercial au monde ; après un retard initial dû à la Seconde Guerre mondiale, il a été achevé en 1950 et livré à l’ ETH Zurich . [28] L’ordinateur a été fabriqué par la propre société de Zuse, Zuse KG [ de ] , qui a été fondée en 1941 en tant que première société dans le seul but de développer des ordinateurs. [28]

Tubes à vide et circuits électroniques numériques

Les éléments de circuits purement électroniques ont rapidement remplacé leurs équivalents mécaniques et électromécaniques, en même temps que le calcul numérique a remplacé l’analogique. L’ingénieur Tommy Flowers , travaillant à la Post Office Research Station de Londres dans les années 1930, a commencé à explorer l’utilisation possible de l’électronique pour le central téléphonique . L’équipement expérimental qu’il a construit en 1934 est entré en service cinq ans plus tard, convertissant une partie du réseau du central téléphonique en un système de traitement électronique des données, utilisant des milliers de tubes à vide . [20] Aux États-Unis, John Vincent Atanasoff etClifford E. Berry de l’Université d’ État de l’Iowa a développé et testé l’ ordinateur Atanasoff-Berry (ABC) en 1942, [29] le premier “ordinateur numérique électronique automatique”. [30] Cette conception était également entièrement électronique et utilisait environ 300 tubes à vide, avec des condensateurs fixés dans un tambour mécaniquement rotatif pour la mémoire. [31]

Colossus , le premier dispositif informatique programmable numérique électronique , a été utilisé pour casser les chiffres allemands pendant la Seconde Guerre mondiale. On le voit ici utilisé à Bletchley Park en 1943.

Pendant la Seconde Guerre mondiale, les briseurs de code britanniques de Bletchley Park ont ​​remporté un certain nombre de succès en brisant les communications militaires allemandes cryptées. La machine de cryptage allemande, Enigma , a d’abord été attaquée à l’aide de bombes électromécaniques souvent dirigées par des femmes. [32] [33] Pour casser la machine allemande plus sophistiquée Lorenz SZ 40/42 , utilisée pour les communications de haut niveau de l’armée, Max Newman et ses collègues ont chargé Flowers de construire le Colosse . [31] Il a passé onze mois à partir de début février 1943 à concevoir et construire le premier Colossus. [34]Après un test fonctionnel en décembre 1943, Colossus est expédié à Bletchley Park, où il est livré le 18 janvier 1944 [35] et attaque son premier message le 5 février. [31]

Colossus a été le premier ordinateur programmable numérique électronique au monde. [20] Il utilisait un grand nombre de vannes (tubes à vide). Il avait une entrée de bande papier et pouvait être configuré pour effectuer une variété d’ Opérations logiques booléennes sur ses données, mais ce n’était pas Turing-complete . Neuf Mk II Colossi ont été construits (le Mk I a été converti en Mk II faisant dix machines au total). Colossus Mark I contenait 1 500 vannes thermioniques (tubes), mais Mark II avec 2 400 vannes était à la fois cinq fois plus rapide et plus simple à utiliser que Mark I, accélérant considérablement le processus de décodage. [36] [37]

L’ENIAC a été le premier appareil électronique complet de Turing et a effectué des calculs de trajectoire balistique pour l’ armée américaine .

L’ ENIAC [38] (Electronic Numerical Integrator and Computer) a été le premier ordinateur programmable électronique construit aux États-Unis. Bien que l’ENIAC soit similaire au Colossus, il était beaucoup plus rapide, plus flexible et il était complet de Turing . Comme le Colossus, un “programme” sur l’ENIAC était défini par les états de ses câbles de raccordement et de ses commutateurs, bien loin des machines électroniques à programme enregistré qui sont venues plus tard. Une fois qu’un programme était écrit, il devait être installé mécaniquement dans la machine avec une réinitialisation manuelle des prises et des interrupteurs. Les programmeurs de l’ENIAC étaient six femmes, souvent connues collectivement sous le nom de «filles ENIAC». [39] [40]

Il combinait la grande vitesse de l’électronique avec la possibilité d’être programmé pour de nombreux problèmes complexes. Il pouvait ajouter ou soustraire 5000 fois par seconde, mille fois plus vite que n’importe quelle autre machine. Il avait également des modules pour multiplier, diviser et racine carrée. La mémoire haute vitesse était limitée à 20 mots (environ 80 octets). Construit sous la direction de John Mauchly et J. Presper Eckert à l’Université de Pennsylvanie, le développement et la construction de l’ENIAC ont duré de 1943 à la pleine exploitation à la fin de 1945. La machine était énorme, pesant 30 tonnes, utilisant 200 kilowatts d’énergie électrique et contenait plus de 18 000 tubes à vide, 1 500 relais et des centaines de milliers de résistances, condensateurs et inductances. [41]

Ordinateurs modernes

Concept d’ordinateur moderne

Le principe de l’ordinateur moderne a été proposé par Alan Turing dans son article fondateur de 1936, [42] On Computable Numbers . Turing a proposé un appareil simple qu’il a appelé “Universal Computing machine” et qui est maintenant connu sous le nom de machine de Turing universelle . Il a prouvé qu’une telle machine est capable de calculer tout ce qui est calculable en exécutant des instructions (programme) stockées sur bande, permettant à la machine d’être programmable. Le concept fondamental de la conception de Turing est le programme stocké , où toutes les instructions de calcul sont stockées en mémoire. Von Neumann a reconnu que le concept central de l’ordinateur moderne était dû à cet article. [43]Les machines de Turing sont à ce jour un objet d’étude central en théorie du calcul . À l’exception des limitations imposées par leurs mémoires finies, les ordinateurs modernes sont dits Turing-complets , c’est-à-dire qu’ils ont une capacité d’exécution d’ algorithmes équivalente à une machine de Turing universelle.

Programmes enregistrés Une section du Manchester Baby , le premier ordinateur électronique à programme enregistré

Les premières machines informatiques avaient des programmes fixes. Changer sa fonction a nécessité le recâblage et la restructuration de la machine. [31] Avec la proposition de l’ordinateur à programme enregistré, cela a changé. Un ordinateur à programme stocké comprend de par sa conception un jeu d’instructions et peut stocker en mémoire un jeu d’instructions (un programme ) qui détaille le calcul . La base théorique de l’ordinateur à programme stocké a été posée par Alan Turing dans son article de 1936. En 1945, Turing rejoint le National Physical Laboratoryet a commencé à travailler sur le développement d’un ordinateur numérique à programme enregistré électronique. Son rapport de 1945 “Proposed Electronic Calculator” était la première spécification pour un tel appareil. John von Neumann de l’ Université de Pennsylvanie a également diffusé son premier projet de rapport sur l’EDVAC en 1945. [20]

Le Manchester Baby a été le premier ordinateur à programme enregistré au monde . Il a été construit à l’ Université de Manchester en Angleterre par Frederic C. Williams , Tom Kilburn et Geoff Tootill , et a exécuté son premier programme le 21 juin 1948. [44] Il a été conçu comme un banc d’essai pour le tube Williams , le premier random- accéder au périphérique de stockage numérique. [45] Bien que l’ordinateur ait été considéré « petit et primitif » par les normes de son temps, c’était la première machine fonctionnante pour contenir tous les éléments essentiels à un ordinateur électronique moderne. [46]Dès que le Baby eut démontré la faisabilité de sa conception, un projet fut lancé à l’université pour le développer en un ordinateur plus utilisable, le Manchester Mark 1 . Grace Hopper a été la première personne à développer un compilateur pour langage de programmation. [2]

Le Mark 1 est à son tour rapidement devenu le prototype du Ferranti Mark 1 , le premier ordinateur polyvalent disponible dans le commerce au monde. [47] Construite par Ferranti , elle a été livrée à l’Université de Manchester en février 1951. Au moins sept de ces dernières machines ont été livrées entre 1953 et 1957, dont une aux laboratoires Shell à Amsterdam . [48] ​​En octobre 1947, les directeurs de la société de restauration britannique J. Lyons & Company décident de jouer un rôle actif dans la promotion du développement commercial des ordinateurs. L’ ordinateur LEO I est devenu opérationnel en avril 1951 [49]et a dirigé le premier travail régulier d’ordinateur de bureau au monde .

Transistors Transistor à jonction bipolaire (BJT)

Le concept d’un transistor à effet de champ a été proposé par Julius Edgar Lilienfeld en 1925. John Bardeen et Walter Brattain , alors qu’ils travaillaient sous William Shockley aux Bell Labs , ont construit le premier transistor fonctionnel , le transistor à contact ponctuel , en 1947, qui a été suivi par le transistor à jonction bipolaire de Shockley en 1948. [50] [51] À partir de 1955, les transistors ont remplacé les tubes à videdans la conception informatique, donnant naissance à la “deuxième génération” d’ordinateurs. Par rapport aux tubes à vide, les transistors présentent de nombreux avantages : ils sont plus petits et nécessitent moins d’énergie que les tubes à vide, donc dégagent moins de chaleur. Les transistors à jonction étaient beaucoup plus fiables que les tubes à vide et avaient une durée de vie plus longue et indéfinie. Les ordinateurs transistorisés pourraient contenir des dizaines de milliers de circuits logiques binaires dans un espace relativement compact. Cependant, les premiers transistors à jonction étaient des dispositifs relativement volumineux qui étaient difficiles à fabriquer en série , ce qui les limitait à un certain nombre d’applications spécialisées. [52]

À l’ Université de Manchester , une équipe sous la direction de Tom Kilburn a conçu et construit une machine utilisant les transistors nouvellement développés au lieu de vannes. [53] Leur premier ordinateur transistorisé et le premier au monde était opérationnel en 1953 , et une deuxième version y fut achevée en avril 1955. Cependant, la machine utilisait des vannes pour générer ses formes d’onde d’horloge à 125 kHz et dans les circuits. lire et écrire sur sa mémoire à tambour magnétique , ce n’était donc pas le premier ordinateur entièrement transistorisé. Cette distinction revient au Harwell CADET de 1955, [54] construit par la division électronique duCentre de recherche sur l’énergie atomique à Harwell . [54] [55]

MOSFET (transistor MOS), montrant les bornes de grille (G), de corps (B), de source (S) et de drain (D). La grille est séparée du corps par une couche isolante (rose).

Le transistor à effet de champ métal-oxyde-silicium (MOSFET), également connu sous le nom de transistor MOS, a été inventé par Mohamed M. Atalla et Dawon Kahng aux Bell Labs en 1959. [56] C’était le premier transistor vraiment compact qui pouvait être miniaturisé et produit en série pour une large gamme d’utilisations. [52] Avec sa grande évolutivité , [57] et une consommation d’énergie beaucoup plus faible et une densité plus élevée que les transistors à jonction bipolaire, [58] le MOSFET a permis de construire des circuits intégrés à haute densité . [59] [60] En plus du traitement des données, il a également permis l’utilisation pratique des transistors MOS commeéléments de stockage de cellules de mémoire, conduisant au développement de la mémoire à semi-conducteur MOS , qui a remplacé les anciennes mémoires à noyau magnétique dans les ordinateurs. Le MOSFET a conduit à la révolution des micro – ordinateurs [61] et est devenu le moteur de la révolution informatique . [62] [63] Le MOSFET est le transistor le plus largement utilisé dans les ordinateurs, [64] [65] et est le bloc de construction fondamental de l’électronique numérique . [66]

Circuits intégrés

La prochaine grande avancée en matière de puissance de calcul est venue avec l’avènement du circuit intégré (CI). L’idée du circuit intégré a d’abord été conçue par un spécialiste des radars travaillant pour le Royal Radar Establishment du ministère de la Défense , Geoffrey WA Dummer . Dummer a présenté la première description publique d’un circuit intégré au Symposium on Progress in Quality Electronic Components à Washington, DC le 7 mai 1952. [67]

Les premiers circuits intégrés fonctionnels ont été inventés par Jack Kilby chez Texas Instruments et Robert Noyce chez Fairchild Semiconductor . [68] Kilby a enregistré ses idées initiales concernant le circuit intégré en juillet 1958, démontrant avec succès le premier exemple intégré fonctionnel le 12 septembre 1958. [69] Dans sa demande de brevet du 6 février 1959, Kilby a décrit son nouveau dispositif comme “un corps de matériau semi-conducteur … dans lequel tous les composants du circuit électronique sont complètement intégrés”. [70] [71] Cependant, l’invention de Kilby était un circuit intégré hybride (IC hybride), plutôt qu’un Circuit intégré monolithique(CI) puce. [72] Le circuit intégré de Kilby avait des connexions filaires externes, ce qui le rendait difficile à produire en masse. [73]

Noyce a également proposé sa propre idée d’un circuit intégré six mois plus tard que Kilby. [74] L’invention de Noyce était la première véritable puce IC monolithique. [75] [73] Sa puce a résolu de nombreux problèmes pratiques que Kilby n’avait pas. Produite chez Fairchild Semiconductor, elle était en silicium , alors que la puce de Kilby était en germanium . Le Circuit intégré monolithique de Noyce a été fabriqué à l’aide du procédé planaire , développé par son collègue Jean Hoerni au début de 1959. À son tour, le procédé planaire était basé sur les travaux de Mohamed M. Atalla sur la passivation de surface des semi-conducteurs par le dioxyde de silicium à la fin des années 1950. [76] [77] [78]

Les circuits intégrés monolithiques modernes sont principalement des circuits intégrés MOS ( métal-oxyde-semi-conducteur ), construits à partir de MOSFET (transistors MOS). [79] Le premier circuit intégré MOS expérimental à être fabriqué était une puce à 16 transistors construite par Fred Heiman et Steven Hofstein chez RCA en 1962. [80] General Microelectronics a ensuite introduit le premier circuit intégré MOS commercial en 1964, [81] développé par Robert Normand. [80] Suite au développement du transistor MOS à grille auto-alignée (grille de silicium) par Robert Kerwin, Donald Klein et John Sarace aux Bell Labs en 1967, le premier circuit intégré MOS à grille de silicium avecLes portes auto-alignées ont été développées par Federico Faggin chez Fairchild Semiconductor en 1968. [82] Le MOSFET est depuis devenu le composant de dispositif le plus critique des circuits intégrés modernes. [83]

Le développement du circuit intégré MOS a conduit à l’invention du microprocesseur [ 84] [85] et a annoncé une explosion de l’utilisation commerciale et personnelle des ordinateurs. Alors que le sujet de savoir exactement quel appareil était le premier microprocesseur est controversé, en partie en raison d’un manque d’accord sur la définition exacte du terme “microprocesseur”, il est largement incontesté que le premier microprocesseur à puce unique était l’ Intel 4004 , [86] conçu et réalisé par Federico Faggin avec sa technologie MOS IC à grille de silicium, [84] avec Ted Hoff , Masatoshi Shima et Stanley Mazor chez Intel .[b] [88] Au début des années 1970, la technologie MOS IC a permis l’ intégration de plus de 10 000 transistors sur une seule puce. [60]

Les systèmes sur puce (SoC) sont des ordinateurs complets sur une micropuce (ou puce) de la taille d’une pièce de monnaie. [89] Ils peuvent ou non avoir une RAM et une mémoire flash intégrées . Si elle n’est pas intégrée, la RAM est généralement placée directement au-dessus (connu sous le nom de Package on package ) ou en dessous (sur le côté opposé du circuit imprimé) le SoC, et la mémoire flash est généralement placée juste à côté du SoC, tout cela pour améliorer les vitesses de transfert de données, car les signaux de données n’ont pas à parcourir de longues distances. Depuis l’ENIAC en 1945, les ordinateurs ont énormément progressé, les SoC modernes (tels que le Snapdragon 865) ayant la taille d’une pièce tout en étant des centaines de milliers de fois plus puissants que l’ENIAC, intégrant des milliards de transistors et ne consommant que quelques watts. du pouvoir.

Ordinateurs mobiles

Les premiers ordinateurs portables étaient lourds et fonctionnaient sur secteur. L’ IBM 5100 de 50 lb (23 kg) en était un des premiers exemples. Les ordinateurs portables ultérieurs tels que l’ Osborne 1 et le Compaq Portable étaient considérablement plus légers mais devaient encore être branchés. Les premiers ordinateurs portables , tels que le Grid Compass , ont supprimé cette exigence en incorporant des batteries – et avec la miniaturisation continue des ressources informatiques et les progrès des ordinateurs portables. batterie, les ordinateurs portables ont gagné en popularité dans les années 2000. [90] Les mêmes développements ont permis aux fabricants d’intégrer des ressources informatiques dans les téléphones mobiles cellulaires au début des années 2000.

Ces smartphones et tablettes fonctionnent sur une variété de systèmes d’exploitation et sont récemment devenus l’appareil informatique dominant sur le marché. [91] Ceux-ci sont alimentés par des systèmes sur puce (SoC), qui sont des ordinateurs complets sur une puce de la taille d’une pièce de monnaie. [89]

Les types

Les ordinateurs peuvent être classés de différentes manières, notamment :

Par architecture

  • Ordinateur analogique
  • Ordinateur numérique
  • Ordinateur hybride
  • Architecture d’Harvard
  • L’architecture de Von Neumann
  • Ordinateur de jeu d’instructions complexe
  • Ordinateur à jeu d’instructions réduit

Par taille, facteur de forme et objectif

  • Supercalculateur
  • Ordinateur central
  • Mini- ordinateur (terme plus utilisé)
  • Serveur
    • Serveur monté en rack
    • Serveur lame
    • Serveur tour
  • Ordinateur personnel
    • Poste de travail
    • Micro -ordinateur (terme plus utilisé)
      • Ordinateur de famille
    • Ordinateur de bureau
      • Bureau de la tour
      • Bureau mince
        • Ordinateur multimédia ( ordinateurs de système de montage non linéaire , PC de montage vidéo et similaires)
        • Ordinateur de jeu
      • PC tout-en-un
      • Nettop ( PC à petit facteur de forme , mini-PC)
      • PC de cinéma maison
      • Clavier d’ordinateur
      • Ordinateur portable
      • Client léger
      • Appareil Internet
    • Ordinateur portable
      • Ordinateur de bureau de remplacement
      • Ordinateur portable de jeu
      • Ordinateur portable robuste
      • PC 2 en 1
      • Ultrabook
      • Chromebook
      • Subnotebook
      • Netbook
  • Ordinateurs mobiles :
    • Tablette
    • Téléphone intelligent
    • PC ultra-mobile
    • Ordinateur de poche
    • PC de poche
    • PC de poche
  • Ordinateur portable
    • Montre intelligente
    • Lunettes intelligentes
  • Ordinateur monocarte
  • Branchez l’ordinateur
  • Bâton PC
  • Programmable Logic Controller
  • Ordinateur sur module
  • Système sur module
  • Système dans un package
  • Système sur puce (également connu sous le nom de processeur d’application ou AP s’il manque de circuits tels que des circuits radio)
  • Microcontrôleur

Matériel

Lire des médias Vidéo démontrant les composants standard d’un ordinateur “slimline”

Le terme matériel couvre toutes les parties d’un ordinateur qui sont des objets physiques tangibles. Les circuits , les puces informatiques, les cartes graphiques, les cartes son, la mémoire (RAM), la carte mère, les écrans, les alimentations, les câbles, les claviers, les imprimantes et les périphériques d’entrée “souris” sont tous du matériel.

Histoire du matériel informatique

Première génération
(mécanique/électromécanique)
Calculatrices Calculatrice de Pascal , Arithmomètre , Moteur de différences , Machines analytiques de Quevedo
Appareils programmables Métier Jacquard , Moteur analytique , IBM ASCC/Harvard Mark I , Harvard Mark II , IBM SSEC , Z1 , Z2 , Z3
Deuxième génération
(tubes à vide)
Calculatrices Ordinateur Atanasoff–Berry , IBM 604 , UNIVAC 60 , UNIVAC 120
Appareils programmables Colossus , ENIAC , Manchester Baby , EDSAC , Manchester Mark 1 , Ferranti Pegasus , Ferranti Mercury , CSIRAC , EDVAC , UNIVAC I , IBM 701 , IBM 702 , IBM 650 , Z22
Troisième génération ( transistors
discrets et circuits intégrés SSI, MSI, LSI )
Ordinateurs centraux IBM 7090 , IBM 7080 , IBM System/360 , BUNCH
Mini-ordinateur HP 2116A , système IBM/32 , système IBM/36 , LINC , PDP-8 , PDP-11
Ordinateur de bureau HP 9100
Quatrième génération
( circuits intégrés VLSI )
Mini-ordinateur VAX , IBM AS/400
micro -ordinateur 4 bits Intel 4004 , Intel 4040
micro -ordinateur 8 bits Intel 8008 , Intel 8080 , Motorola 6800 , Motorola 6809 , Technologie MOS 6502 , Zilog Z80
micro -ordinateur 16 bits Intel 8088 , Zilog Z8000 , WDC 65816/65802
micro -ordinateur 32 bits Intel 80386 , Pentium , Motorola 68000 , BRAS
micro -ordinateur 64 bits [c] Alpha , MIPS , PA-RISC , PowerPC , SPARC , x86-64 , ARMv8-A
Ordinateur embarqué Intel 8048 , Intel 8051
Ordinateur personnel Ordinateur de bureau , Ordinateur personnel , Ordinateur portable , Assistant numérique personnel (PDA), Ordinateur portable , Tablette PC , Ordinateur portable
Théorique/expérimental Ordinateur quantique
Ordinateur chimique
Calcul de l’ADN
Ordinateur optique
Ordinateur basé sur la spintronique
Wetware/Ordinateur organique

Autres sujets sur le matériel

Périphérique ( entrée/sortie ) Saisir Souris , clavier , joystick , scanner d’images , webcam , tablette graphique , microphone
Production Moniteur , imprimante , haut- parleur
Tous les deux Lecteur de disquette, lecteur de disque dur , lecteur de disque optique , téléimprimeur
Bus informatiques Courte portée RS-232 , SCSI , PCI , USB
Longue portée ( réseau informatique ) Ethernet , ATM , FDDI

Un ordinateur à usage général comporte quatre composants principaux : l’ unité arithmétique et logique (ALU), l’ unité de contrôle , la mémoire et les périphériques d’entrée et de sortie (collectivement appelés E/S). Ces parties sont reliées entre elles par des bus , souvent constitués de faisceaux de fils . À l’intérieur de chacune de ces pièces se trouvent des milliers, voire des billions de petits circuits électriques qui peuvent être activés ou désactivés au moyen d’un interrupteur électronique . Chaque circuit représente un bit (chiffre binaire) d’information de sorte que lorsque le circuit est allumé, il représente un “1”, et lorsqu’il est éteint, il représente un “0” (en représentation logique positive). Les circuits sont organisés endes portes logiques pour qu’un ou plusieurs des circuits puissent contrôler l’état d’un ou plusieurs des autres circuits.

Des dispositifs d’entrée

Lorsque des données non traitées sont envoyées à l’ordinateur à l’aide de périphériques d’entrée, les données sont traitées et envoyées aux périphériques de sortie. Les dispositifs d’entrée peuvent être manuels ou automatisés. L’acte de traitement est principalement régulé par le CPU. Voici quelques exemples de périphériques d’entrée :

  • Clavier d’ordinateur
  • Appareil photo numérique
  • Vidéo numérique
  • Tablette graphique
  • Numériseur d’images
  • Manette
  • Microphone
  • Souris
  • Clavier superposé
  • Horloge en temps réel
  • Trackball
  • Écran tactile
  • Stylo lumineux

Des dispositifs de sortie

Les moyens par lesquels l’ordinateur donne une sortie sont appelés périphériques de sortie. Voici quelques exemples de périphériques de sortie :

  • Moniteur d’ordinateur
  • Imprimante
  • Haut-parleur d’ordinateur
  • Projecteur
  • Carte son
  • Carte vidéo

Unité de contrôle

Diagramme montrant comment une instruction d’ architecture MIPS particulière serait décodée par le système de contrôle

L’ unité de contrôle (souvent appelée système de contrôle ou contrôleur central) gère les différents composants de l’ordinateur ; il lit et interprète (décode) les instructions du programme, les transformant en signaux de commande qui activent d’autres parties de l’ordinateur. [d] Les systèmes de contrôle des ordinateurs avancés peuvent modifier l’ordre d’exécution de certaines instructions pour améliorer les performances.

Un composant clé commun à tous les processeurs est le compteur de programme , une cellule de mémoire spéciale (un registre ) qui garde une trace de l’emplacement en mémoire à partir duquel l’instruction suivante doit être lue. [e]

La fonction du système de contrôle est la suivante – ceci est une description simplifiée, et certaines de ces étapes peuvent être effectuées simultanément ou dans un ordre différent selon le type de CPU :

  1. Lire le code de l’instruction suivante dans la cellule indiquée par le compteur de programme.
  2. Décodez le code numérique de l’instruction en un ensemble de commandes ou de signaux pour chacun des autres systèmes.
  3. Incrémentez le compteur de programme pour qu’il pointe sur l’instruction suivante.
  4. Lire toutes les données requises par l’instruction à partir des cellules en mémoire (ou peut-être à partir d’un périphérique d’entrée). L’emplacement de ces données requises est généralement stocké dans le code d’instruction.
  5. Fournir les données nécessaires à une ALU ou à un registre.
  6. Si l’instruction nécessite une ALU ou un matériel spécialisé pour s’exécuter, demandez au matériel d’effectuer l’opération demandée.
  7. Écrivez le résultat de l’ALU dans un emplacement de mémoire ou dans un registre ou peut-être un périphérique de sortie.
  8. Revenez à l’étape (1).

Étant donné que le compteur de programme est (conceptuellement) juste un autre ensemble de cellules de mémoire, il peut être modifié par des calculs effectués dans l’ALU. L’ajout de 100 au compteur de programme entraînerait la lecture de l’instruction suivante à partir d’un emplacement situé à 100 emplacements plus loin dans le programme. Les instructions qui modifient le compteur de programme sont souvent appelées “sauts” et permettent des boucles (instructions répétées par l’ordinateur) et souvent l’exécution d’instructions conditionnelles (les deux exemples de flux de contrôle ).

La séquence d’opérations que l’unité de contrôle effectue pour traiter une instruction est en elle-même comme un programme informatique court , et en effet, dans certaines conceptions de CPU plus complexes, il existe un autre ordinateur encore plus petit appelé microséquenceur , qui exécute un programme de microcode qui provoque que tous ces événements se produisent.

Unité centrale de traitement (CPU)

L’unité de contrôle, l’ALU, et les registres sont collectivement connus sous le nom d’ Unité centrale de traitement (CPU). Les premiers processeurs étaient composés de nombreux composants distincts. Depuis les années 1970, les processeurs sont généralement construits sur une seule puce de circuit intégré MOS appelée microprocesseur .

Unité logique arithmétique (ALU)

L’ALU est capable d’effectuer deux classes d’opérations : l’arithmétique et la logique. [92] L’ensemble des opérations arithmétiques prises en charge par une ALU particulière peut être limité à l’addition et à la soustraction, ou peut inclure la multiplication, la division, les fonctions de trigonométrie telles que le sinus, le cosinus, etc., et les racines carrées . Certains ne peuvent fonctionner que sur des nombres entiers ( entiers ) tandis que d’autres utilisent des virgules flottantes pour représenter des nombres réels, bien qu’avec une précision limitée. Cependant, tout ordinateur capable d’effectuer uniquement les opérations les plus simples peut être programmé pour décomposer les opérations les plus complexes en étapes simples qu’il peut effectuer. Par conséquent, n’importe quel ordinateur peut être programmé pour effectuer n’importe quelle opération arithmétique, même si cela prendra plus de temps si son ALU ne prend pas directement en charge l’opération. Une ALU peut également comparer des nombres et renvoyer des valeurs de vérité booléennes (vraies ou fausses) selon que l’une est égale, supérieure ou inférieure à l’autre (“est-ce que 64 est supérieur à 65 ?”). Les Opérations logiques impliquent une logique booléenne : AND , OR , XOR et NOT . Ceux-ci peuvent être utiles pour créer desinstructions conditionnelles et traitement logique booléenne .

Les ordinateurs superscalaires peuvent contenir plusieurs ALU, leur permettant de traiter plusieurs instructions simultanément. [93] Les processeurs graphiques et les ordinateurs dotés de fonctionnalités SIMD et MIMD contiennent souvent des ALU capables d’effectuer des calculs arithmétiques sur des vecteurs et des matrices .

Mémoire

La mémoire à noyau magnétique (utilisant des noyaux magnétiques ) était la mémoire informatique de choix dans les années 1960, jusqu’à ce qu’elle soit remplacée par une mémoire à semi-conducteur (utilisant des cellules de mémoire MOS ).

La mémoire d’un ordinateur peut être considérée comme une liste de cellules dans lesquelles des nombres peuvent être placés ou lus. Chaque cellule a une “adresse” numérotée et peut stocker un seul numéro. L’ordinateur peut être chargé de “mettre le nombre 123 dans la cellule numérotée 1357” ou “d’ajouter le nombre qui se trouve dans la cellule 1357 au nombre qui se trouve dans la cellule 2468 et de mettre la réponse dans la cellule 1595”. Les informations stockées en mémoire peuvent représenter pratiquement n’importe quoi. Des lettres, des chiffres et même des instructions informatiques peuvent être mis en mémoire avec la même facilité. Étant donné que le processeur ne fait pas de distinction entre les différents types d’informations, il est de la responsabilité du logiciel de donner une signification à ce que la mémoire considère comme une simple série de chiffres.

Dans presque tous les ordinateurs modernes, chaque cellule de mémoire est configurée pour stocker des nombres binaires en groupes de huit bits (appelés un octet ). Chaque octet peut représenter 256 nombres différents (2 8 = 256) ; soit de 0 à 255 ou de -128 à +127. Pour stocker des nombres plus importants, plusieurs octets consécutifs peuvent être utilisés (généralement, deux, quatre ou huit). Lorsque des nombres négatifs sont requis, ils sont généralement stockés en notation de complément à deux . D’autres arrangements sont possibles, mais ne sont généralement pas vus en dehors d’applications spécialisées ou de contextes historiques. Un ordinateur peut stocker n’importe quel type d’information en mémoire s’il peut être représenté numériquement. Les ordinateurs modernes ont des milliards, voire des billions d’octets de mémoire.

Le CPU contient un ensemble spécial de cellules de mémoire appelées registres qui peuvent être lues et écrites beaucoup plus rapidement que la zone de mémoire principale. Il y a généralement entre deux et cent registres selon le type de CPU. Les registres sont utilisés pour les éléments de données les plus fréquemment nécessaires pour éviter d’avoir à accéder à la mémoire principale chaque fois que des données sont nécessaires. Comme les données sont constamment traitées, la réduction du besoin d’accéder à la mémoire principale (qui est souvent lente par rapport à l’ALU et aux unités de contrôle) augmente considérablement la vitesse de l’ordinateur.

La mémoire principale de l’ordinateur se décline en deux variétés principales :

  • mémoire vive ou RAM
  • mémoire morte ou ROM

La RAM peut être lue et écrite à tout moment par le CPU, mais la ROM est préchargée avec des données et des logiciels qui ne changent jamais, donc le CPU ne peut que lire à partir de celle-ci. La ROM est généralement utilisée pour stocker les instructions de démarrage initiales de l’ordinateur. En général, le contenu de la RAM est effacé lorsque l’alimentation de l’ordinateur est coupée, mais la ROM conserve ses données indéfiniment. Dans un PC, la ROM contient un programme spécialisé appelé BIOS qui orchestre le chargement du système d’ exploitation de l’ordinateur à partir du disque dur dans la RAM chaque fois que l’ordinateur est allumé ou réinitialisé. Dans les ordinateurs embarqués , qui n’ont souvent pas de lecteurs de disque, tous les logiciels requis peuvent être stockés dans la ROM. Les logiciels stockés dans la ROM sont souvent appelés micrologiciels, car il s’agit théoriquement plus de matériel que de logiciel. La mémoire flash brouille la distinction entre ROM et RAM, car elle conserve ses données lorsqu’elle est éteinte mais est également réinscriptible. Cependant, il est généralement beaucoup plus lent que la ROM et la RAM conventionnelles, son utilisation est donc limitée aux applications où la vitesse élevée n’est pas nécessaire. [F]

Dans les ordinateurs plus sophistiqués, il peut y avoir une ou plusieurs mémoires cache RAM , qui sont plus lentes que les registres mais plus rapides que la mémoire principale. Généralement, les ordinateurs dotés de ce type de cache sont conçus pour déplacer automatiquement les données fréquemment nécessaires dans le cache, souvent sans aucune intervention de la part du programmeur.

Entrée/sortie (E/S)

Les disques durs sont des périphériques de stockage couramment utilisés avec les ordinateurs.

Les E/S sont le moyen par lequel un ordinateur échange des informations avec le monde extérieur. [95] Les appareils qui fournissent une entrée ou une sortie à l’ordinateur sont appelés périphériques . [96] Sur un ordinateur personnel typique, les périphériques comprennent les périphériques d’entrée tels que le clavier et la souris , et les périphériques de sortie tels que l’ écran et l’ imprimante . Les disques durs , les lecteurs de disquettes et les lecteurs de disques optiques servent à la fois de périphériques d’entrée et de sortie. La mise en réseau informatique est une autre forme d’E/S. Les périphériques d’E/S sont souvent des ordinateurs complexes à part entière, avec leur propre processeur et leur propre mémoire. UNL’unité de traitement graphique peut contenir cinquante ordinateurs minuscules ou plus qui effectuent les calculs nécessaires pour afficher des graphiques 3D . [ citation nécessaire ] Les ordinateurs de bureau modernes contiennent de nombreux ordinateurs plus petits qui aident le processeur principal à effectuer des E/S. Un écran plat de l’ère 2016 contient ses propres circuits informatiques.

Multitâche

Alors qu’un ordinateur peut être considéré comme exécutant un programme gigantesque stocké dans sa mémoire principale, dans certains systèmes, il est nécessaire de donner l’impression d’exécuter plusieurs programmes simultanément. Ceci est réalisé par le multitâche, c’est-à-dire que l’ordinateur bascule rapidement entre l’exécution de chaque programme à tour de rôle. [97] Un moyen par lequel cela est fait est avec un signal spécial appelé une interruption, ce qui peut périodiquement amener l’ordinateur à arrêter d’exécuter des instructions là où il se trouvait et à faire autre chose à la place. En se souvenant de l’endroit où il s’exécutait avant l’interruption, l’ordinateur peut revenir à cette tâche plus tard. Si plusieurs programmes s’exécutent “en même temps”. alors le générateur d’interruptions peut provoquer plusieurs centaines d’interruptions par seconde, provoquant à chaque fois un changement de programme. Étant donné que les ordinateurs modernes exécutent généralement des instructions de plusieurs ordres de grandeur plus rapidement que la perception humaine, il peut sembler que de nombreux programmes s’exécutent en même temps, même si un seul s’exécute à un instant donné. Cette méthode de multitâche est parfois appelée “temps partagé” puisque chaque programme se voit attribuer une “tranche” de temps à tour de rôle. [98]

Avant l’ère des ordinateurs bon marché, l’utilisation principale du multitâche était de permettre à plusieurs personnes de partager le même ordinateur. Apparemment, le multitâche ferait en sorte qu’un ordinateur qui bascule entre plusieurs programmes s’exécute plus lentement, en proportion directe du nombre de programmes qu’il exécute, mais la plupart des programmes passent une grande partie de leur temps à attendre que des périphériques d’entrée/sortie lents terminent leurs tâches. Si un programme attend que l’utilisateur clique sur la souris ou appuie sur une touche du clavier, il ne prendra pas de “tranche de temps” jusqu’à ce que l’ événement qu’il attend se produise. Cela libère du temps pour que d’autres programmes s’exécutent, de sorte que de nombreux programmes peuvent être exécutés simultanément sans perte de vitesse inacceptable.

Multitraitement

Cray a conçu de nombreux supercalculateurs qui utilisaient fortement le multitraitement.

Certains ordinateurs sont conçus pour répartir leur travail sur plusieurs processeurs dans une configuration multiprocesseur, une technique autrefois utilisée uniquement sur des machines volumineuses et puissantes telles que les superordinateurs , les ordinateurs centraux et les serveurs . Les ordinateurs personnels et portables multiprocesseurs et multicœurs (plusieurs processeurs sur un seul circuit intégré) sont désormais largement disponibles et sont donc de plus en plus utilisés sur les marchés bas de gamme.

Les superordinateurs en particulier ont souvent des architectures très uniques qui diffèrent considérablement de l’architecture de base des programmes stockés et des ordinateurs à usage général. [g] Ils comportent souvent des milliers de processeurs, des interconnexions haut débit personnalisées et du matériel informatique spécialisé. De telles conceptions ont tendance à n’être utiles que pour des tâches spécialisées en raison de la grande échelle d’organisation de programme requise pour utiliser avec succès la plupart des ressources disponibles à la fois. Les supercalculateurs sont généralement utilisés dans les applications de simulation , de rendu graphique et de cryptographie à grande échelle, ainsi que dans d’autres tâches dites ” parallèlement embarrassantes “.

Logiciel

Le logiciel fait référence aux parties de l’ordinateur qui n’ont pas de forme matérielle, telles que les programmes, les données, les protocoles, etc. Le logiciel est la partie d’un système informatique qui se compose d’informations codées ou d’instructions informatiques, contrairement au matériel physique à partir duquel le système est construit. Les logiciels informatiques comprennent les programmes informatiques , les bibliothèques et les données non exécutables associées , telles que la documentation en ligne ou les supports numériques . Il est souvent divisé en logiciel système et logiciel d’applicationLe matériel informatique et les logiciels ont besoin l’un de l’autre et aucun ne peut être utilisé seul de façon réaliste. Lorsque le logiciel est stocké dans du matériel qui ne peut pas être facilement modifié, comme avec la ROM BIOS d’un ordinateur compatible IBM PC , il est parfois appelé “micrologiciel”.

Système d’exploitation /logiciel système Unix et BSD UNIX System V , IBM AIX , HP-UX , Solaris ( SunOS ), IRIX , Liste des systèmes d’exploitation BSD
Linux Liste des distributions Linux , Comparatif des distributions Linux
Microsoft Windows Windows 95 , Windows 98 , Windows NT , Windows 2000 , Windows ME , Windows XP , Windows Vista , Windows 7 , Windows 8 , Windows 8.1 , Windows 10 , Windows 11
DOS 86-DOS (QDOS), IBM PC DOS , MS-DOS , DR-DOS , FreeDOS
Systèmes d’exploitation Macintosh Mac OS classique , macOS (anciennement OS X et Mac OS X)
Embarqué et en temps réel Liste des systèmes d’exploitation embarqués
Expérimental Amibe , Oberon – AOS, Bluebottle, A2 , Plan 9 de Bell Labs
Bibliothèque Multimédia DirectX , OpenGL , OpenAL , Vulkan (API)
Bibliothèque de programmation Bibliothèque standard C , Bibliothèque de modèles standard
Données Protocole TCP/IP , Kermit , FTP , HTTP , SMTP
Format de fichier HTML , XML , JPEG , MPEG , PNG
Interface utilisateur Interface utilisateur graphique ( WIMP ) Microsoft Windows , GNOME , KDE , QNX Photon, CDE , GEM , Aqua
Interface utilisateur textuelle Interface de ligne de commande , Interface utilisateur textuelle
Logiciel d’application Suite bureautique Traitement de texte , PAO , Programme de présentation , Système de gestion de base de données , Planification et gestion du temps, Tableur , Logiciel comptable
Accès Internet Navigateur , Client de messagerie , Serveur Web , Agent de transfert de messagerie , Messagerie instantanée
Conception et fabrication Conception assistée par ordinateur , Fabrication assistée par ordinateur , Gestion d’usine, Fabrication robotique, Gestion de la chaîne d’approvisionnement
Graphique Editeur graphique raster , Editeur graphique vectoriel , Modeleur 3D , Editeur animation , Infographie 3D , Montage vidéo , Traitement d’images
l’audio Editeur audionumérique , Lecture audio , Mixage , Synthèse audio , MAO
Génie logiciel Compilateur , Assembleur , Interprète , Débogueur , Éditeur de texte , Environnement de développement intégré , Analyse des performances logicielles , Contrôle de révision , Gestion de la configuration logicielle
Éducatif Ludo -éducatif , Jeu éducatif , Jeu sérieux , Simulateur de vol
Jeux Stratégie , Arcade , Casse -tête , Simulation , Jeu de tir à la première personne , Plate -forme , Massivement multijoueur , Fiction interactive
Divers Intelligence artificielle , Logiciel antivirus , Scanner de logiciels malveillants , Installateur / Systèmes de gestion de packages , Gestionnaire de fichiers

Langues

Il existe des milliers de langages de programmation différents, certains destinés à un usage général, d’autres utiles uniquement pour des applications hautement spécialisées.

Langages de programmation
Listes de langages de programmation Chronologie des langages de programmation , Liste des langages de programmation par catégorie , Liste générationnelle des langages de programmation , Liste des langages de programmation , Langages de programmation non anglophones
Langages d’assemblage couramment utilisés BRAS , MIPS , x86
Langages de programmation de haut niveau couramment utilisés Ada , BASIC , C , C++ , C# , COBOL , Fortran , PL/I , REXX , Java , Lisp , Pascal , Object Pascal
Langages de script couramment utilisés Script Bourne , JavaScript , Python , Ruby , PHP , Perl

Programmes

La caractéristique déterminante des ordinateurs modernes qui les distingue de toutes les autres machines est qu’ils peuvent être programmés . C’est-à-dire qu’un certain type d’ instructions (le programme ) peut être donné à l’ordinateur, et il les traitera. Les ordinateurs modernes basés sur l’ architecture von Neumann ont souvent un code machine sous la forme d’un langage de programmation impératif . Concrètement, un programme informatique peut se résumer à quelques instructions ou s’étendre à plusieurs millions d’instructions, comme le font par exemple les programmes de traitements de texte et de navigateurs web . Un ordinateur moderne typique peut exécuter des milliards d’instructions par seconde ( gigaflops) et fait rarement une erreur après de nombreuses années de fonctionnement. Les grands programmes informatiques composés de plusieurs millions d’instructions peuvent prendre des années à des équipes de programmeurs pour être écrits et, en raison de la complexité de la tâche, contiennent presque certainement des erreurs.

Architecture de programme stockée Réplique du Manchester Baby , le premier ordinateur électronique à programme enregistré au monde , au Musée des sciences et de l’industrie de Manchester, en Angleterre

Cette section s’applique aux ordinateurs à base de RAM les plus courants .

Dans la plupart des cas, les instructions de l’ordinateur sont simples : ajoutez un numéro à un autre, déplacez des données d’un emplacement à un autre, envoyez un message à un périphérique externe, etc. Ces instructions sont lues à partir de la mémoire de l’ordinateur et sont généralement exécutées . dans l’ordre où ils ont été donnés. Cependant, il existe généralement des instructions spécialisées pour dire à l’ordinateur de sauter en avant ou en arrière à un autre endroit du programme et de continuer à s’exécuter à partir de là. Celles-ci sont appelées instructions de “saut” (ou branches ). De plus, les instructions de saut peuvent être faites pour se produire conditionnellementde sorte que différentes séquences d’instructions peuvent être utilisées en fonction du résultat d’un calcul précédent ou d’un événement extérieur. De nombreux ordinateurs prennent directement en charge les sous-programmes en fournissant un type de saut qui “se souvient” de l’emplacement d’où il a sauté et une autre instruction pour revenir à l’instruction suivant cette instruction de saut.

L’exécution d’un programme peut être comparée à la lecture d’un livre. Bien qu’une personne lise normalement chaque mot et chaque ligne dans l’ordre, elle peut parfois revenir à un endroit antérieur du texte ou sauter des sections qui ne l’intéressent pas. De même, un ordinateur peut parfois revenir en arrière et répéter les instructions dans certaines sections du programme encore et encore jusqu’à ce qu’une condition interne soit remplie. C’est ce qu’on appelle le flux de contrôle au sein du programme et c’est ce qui permet à l’ordinateur d’effectuer des tâches à plusieurs reprises sans intervention humaine.

Comparativement, une personne utilisant une calculatrice de poche peut effectuer une opération arithmétique de base telle que l’addition de deux nombres en appuyant simplement sur quelques boutons. Mais pour additionner tous les nombres de 1 à 1 000, il faudrait des milliers d’appuis sur des boutons et beaucoup de temps, avec une quasi-certitude de se tromper. D’autre part, un ordinateur peut être programmé pour le faire avec seulement quelques instructions simples. L’exemple suivant est écrit en langage assembleur MIPS :

begin: addi $8 , $0 , 0 # initialise la somme à 0 addi $9 , $0 , 1 # définit le premier nombre à additionner = 1 loop: slti $10 , $9 , 1000 # vérifie si le nombre est inférieur à 1000 beq $10 , $0 , finish # si le nombre impair est supérieur à n alors exit add $8 , $8 , $9 # mettre à jour la somme addi $9 , $9 , 1 # obtenir le nombre suivant j boucle # répéter la fin du processus de sommation : ajouter $2 , $8 , $0 # mettre la somme dans le registre de sortie

Une fois invité à exécuter ce programme, l’ordinateur effectuera la tâche d’addition répétitive sans autre intervention humaine. Il ne fera presque jamais d’erreur et un PC moderne peut accomplir la tâche en une fraction de seconde.

Langage machine

Dans la plupart des ordinateurs, les instructions individuelles sont stockées sous forme de code machine, chaque instruction recevant un numéro unique (son code d’opération ou opcodepour faire court). La commande pour additionner deux nombres aurait un seul opcode ; la commande pour les multiplier aurait un opcode différent, et ainsi de suite. Les ordinateurs les plus simples sont capables d’exécuter une poignée d’instructions différentes ; les ordinateurs les plus complexes ont le choix entre plusieurs centaines, chacun avec un code numérique unique. Étant donné que la mémoire de l’ordinateur est capable de stocker des nombres, elle peut également stocker les codes d’instruction. Cela conduit au fait important que des programmes entiers (qui ne sont que des listes de ces instructions) peuvent être représentés sous forme de listes de nombres et peuvent eux-mêmes être manipulés à l’intérieur de l’ordinateur de la même manière que des données numériques. Le concept fondamental de stockage des programmes dans la mémoire de l’ordinateur avec les données sur lesquelles ils opèrent est au cœur du von Neumann, ou programme stocké [citation nécessaire ], architecture. Dans certains cas, un ordinateur peut stocker une partie ou la totalité de son programme dans une mémoire séparée des données sur lesquelles il fonctionne. C’est ce qu’on appellel’architecture Harvardaprès l’ordinateurHarvard Mark I. Les ordinateurs von Neumann modernes affichent certains traits de l’architecture Harvard dans leurs conceptions, comme dansles caches CPU.

Bien qu’il soit possible d’écrire des programmes informatiques sous forme de longues listes de nombres ( langage machine ) et bien que cette technique ait été utilisée avec de nombreux premiers ordinateurs, [h] il est extrêmement fastidieux et potentiellement sujet aux erreurs de le faire dans la pratique, en particulier pour les programmes compliqués . Au lieu de cela, chaque instruction de base peut recevoir un nom court qui indique sa fonction et facile à retenir – un mnémonique tel que ADD, SUB, MULT ou JUMP. Ces mnémoniques sont collectivement connus sous le nom de langage d’assemblage d’un ordinateur . La conversion de programmes écrits en langage d’assemblage en quelque chose que l’ordinateur peut réellement comprendre (langage machine) est généralement effectuée par un programme informatique appelé assembleur.

Une carte perforée des années 1970 contenant une ligne d’un programme Fortran . La carte indique : “Z(1) = Y + W(1)” et est étiquetée “PROJ039” à des fins d’identification. Langage de programmation

Les langages de programmation offrent différentes manières de spécifier les programmes que les ordinateurs doivent exécuter. Contrairement aux langages naturels , les langages de programmation sont conçus pour ne permettre aucune ambiguïté et pour être concis. Ce sont des langues purement écrites et souvent difficiles à lire à haute voix. Ils sont généralement soit traduits en code machine par un compilateur ou un assembleur avant d’être exécutés, soit traduits directement à l’exécution par un interpréteur . Parfois, les programmes sont exécutés par une méthode hybride des deux techniques.

Langages de bas niveau

Les langages machine et les langages d’assemblage qui les représentent (collectivement appelés langages de programmation de bas niveau ) sont généralement uniques à l’architecture particulière de l’Unité centrale de traitement ( CPU ) d’un ordinateur. Par exemple, un processeur à architecture ARM (comme on peut en trouver dans un smartphone ou un jeu vidéo portable ) ne peut pas comprendre le langage machine d’un processeur x86 qui pourrait se trouver dans un PC . [i] Historiquement, un nombre important d’autres architectures de processeur ont été créées et largement utilisées, notamment les technologies MOS 6502 et 6510 en plus du Zilog Z80.

Langages de haut niveau

Bien que considérablement plus facile qu’en langage machine, écrire de longs programmes en langage assembleur est souvent difficile et est également sujet aux erreurs. Par conséquent, la plupart des programmes pratiques sont écrits dans des langages de programmation de haut niveau plus abstraits qui sont capables d’exprimer plus facilement les besoins du programmeur (et ainsi d’aider à réduire les erreurs du programmeur). Les langages de haut niveau sont généralement “compilés” en langage machine (ou parfois en langage d’assemblage puis en langage machine) à l’aide d’un autre programme informatique appelé compilateur . [f]Les langages de haut niveau sont moins liés au fonctionnement de l’ordinateur cible que le langage d’assemblage, et plus liés au langage et à la structure du ou des problèmes à résoudre par le programme final. Il est donc souvent possible d’utiliser différents compilateurs pour traduire le même programme en langage de haut niveau dans le langage machine de nombreux types d’ordinateurs différents. Cela fait partie des moyens par lesquels des logiciels tels que les jeux vidéo peuvent être rendus disponibles pour différentes architectures informatiques telles que les ordinateurs personnels et diverses consoles de jeux vidéo .

Conception du programme

Cette section ne cite aucune source . ( juillet 2012 ) Please help improve this section by adding citations to reliable sources. Unsourced material may be challenged and removed. (Learn how and when to remove this template message)

La conception de programmes de petits programmes est relativement simple et implique l’analyse du problème, la collecte d’entrées, l’utilisation des constructions de programmation dans les langages, la conception ou l’utilisation de procédures et d’algorithmes établis, la fourniture de données pour les périphériques de sortie et les solutions au problème, le cas échéant. Au fur et à mesure que les problèmes deviennent plus grands et plus complexes, des fonctionnalités telles que des sous-programmes, des modules, une documentation formelle et de nouveaux paradigmes tels que la programmation orientée objet sont rencontrées. Les grands programmes impliquant des milliers de lignes de code et plus nécessitent des méthodologies logicielles formelles. La tâche de développer de gros logicielssystèmes présente un défi intellectuel important. Produire des logiciels avec une fiabilité élevée acceptable dans un calendrier et un budget prévisibles a toujours été difficile ; la discipline académique et professionnelle du génie logiciel se concentre spécifiquement sur ce défi.

Insectes Le premier bogue informatique, un papillon trouvé piégé sur un relais de l’ ordinateur Harvard Mark II

Les erreurs dans les programmes informatiques sont appelées ” bogues “. Ils peuvent être bénins et ne pas affecter l’utilité du programme, ou n’avoir que des effets subtils. Mais dans certains cas, ils peuvent provoquer le blocage du programme ou de l’ensemble du système , ne répondant plus aux entrées telles que les clics de souris ou les frappes au clavier, l’échouant complètement ou le plantant . [100] Sinon, des bogues bénins peuvent parfois être exploités à des fins malveillantes par un utilisateur peu scrupuleux écrivant un exploit, code conçu pour profiter d’un bogue et perturber le bon fonctionnement d’un ordinateur. Les bogues ne sont généralement pas la faute de l’ordinateur. Étant donné que les ordinateurs ne font qu’exécuter les instructions qui leur sont données, les bogues sont presque toujours le résultat d’une erreur du programmeur ou d’un oubli dans la conception du programme. [k] L’amiral Grace Hopper , un informaticien américain et développeur du premier compilateur , est crédité d’avoir utilisé pour la première fois le terme “bogues” en informatique après qu’un papillon mort a été trouvé court-circuitant un relais dans l’ ordinateur Harvard Mark II en septembre 1947. [101]

Réseautage et Internet

Visualisation d’une partie des parcours sur Internet

Les ordinateurs ont été utilisés pour coordonner les informations entre plusieurs emplacements depuis les années 1950. Le système SAGE de l’armée américaine a été le premier exemple à grande échelle d’un tel système, qui a conduit à un certain nombre de systèmes commerciaux à usage spécial tels que Sabre . [102] Dans les années 1970, les ingénieurs informaticiens des instituts de recherche à travers les États-Unis ont commencé à relier leurs ordinateurs en utilisant la technologie des télécommunications. L’effort a été financé par ARPA (maintenant DARPA ), et le réseau informatique qui en a résulté s’appelait ARPANET . [103] Les technologies qui ont rendu possible l’Arpanet se sont répandues et ont évolué.

Avec le temps, le réseau s’est étendu au-delà des institutions académiques et militaires et est devenu connu sous le nom d’Internet. L’émergence des réseaux a entraîné une redéfinition de la nature et des frontières de l’ordinateur. Les systèmes d’exploitation et les applications informatiques ont été modifiés pour inclure la possibilité de définir et d’accéder aux ressources d’autres ordinateurs sur le réseau, tels que des périphériques, des informations stockées, etc., en tant qu’extensions des ressources d’un ordinateur individuel. Au départ, ces installations étaient principalement accessibles aux personnes travaillant dans des environnements de haute technologie, mais dans les années 1990, la diffusion d’applications telles que le courrier électronique et le World Wide Web , combinée au développement de technologies de mise en réseau rapides et bon marché comme Ethernet et ADSLa vu les réseaux informatiques devenir presque omniprésents. En fait, le nombre d’ordinateurs en réseau augmente de manière phénoménale. Une très grande partie des ordinateurs personnels se connectent régulièrement à Internet pour communiquer et recevoir des informations. La mise en réseau “sans fil”, utilisant souvent des réseaux de téléphonie mobile, signifie que la mise en réseau devient de plus en plus omniprésente, même dans les environnements informatiques mobiles.

Ordinateurs non conventionnels

Un ordinateur n’a pas besoin d’être électronique , ni même d’avoir un processeur , ni de RAM , ni même de disque dur . Alors que l’usage courant du mot « ordinateur » est synonyme d’ordinateur électronique personnel, [l] la définition moderne d’un ordinateur est littéralement : « Un appareil qui calcule , en particulier une machine électronique [généralement] programmable qui effectue des calculs mathématiques ou Opérations logiques ou qui assemble, stocke, corrèle ou autrement traite des informations. » [104] Tout dispositif qui traite des informations est considéré comme un ordinateur, surtout si le traitement est intentionnel. [ citation nécessaire ]

Futur

Des recherches actives sont en cours pour fabriquer des ordinateurs à partir de nombreux nouveaux types de technologies prometteurs, tels que les ordinateurs optiques , les ordinateurs à ADN , les ordinateurs neuronaux et les ordinateurs quantiques . La plupart des ordinateurs sont universels et sont capables de calculer n’importe quelle fonction calculable , et ne sont limités que par leur capacité de mémoire et leur vitesse de fonctionnement. Cependant, différentes conceptions d’ordinateurs peuvent donner des performances très différentes pour des problèmes particuliers; par exemple, les ordinateurs quantiques peuvent potentiellement casser très rapidement certains algorithmes de chiffrement modernes (par affacturage quantique ).

Paradigmes d’architecture informatique

Il existe plusieurs types d’ architectures informatiques :

  • Ordinateur quantique vs ordinateur chimique
  • Processeur scalaire vs processeur vectoriel
  • Ordinateurs à accès mémoire non uniforme (NUMA)
  • Enregistrer la machine par rapport à la machine Stack
  • Architecture de Harvard contre architecture de von Neumann
  • Architecture cellulaire

De toutes ces machines abstraites , un ordinateur quantique est le plus prometteur pour révolutionner l’informatique. [105] Les portes logiques sont une abstraction courante qui peut s’appliquer à la plupart des paradigmes numériques ou analogiques ci-dessus. La possibilité de stocker et d’exécuter des listes d’instructions appelées programmes rend les ordinateurs extrêmement polyvalents, ce qui les distingue des calculatrices . La thèse de Church-Turing est une déclaration mathématique de cette polyvalence : tout ordinateur avec une capacité minimale (étant Turing-complet) est, en principe, capable d’effectuer les mêmes tâches que n’importe quel autre ordinateur peut effectuer. Par conséquent, tout type d’ordinateur (netbook , supercalculateur , automate cellulaire , etc.) est capable d’effectuer les mêmes tâches de calcul, avec suffisamment de temps et de capacité de stockage.

Intelligence artificielle

Un ordinateur résoudra les problèmes exactement de la manière dont il est programmé, sans égard à l’efficacité, aux solutions alternatives, aux raccourcis possibles ou aux erreurs possibles dans le code. Les programmes informatiques qui apprennent et s’adaptent font partie du domaine émergent de l’ intelligence artificielle et de l’apprentissage automatique . Les produits basés sur l’intelligence artificielle se répartissent généralement en deux grandes catégories : les systèmes basés sur des règles et les systèmes de reconnaissance de formes . Les systèmes basés sur des règles tentent de représenter les règles utilisées par les experts humains et ont tendance à être coûteux à développer. Les systèmes basés sur des modèles utilisent des données sur un problème pour générer des conclusions. Des exemples de systèmes basés sur des modèles incluent la reconnaissance vocale, la reconnaissance des polices, la traduction et le domaine émergent du marketing en ligne.

Métiers et organisations

Comme l’utilisation des ordinateurs s’est répandue dans la société, il existe un nombre croissant de carrières impliquant des ordinateurs.

Métiers liés à l’informatique
Liés au matériel Génie électrique , Génie électronique , Génie informatique , Génie des télécommunications , Génie optique , Nanoingénierie
Liés au logiciel Informatique , Génie informatique , PAO , Interaction homme-machine , Technologie de l’ information , Systèmes d’information , Sciences computationnelles , Génie logiciel , Industrie du jeu vidéo , Web design

La nécessité pour les ordinateurs de bien fonctionner ensemble et de pouvoir échanger des informations a engendré le besoin de nombreux organismes de normalisation, clubs et sociétés de nature formelle et informelle.

Organisations
Groupes de normes ANSI , CEI , IEEE , IETF , ISO , W3C
Sociétés professionnelles ACM , AIS , IET , IFIP , BCS
Groupes de logiciels libres / open source Fondation du logiciel libre , Fondation Mozilla , Fondation du logiciel Apache

Voir également

  • Glossaire des ordinateurs
  • Théorie de la calculabilité
  • Sécurité informatique
  • Glossaire des termes du matériel informatique
  • Histoire de l’informatique
  • Liste des étymologies des termes informatiques
  • Liste des ordinateurs fictifs
  • Liste des pionniers de l’informatique
  • Calcul des impulsions
  • TOP500 (liste des ordinateurs les plus puissants)
  • Informatique non conventionnelle

Remarques

  1. Selon Schmandt-Besserat 1981 , ces récipients en argile contenaient des jetons, dont le total correspondait au nombre d’objets transférés. Les conteneurs servaient alors en quelque sorte de connaissement ou de livre de comptes. Afin d’éviter de casser les conteneurs, d’abord, des empreintes d’argile des jetons ont été placées à l’extérieur des conteneurs, pour le compte; les formes des impressions ont été abstraites en marques stylisées; enfin, les marques abstraites étaient systématiquement utilisées comme chiffres ; ces chiffres ont finalement été formalisés en nombres.
    Finalement, les marques à l’extérieur des récipients étaient tout ce qui était nécessaire pour transmettre le décompte, et les récipients en argile ont évolué en tablettes d’argile avec des marques pour le décompte. Schmandt-Besserat 1999estime qu’il a fallu 4000 ans.
  2. ^ La puce Intel 4004 (1971) était de 12 mm 2 , composée de 2300 transistors; en comparaison, le Pentium Pro faisait 306 mm 2 , composé de 5,5 millions de transistors. [87]
  3. ^ La plupart des principales architectures de jeux d’instructions 64 bitssont des extensions de conceptions antérieures. Toutes les architectures répertoriées dans ce tableau, à l’exception d’Alpha, existaient sous des formes 32 bits avant l’introduction de leurs incarnations 64 bits.
  4. ^ Le rôle de l’unité de contrôle dans l’interprétation des instructions a quelque peu varié dans le passé. Bien que l’unité de contrôle soit seule responsable de l’interprétation des instructions dans la plupart des ordinateurs modernes, ce n’est pas toujours le cas. Certains ordinateurs ont des instructions qui sont partiellement interprétées par l’unité de contrôle avec une interprétation ultérieure effectuée par un autre appareil. Par exemple, EDVAC , l’un des premiers ordinateurs à programme enregistré, utilisait une unité de contrôle centrale qui n’interprétait que quatre instructions. Toutes les instructions liées à l’arithmétique ont été transmises à son unité arithmétique et décodées là-bas.
  5. ^ Les instructions occupent souvent plus d’une adresse mémoire, par conséquent, le compteur de programme augmente généralement du nombre d’emplacements de mémoire requis pour stocker une instruction.
  6. ^ La mémoire flash ne peut également être réécrite qu’un nombre limité de fois avant de s’épuiser, ce qui la rend moins utile pour une utilisation intensive de l’accès aléatoire. [94]
  7. ^ Cependant, il est également très courant de construire des superordinateurs à partir de nombreux composants matériels bon marché; généralement des ordinateurs individuels connectés par des réseaux. Ces soi-disant grappes d’ordinateurs peuvent souvent fournir des performances de supercalculateur à un coût bien inférieur à celui des conceptions personnalisées. Alors que les architectures personnalisées sont encore utilisées pour la plupart des supercalculateurs les plus puissants, il y a eu une prolifération d’ordinateurs en cluster ces dernières années. [99]
  8. ^ Même certains ordinateurs ultérieurs étaient généralement programmés directement en code machine. Certains mini- ordinateurs comme le DEC PDP-8 pourraient être programmés directement à partir d’un panneau de commutateurs. Cependant, cette méthode n’était généralement utilisée que dans le cadre du processus de démarrage . La plupart des ordinateurs modernes démarrent entièrement automatiquement en lisant un programme de démarrage à partir d’une mémoire non volatile .
  9. ^ Cependant, il existe parfois une certaine forme de compatibilité du langage machine entre différents ordinateurs. Unmicroprocesseur compatible x86-64 comme l’ AMD Athlon 64 est capable d’exécuter la plupart des mêmes programmes qu’un microprocesseur Intel Core 2 , ainsi que des programmes conçus pour des microprocesseurs antérieurs comme les Intel Pentium et Intel 80486 . Cela contraste avec les tout premiers ordinateurs commerciaux, qui étaient souvent uniques en leur genre et totalement incompatibles avec d’autres ordinateurs.
  10. ^ Les langages de haut niveau sont également souvent interprétés plutôt que compilés. Les langages interprétés sont traduits en code machine à la volée, lors de l’exécution, par un autre programme appelé interpréteur .
  11. ^ Il n’est pas universellement vrai que les bogues sont uniquement dus à la surveillance du programmeur. Le matériel informatique peut tomber en panne ou avoir lui-même un problème fondamental qui produit des résultats inattendus dans certaines situations. Par exemple, le bogue Pentium FDIV a amené certains microprocesseurs Intel au début des années 1990 à produire des résultats inexacts pour certainesopérations de division en virgule flottante . Cela a été causé par un défaut dans la conception du microprocesseur et a entraîné un rappel partiel des appareils concernés.
  12. ^ Selon le Shorter Oxford English Dictionary (6e éd., 2007), le mot ordinateur remonte au milieu du XVIIe siècle, lorsqu’il faisait référence à “Une personne qui fait des calculs ; en particulier une personne employée pour cela dans un observatoire, etc.”

Références

  1. ^ Evans 2018 , p. 23.
  2. ^ un b Smith 2013 , p. 6.
  3. ^ “ordinateur (n.)” . Dictionnaire d’étymologie en ligne .
  4. ^ Robson, Eleanor (2008), Mathématiques dans l’ancien Irak , p. 5, ISBN 978-0-691-09182-2: les calculs étaient utilisés en Irak pour les systèmes de comptabilité primitifs dès 3200–3000 avant notre ère, avec des systèmes de représentation de comptage spécifiques aux produits. La comptabilité équilibrée était utilisée entre 3000 et 2350 avant notre ère, et un système de numération sexagésimal était utilisé entre 2350 et 2000 avant notre ère.
  5. ^ Flegg, Graham. (1989). Les chiffres à travers les âges . Houndmills, Basingstoke, Hampshire: Macmillan Education. ISBN 0-333-49130-0. OCLC 24660570 .
  6. ^ Le projet de recherche sur le mécanisme d’Anticythère Archivé le 28 avril 2008 à la Wayback Machine , Le projet de recherche sur le mécanisme d’Anticythère. Récupéré le 1er juillet 2007.
  7. ^ Marchant, Jo (1er novembre 2006). « A la recherche du temps perdu » . Nature . 444 (7119): 534–538. Bibcode : 2006Natur.444..534M . doi : 10.1038/444534a . PMID 17136067 . S2CID 4305761 . Récupéré le 12 mars 2022 .
  8. ^ G. Wiet, V. Elisseeff, P. Wolff, J. Naudu (1975). Histoire de l’humanité, Vol 3 : Les grandes civilisations médiévales , p. 649. George Allen & Unwin Ltd, UNESCO .
  9. ^ Fuat Sezgin “Catalogue de l’exposition de l’Institut d’histoire des sciences arabo-islamiques (à l’Université Johann Wolfgang Goethe”, Francfort, Allemagne) Foire du livre de Francfort 2004, pp. 35 & 38.
  10. ^ Charrette, François (2006). « Archéologie : High tech de la Grèce antique » . Nature . 444 (7119): 551–552. Bibcode : 2006Natur.444..551C . doi : 10.1038/444551a . PMID 17136077 . S2CID 33513516 .
  11. ^ Bedini, Silvio A.; Maddison, Francis R. (1966). “Univers Mécanique : L’Astrarium de Giovanni de’ Dondi”. Transactions de l’American Philosophical Society . 56 (5): 1–69. doi : 10.2307/1006002 . JSTOR 1006002 .
  12. ^ Prix, Derek de S. (1984). “Une histoire des machines à calculer”. Micro IEEE . 4 (1): 22–52. doi : 10.1109/MM.1984.291305 .
  13. ^ Őren, Tuncer (2001). “Progrès en informatique et sciences de l’information: de l’abaque aux agents holoniques” (PDF) . Turk J Elec Engin . 9 (1): 63–70.
  14. ^ Colline de Donald Routledge (1985). “Le calendrier mécanique d’Al-Biruni”, Annals of Science 42 , pp. 139–163.
  15. ^ “L’automate de l’écrivain, Suisse” . chonday.com. 11 juillet 2013.
  16. ^ a b Ray Girvan, “La grâce révélée du mécanisme: l’informatique après Babbage” Archivé le 3 novembre 2012 à la Wayback Machine , Scientific Computing World , mai / juin 2003
  17. ^ Halacy, Daniel Stephen (1970). Charles Babbage, père de l’ordinateur . Presse Crowell-Collier. ISBN 978-0-02-741370-0.
  18. ^ “Babbage” . Des trucs en ligne . Musée des sciences. 19 janvier 2007 . Récupéré le 1er août 2012 .
  19. ^ “Construisons l’ordinateur mécanique ultime de Babbage” . avis . Nouveau scientifique. 23 décembre 2010 . Récupéré le 1er août 2012 .
  20. ^ un bcd L’ histoire moderne de l’informatique . Encyclopédie de philosophie de Stanford. 2017.
  21. ^ Zuse, Horst. “Partie 4 : Ordinateurs Z1 et Z3 de Konrad Zuse” . La vie et l’oeuvre de Konrad Zuse . EPE en ligne. Archivé de l’original le 1er juin 2008 . Récupéré le 17 juin 2008 .
  22. ^ Zuse, Konrad (2010) [1984], L’ordinateur – Ma vie Traduit par McKenna, Patricia et Ross, J. Andrew de: Der Computer, mein Lebenswerk (1984) , Berlin / Heidelberg: Springer-Verlag, ISBN 978-3-642-08151-4
  23. ^ Salz Trautman, Peggy (20 avril 1994). “Un Pionnier de l’informatique redécouvert, 50 ans plus tard” . Le New York Times .
  24. ^ Zuse, Konrad (1993). L’ordinateur. Mein Lebenswerk (en allemand) (3e éd.). Berlin : Springer Verlag. p. 55. ISBN 978-3-540-56292-4.
  25. ^ “Crash! L’histoire de l’informatique: Zuse” . Archivé de l’original le 18 septembre 2016 . Récupéré le 1er juin 2016 .
  26. ^ Rojas, R. (1998). “Comment faire du Z3 de Zuse un ordinateur universel”. Annales IEEE de l’histoire de l’informatique . 20 (3): 51-54. doi : 10.1109/85.707574 . S2CID 14606587 .
  27. ^ Rojas, Raúl. “Comment faire du Z3 de Zuse un ordinateur universel” (PDF) .
  28. ^ un b O’Regan, Gérard (2010). Une brève histoire de l’informatique . Springer Nature. p. 65. ISBN 9783030665999.
  29. ^ “remarquer”. Registre Des Moines . 15 janvier 1941.
  30. ^ Arthur W. Burks (1989). Le premier ordinateur électronique . ISBN 0472081047.
  31. ^ un bcd Copeland , Jack (2006), Colossus: The Secrets of Bletchley Park’s Codebreaking Computers , Oxford: Oxford University Press , pp. 101-115 , ISBN 978-0-19-284055-4
  32. ^ Miller, Joe (10 novembre 2014). “La femme qui a déchiffré les chiffres d’Enigma” . Nouvelles de la BBC . Récupéré le 14 octobre 2018 .
  33. ^ Bearne, Suzanne (24 juillet 2018). “Rencontrez les briseuses de code féminines de Bletchley Park” . Le Gardien . Récupéré le 14 octobre 2018 .
  34. ^ “Bletchley’s code-cracking Colossus” , BBC News , 2 février 2010 , récupéré le 19 octobre 2012
  35. ^ “Colosse – L’histoire de reconstruction” . Le Musée National de l’Informatique . Archivé de l’original le 18 avril 2015 . Récupéré le 7 janvier 2014 .
  36. ^ Randell, Brian ; Fenson, Harry ; Milne, Frank A. (15 mars 1995), “Obituary: Allen Coombs” , The Independent , récupéré le 18 octobre 2012
  37. ^ Fensom, Jim (8 novembre 2010), “nécrologie de Harry Fensom” , The Guardian , récupéré le 17 octobre 2012
  38. ^ John Presper Eckert Jr. et John W. Mauchly, intégrateur numérique électronique et ordinateur, Office des brevets des États-Unis, brevet américain 3 120 606, déposé le 26 juin 1947, délivré le 4 février 1964 et invalidé le 19 octobre 1973 après la décision du tribunal sur Honeywell c. Sperry Rand .
  39. ^ Evans 2018 , p. 39.
  40. ^ Lumière 1999 , p. 459.
  41. ^ “Générations d’ordinateur” . techwarehouse.com. Archivé de l’original le 2 juillet 2015 . Récupéré le 7 janvier 2014 .
  42. ^ Turing, AM (1937). “Sur les nombres calculables, avec une application à l’Entscheidungsproblem”. Actes de la London Mathematical Society . 2. 42 (1): 230–265. doi : 10.1112/plms/s2-42.1.230 .
  43. ^ Copeland, Jack (2004), L’essentiel de Turing , p. 22 : “von Neumann … a fermement souligné pour moi, et pour les autres, j’en suis sûr, que la conception fondamentale est due à Turing – dans la mesure où Babbage, Lovelace et d’autres n’ont pas anticipé.” Lettre de Stanley Frankel à Brian Randell , 1972.
  44. ^ Enticknap, Nicholas (été 1998), “Computing’s Golden Jubilee” , Resurrection (20), ISSN 0958-7403 , archivé de l’original le 9 janvier 2012 , récupéré le 19 avril 2008
  45. ^ “Les premiers ordinateurs à l’Université de Manchester” , Résurrection , 1 (4), été 1992, ISSN 0958-7403 , archivé de l’original le 28 août 2017 , récupéré le 7 juillet 2010
  46. ^ Early Electronic Computers (1946–51) , Université de Manchester, archivé de l’original le 5 janvier 2009 , récupéré le 16 novembre 2008
  47. ^ Napper, RBE, Introduction to the Mark 1 , The University of Manchester, archivé de l’original le 26 octobre 2008 , récupéré le 4 novembre 2008
  48. ^ Computer Conservation Society , Our Computer Heritage Pilot Study: Deliverys of Ferranti Mark I and Mark I Star computer , archivé de l’original le 11 décembre 2016 , récupéré le 9 janvier 2010
  49. ^ Lavington, Simon. “Une brève histoire des ordinateurs britanniques: les 25 premières années (1948–1973)” . Société informatique britannique . Récupéré le 10 janvier 2010 .
  50. ^ Lee, Thomas H. (2003). La conception des circuits intégrés radiofréquence CMOS (PDF) . Presse universitaire de Cambridge . ISBN 9781139643771. Archivé de l’original (PDF) le 9 décembre 2019 . Récupéré le 31 juillet 2019 .
  51. ^ Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van (2017). Nanoélectronique : Matériaux, Dispositifs, Applications, 2 Volumes . John Wiley et fils . p. 14. ISBN 9783527340538.
  52. ^ un b Moskowitz, Sanford L. (2016). Innovation dans les matériaux avancés : gérer la technologie mondiale au 21e siècle . John Wiley et fils . p. 165–167. ISBN 9780470508923.
  53. ^ Lavington 1998 , p. 34–35.
  54. ^ a b Cooke-Yarborough, EH (juin 1998), “Certaines premières applications de transistors au Royaume-Uni” , Engineering Science & Education Journal , 7 (3): 100–106, doi : 10.1049/esej:19980301 , ISSN 0963-7346 , récupéré le 7 juin 2009 (abonnement requis)
  55. ^ Cooke-Yarborough, EH (1957). Introduction aux circuits à transistors . Edimbourg : Oliver et Boyd. p. 139.
  56. ^ “1960: Transistor à semi-conducteur à oxyde métallique (MOS) démontré” . Le moteur au silicium : une chronologie des semi-conducteurs dans les ordinateurs . Musée d’histoire de l’informatique . Récupéré le 31 août 2019 .
  57. ^ Motoyoshi, M. (2009). « Via traversant le silicium (TSV) ». Actes de l’IEEE . 97 (1): 43–48. doi : 10.1109/JPROC.2008.2007462 . ISSN 0018-9219 . S2CID 29105721 .
  58. ^ “Les transistors maintiennent la loi de Moore en vie” . EETimes . 12 décembre 2018 . Récupéré le 18 juillet 2019 .
  59. ^ “Qui a inventé le transistor?” . Musée d’histoire de l’informatique . 4 décembre 2013 . Récupéré le 20 juillet 2019 .
  60. ^ un b Hittinger, Guillaume C. (1973). “Technologie métal-oxyde-semi-conducteur”. Scientifique américain . 229 (2): 48–59. Bibcode : 1973SciAm.229b..48H . doi : 10.1038/scientificamerican0873-48 . ISSN 0036-8733 . JSTOR 24923169 .
  61. ^ Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Établir les bonnes connexions : micro-ordinateurs et instrumentation électronique . Société américaine de chimie . p. 389. ISBN 9780841228610. La simplicité relative et les faibles besoins en énergie des MOSFET ont favorisé la révolution actuelle des micro-ordinateurs.
  62. ^ Fossum, Jerry G. ; En ligneTrivedi, Vishal P. (2013). Fondamentaux des MOSFET et des FinFET à corps ultra-mince . Presse universitaire de Cambridge . p. vii. ISBN 9781107434493.
  63. ^ “Remarques du directeur Iancu à la Conférence internationale sur la propriété intellectuelle 2019” . Office des brevets et des marques des États-Unis . 10 juin 2019. Archivé de l’original le 17 décembre 2019 . Récupéré le 20 juillet 2019 .
  64. ^ “Dawon Kahng” . Temple de la renommée nationale des inventeurs . Récupéré le 27 juin 2019 .
  65. ^ “Martin Atalla dans le Temple de la renommée des inventeurs, 2009” . Récupéré le 21 juin 2013 .
  66. ^ “Triumph du transistor MOS” . Youtube . Musée d’histoire de l’informatique . 6 août 2010. Archivé de l’original le 18 août 2021 . Récupéré le 21 juillet 2019 .
  67. ^ “The Hapless Tale of Geoffrey Dummer” Archivé le 11 mai 2013 à la Wayback Machine , (nd), (HTML), Electronic Product News , consulté le 8 juillet 2008.
  68. ^ Kilby, Jack (2000), Nobel lecture (PDF) , Stockholm: Nobel Foundation , récupéré le 15 mai 2008
  69. ^ La puce que Jack a construite , (vers 2008), (HTML), Texas Instruments, récupéré le 29 mai 2008.
  70. ^ Jack S. Kilby, Circuits électroniques miniaturisés, Office des brevets des États-Unis, brevet américain 3 138 743, déposé le 6 février 1959, délivré le 23 juin 1964.
  71. ^ Winston, Brian (1998). Technologie des médias et société : une histoire : du télégraphe à Internet . Routledge. p. 221. ISBN 978-0-415-14230-4.
  72. ^ Saxena, Arjun N. (2009). Invention des circuits intégrés : faits importants non racontés . Scientifique mondial . p. 140. ISBN 9789812814456.
  73. ^ un b “Les circuits intégrés” . NASA . Récupéré 13 août 2019 .
  74. ^ Circuit unitaire de Robert Noyce , brevet américain 2981877 , “Structure de dispositif et de plomb à semi-conducteur”, délivré le 25/04/1961, attribué à Fairchild Semiconductor Corporation
  75. ^ “1959: Concept pratique de Circuit intégré monolithique breveté” . Musée d’histoire de l’informatique . Récupéré le 13 août 2019 .
  76. ^ Lojek, Bo (2007). Histoire de l’ingénierie des semi-conducteurs . Springer Sciences & Affaires Médias . p. 120 . ISBN 9783540342588.
  77. ^ Bassett, Ross Knox (2007). Vers l’ère numérique : les laboratoires de recherche, les entreprises en démarrage et l’essor de la technologie MOS . Presse universitaire Johns Hopkins. p. 46. ​​ISBN 9780801886393.
  78. ^ Huff, Howard R.; Tsuya, H.; En ligneGösele, U. (1998). Science et technologie des matériaux en silicium: Actes du huitième symposium international sur la science et la technologie des matériaux en silicium . Société électrochimique . pp. 181–182. ISBN 9781566771931.
  79. ^ Kuo, Yue (1er janvier 2013). “Technologie des transistors à couche mince – Passé, présent et futur” (PDF) . L’interface de la société électrochimique . 22 (1): 55–61. Bibcode : 2013ECSIn..22a..55K . doi : 10.1149/2.F06131if . ISSN 1064-8208 .
  80. ^ un b “la Tortue de Transistors Gagne la Course – la Révolution CHM” . Musée d’histoire de l’informatique . Récupéré le 22 juillet 2019 .
  81. ^ “1964 – Premier IC MOS Commercial Introduit” . Musée d’histoire de l’informatique .
  82. ^ “1968 : Technologie Silicon Gate développée pour les circuits intégrés” . Musée d’histoire de l’informatique . Récupéré le 22 juillet 2019 .
  83. ^ Kuo, Yue (1er janvier 2013). “Technologie des transistors à couche mince – Passé, présent et futur” (PDF) . L’interface de la société électrochimique . 22 (1): 55–61. Bibcode : 2013ECSIn..22a..55K . doi : 10.1149/2.F06131if . ISSN 1064-8208 .
  84. ^ un b “1971 : le Microprocesseur Intègre la Fonction CPU sur une Seule Puce” . Musée d’histoire de l’informatique . Récupéré le 22 juillet 2019 .
  85. ↑ Colinge , Jean-Pierre ; En ligneGreer, James C. (2016). Transistors à nanofils : physique des dispositifs et des matériaux en une dimension . Presse universitaire de Cambridge . p. 2. ISBN 9781107052406.
  86. ^ Premier microprocesseur d’Intel – l’Intel 4004 , Intel Corp., novembre 1971, archivé de l’original le 13 mai 2008 , récupéré le 17 mai 2008
  87. ^ Patterson, David; Hennessy, John (1998). Organisation et conception informatique . San Fransisco : Morgan Kaufmann . p. 27–39 . ISBN 978-1-55860-428-5.
  88. ^ Federico Faggin , La fabrication du premier microprocesseur , IEEE Solid-State Circuits Magazine , Hiver 2009, IEEE Xplore
  89. ^ a b “7 améliorations éblouissantes des smartphones avec la puce Snapdragon 835 de Qualcomm” . 3 janvier 2017.
  90. ^ Chartier, David (23 décembre 2008). “Les expéditions mondiales d’ordinateurs portables dépassent enfin les ordinateurs de bureau” . Ars Technica .
  91. ^ IDC (25 juillet 2013). “La croissance s’accélère sur les marchés mondiaux des téléphones portables et des smartphones au deuxième trimestre, selon IDC” . Archivé de l’original le 26 juin 2014.
  92. ^ David J. Eck (2000). La machine la plus complexe : une enquête sur les ordinateurs et l’informatique . AK Peters, Ltd. p. 54. ISBN 978-1-56881-128-4.
  93. ^ Erricos John Kontoghiorghes (2006). Manuel de calcul parallèle et de statistiques . Presse CRC. p. 45. ISBN 978-0-8247-4067-2.
  94. ^ Verma & Mielke 1988 .
  95. ^ Donald Eadie (1968). Introduction à l’ordinateur de base . Prentice Hall. p. 12.
  96. ^ Arpad Barna; Dan I. Porat (1976). Introduction aux micro-ordinateurs et aux microprocesseurs . Wiley. p. 85 . ISBN 978-0-471-05051-3.
  97. ^ Coup d’oeil de Jerry ; Grâce Todino; John Strang (2002). Apprendre le système d’exploitation UNIX : un guide concis pour le nouvel utilisateur . O’Reilly. p. 130 . ISBN 978-0-596-00261-9.
  98. ^ Gillian M. Davis (2002). Réduction du bruit dans les applications vocales . Presse CRC. p. 111. ISBN 978-0-8493-0949-6.
  99. ^ TOP500 2006 , p. [ page nécessaire ] .
  100. ^ “Pourquoi les ordinateurs plantent-ils?” . Scientifique américain . Récupéré le 3 mars 2022 .
  101. ^ Taylor, Alexander L., III (16 avril 1984). “L’assistant à l’intérieur de la machine” . Temps . Archivé de l’original le 16 mars 2007 . Récupéré le 17 février 2007 .
  102. ^ Agatha C. Hughes (2000). Systèmes, experts et ordinateurs . Presse du MIT . p. 161. ISBN 978-0-262-08285-3. L’expérience de SAGE a permis de rendre possible le premier véritable réseau commercial en temps réel à grande échelle : le système informatisé de réservation des compagnies aériennes SABRE.
  103. ^ Leiner, Barry M.; Cerf, Vinton G.; Clark, David D.; Kahn, Robert E.; Kleinrock, Léonard; Lynch, Daniel C.; Postel, Jon; Roberts, Larry G.; Loup, Stephen (1999). “Une brève histoire d’Internet”. arXiv : cs/9901011 .
  104. ^ “Définition de l’ordinateur” . Thefreedictionary.com . Récupéré le 29 janvier 2012 .
  105. ^ II, Joseph D. Dumas (2005). Architecture informatique : Fondements et principes de la conception informatique . Presse CRC. p. 340.ISBN _ 9780849327490.

Sources

  • Evans, Claire L. (2018). Large bande : l’histoire inédite des femmes qui ont créé Internet . New York : Portfolio/Pingouin. ISBN 9780735211759.
  • Fuegi, J.; En ligneFrancis, J. (2003). “Lovelace & Babbage et la création des ‘notes’ de 1843”. IEEE Annals of the History of Computing . 25 (4): 16. doi : 10.1109/MAHC.2003.1253887 . S2CID 40077111 .
  • Kempf, Karl (1961). Monographie historique : Ordinateurs électroniques au sein de l’Ordnance Corps . Aberdeen Proving Ground ( Armée des États-Unis ).
  • Philips, Tony (2000). “Le mécanisme d’Anticythère I” . Société mathématique américaine . Récupéré le 5 avril 2006 .
  • Shannon, Claude Elwood (1940). Une analyse symbolique des circuits de relais et de commutation (Thèse). Massachusetts Institute of Technology. hdl : 1721.1/11173 .
  • Société d’équipement numérique (1972). Manuel du processeur PDP-11/40 (PDF) . Maynard, MA : Digital Equipment Corporation.
  • Swade, Doron D. (février 1993). “Racheter l’Ordinateur Mécanique de Charles Babbage”. Scientifique américain . 268 (2): 86–91. Bibcode : 1993SciAm.268b..86S . doi : 10.1038/scientificamerican0293-86 . JSTOR 24941379 .
  • Meuer, Hans ; Strohmaier, Erich; Simon, Horst; Dongarra, Jack (13 novembre 2006). “Les architectures se partagent dans le temps” . TOP500 . Archivé de l’original le 20 février 2007 . Récupéré le 27 novembre 2006 .
  • Lavington, Simon (1998). Une histoire des ordinateurs de Manchester (2e éd.). Swindon : La société informatique britannique. ISBN 978-0-902505-01-8.
  • Lumière, Jennifer S. (1999). “Quand les ordinateurs étaient des femmes”. Technologie et culture . 40 (3): 455–483. doi : 10.1353/tech.1999.0128 . JSTOR 25147356 . S2CID 108407884 .
  • Schmandt-Besserat, Denise (1999). « Jetons : la signification cognitive » . Documenta préhistorique . XXVI . Archivé de l’original le 30 janvier 2012.
  • Schmandt-Besserat, Denise (1981). “Déchiffrement des premières tablettes”. Sciences . 211 (4479): 283–285. Bibcode : 1981Sci…211..283S . doi : 10.1126/science.211.4479.283 . PMID 17748027 .
  • Stokes, Jon (2007). À l’intérieur de la machine : une introduction illustrée aux microprocesseurs et à l’architecture informatique . San Francisco : Presse sans amidon. ISBN 978-1-59327-104-6.
  • Zuse, Konrad (1993). L’ordinateur – Ma vie . Berlin : Pringler-Verlag. ISBN 978-0-387-56453-1.
  • Feutre, Dorr E. (1916). L’arithmétique mécanique, ou L’histoire de la machine à compter . Chicago : Institut de Washington.
  • Ifrah, Georges (2001). L’histoire universelle de l’informatique : de l’abaque à l’ordinateur quantique . New York : John Wiley & Fils. ISBN 978-0-471-39671-0.
  • Berkeley, Edmond (1949). Des cerveaux géants ou des machines qui pensent . John Wiley et fils.
  • Cohen, Bernard (2000). “Howard Aiken, Portrait d’un Pionnier de l’informatique“. La physique aujourd’hui . Cambridge, Massachusetts : The MIT Press. 53 (3): 74–75. Bibcode : 2000PhT….53c..74C . doi : 10.1063/1.883007 . ISBN 978-0-262-53179-5.
  • Ligonnière, Robert (1987). Préhistoire et Histoire des ordinateurs . Paris : Robert Laffont. ISBN 978-2-221-05261-7.
  • Couffignal, Louis (1933). Les machines à calculer; leurs principes, leur évolution . Paris : Gauthier Villars.
  • Essinger, James (2004). Jacquard’s Web, Comment un métier à main a conduit à la naissance de l’ère de l’information . Presse universitaire d’Oxford. ISBN 978-0-19-280577-5.
  • Hyman, Anthony (1985). Charles Babbage : Pionnier de l’ordinateur . Presse universitaire de Princeton. ISBN 978-0-691-02377-9.
  • Bowden, BV (1953). Plus rapide que prévu . New York, Toronto, Londres : société d’édition Pitman.
  • Moseley, Maboth (1964). Génie irascible, Charles Babbage, inventeur . Londres : Hutchinson.
  • Collier, Bruce (1970). Le petit moteur qui aurait pu : Les machines à calculer de Charles Babbage . Edition Garland. ISBN 978-0-8240-0043-1.
  • Randell, Brian (1982). “Du moteur analytique à l’ordinateur numérique électronique: les contributions de Ludgate, Torres et Bush” (PDF) . Archivé de l’original (PDF) le 21 septembre 2013 . Récupéré le 29 octobre 2013 .
  • En ligneSmith, Erika E. (2013). “Reconnaître un héritage collectif à travers l’histoire des femmes dans l’informatique” . CLCWeb : Littérature et culture comparées . 15 (1): 1–9. doi : 10.7771/1481-4374.1972 .
  • Verma, G.; En ligneMielke, N. (1988). Performances de fiabilité des mémoires flash basées sur ETOX . Symposium international de physique de la fiabilité de l’IEEE.

Liens externes

  • Médias liés aux ordinateurs sur Wikimedia Commons
  • Wikiversity a un quiz sur cet article
  • Warhol et l’ordinateur
d'un ordinateurOrdinateurOrdinateur portable Ordinateurordinateurs modernesprogramme
Comments (0)
Add Comment