Table des matières
Le mot « ordinateur » a été forgé pour la société IBM France en 1955. À l'époque le mot « computer »/« calculateur » était réservé aux calculateurs numériques, principalement destinés aux calculs scientifiques ; IBM cherchait un nom pour désigner plus généralement une machine à traiter l'information[4]. François Girard, alors responsable du service promotion générale publicité eut l'idée de consulter son ancien professeur de lettres à Paris. Jaques Perret alors professeur de philologie latine à la Sorbonne, proposa le 16 avril 1955 le mot « ordinateur » en précisant que le Littré l'indiquait pour signifier « Dieu qui met de l'ordre dans le monde » mais que « ce mot est tout à fait sorti de l’usage théologique ».
L’unité centrale : l’ordinateur proprement dit, ce qui tient dans le boîtier principal.
Les périphériques, ce qu'il y a “autour” : de sortie : écran, imprimante ; d’entrée : clavier, souris, scanner,... L’organisation physique précise peut varier : écran associé à l’unité centrale ou pas, disques durs internes ou externes, clavier ou non, etc. On parle donc de périphériques même pour des éléments physiquement placés dans l’unité centrale : les périphériques sont alors les éléments qui ne sont pas nécessaires à un ordinateur pour fonctionner.
Parfois la définition précise de ce qui constitue "un" ordinateur n'est pas évidente. Ainsi certains serveurs sont constitués de plusieurs « lames », chacune étant un véritable ordinateurs, enfichées dans une même unité "centrale". La limite n'est donc plus tranchée entre ordinateur et ferme d'ordinateurs.
N'oublions pas, non plus, que beaucoup de téléphones cellulaires et d'assistants personnels numériques sont, en fait, des ordinateurs plus puissants que les PC d'il y a seulement quelques années. Le mot « ordinateur » est donc plus un terme fonctionnel qu'un terme technique.
Rappel de la loi de Moore (1965, 1975) : le nombre de transistors des processeurs double à coût constant tous les deux ans. Cette loi est assez bien vérifiée empiriquement. On l'exprime souvent sous une forme simplifiée d'un doublement de puissance brute des ordinateurs (mémoire, capacité des disques, puissance des processeurs) tous les 18 mois. Cette seconde forme est très grossière, donc invérifiable à proprement parler, mais donne un bon ordre de grandeur. Dans les deux cas, il s'agit d'une progression exponentielle, donc extrêmement rapide. Si l'on prend l'hypothèse d'un doublement tous les deux ans, on obtient un facteur 8 pour 6 ans, 32 pour 10 ans et 181 pour 15 ans et 1024 pour vingt ans. Les spécialistes prévoient un fort ralentissement de la progression, voire une limite, des techniques actuelles dans 5 à 10 ans, principalement pour des raisons physiques.
[4] À cette date, IBM avait déjà sorti un premier « calculateur », destiné au calcul scientifique. Il s'agissait alors de sortir un premier « ordinateur » destiné aux entreprises.
[5] Merci à Dave Dunfield (DR) : http://www.parse.com/~ddunfield/museum/