Ces deux légendes établirent le nouveau « cerveau électronique », comme « dieu des victoires », selon la formule de [Truong]. Le calculateur, et plus tard l'ordinateur, devenaient le symbole même de la performance, de l'avantage technique décisif (c'est à dire qui décide de la victoire). Pendant les deux crises suivantes, la guerre froide puis la crise (donc la guerre) économique permanente d'après les chocs pétroliers, l'ordinateur s'imposait dans les discours comme l'arme absolue, l'outil qui devait permettre de triompher de tout. En parallèle, la science-fiction s'imposait comme genre littéraire et dépeignait volontiers l'ordinateur ou les robots comme le nouvel esclave[8]. De fait la machine devenait concurrente de l'Homme comme force de production : l'outil n'était plus nécessairement le prolongement de la main.[9]
Deux exemples. [Breton, p. 68] décrit ainsi le Harvard MARK 1 : « L'aspect extérieur de la machine était impressionnant : elle mesurait 16,6 m de long, 2,6 m de hauteur et comprenait 800 000 éléments. La machine pesait 5 tonnes et il fallait plusieurs tonnes de glace chaque jour pour la refroidir. ». Bien entendu cette machine n'était pas destinée qu'à calculer : c'était un monstre, c'est à dire un objet destiné à être montré, un signe extérieur de puissance. En 1949, alors que la Guerre froide était déjà bien installée, l'URSS se dotait de l'arme nucléaire. Comme les Soviétiques disposaient de bombardiers à long rayon d'action les Étatsuniens devaient se doter d'un système de surveillance et d'interception capable de répondre promptement. Or les systèmes radar de l'époque, fondés sur la vigilance humaine, n'étaient pas suffisamment réactifs. Les États-unis mirent donc en place un réseau de radars automatisés, SAGE, capable de guider une interception en temps-réel. La guerre devenait une guerre de vitesse où l'Homme ne pouvait plus suivre. L'ordinateur dépassait explicitement les capacités de l'Homme dans un domaine considéré comme intellectuel. Certains se prirent à imaginer un monde où un « pur cerveau », un grand ordinateur, pourrait superviser l'humanité entière pour assurer son bien-être.
Aujourd'hui cette idée évoque le célèbre roman de G. Orwell, 1984, paru à la même époque (1949). Pourtant, celui-ci vise les totalitarismes, qui ont prospéré à l'époque. Les penseurs qui attendaient alors le salut d'un pur cerveau électronique, avaient peut-être en tête les totalitarismes, les meurtres de masse et l'apocalypse guerrière, toutes œuvres humaines, qui s'étaient récemment déroulées sous leurs yeux.
L'idée du « dieu des victoires », de fait, ne rencontra, pour ainsi dire, aucune résistance — ni de véritable alternative. Même les étudiants rebelles des années 1960 ne s'y sont pas opposés. Ils s'opposèrent seulement à l'informatique de leur époque, pas au « dieu des victoires », en créant la micro-informatique et le mouvement contributif/opensource. Parmi les rares voix discordantes, Truong [2001] compare cette vision de l'ordinateur et du progrès technique à une sorte de dieu auquel nous sacrifiions aveuglément nos enfants. Il souligne combien certains secteurs de l'économie mondiale qui se sont informatisés à tour de bras à la fin du 20e siècle ont perdu en productivité. Il rappelle aussi combien les entreprises et administrations ont été capables de dépenser en peu de temps pour “sauver” l'informatique de l'hypothétique « bug de l'an 2000 » alors que les problèmes de faim et de développement du Monde n'auraient mobilisé qu'une partie de cet argent. Ceci montre l'échelle des valeurs du début du 21e siècle.
Historiquement, la commande d'État, en particulier la commande militaire étatsunienne, a été déterminante dans la création de l'industrie informatique. Dans certains cas, comme le système radar SAGE, les connaissances acquises pour le compte de l'armée pouvaient être transférées au domaine civil. Dans de nombreux autres, les produits civils étaient directement dérivés de produits militaires, ce qui fournissait un investissement en recherche et développement gratuit à toutes les sociétés qui travaillaient pour les USA. « La seule grande invention de l'informatique qui n'ait pas vu le jour dans un laboratoire sous contrat militaire (pendant la première informatique), le transistor, sera rapidement cédée par les laboratoires Bell à l'ensemble de l'industrie, dans le but explicite de ne pas freiner la diffusion de cette nouvelle technologie dans les applications militaires » [Breton, p. 180]. Durant la première génération informatique (années 1950) et le début de la seconde (années 1960) la commande d'État étatsunienne absorbe une part considérable de la production[10]. Ceci sera déterminant dans la prépondérance des États-unis : 90% de parts de marché à cette époque [Breton, p. 182].
[8] Deux repères culturels : 1941, Isaac Asimov invente les « trois lois de la robotique »… et le mot « robotique » lui-même. 1956, Robby, le robot à tout faire du film Planète interdite.
[9] Cette concurrence de la machine date bien sûr d'avant le 20e siècle. Sans attendre l'automatisation, elle est déjà présente dans la mécanisation qui porte la révolution industrielle, nous l'avons vu plus haut.
[10] En juillet 1964 les marchés d'État correspondent à plus du quart du parc informatique étatsunien. Fin 1966, ils représentent près du tiers de ce parc. Source : OCDE, cf. [Breton, p. 181].