2. L'ordinateur démultiplié

Gordon Moore avait initialement prévu la fin de sa loi pour les années 2000. Les technologies qui la fondent nous permettront peut-être de faire encore des progrès jusque 2020, mais l'augmentation de puissance des processeurs uniques plafonnent depuis la fin des années 1990. Il n'est pas indéfiniment possible de diminuer le nombre d'atomes par transistor. Il n'est pas non plus possible d'éliminer complètement l'échauffement d'un circuit qui traite de l'information. Enfin, la vitesse de transmission des impulsions électrique limite la fréquence de l'horloge cadençant les processeurs. Plus nous progressons, plus nous nous rapprochons des limites permises par la physique.

Conscients de ces difficultés, les fabricants de processeurs et d'ordinateurs des années 1990 travaillent donc sur une autre voie de développement : l'augmentation du nombre d'unités de traitement de l'information dans un ordinateur donné (ou répartie sur plusieurs ordinateurs). La piste était déjà exploitée dès les années 1960 par les ordinateurs Cray dits « superscalaires ». Dans les années 1990 on développe donc des processeurs à plusieurs files de calcul[36], puis, dans les années 2000 des puces intégrant plusieurs processeurs (appelés « coeurs ») en parallèle. La technique se développe également de faire travailler plusieurs ordinateurs, parfois en grand nombre, pour collaborer, en parallèle, à une même tâche. L'idée d'un grande machine orwellienne centralisée et omnisciente est commune mais peu probable. Elle disparaît au profit d'ensembles d'agents coopérant les uns avec les autres, d'une façon qui suit les idées développées par Minsky dans The Society of Mind (1987) : l'intelligence ne peut se trouver dans un quelconque processeur central mais plutôt dans un comportement collectif de grands groupes de machines spécialisés hautement interconnectées [Negroponte, p. 157-]. Ainsi, la Thinking Machine Corporation, qui fabriquait des ordinateurs massivement parallèles (les « connection machines ») a disparu au bout de 10 ans (création en 1982, faillite en 1994), principalement parce que le parallélisme pouvait être décentralisé, mis en oeuvre par des séries d'ordinateurs personnels produits en masse [Negroponte, p. 229]. Ainsi le film Titanic (1997) a-t-il utilisé des fermes de calculs pour ses effets spéciaux, plutôt que des super-calculateurs graphiques spécialisés. Aujourd'hui, avec l'augmentation de puissance considérable des processeurs graphiques, on peut même transformer un ordinateur du commerce en super-calculateur en lui adjoignant quelques cartes graphiques.

C'est aussi ce type d'organisation qui permet l'informatique nébuleuse : des serveurs collaborent pour assurer un service qu'ils délivrent, via le réseau, à un terminal léger : navigateur embarqué dans un netbook, une tablette ou un téléphone. Pourquoi alors s'encombrer d'ordinateurs fixes dont la grande puissance n'est plus guère utilisée, sauf pour quelques applications très spécifiques ? Autre avantage pour l'utilisateur : pas besoin d'installer ni de maintenir les logiciels associés, avec tous les problèmes de compatibilité associés. Avantage pour l'éditeur : il vend un service, sur la base d'un abonnement, et non un logiciel, sur la base d'une licence ponctuelle : son client est plus captif et le revenu plus stable dans le temps. Pour tous les services qui le permettent, les principaux éditeurs visent donc, aujourd'hui, le système WICH : web, Internet, cloud, HTML 5. Pour l'instant, nombre d'applications mobiles sont encore installées dans le système, mais de nombreux observateurs anticipent un basculement du marché vers des applications web. Une conséquence, parmi d'autres : la guerre, désormais ouverte, entre les navigateurs, chaque navigateur étant associé à un magasin d'applications.



[36] Les méthodes dites « RISC », mises en œuvre dès 1965, permettent d'intégrer plusieurs files de calcul à un même processeur. Elles ne se répandent qu'au début des années 1990. Ainsi le processeur grand public Pentium (ou 80586 ou i586) est-il la combinaison de deux files de calcul similaire à son prédécesseur le processeur 80486.