Passer au contenu

D’Internet à l’ordin@teur du futur

Nous voici à la dernière partie de notre petite histoire de la micro. ‘ X ‘ fait le bilan des dix dernières années, avec la banalisation des micro-ordinateurs et surtout l’explosion d’Internet. Et il tente même, pari risqué, d’imaginer l’ordinateur des prochaines années.

Le début des années 90 est marqué par la normalisation ?Ce n’est pas facile de dater un phénomène progressif, mais en effet, c’est la fin de l’imagination débridée. Il suffit de rappeler quelques noms pour faire surgir une grande nostalgie chez ceux qui ont connu les années 80. Le Macintosh reste le seul survivant de cette folle époque, mais beaucoup d’autres marques ont eu leur heure de gloire. Prenons l’Atari 520 ST, qui date de 1985, avec son processeur Motorola 68000 et l’interface GEM. Eh bien l’ultime modèle, Atari Falcon, avec un Motorola 68030 à 16 MHz, fut lancé en 1992, avec une connectique très contemporaine : bus SCSI, bus DSP, réseau local.Il y a eu bien d’autres machines complètement atypiques, souvent britanniques.Oui, on pourrait en faire un livre entier, ou ouvrir un musée. Que l’on repense aux Sinclair ZX 80, et surtout au sublime Sinclair QL, avec son processeur Motorola et ses minuscules cartouches à bande magnétique. Et la série des Archimedes d’Acorn, avec leur processeur Risc à la vitesse fulgurante. Bien placée en Grande-Bretagne dans le monde de l’éducation, la série perdurera jusqu’en 1994. Et l’Amiga de Commodore, avec ses processeurs graphiques spécialisés, dont le dernier modèle, l’Amiga 600, permettait en 1992 d’ajouter un disque dur interne et une carte PCMCIA.Vous n’oubliez pas l’Amstrad ?Non. J’y viens justement. Là encore, toute une série de modèles qui, pour beaucoup, évoquent leurs premiers pas en informatique avec les machines familiales CPC 464 puis le CPC 6128, avec ses disquettes 3 pouces hors de prix. Puis la machine dédiée au traitement de texte, PCW 8256, livrée avec son imprimante, et pour laquelle la pub télé montrait une pluie de machines à écrire… mises au rancart dans beaucoup de PME.Et sempiternelle question : que se passe-t-il aux Etats-Unis ?Là-bas, le culot est une spécialité des anciens d’Apple. Steve Jobs, après sa démission d’Apple en 1985 fonde sa propre société, Next, et sort en 1988 NextCube, une somptueuse machine cubique et noire, sans disque dur, sans lecteur de disquettes.Mais sur quoi stocke-t-on les données ?Hé ! Sur des cartouches magnétiques amovibles de 256 Mo. Mais plus fort encore, Steve Jobs la dote d’un écran noir et blanc affichant du Postscript, d’une incroyable imprimante laser Canon à 400 points par pouce, et surtout de son système d’exploitation Unix NextStep, qui deviendra, plus de dix ans plus tard, le système Mac OS X. Jobs affichait sa forte personnalité dans les moindres détails. La machine était livrée avec les ?”uvres complètes de Shakespeare, et il avait fait construire, dans la Silicon Valley, une usine ultra-moderne que j’ai visitée, capable de fabriquer 150 000 machines par an. Incroyablement perfectionniste, il avait même exigé que toutes les machines outils de la chaîne de montage soient peintes de la même couleur. Malgré sa courte carrière, le Next a largement inspiré les développeurs les plus imaginatifs.Par exemple ?Le premier navigateur Web a été programmé sur un Next. Et le tableur, complètement fossilisé par la disparition de la concurrence, aurait trouvé un nouveau souffle et de nouvelles applications si Improv de Lotus avait connu le succès qu’il méritait.Mais Steve Jobs n’est pas le seul à avoir tenté l’aventure ?En effet, Jean-Louis Gassé, l’ancien patron d’Apple France, devenu responsable du développement chez Apple, crée Be, sa propre société en 1990. Son aventure est très parallèle à celle de Next. Il conçoit une machine très originale, la BeBox, avec une électronique destinée au multimédia, et un système d’exploitation lui aussi basé sur Unix, BeOS. Mais c’est un échec. Selon la légende, seules les trop grosses prétentions financières de Jean-Louis Gassé dissua dèrent Apple de racheter Be pour récupérer BeOS et en faire le système d’exploitation du Macintosh.Finalement, les années 90 marquent la fin des machines de rêve.D’une certaine manière. On imagine mal aujourd’hui quelqu’un définir une nouvelle architecture de machine, basée sur un nouveau système d’exploitation. Mais l’extrême normalisation a créé un phénomène stupéfiant : le tuning. Les adeptes de ce nouveau sport assemblent des machines qui doivent être à la fois les plus puissantes et les plus originales possibles. Et une autre tendance, inverse, pourrait apparaître. Certains pensent que Linux et le modèle du logiciel libre peuvent être à l’origine du déclic pour fabriquer en masse un ordinateur économique, mettons autour de 300 euros. Dans ce domaine, les nouveautés pourraient éclore en Chine, ou en Inde.Parlons de la grande affaire de la décennie, l’arrivée d’Internet.On peut effectivement fixer à 1994 le début de son arrivée dans le grand public. En fait, pour y voir clair, il faut bien distinguer Internet du Web, et remonter littéralement à la préhistoire. Même pour les ordinateurs, l’idée d’un réseau n’était pas neuve : après tout, dès la fin des années 60, les systèmes de réservation des grandes compagnies aériennes comptaient des centaines, puis, à partir de 1970, des milliers de terminaux.La création d’Internet est surtout une décision politique.La ‘ guerre froide ‘ entre Américains et Soviétiques sert de point de départ : les militaires américains se rendent compte dans les années 60 de l’extrême fragilité aux radiations des grands ordinateurs et des réseaux centralisés. D’où l’idée d’un réseau décentralisé, maillé, qui assurerait une meilleure résistance en cas de conflit nucléaire. C’est le projet Arpanet, du nom d’une agence de recherche de l’armée américaine. Les quatre premiers ordinateurs universitaires sont reliés entre eux en 1969. Les premiers mails sont échangés en 1972, et Vinton Cerf, informaticien créateur du premier protocole de communication TCP/IP, invente le mot Internet en 1974. Le nombre d’ordinateurs connectés va croître régulièrement, pour atteindre 300 000 en 1990. Mais Internet reste en pratique réservé aux chercheurs et aux étudiants, et, en France, il faut l’agrément des services secrets pour y avoir accès.Quelles étaient les fonctions d’Internet, si le Web n’existait pas ?Comme aujourd’hui, Internet regroupe alors un certain nombre de fonctions qui reposent sur des protocoles indépendants des ordinateurs : le courrier électronique, les groupes de discussion… Deux protocoles aujourd’hui oubliés, Wais et Gopher, permettaient des recherches par mots-clés. Enfin, un autre usage du réseau, en ces temps où la puissance des machines était une ressource rare, Telnet lançait l’exécution de programmes à distance. Curieusement, cette fonction n’a pas actuellement de version grand public : nous n’avons pas de solutions simples pour répartir un énorme calcul sur plusieurs ordinateurs.Quelle est la nouveauté du Web ?Le lien hypertexte. Là encore, il faut remonter à la préhistoire, en fait à la fin de la Seconde Guerre mondiale. Le directeur de l’Office américain de recherche scientifique, Vannevar Bush, publie un texte visionnaire, ‘ As we may think ‘ (‘ Voici comment nous devrions penser ‘).Tout est donc prêt pour inventer le WebIntellectuellement, tout était là, mais ça reste génial, car c’est une réussite au premier essai. Ces bonnes idées se cristallisent au Cern, le Centre européen d’études nucléaires, à Genève. Le Cern est, en effet, une communauté scientifique réellement mondiale. Le premier rapport, de 1989, écrit par Tim Berners-Lee se nomme Hypertext and Cern. Il y pointe les insuffisances de Gopher comme moyen d’échange de documents entre scientifiques, et propose la création d’un langage de description de page, HTML (HyperText Markup Language), d’un nouveau protocole de transmission, HTTP, et d’un logiciel pour afficher les pages : le navigateur.Et là, tout va très vite.Oui, dès 1991, le système fonctionne en interne au Cern, sur un seul ordinateur, un Next ! C’est à ce moment que les physiciens nomment la machine ‘ Web-serveur ‘, le mot Web suggérant les notions de toile et de lien. A la fin de 1992, il y a 50 Web-serveurs dans le monde, et le million est atteint avant l’an 2000. Ce qui fait l’intérêt du Web par rapport à l’Internet de l’époque, c’est que le même outil affiche les pages et les images, et assure la navigation entre pages. Autre avantage, le langage HTML est suffisamment simple pour qu’un non-informaticien puisse l’apprendre pour créer ses propres pages. Avec le Web, Internet tient enfin son application grand public.Reste donc à démocratiser le système.Et ce n’est pas évident. Car tout le monde rêve de créer son propre réseau : Apple, avec Eworld, Microsoft avec MSN, et aussi Compuserve, Prodigy et plus près de nous Calvacom. Il faudra toute la volonté d’Al Gore, alors vice-président des Etats-Unis et fervent défenseur des autoroutes de l’information, pour ouvrir Internet au public. Sa phrase, en mars 1999, ‘ Comme député, j’ai pris l’initiative de créer Internet ‘, est malheureuse, mais pas entièrement fausse.Et en France ?Le Minitel est encore très influent. Jacques Chirac prononce le consternant ‘ Internet est un réseau, mais il y en a d’autres ‘, qui retardera de trois ans l’arrivée du Net en France. En 1998, le seuil des 10 % d’entreprises connectées est enfin franchi. L’administration mettra encore plus de temps à découvrir tout le parti qu’elle pouvait tirer de cet outil.En partant de la situation actuelle, il est tentant d’essayer de prévoir les années futures.Tentant, mais risqué. On peut quand même tirer quelques leçons du passé. La seule certitude, c’est que, dans dix ans, l’ordinateur ne ressemblera pas à celui d’aujourd’hui. Car on peut faire confiance à la loi de Moore.La loi de Moore ?C’est une prédiction assez étonnante faite par Gordon Moore, l’un des fondateurs d’Intel en 1965. Dans un article resté célèbre, il prévoit que le nombre de transistors dans un circuit intégré va doubler tous les deux ans. Et effectivement, Intel sort une nouvelle génération de processeur tous les deux ans, qui comporte deux fois plus de transistors que la précédente.Et ça permet de prévoir l’ordinateur du futur ?Oui, dans la mesure où la loi de Moore ne s’applique pas seulement au nombre de transistors, mais aussi à d’autres caractéristiques des ordinateurs comme la fréquence des processeurs, la taille des disques durs, de la mémoire et des supports amovibles. On peut donc s’aventurer à prédire quelques caractéristiques techniques des ordinateurs de demain. Par exemple, disons qu’à la fin 2007, on devrait avoir des ordinateurs avec des mémoires de 4 Go, des disques durs de 1 téraoctet (1 000 Go), des DVD de 100 Go, et des clés USB de 10 Go.Et pour la puissance des ordinateurs ?Pour les processeurs, la chose est plus incertaine car il y a un gros problème. En fait, la loi de Moore marque le pas depuis 2000. Le Pentium4, avec ses 42 millions de transistors, s’y conforme encore, mais quatre ans se sont écoulés… De même, l’augmentation des fréquences n’est plus exponentielle : on est bien passé de 2 GHz à 3 GHz pendant l’année 2002, mais on vient d’atteindre péniblement 3,6 MHz un an et demi après.C’est grave ?Oui, car depuis toujours, la constante augmentation de puissance est le moteur de cette industrie, en termes de vente, d’innovation et de nouvelles applications. Pour prendre deux exemples, les améliorations dans les domaines du traitement des images ou du montage vidéo ne sont possibles qu’avec des machines toujours plus puissantes. La solution va certainement venir de puces intégrant plusieurs processeurs, et d’ordinateurs intégrant plusieurs puces.Mais il reste des applications à inventer…Bien entendu, on peut indiquer quelques tendances. Dans le domaine du matériel, la multiplication des objets nomades va continuer, la transmission sans fil ouvrant de nouvelles perspectives, comme des échanges ou des hybridations entre caméscope et appareil photo numérique, entre téléphone et PDA, entre GPS et walkie-talkie, entre lecteur MP3 et enregistreur sonore. A tout moment, un nouvel usage, parfaitement improbable, peut se répandre, comme l’actuelle mode des téléphones portables-appareils photo, ou les lecteurs MP3.Mais que devient l’ordinateur ?Il reste au centre de notre vie numérique. Ainsi, 1 téraoctet peut permettre de stocker le texte d’un million de romans, ou 1 million de photos numériques, ou 10 000 heures de musiques ou 1 000 films. Pour le prix d’une voiture moyenne, je pourrais actuellement acheter 10 disques de 1 To, et disposer chez moi de tous les textes des quelque 10 millions de livres qui sont à la bibliothèque de France. Mais une telle quantité de données n’a plus de sens si nous ne disposons pas des logiciels pour les explorer, et pas seulement pour faire de stupides listes. Il y a là toute une série d’outils à inventer. Si je veux la liste des personnages dans les ?”uvres de Proust, actuellement, je fais comment ? Et si je veux retrouver, parmi 1 million de photos, celles qui représentent des cathédrales, des couchers de soleil, ou Napoléon ? Et parmi 10 000 CD, combien de versions de la même musique, avec des interprètes différents ? Dans le domaine du film aussi, tout ou presque reste à inventer : retrouver un plan, le restaurer, l’analyser techniquement et en décrire le contenu, faire une maquette virtuelle de la réalité filmée. Ce ne sont que des exemples, mais une chose est certaine : les 30 prochaines années seront aussi passionnantes que les 30 dernières !

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Simon Dircédepoint