Passer au contenu

Après le PC, l’AC !

” Le système nerveux humain, autorégulé, constitue un excellent modèle pour créer la prochaine génération informatique, l’informatique autonome. ” C’est IBM qui l’écrit. Ça vous dit ?

Cette déclaration, peu commune, émane d’un document d’IBM expliquant avec force détails les enjeux d’un nouveau concept dénommé “Autonomic Computing” (AC). Big Blue n’hésite pas à qualifier ce document de ” manifeste “. Il y expose les grandes lignes de l’incroyable défi auquel nous sommes confrontés, et de la non moins importante révolution que l’AC engendrera pour les entreprises et les individus.Trois points, au moins, sont particulièrement étonnants.D’abord, IBM justifie la nécessité absolue de passer à une nouvelle étape informatique par la complexité que cette dernière a engendré. En résumé, avec la prolifération des types de terminaux, la diversité des systèmes, la généralisation de l’informatisation des processus, ou l’avalanche de données hétérogènes, il n’est plus possible d’imaginer tout gérer avec des ordinateurs classiques. Ah !L’augmentation exponentielle de la puissance des ordinateurs a un prix, explique en substance le manifeste. Celui de ne plus être capable de gérer la difficulté constituée par ces millions de machines et ces milliards de lignes de code. Curieusement, IBM semble déplorer que ” nous ” ayons accordé trop d’importance à la puissance et pas assez aux moyens de faire face à ce que permet cette puissance. Etonnant. Au moins peut-on apprécier cette prise de conscience, vingt ans après la naissance du PC, de la part d’un industriel qui n’a pas toujours semblé étranger à la course à la puissance ou à la propagation des machines.Ensuite, l’accent est véritablement mis sur l’autonomie, et non sur l’intelligence. C’est également curieux, pour une entreprise ayant mis au point un ordinateur suffisamment intelligent pour battre le champion du monde d’échecs. Nous n’avons pas besoin de machines pensantes ou d’intelligence artificielle, explique IBM, qui fait ainsi preuve de pragmatisme.L’intelligence artificielle demeure un concept assez théorique dont les principales avancées, dans le domaine de la robotique par exemple, sont très éloignées des préoccupations quotidiennes des usagers informatiques que nous sommes. Plutôt que d’essayer d’élaborer des systèmes experts, essayons d’automatiser ce qui est répétitif et pénible pour le confier à des ordinateurs. On ne peut qu’applaudir.Pour ne parler que d’informatique personnelle, il faut bien constater qu’on est proche du degré zéro en matière d’autonomie. Pourtant, tous autant que nous sommes, nous effectuons quotidiennement de multiples tâches souvent identiques. Le fonctionnement d’un logiciel comme ICQ, scrutant en permanence et automatiquement la présence en ligne de personnes connues, est exemplaire. Si tout était aussi simple et autonome, ce serait drôlement bien !Enfin, la vision d’IBM semble indissociable de la reproduction du modèle humain, et notamment de son système nerveux. L’analogie est permanente dans le manifeste, ce qui en facilite certes la lecture, mais laisse tout de même des doutes quant à la faisabilité du modèle AC. Il est vrai que le corps humain effectue en permanence des contrôles ou des échanges d’informations et sait réagir de façon intuitive et autonome à des attaques provenant de l’extérieur. Mais on peut se demander si l’analogie ne s’arrête pas là. Après tout, le corps humain est à la fois complexe et imparfait. Le système immunitaire fonctionne bien, mais pas toujours suffisamment bien. Ce qui explique l’invention du médicament.Ce document peu banal, dont je ne peux que recommander la lecture, jette peut-être les bases d’un nouveau type d’informatique, qui verra se répandre des systèmes plus autonomes et, souhaitons-le, plus agréables à utiliser. Pour ma part, je m’en réjouis ! J’attends le jour où mon PC cessera de me demander si je suis “sûr de vouloir l’éteindre” quand je lui demande de sarrêter.Prochaine chronique le mardi 11 décembre 2001

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Cyril Fiévet