En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies afin de réaliser des statistiques d'audiences et vous proposer une navigation optimale, la possibilité de partager des contenus sur des réseaux sociaux ainsi que des services et offres adaptés à vos centres d'intérêts.
Pour en savoir plus et paramétrer les cookies...

Il semblerait que vous utilisiez un bloqueur de publicité.

La publicité nous permet de vous proposer une information gratuite et de qualité.

Veuillez désactiver votre adblocker lorsque vous consultez notre site.

Merci de votre compréhension et bonne navigation.

Gordon Moore en 2008
 
Gordon Moore en 2008 - CC, OnInnovation (Flickr)

Le rythme de progression des avancées numériques devrait prendre un nouveau tournant dans les années à venir. Une révolution de taille...

A voir aussi

Votre opinion

Postez un commentaire

  •  
  •  
4 opinions
  • hatchat
    hatchat     

    La loi de Moore est un bon indicateur de puissance de puce, mais ce n'est pas un critère complet. La mémoire cache du processeur (L1, L2) et la mémoire vive sont tout autant importantes que la fréquence de battement de l'horloge.

  • zepled
    zepled     

    Quelles conséquences sur l'autre loi de Moore (la qualité des logiciels est divisée par deux tous les 24 mois) ? Les programeurs vont ils être enfin obligés de nettoyer et optimiser leurs codes ?

  • zozolebo999
    zozolebo999     

    "Malgré la légende, la loi de Moore n'a rien de prophétique, ou alors est-ce une prophétie autoréalisée. Les industriels se sont rapidement donné comme objectif de doubler la puissance des processeurs tous les deux ans."

    Une fois de plus, un article rédigé par quelqu'un qui n'a même pas pris la peine de s'informer sur ce qu'est réellement la loi de Moore. Elle énonce le fait que le nombre de transistors par unité de surface double tous les 18 (ou 24) mois. Pas la puissance de calcul. C'est fondamentalement différent, car il n'y a pas une stricte proportionnalité entre les 2, voire plus du tout depuis que les processeurs ont arrêté de monter en fréquence pour intégrer davantage de circuits dédiés à des calculs spécifiques (encodage/décodage, chiffrement/déchiffrement, compression/décompression, etc.). C'est le nombre de puces actives à un instant T qui définit la puissance de calcul disponible, et ça fait bien longtemps que cette valeur n'augmente quasiment plus (environ 10 ans). En revanche la finesse de gravure continue (difficilement, certes) à diminuer, mais ça n'est une amélioration que pour les performances énergétiques, plus pour la puissance de calcul (à cause de la fuite d'électrons).

    Quant à l'informatique quantique, on sait depuis très peu de temps (octobre 2015, voir "UNSW") produire une vraie puce de calculs quantiques (ce qui a prouvé pour la première fois qu'un vrai calcul quantique était faisable à l'échelle électronique, contrairement à ce que la société D-Wave essaie de faire croire pour satisfaire ses investisseurs depuis des années), et en plus à partir de silicium, ce qui en fait un candidat de choix pour la production industrielle. L'informatique quantique n'est donc plus du tout insaisissable, c'est même tout proche.

    Bref, si vous voulez écrire un article sur un sujet technique, faites-le faire par quelqu'un qui sait un peu de quoi il parle, par respect pour vos lecteurs, merci !

  • mathmath
    mathmath     

    "A commencer par l'oeil fasciné qu'on conservait sur la progression linéaire des performances de nos puces". Si les performances doublent tous les (2) ans, la progression n'est justement pas linéaire mais bien exponentielle... fonction x->2^x

Votre réponse
Postez un commentaire

  •  
  •