Google crée un cerveau informatique capable de reconnaître un chat

HAL a peut-être été débranché, mais il n'est pas mort. Google vient de créer ce qui s'apparente le plus à un cerveau, en réunissant 16 000 processeurs au sein d'un « réseau neural ».
Comme un signe. Quelques jours après le centième anniversaire de la naissance d’Alan Turing, considéré comme le père de l’informatique, les ingénieurs du Laboratoire X de Google, d’où sont déjà sorti la voiture sans conducteur et les lunettes à réalité augmentée, vont dévoiler un nouveau projet. Rien de moins qu’un cerveau. Enfin ce qui s’en approche le plus en tout cas, un réseau neural de machines « intelligentes », capables d’apprendre seules, constitué de 16 000 processeurs et connecté à Internet où il étanche sa soif de connaissances à partir d’images extraites de dix millions de vidéos YouTube.
Chat et concept de chat
Ainsi, à en croire le New York Times, ce « cerveau » aurait déjà appris tout seul à reconnaître un chat. Pourquoi un chat ? Parce qu’il y a des milliers de vidéos de chats en ligne sans doute, même si le système était également capable de reconnaître un corps humain. Comme expliqué dans ce document (PDF), cet « ordinateur », grâce à son logiciel de simulation d’apprentissage et à l’énorme quantité de données disponibles en ligne, a reconnu ce chat parmi près de 20 000 objets distincts, avec une précision d’environ 15,8 %, soit une amélioration de 70 % par rapport aux expériences précédentes. Pour y arriver, les chercheurs de Google et Stanford ont choisi une autre voie.
« L’idée est qu’au lieu de faire en sorte que les chercheurs essaient de définir les limites, vous fournissez des tonnes de données à l’algorithme, vous laissez les données parler d’elles-mêmes et vous laissez le logiciel apprendre de lui-même, automatiquement », indiquait le Dr Andrew Y. Ng, de l’université de Stanford et chargé du projet au sein du Labs X. Ces logiciels permettent donc à un ordinateur d’apprendre seul à reconnaître un félin, en « inventant le concept de chat » à partir de données, à la manière de notre « cortex visuel ».

Un long chemin à parcourir
Aussi impressionnant que soient ces résultats, et le nombre de processeurs utilisés, tout cela reste pour l’instant bien faible par rapport aux capacités du cerveau humain. Pour autant, David A. Bader, un des responsables du Georgia Tech College of Computing déclarait, après la publication du rapport de Google et de l’université de Stanford : « La modélisation de la totalité du cortex visuel humain pourrait être à notre portée avant la fin de la décennie. » Les chercheurs de Google sont eux plus prudents. « Ce serait fantastique s’il s’avérait que nous n’avons qu’à utiliser l’algorithme actuel mais à une plus grande échelle, mais instinctivement quelque chose me dit que nous n’avons toujours pas le bon algorithme », précisait ainsi le DR Andrew Y. Ng.
-
-
Papounet17000
Ben si un jour on voit venir le terminator, on sera à qui incombe la faute ^^
-
PtiteLouise
Bonjour,
Ma remarque était surtout humoristique et j'essaye d'apprécier à leur juste valeur les progrès sur l'intelligence artificielle. Mais en dehors de toute plaisanterie, en prenant du recul et en se projetant vers l'avenir, il est certain que nous aurons à répondre à certaines questions philosophiques si ces technologies se développent au delà d'un certain seuil.
PtiteLouise -
Perfoura
16000 processeurs pour reconnaître un greffier, ça nous laisse encore de la marge et me rassure sur la supériorité humaine sur la puissance brute mais stupide d'une machine.
Comme quoi il vaut mieux un peu de bêtise naturelle et de bon sens, plutôt que beaucoup d'intelligence artificielle, on s'en sort mieux... -
le_s
Effectivement en terme de recherches pures c'est une belle démonstration.
Malgré cela je suis plutôt de l'avis de PtiteLouise, ça me fait un peu froid dans le dos. Si l'homme est en haut de la pyramide c'est parce qu'il est le plus intelligent et surtout capable d'apprendre seul et tirer parti de ses erreurs (quoique ça dépend...) Si l'homme cherche à inventer quelque chose de "plus intelligent" que lui, surtout capable d'apprendre de manière autonome il faut qu'il accepte le fait qu'un jour il pourrait se faire détrôner. -
hiroko
Skynet est tiré d'un film a gros budget qui justement a la particularité de ne pas trop solliciter les neurones de ses spectateurs , ne prenons pas ca pour une prédiction de ce que sera l'intelligence artificielle dans le futur ...
Au contraire ces travaux peuvent déboucher sur de vraies avancées , bon boulot google ^^ -
PtiteLouise
Le début de l'article me rappelle vaguement quelque chose, un "réseau de machines capable d'apprendre seules": Skynet sort enfin du bois :). Je ne sais pas s'il faut aller détruire le truc tout de suite ou attendre qu'il apprenne à reconnaître un chien...
Louise
[url=http://www.ohmymac.fr]Bloggeuse freelance[/url]
Votre opinion