Passer au contenu

Les probabilités au c?”ur de l’intelligence artificielle

Les formules mathématiques d’un pasteur anglais sont utilisées par Microsoft, Google, IBM et d’autres pour créer des logiciels capables de raisonner par eux-mêmes.

‘ Sans Thomas Bayes, l’antispam d’Outlook, les fonctions de détourage de Photo Suite et le compagnon d’Office n’auraient peut-être jamais vu le jour ‘, s’amuse Chris Bishop, directeur
adjoint du centre de recherches de Microsoft à Cambridge. Pour comprendre cette plaisanterie, il faut savoir que Thomas Bayes est anglais, pasteur de l’église presbytérienne, et qu’il est né… il y a plus de 300 ans ! Et si Thomas Bayes a
joué ?” à titre posthume ?” un rôle aussi important dans le développement de centaines de programmes, c’est pour un théorème mathématique. Jusqu’à Bayes, les probabilités étaient essentiellement perçues sous l’angle de la
fréquence : il pleut en moyenne 10 jours durant le mois de novembre, la probabilité qu’il pleuve le 1er novembre 2005 est donc de 10 sur 30, soit 33 %. La théorie de Bayes peut être réduite à un principe :
pour prévoir le futur, il faut étudier les données du passé et prendre en compte beaucoup plus d’éléments, même incertains.Pour savoir s’il va pleuvoir le 1er novembre, les ‘ bayésiens ‘ vont s’intéresser, en plus, aux prévisions météo : celles-ci annoncent de la pluie mais
elles ne sont fiables que dans 75 % des cas. Les formules mathématiques de Bayes permettent alors d’estimer qu’il y a 59,6 % de chances qu’il pleuve le 1er novembre si le bulletin météo indique de la pluie,
sachant qu’il pleut en moyenne 10 jours dans le mois.Dédaignées il y a encore une dizaine d’années, les théories de Bayes ont aujourd’hui les faveurs des développeurs de logiciels et fabricants de matériels. Chez Microsoft, par exemple, plusieurs laboratoires ont pour mission d’intégrer
les théorèmes du pasteur anglais aux programmes de la firme, tandis que Google embauche des chercheurs spécialisés en théorèmes bayésiens. Rien d’étonnant, la plupart des logiciels reposent désormais sur des statistiques : quelle est la
probabilité qu’un mail soit un spam, qu’un client d’Amazon achète le livre B s’il a lu le livre A, qu’une page Web corresponde aux mots clés entrés par un utilisateur dans un moteur de recherche ? On n’attend plus seulement de l’ordinateur
qu’il fasse office de supercalculatrice, on veut aussi qu’il soit ‘ intelligent ‘. Et, pour cela, il n’y a que deux solutions. La première consiste à lui faire apprendre ‘ par
c?”ur ‘
des quantités colossales d’informations qu’il exploitera mécaniquement : il n’apprendra alors rien de lui-même et pourra uniquement gérer les situations qu’on lui aura appris à gérer. La seconde consiste à
doter l’ordinateur d’un schéma d’apprentissage qui lui permet, à chaque fois qu’on lui soumet une question, de l’analyser à partir de ses expériences antérieures pour aboutir à un résultat qui sera lui-même mémorisé. Le système bayésien, qui
s’inscrit dans ce second cadre, analyse les données selon des critères statistiques. L’intérêt, c’est son efficacité croissante : plus les informations passées sont nombreuses, plus la réponse est fiable. Et si l’on modifie les données de
départ, le résultat est ajusté automatiquement. L’inconvénient majeur, c’est que ce modèle ne peut traiter les situations exceptionnelles (un accident, par exemple), et qu’il peut s’enfermer dans ses erreurs…

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Alain Steinmann