Passer au contenu

AWS Summit : Amazon se positionne comme « le » partenaire indispensable pour qui veut recourir à l’IA

Lors de son sommet annuel sur le cloud à Paris, Amazon a acté son positionnement de maillon indispensable dans le triptyque data – cloud – modèle de langage, pour les entreprises souhaitant avoir recours à l’IA. Si l’événement a été l’occasion de montrer mille et une expérimentations d’IA, le géant américain du cloud en a profité pour annoncer que sa plateforme Bedrock, sur laquelle sont déployés différents modèles de langage, sera disponible en France à compter de cette semaine.

« Pas d’IA sans data, et pas de data sans cloud ». Mercredi 3 avril avait lieu le « AWS Summit », la 11ᵉ édition du sommet d’Amazon Web Services (AWS), la branche cloud du géant américain à Paris. Et cette session était placée, sans grande surprise, sous le signe de l’intelligence artificielle (IA) générative. Une technologie vue comme « la partie émergée de l’iceberg », a commenté Julien Groues, vice-président France et Europe du Sud d’AWS, qui inaugurait la scène du Palais des Congrès à Paris. Car sous la surface, le cloud « alimente et soutient toutes les capacités de l’IA », a rappelé le cadre dirigeant. L’occasion a surtout été, pour l’entreprise américaine, de se présenter comme le partenaire et « le pilier » des petites comme des grosses sociétés françaises souhaitant recourir à l’IA

Car si Amazon n’est pas pour l’instant un des leaders des IA génératives, bien qu’il développe son propre modèle de langage (Titan), il compte bien se positionner comme un élément indispensable dans le triptyque data – cloud – modèle de langage. Il n’y a « pas d’IA sans data, et il n’y a pas de data sans cloud », a rappelé Julien Lépine, le directeur Architecte Solutions d’AWS France, avec qui 01net.com a pu s’entretenir.

Après l’expérimentation de l’IA, le passage en production en 2024

Si ce schéma existait déjà lors de la précédente édition, les entreprises en étaient encore, l’année dernière, au stade de l’expérimentation de l’IA générative, a expliqué le directeur. Concrètement, deux cas d’usage ont été massivement testés en 2023 : « Les chatbots en entreprise, relativement faciles à mettre en place ». Et ce qu’on appelle la recherche augmentée – le fait d’utiliser des moteurs d’IA générative pour faire de la recherche sémantique, a-t-il poursuivi.

Mais désormais, 2024 est l’année « du passage à l’échelle et en production », a commenté le cadre dirigeant. Preuve à l’appui, ces clients venus témoigner sur scène pendant la matinée, comme Air Liquide ou TF1.

Côté TF1, le groupe de médias, qui utilise AWS pour une partie de sa chaîne de production, a lancé plusieurs expérimentations, dont « Top Chrono », un programme qui permet de faire des résumés de matchs plus ou moins longs, la durée du résumé étant choisie par l’internaute. Côté Air Liquide, le spécialiste de gaz industriels comme l’oxygène, l’azote et l’hydrogène, c’est Bedrock qui est mis en avant : la plateforme d’Amazon leur permettrait de tester et de prototyper certains systèmes, notamment en traitant près de « 3,5 milliards de données collectées chaque jour, qui proviennent de nos 600 usines », a souligné sur la scène Fabien Mangeant, directeur scientifique informatique et data science de l’entreprise.

Amazon Bedrock présentée comme une plateforme pour accéder facilement à l’IA générative

Bedrock est d’ailleurs, selon Amazon, « la façon la plus rapide et facile de construire des applications d’IA génératives basées sur des LLMs », a loué Mai Lan Tomsen Bukovec, la vice présidente de AWS Technology. Et « parce qu’on est persuadé qu’il n’y aura pas un seul modèle de langage qui va gagner », a ajouté Julien Lépine, Amazon a profité de l’occasion pour annoncer que Bedrock sera disponible en France à partir de cette semaine – la plateforme était déjà accessible aux États-Unis, en Allemagne et au Japon. Elle proposera, via une API présentée comme étant facile à utiliser, différents modèles de langage, dont ceux développés en interne, ainsi que ceux de Mistral, de Meta, d’Anthropic – à l’exception des LLMs d’OpenAI.

Sur Bedrock, les entreprises pourront aussi déployer les toutes dernières versions des LLM de Mistral (Mistral Large) et d’Anthropic (Claude 3 Haiku et Claude 3 Sonnet) : les CEO de ces deux start-up étaient les guest stars de l’événement : Tom Brown, CEO d’Anthropic, et Arthur Mensch, PDG de Mistral, sont venus annoncer sur scène et en personne la très prochaine disponibilité de leurs derniers modèles. Pour ce dernier, le cloud d’AWS, sur lequel sont déjà déployés ses modèles open source Mistral 7B et Mixtral 8x7B, est « un canal de distribution (des modèles de langage, NDLR) particulièrement efficace ».

À lire aussi : Pourquoi Amazon injecte-t-il des milliards dans la start-up d’IA Anthropic ?

Des expérimentations IA à gogo

Mais malgré cette mise en avant exacerbée de l’IA – que cela soit à travers les sessions organisées, ou les très nombreux stands exposant sur trois étages leurs expérimentations ou applications, Amazon n’a pas manqué de rappeler sa fonction historique : « On garde quand même une focalisation très forte sur ce que l’on sait faire : de l’infrastructure. Donc ce n’est pas parce qu’on parle d’intelligence artificielle générative qu’on a complètement lâché le monde de l’infrastructure plus traditionnel. On reste effectivement une plateforme de cloud », nous a assuré Julien Lépine, à la tête de la division Architecte Solutions d’AWS France.

Le message d’Amazon à destination des entreprises est on ne peut plus clair : laissez nous gérer vos données et concentrez-vous sur votre cœur de métier : cela sera plus sûr et moins coûteux pour vous de faire appel à nos services, que de construire de votre côté une infrastructure de serveurs. Un message entendu par certains exposants comme la SNCF, qui fonctionne désormais pour une partie de ses données des transporteurs (horaires des trains, annonces liées au plan vigipirate) sans serveurs, en faisant appel au cloud d’Amazon.

Une quarantaine de start-up exposaient aussi leurs applications plus ou moins temporaires d’IA. Et il y en avait pour tous les goûts : portrait fait par un robot, lecture vulgarisée de radiographie, démonstrations de formations via des chats boostés à l’IA, sans compter les très nombreuses expérimentations plus visuelles dans le sport – année olympique oblige. Pêle-mêle, on pouvait s’essayer à escalader un mur qui mesure vos performances, tirer au but sur un petit terrain « augmenté », piloter une voiture télécommandée avec ses mains, ou encore s’essayer au vélo elliptique qui reproduit la difficulté d’un parcours réel…  En parallèle, des sessions techniques ont permis aux quelque 10 000 visiteurs, selon Amazon, de mettre directement en pratique l’apprentissage automatique et l’IA.

Seuls nuages à l’horizon dans cette ambiance d’auto-louange à la gloire de l’IA et d’Amazon : le sommet a eu lieu le jour où le géant américain a annoncé supprimer, aux États-Unis, des centaines d’emplois dans les divisions Ventes et Marketing d’AWS. La fin de l’utilisation de sa technologie « Just Walk Out », qui permet à des acheteurs de faire leurs courses sans passer par des caisses, a aussi été actée. Ces annonces bien lointaines n’ont fait que survoler, et de très loin, l’événement parisien.

À lire aussi : Health Data Hub : tout comprendre à la polémique sur la plateforme de données de santé des Français

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Stéphanie Bascou
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *