Passer au contenu

ChatGPT : Microsoft prépare une nouvelle version du chatbot d’OpenAI

En réponse aux inquiétudes soulevées par ChatGPT, Microsoft s’apprête à présenter une nouvelle version de l’intelligence artificielle. Celle-ci se distinguera de la version standard par une meilleure confidentialité des données…

Microsoft se penche sur une nouvelle version de ChatGPT, le chatbot intelligent d’OpenAI, rapportent nos confrères de The Information. Le géant américain a en effet passé un accord de plusieurs milliards de dollars avec la start-up. Celui-ci autorise Microsoft à s’approprier la technologie d’OpenAI pour concevoir et commercialiser de nouveaux produits, comme Prometheus, le ChatGPT intégré à Bing.

À lire aussi : OpenAI menace le développeur derrière GPT4free, le ChatGPT 4 gratuit

Un ChatGPT confidentiel pour les pros

Développée par Azure, la division cloud de Microsoft, cette nouvelle itération de ChatGPT serait focalisée sur la confidentialité et réservée aux entreprises. Selon deux sources interrogées par le média, cette édition s’exécutera sur des serveurs cloud exclusivement dédiés aux sociétés ayant souscrit à l’offre.

De cette manière, les données fournies par les entreprises lors de leur utilisation de ChatGPT ne seront pas mélangées à celles des autres clients. Les firmes, soucieuses de protéger leurs données sensibles, obtiennent la garantie que des informations confidentielles ne disparaissent pas dans la nature. De même, les données collectées par ce ChatGPT ne seront pas utilisées pour entraîner GPT, le modèle de langage qui anime le robot conversationnel. Les entreprises garderont le contrôle intégral sur leurs données. Leurs employés pourront communiquer des informations internes à l’IA sans le moindre risque.

Cette initiative répond aux inquiétudes soulevées par ChatGPT, et les autres IA génératives, en matière de confidentialité et de vie privée. De nombreuses entreprises redoutent que le chatbot n’absorbe des informations internes confidentielles en communiquant avec ses employés. Plusieurs sociétés ont d’ailleurs préféré interdire ChatGPT à leurs employés. C’est le cas de Samsung. Après avoir remarqué que trois employés avaient divulgué du code source confidentielle à l’IA, le géant sud-coréen a prohibé ChatGPT au sein de certains de ses bureaux et laboratoires. En cas d’infraction, les employés seront licenciés. Plusieurs banques ont pris des mesures analogues.

Dans la même optique que Microsoft, OpenAI a annoncé l’arrivée d’un abonnement ChatGPT taillé pour les entreprises, ChatGPT Business. L’offre garantit que les données communiquées à ChatGPT ne seront pas utilisées pour entraîner le modèle de langage. Suivant la même logique de confidentialité, la start-up de Sam Altman a développé une version personnalisée de ChatGPT pour la banque Morgan Stanley. Cette édition privée, conçue pour assister les conseillers financiers du géant bancaire, s’exécute en interne sur une base de données fournies par Morgan Stanley.

Une IA plus chère pour les professionnels

Toujours d’après The Information, le ChatGPT axé confidentialité de Microsoft serait bien plus coûteux que la version standard. Le service serait « jusqu’à 10 fois plus cher » que l’accès classique par le biais de Microsoft Azure. Il s’adresserait donc vraisemblablement à une poignée de professionnels. Pour rappel, Microsoft a annoncé l’Azure OpenAI Service en janvier dernier. Ce service donne accès à ChatGPT et d’autres IA génératives, comme le générateur d’images Dall-E, aux développeurs. Il permet aux entreprises de s’appuyer sur l’IA pour concevoir ou enrichir leurs propres applications et produits.

Ce nouveau ChatGPT serait mis à disposition des entreprises dans le courant du second trimestre 2023. Le rapport de The Information laisse entendre que l’annonce de Microsoft est imminente.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera

Source : The Information


Florian Bayard
Votre opinion
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *