Passer au contenu

L’IA risque de provoquer une crise financière : l’avertissement des États-Unis

L’intelligence artificielle pourrait être responsable de la prochaine grande crise financière. D’après un régulateur américain, l’utilisation massive des modèles linguistiques dans la finance risque d’amorcer une dangereuse réaction en chaîne qui aboutirait sur une situation similaire à la crise des subprimes.

La Securities and Exchange Commission (SEC), le régulateur des marchés financiers des États-Unis, tire la sonnette d’alarme au sujet de l’intelligence artificielle. Pour Gary Gensler, le président de l’organisme, l’essor de l’IA est susceptible de provoquer une nouvelle crise économique et financière.

Le responsable avait déjà fait part de ses inquiétudes en mai dernier lors d’une conférence de la Federal Reserve Bank of Atlanta. Sur un ton alarmiste, il avait estimé que l’IA risquait d’être responsable de « la crise de 2027 ou 2032 ». Gensler évoquait une situation proche de la crise des subprimes, qui a éclaté en 2008. Ce cataclysme financier a provoqué la faillite de plusieurs institutions financières américaines ayant investi dans des prêts hypothécaires à risque. La crise a considérablement ralenti l’économie mondiale en engendrant une hausse du taux de chômage et de la récession.

À lire aussi : L’intelligence artificielle est aussi dangereuse que l’arme nucléaire, met en garde Eric Schmidt, ancien PDG de Google

Comment l’IA pourrait provoquer une crise économique ?

Concrètement, Gensler redoute qu’une poignée limitée d’entreprises parviennent à développer des modèles linguistiques. De facto, l’offre de modèles d’IA sur le marché pourrait rester limitée. Une petite coalition prendrait le contrôle du marché. Malgré l’explosion du nombre de modèles au cours de ces derniers mois, le patron SEC s’attend à ce que les sociétés, dont de grands acteurs de la finance, n’aient pas beaucoup de choix dans les années à venir. Finalement, la plupart des entités finiront par se tourner sur un modèle d’IA dominant ou un autre, comme ChatGPT, Google Bard ou Claude par exemple.

Lorsque ces modèles linguistiques finiront par générer de fausses informations ou des approximations préjudiciables, la plupart des institutions financières pourraient prendre de mauvaises décisions basées sur du vent. Les erreurs des IA provoqueront alors une réaction en chaîne lors de laquelle les mauvais investissements vont se multiplier. Au bout du compte, les erreurs de gestion généreront une crise financière massive, prophétise Gensler.

L’IA s’invite dans la finance

Notez que plusieurs géants de la finance se sont déjà lancés dans le monde de l’IA. Par exemple, Morgan Stanely, une importante banque d’affaires américaine, teste un chatbot basé sur ChatGPT pour assister ses conseillers financiers. Le robot s’exécute en interne sur une base de données financières fournies par Morgan Stanley.

L’IA s’est également invitée dans les habitudes des investisseurs particuliers. D’après une étude réalisée par la plate-forme de courtage eToro, un investisseur particulier sur dix utilise l’IA générative, comme ChatGPT, « pour l’aider à choisir et à modifier les investissements de son portefeuille ». En dépit des risques en matière de désinformation, 35 % des investisseurs sont prêts à utiliser l’IA « pour faciliter leurs décisions d’investissement ». Parmi les individus qui se servent déjà de ChatGPT et consorts, 61 % d’entre eux n’hésiteraient pas à laisser un chabot réaliser des transactions à leur place.

En assistant les particuliers et les institutions, l’IA pourrait finir par « accroître la fragilité financière » de l’économie, poursuit Gensler. Tous ces acteurs individuels risquent de prendre « des décisions similaires parce qu’ils reçoivent le même signal d’un modèle de base ou d’un agrégateur de données ». Conseillés par des modèles de langage, les investisseurs pourraient massivement déserter une banque, un fonds d’investissement ou placer des sommes colossales sur des entreprises.

Une prophétie à nuancer

Pour Gensler, l’IA demande tellement de puissance de calcul que seuls quelques géants, avec des ressources conséquentes, parviendront à tirer leur épingle du jeu. D’après une estimation de Morgan Stanley, la mise en place d’un chatbot est énormément coûteuse. La banque affirme qu’une recherche par chatbot coûte jusqu’à dix fois plus cher qu’une recherche classique par le biais d’un moteur. Une poignée de modèles d’IA devrait donc finir par dominer le secteur, mettant en danger l’équilibre financier.

Le patron de la SEC oublie que l’essor des IA open source, propulsée par les recherches réalisées par Meta et mises à disposition des développeurs, s’est accompagnée d’une multiplication des modèles de langage peu gourmands en ressources. Certains modèles, tout aussi performants que GPT ou PaLM 2, peuvent même tourner sur un smartphone ou un ordinateur, sans nécessiter une importante puissance de calcul.

En parallèle, OpenAI a même assuré que les grands modèles de langage, trop gourmands en ressources, seront bientôt de l’histoire ancienne. À l’avenir, les entreprises ne vont pas accroître indéfiniment la taille des modèles d’IA. Elles vont devoir trouver d’autres moyens d’améliorer ceux-ci, expliquait Sam Altman, PDG d’OpenAI, en avril dernier. De fait, la puissance de calcul ne devrait pas conditionner l’évolution de l’industrie.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera

Source : SEC


Florian Bayard