Tout devait aller plus vite que prévu. L’Afrique du Sud voulait devenir le premier pays africain à se doter d’un cadre national pour réguler l’intelligence artificielle, modelé sur notre AI Act européen. Cabinet conquis le 25 mars, publication au Government Gazette le 10 avril, commentaires publics ouverts jusqu’au 10 juin. Il aura fallu deux semaines à News24 pour tout faire dérailler.
Six citations qui n’existent pas, dans un document de gouvernement
Le 26 avril, le quotidien sud-africain publie son enquête. Sur 67 références académiques citées dans la politique, six concernent des articles qui n’ont jamais existé. Les revues, elles, sont bien réelles : South African Journal of Philosophy, AI & Society, Journal of Ethics and Social Philosophy. Mais les articles attribués à leurs colonnes n’y ont jamais paru. Les éditeurs des trois revues l’ont confirmé un par un. Quant aux auteurs crédités de travaux fondateurs sur la gouvernance de l’IA, certains n’ont jamais écrit la moindre ligne sur le sujet attribué.
Le document de la discorde a été préparé pendant des mois par le département des Communications et Technologies digitales. Validé par le Cabinet le 25 mars, puis lors d’une session extraordinaire le 1ᵉʳ avril. Le projet ne manquait pas d’ambition : National AI Commission, AI Ethics Board, AI Regulatory Authority, Ombudsperson dédié, National AI Safety Institute, AI Insurance Superfund. Tout un écosystème institutionnel, construit en partie sur des sources qui n’existent pas.
I HAVE REQUESTED THE MINISTER OF FINANCE TO INVESTIGATE POSSIBLE IRREGULARITIES IN THE PROCUREMENT PROCESS
OF TEXTBOOKS FOR FOUNDATION PHASE pic.twitter.com/pFNc8Qe5r9— Siviwe Gwarube (@Siviwe_G) April 28, 2026
Le ministre des Communications, Solly Malatsi, a annoncé le retrait dimanche 27 avril sur X. Le ton du communiqué n’est pas tout à fait celui d’une mise au point technique. « Cette défaillance n’est pas une simple question technique. Elle a compromis l’intégrité et la crédibilité du projet de politique », écrit-il. L’explication la plus plausible, selon ses propres mots ? « Des citations générées par l’IA ont été incluses sans vérification appropriée. » Le ministre promet du « consequence management » pour les fonctionnaires concernés.
Hallucinations académiques : Pretoria n’est que la partie visible
Le cas sud-africain n’est pas isolé, il est juste plus voyant que les autres. Le problème est structurel : les grands modèles de langage ne consultent pas une base de données pour produire une citation. Ils en prédisent la forme, mot par mot, à partir des motifs vus à l’entraînement. C’est l’équivalent d’un faussaire qui ne copie aucun chèque réel, mais reproduit le format général : signature plausible, montant cohérent, libellé crédible. Quand la prédiction est suffisamment confiante, le résultat ressemble à une vraie référence : autorité du nom de la revue, format académique respecté. Mais elle ne pointe vers rien. Une citation hallucinée n’est ni un bug ni un dérapage, c’est le mode de fonctionnement nominal du modèle.
Ce qui rend le cas sud-africain particulier, ce n’est donc pas l’hallucination en elle-même. C’est qu’un document gouvernemental destiné à encadrer l’IA ait franchi le Cabinet, le journal officiel et plusieurs étapes de relecture. Sans qu’un seul fonctionnaire prenne la peine d’ouvrir un moteur de recherche pour vérifier une seule note de bas de page. Le président de la commission parlementaire a livré sa propre synthèse, en six mots adressés au département : « la prochaine fois, évitez ChatGPT ».
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.

