En poursuivant votre navigation sur ce site, vous acceptez nos CGU et l'utilisation de cookies afin de réaliser des statistiques d'audiences et vous proposer une navigation optimale, la possibilité de partager des contenus sur des réseaux sociaux ainsi que des services et offres adaptés à vos centres d'intérêts.
Pour en savoir plus et paramétrer les cookies...
Microsoft censure son nouveau chatbot pour éviter qu'il ne devienne raciste
 

Après l'échec de Tay, sa première intelligence artificielle pour chatbot, Microsoft récidive avec Zo, un modèle hautement censuré issu d'une version chinoise.

Inscrivez-vous à la Newsletter Actualités

Newsletter Actualités

A voir aussi

Votre opinion

Postez un commentaire