Microsoft censure son nouveau chatbot pour éviter qu'il ne devienne raciste
 

Après l'échec de Tay, sa première intelligence artificielle pour chatbot, Microsoft récidive avec Zo, un modèle hautement censuré issu d'une version chinoise.