خلال تجاربها لفهم المحادثة من أجل الذكاء الإصطناعي، قامت شركة مايكروسوفت مؤخرا بتقديم متحدث آلي ( Chatbot ) يدعى Tay.
تم ربط المتحدث الآلي بحساب على شبكة تويتر بحيث يعمل على الرد بشكل تلقائي على تغريدات المستخدمين. ومع ذلك، لم يستغرق Chatbot سوى أقل من 24 ساعة ليتفوه ببعض العبارات العنصرية التي تدل على الكراهية، فضلا عن مجموعة من الأفكار الخاطئة، ما دفع مايكروسوفت إلى الخروج للإعتذار عن كل ما صرح به ذكائها الإصطناعي Tay.
وقالت الشركة في تدوينة على مدونتها الرسمية بأن عدد قليل من المستخدمين على شبكة تويتر استغلوا الخلل في الذكاء الإصطناعي Tay لتحويله إلى عنصري متعصب دون ان أتشير الى المزيد من التفاصيل عن نوعية هذا الخلل.
ويعتقد بأن العديد من المستخدمين استغلوا ميزة ” Repeat After Me كرر من بعدي ” في المتحدث الآلي Tay والتي تسمح للمستخدمين بجعل Tay يكرر ما قاموا بنشره على تويتر.