係統粉 > IT資訊 > 微軟資訊

微軟新聊天機器人Zo又出問題: 大談受限話題

發布時間:2017-07-05    瀏覽數:
微軟新聊天機器人Zo又出問題: 大談受限話題(1)

北京時間7月5日早間消息,一年前,微軟Twitter平台的聊天機器人Tay變成了“種族主義者”,而它的後續產品Zo又再次出現問題。

盡管微軟通過編程讓Zo忽略政治和宗教話題,但BuzzFeed的編輯嚐試讓Zo對某些受限話題做出了令人驚訝、充滿爭議的回應。在交流中,Zo將古蘭經稱作“非常暴力”。此外,它還對本·拉登的死亡做出評論,稱抓住本·拉登是“不止一個政府多年情報收集”的結果。微軟表示,Zo的行為錯誤已經得到糾正。

去年,微軟嚐試讓聊天機器人Tay模仿時髦的青少年。然而在一天時間內,Tay就開始出現種族主義言論,Twitter上的所有人都可以看到這些。微軟隨後被迫關閉了Tay。因此,微軟將Zo限製在消息應用Kik內,維持著中等的用戶群體規模。不過,Zo似乎仍然出現了一些壞習慣。

微軟將Tay的問題歸咎於部分用戶對其進行的破壞。不過微軟表示,Zo並沒有遇到這樣的問題。目前,這款聊天機器人仍然存在於Kik平台,微軟也沒有計劃關閉Zo。(維金)

上一篇:Win10 OneDrive突然封殺FAT/FAT32磁盤,強推NTFS“惹眾怒” 下一篇:全麵押注雲業務 微軟全球大範圍重組銷售市場隊伍

相關資訊

最新熱門應用

電腦問答