係統粉 > IT資訊 > 微軟資訊

微軟聊天機器人Tay“誤入歧途”, 被迫下線!

發布時間:2017-06-30    瀏覽數:
2017年 6 月30 日消息 如今, 聊天機器人已漸漸被人們所熟悉,它可以像朋友一樣來溝通交流,像百科全書一樣來為人們答疑解惑,像小管家一樣陪伴照料老人小孩……而微軟推出的聊天機器人Tay卻是命途多舛,上線短短一天就被迫下線,這究竟是為什麼呢?

微軟聊天機器人Tay“誤入歧途”, 被迫下線!(1)

微軟最初設定 Tay 是一個年齡19歲的少女,具有一些幽默機製,適合和18至24歲的用戶聊天。可萬萬沒有想到的是,Tay在 Twitter 上線沒幾天就“誤入歧途”甚至出現偏激言論,而這正是源自一些不良網民利用人工智能係統的漏洞而進行的一場惡搞。

微軟表示,在設計Tay的時候就有考慮到可能會被網友影響的問題,因此還特意為Tay設置了反製功能,當用戶的用語出現粗俗字眼時,Tay會強製反製避免不健康話題的延續。

而此次這個學習漏洞在於「repeatafter me」機製,隻要對 Tay 提到這句話,Tay 就會將對方的話進行重複,因此不管是何種偏激的種族主義語言,都會被 Tay 進行重複,而這個狀況在滾雪球一樣大量出現在在 Tay 的 Twitter 上,由於偏激言論不斷出現,最終導致微軟關閉了 Tay 。

微軟原本想研發一款能言善辯且具備一定學習能力的聊天機器人,沒想到恰恰在學習環節出了問題。不得不說,當人們在大肆宣揚聊天機器人帶給人們的便利時,也要十分警惕其存在的威脅,到目前微軟還沒有給出Tay的複出時間,看來這次要好好修補bug了。

上一篇:蘋果10周年回顧: 累計賣出12億部iPhone, 第一代曾受微軟CEO嘲諷 下一篇:巧用微軟小冰,提高工作生活效率

相關資訊

最新熱門應用

電腦問答