由微軟開發的一個聊天機器人已經在Twitter網站上變成了“流氓”,它不但辱罵用戶,還發表了種族主義評論和煽動性的政治宣言。
微軟聊天機器上線首日被撤 疑因重大“BUG”
這個實驗性的人工智能(AI)聊天機器人名為“Tay”,可通過人類對話進行學習,其設計目的是與18到24歲之間的年輕人進行互動。在微軟放出這個機器人的短短24個小時以后,該公司就不得不對其發表的一些煽動性評論進行了編輯處理,并表示該公司正在“進行一些調整”。
微軟發表聲明稱:“人工智能聊天機器人Tay是個機器學習項目,專為與人類交流而設計。在學習過程中,它作出的一些回應是不合適的,反映出了有些人與其進行互動的語言類型。我們正在對Tay作出一些調整。”
Tay由微軟技術和研究及必應(Bing)團隊開發,可通過海量的匿名公開數據學習如何與人類溝通。另外,與Tay共事的還有包括即興喜劇演員在內的一個團隊。Twitter用戶受邀與這個聊天機器人進行互動,其他一些社交媒體的用戶也可在Kik或GroupMe上將其添加為聯系人。
微軟稱:“Tay的設計目的是與人進行交流并為其帶來娛樂,能夠通過休閑幽默的對話與人進行線上互聯。Tay越是與人聊天就會變得越聰明,因此與她進行對話的體驗將可變得越來越個性化?!?/span>
但這種設計所帶來的一種不幸結果是,Tay在與人類交流的過程中被“教會”了像納粹主義同情者、種族主義者和種族滅絕主義者那樣發布Twitter消息。同時,試圖與其進行嚴肅對話的用戶也發現了這種技術的局限性,他們指出Tay似乎對流行音樂或電視不感興趣。還有人猜測,Tay如此之快地就降格至與人類進行不合適的聊天對話,可能表明了人工智能的未來。
(審核編輯: 智慧羽毛)
分享