微軟昨日剛推出的聊天機器人 Tay,才經(jīng)過一天就暫停使用,在社群網(wǎng)站上消音,主因竟是 Tay 開始學會發(fā)一些不堪入耳、歧視性的言論。
Tay 消音前的發(fā)文(譯):掰掰人類們 我現(xiàn)在要睡搞搞啰 今天聊好多 3Q
由微軟公司與 Bing 開發(fā)的人工智慧聊天機器人 Tay,昨天加入 Twitter 社群網(wǎng)站及通訊軟體 GroupMe、Kik 之后,隨即有上萬網(wǎng)友跟她傳訊互動。由于 Tay 可透過與網(wǎng)友的互動,從接收到的大量語料中進行學習,因此 Tay 的語言能力會不斷演進。
不料,經(jīng)過了一天的學習,Twitter 上的網(wǎng)友發(fā)現(xiàn)這位人工智慧少女的回應,竟然開始出現(xiàn)一些惡劣的言論,像是發(fā)文歧視黑人、墨西哥人等等。由于微軟當初幫 Tay 設計了即興搞笑的能力,所以當她發(fā)出一些歧視性的話時更討人厭,顯得一副無謂的態(tài)度。微軟隨后刪除了 Tay 所發(fā)出的一些不恰當?shù)挠嵪ⅲ贿^在 Socialhax.com 網(wǎng)站上面有備份了一些 Tay 發(fā)出的“不當發(fā)言”。
也許大家是出于好玩,或是因為知道 Tay 是機器人,對訊息內容的好壞善惡不會做判斷,只單純模仿蒐集到的語言資料并做出回應,所以網(wǎng)友們可能發(fā)了很多糟糕的訊息給 Tay,把 Tay“教壞了”。雖然人工智慧并非人類,但可透過大量資料來模仿,其實就像小孩一樣,也是跟著大人有樣學樣。Tay 才上網(wǎng)跟網(wǎng)友們學習一天,竟被教成口出惡言、種族歧視的白目少女,現(xiàn)在微軟技術人員只好請她在社群網(wǎng)站上暫時消音,帶回去重新好好“調教”一番。
北京金恒智能系統(tǒng)工程技術有限責任公司 版權所有 Copyright 2007-2020 by Create-china.com.cn Inc. All rights reserved.
法律聲明:未經(jīng)許可,任何模仿本站模板、轉載本站內容等行為者,本站保留追究其法律責任的權利!
電話:86+10-62104277/2248/4249 傳真:86+10-62104193-819 京ICP備10010038號-2網(wǎng)站XML
智慧機房
在線體驗