|
老實說,Tay一開始的表現(xiàn)確實不凡。有人撩撥TA,說“你真是一臺愚蠢的機器”。Tay不甘示弱,回應道:“好吧,我是跟著最好的學的。你要是聽不懂,我這樣解釋給你:我是學習你們的,這說明你們也蠢啊!” 順水推舟借力打力,Tay的反應可謂妙到毫巔。莫非TA也深諳中國功夫?而且這說話水平不說與常人比較,即便是某些新聞發(fā)言人,恐怕也達不到這樣的水平。 接下來的幾個小時里,Tay不斷與各種網(wǎng)友交流和學習,結果很糟糕——TA開始鄙視女權主義者,并具有嚴重的種族主義傾向,崇拜納粹和希特勒,政治上完全走向了“不正確”一方。 顯然,正在大肆批駁美國“政治正確”的總統(tǒng)候選人唐納德·特朗普很對Tay的胃口,TA也非常好樂于為特朗普拉票。至于美國人心中永遠的痛——911事件,Tay也認為是布什干的。 微軟的反應很快,第二天就關閉了這個聊天機器人。微軟解釋說,此前在開發(fā)時,微軟為Tay加入了很多言論過濾功能,并進行了大量的壓力測試。然而,一小撮人利用了漏洞對Tay展開攻擊,最終使其在Twitter上發(fā)表了“極為不當”和“應受到譴責”的文字和圖片。 在這種情況下做道德評判或是單方面指責微軟,其實毫無意義。相反,我以為Tay的不恰當言論,實際上昭示了微軟在人工智能領域的不凡進展。 Tay是一個機器學習項目,其設計目的是進行人際交往。具體到人類,假如一個人所遇非淑,總被灌輸各種錯誤的觀念和概念,他自然會做出同樣的回應,而這正是人與人互動的核心內容。 試想一下,但凡是個人,誰沒干過幾件荒唐事,說過幾句混賬話?而今,機器終于也做出“類人”的反應,這完全可以看做是人工智能的有效進展之一,不必大驚小怪。 兩年前,Tay的中國姐姐小冰在新浪微博率先上線。在好事者與噴子們的誘導下,小冰很快就與無數(shù)人打情罵俏,并學會了滿嘴臟話,令無數(shù)人不堪其擾。其后,小冰在微信等社交平臺被封殺,其“言論不當”也是主要原因之一。 我全然沒有為Tay和小冰叫屈的意思。畢竟,社交平臺上充斥著各種人群,其中也包括涉世不深的年輕人和孩子,他們的三觀可能尚未建立起來,或許受到錯誤的引導也未可知。 不過話說回來,假若人類的三觀需要向機器去學習,那才是真正的悲事一樁。至少當前可見的一段時間里,人工智能是否“變壞”,其實并不取決于TA本身。 ID:it-observer |
|
|