|
3月29日,國際知名安全組織生命未來研究院(FLI)以人工智能具有潛在的社會和人類危害為理由,要求世界各地的科研機構停止對GPT-4以上的人工智能進行訓練,直到該訓練方案得到獨立專家的認可、實施和審核。隨后,馬斯克,以及蘋果公司的聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克,以及上千名人工智能領域的專家和高層,都在這份聲明上簽了字。然而就在不久前,楊立昆、吳恩達兩位大佬,卻是為馬斯克開了一次直播,“懟”了那句“人工智能項目暫停半年以上”的話。楊立昆是“卷積法”的之父,他是“圖靈三杰”中的一員,吳恩達則是“谷歌之腦”的設計師和締造者,以及“Coursera”這個全球最大的網(wǎng)絡教育平臺的創(chuàng)建者。他們在直播中直言不諱,“人工智能的研究,如果被暫停半年,那才是巨大的傷害。人工智能產(chǎn)品才是被管制的對象,而不是被控制的對象?!彼麄兊暮诵挠^點如下:1.人工智能已經(jīng)為教育,醫(yī)療,以及其他許多領域帶來了極大的價值,并幫助了許多人。中止人工智能研究會帶來許多危害,降低人們創(chuàng)造有價值的東西的速度。2..對于將來的人工智能系統(tǒng),我們將提出一些新思路,讓它們更加容易操控,而不是象 ChatGPT、GPT-4等已有的自回歸模式。3.人工智能世界末日理論,或者人工智能末日說,實際上都是夸大其詞。人工智能將在各個領域超過我們人類,這是遲早的事,但是不會是明天。4.有些規(guī)制,只要運作得當,未必就是一件壞事情。但一種科技,一種還沒有開發(fā)出來的科技,是無法被監(jiān)管的。一種新技術的誕生,首先要使其產(chǎn)生最大的正面效應,減少其消極效應,但是,這并不代表我們就會停止對其進行技術開發(fā)。5.假設一個人工智能系統(tǒng)想要支配人類,這是不切實際的,因為支配必須要有一個目的。這種動機在人類以及一些其他社會性物種中存在,但在非社會性物種中并不存在,我們完全可以把AI設計成非社會化物種,設計成非支配性、順從的,或者遵守特定規(guī)則以符合人類整體的利益。
|