|
來源:生物世界 2023-09-21 11:44 該研究指出,ChatGPT等基于大語言模型(LLM)的AI對話機器人在創(chuàng)造性思維任務(wù)上或能超越一般人類,該任務(wù)要求受試者想出日常用品的替代用途(發(fā)散性思維的一個例子)。 挪威卑爾根大學(xué)、斯塔萬格大學(xué)的研究人員在 Scientific Reports 期刊發(fā)表了題為:Best humans still outperform artificial intelligence in a creative divergent thinking task 的研究論文。 該研究指出,ChatGPT等基于大語言模型(LLM)的AI對話機器人在創(chuàng)造性思維任務(wù)上或能超越一般人類,該任務(wù)要求受試者想出日常用品的替代用途(發(fā)散性思維的一個例子)。不過,得分最高的人類受試者依然能超過對話機器人的最佳答案。
發(fā)散性思維通常是指與創(chuàng)造性相關(guān)的一類思維過程,需要為特定任務(wù)想出各種不同創(chuàng)意或?qū)Σ摺0l(fā)散性思維一般通過替代用途任務(wù)(Alternate Uses Task,AUT)進(jìn)行評估,受試者被要求在短時間內(nèi)想出某個日常用品的其他用途,越多越好。受試者的回答從四個類別進(jìn)行打分:流利度、靈活性、原創(chuàng)性和精細(xì)度。 在這項研究中,研究團(tuán)隊讓ChatGPT3、ChatGPT4和Copy.Ai以及人類受試者完成四個物品(繩子、盒子、鉛筆、蠟燭)的替代用途任務(wù)(AUT),并比較了AI和人類的答案。研究團(tuán)隊通過語義距離(回答與物品原始用途的相關(guān)度)和創(chuàng)造性給回答的原創(chuàng)性打分,他們用一個計算方法在0-2的范圍里量化語義距離,同時讓不知道作答者身份的人類打分者在1-5的范圍里客觀評價創(chuàng)造性。 平均而言,AI的回答在語義距離(0.95 vs 0.91)和創(chuàng)造性(2.91 vs 2.47)的得分上顯著高于人類的回答。人類回答在這兩項的得分差距更大——最低分遠(yuǎn)低于AI的回答,但最高分普遍比AI高。最佳人類回答在 8個評分項中的7項都超過了所有對話機器人的最佳回答。 這些結(jié)果表明,當(dāng)前的AI對話機器人想創(chuàng)意的能力至少已與一般人類相當(dāng)。但論文作者也指出,他們只評價了涉及創(chuàng)造性評估的單項任務(wù)的表現(xiàn)。作者認(rèn)為,今后的研究或能探索如何將AI融入創(chuàng)造性過程來提升人類表現(xiàn)。 |
|
|