|
OpenAI首個(gè)視頻生成模型Sora一經(jīng)發(fā)布,便引起全球高度關(guān)注。但與此同時(shí),人工智能(AI)技術(shù)的高速發(fā)展,也進(jìn)一步加深了業(yè)內(nèi)人士對(duì)其安全性的擔(dān)憂。 美國(guó)加利福尼亞大學(xué)伯克利分校信息學(xué)院哈尼·法里德教授指出,“文本生成視頻技術(shù)的快速進(jìn)步,使我們愈發(fā)接近真?zhèn)坞y辨的境地。如果這項(xiàng)技術(shù)與AI驅(qū)動(dòng)的聲音克隆技術(shù)結(jié)合,那么人們可以深度偽造他人從未說(shuō)過(guò)的話、做過(guò)的事?!?/strong> 從網(wǎng)上流傳的片段不難發(fā)現(xiàn),在刻畫復(fù)雜場(chǎng)景時(shí),Sora生成的視頻中仍存在一些不符合客觀規(guī)律的錯(cuò)誤。這說(shuō)明,這些偽造視頻到目前為止仍然肉眼可辨。但白帽黑客公司“社會(huì)認(rèn)證安全”聯(lián)合創(chuàng)始人雷切爾·托巴克表示,“Sora絕對(duì)有能力產(chǎn)出可以騙過(guò)普通人的視頻,因?yàn)樵S多人尚未意識(shí)到篡改視頻和修改圖片一樣簡(jiǎn)單”。 對(duì)于信息真實(shí)性方面的安全隱患,OpenAI發(fā)言人表示,在Sora正式公之于眾前,公司將采取多項(xiàng)重要的安保措施。比如,OpenAI組織行業(yè)專家開展安全演習(xí),同時(shí)公司也在開發(fā)工具,輔助檢測(cè)誤導(dǎo)性內(nèi)容。此外,圖像生成模型DALL-E 3配套的安全工具也將應(yīng)用于Sora。 在政府層面,Sora的推出勢(shì)必將加速信息安全監(jiān)管措施的出臺(tái)。日前,歐盟各國(guó)政府已批準(zhǔn)《歐盟人工智能法案》,歐洲議會(huì)預(yù)計(jì)將于4月簽署這項(xiàng)法案。如一切順利,這套法規(guī)將于2026年生效。 據(jù)悉,該法案將禁止使用存在“不可接受風(fēng)險(xiǎn)”的AI系統(tǒng),例如使用生物識(shí)別數(shù)據(jù)推斷公眾敏感特征的系統(tǒng);高風(fēng)險(xiǎn)應(yīng)用(如招聘和執(zhí)法中使用的系統(tǒng))必須滿足一定條件,比如開發(fā)人員必須證明其模型對(duì)用戶安全透明,符合隱私法規(guī),且不存在歧視;對(duì)于風(fēng)險(xiǎn)較低的AI工具,開發(fā)者仍需在用戶與AI生成的內(nèi)容進(jìn)行交互時(shí)明確告知。該法案適用于在歐盟地區(qū)運(yùn)行的AI模型,任何違反規(guī)定的公司都可能面臨金額高達(dá)其年度全球利潤(rùn)7%的罰款。 為執(zhí)行該法案,歐盟委員會(huì)將成立一個(gè)AI辦公室,負(fù)責(zé)監(jiān)督通用AI模型,并由獨(dú)立專家提供咨詢。該辦公室將研究相關(guān)方法,以評(píng)估這些模型的能力并監(jiān)測(cè)其風(fēng)險(xiǎn)。不過(guò),德國(guó)利希超級(jí)計(jì)算中心AI研究員杰尼亞·吉采夫提出質(zhì)疑稱,即使像OpenAI這樣的公司遵守法規(guī)并提交數(shù)據(jù),但公共機(jī)構(gòu)未必有足夠的資源充分審查提交的內(nèi)容。 我是一位愛(ài)學(xué)習(xí)的老人!本站主要是些學(xué)習(xí)體驗(yàn)與分享(其中會(huì)引用一些作品的原話并結(jié)合我的一生體會(huì)與經(jīng)驗(yàn)加工整理而成!在此一并感謝!如有不妥之處敬請(qǐng)與我聯(lián)系,我會(huì)妥善處理,謝謝!)我寫的主要是中老年人各方面應(yīng)注意的事兒!退休后我希望通過(guò)這個(gè)平臺(tái)廣交朋友,互助交流,共筑美好生活! |
|
|