小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

風(fēng)月無(wú)邊:藝術(shù)就要被人工智能取代了?

 殘?jiān)瓢辁Q歸 2016-02-20


顧險(xiǎn)峰

(紐約州立大學(xué)石溪分校終身教授,清華大學(xué)丘成桐數(shù)學(xué)科學(xué)中心訪(fǎng)問(wèn)教授,計(jì)算共形幾何創(chuàng)始人)



藝術(shù)創(chuàng)作一直是人類(lèi)精神活動(dòng)的最高級(jí)形式,自古以來(lái),人們認(rèn)為只有人類(lèi)的智慧才能真正領(lǐng)悟藝術(shù)作品的深遠(yuǎn)意境和奧妙神韻,玄而又玄的藝術(shù)風(fēng)格更是只可意會(huì),不可言傳。近些年來(lái),機(jī)器視覺(jué)和人工智能的發(fā)展正在將藝術(shù)拉下神壇,幾乎人類(lèi)智能的一切領(lǐng)域都正在被人工智能所解構(gòu)和顛覆。可以毫不夸張地說(shuō),人工智能似乎很快就能夠達(dá)到“蟲(chóng)二”(風(fēng)月無(wú)邊)的境界。

在視覺(jué)藝術(shù)領(lǐng)域,抽象的藝術(shù)風(fēng)格已經(jīng)可以被嚴(yán)密數(shù)學(xué)化并且可以被提取、變換和轉(zhuǎn)移。一幅藝術(shù)作品,其內(nèi)容(content)風(fēng)格(style)緊密纏繞在一起,似乎是密不可分的,但是兩者又是相對(duì)獨(dú)立的。如何將內(nèi)容和風(fēng)格相剝離,如何各自表示,如何將不同藝術(shù)作品的內(nèi)容和風(fēng)格有機(jī)結(jié)合,這些都是玄妙而又基本的問(wèn)題。我們考察一些近期剛剛發(fā)展起來(lái)的巧妙算法,看看它們是如何建模并解決這些問(wèn)題的。

最優(yōu)傳輸方法[1]


我們考察下面兩張圖。圖像 1 是山腳下牧場(chǎng)的田園風(fēng)光,蒼松翠柏,綠草茵茵,艷陽(yáng)高照,生機(jī)盎然;圖像 2 是古老莊園中的林蔭道,午后斜陽(yáng),遍地碎金,藤蘿蔽日,虬枝遮天。第一幅圖像似乎攝于春夏,洋溢著勃勃生機(jī);第二幅圖像似乎是深秋日暮,沒(méi)落抑郁。如果將第一幅圖像的內(nèi)容和第二幅圖像的風(fēng)格相結(jié)合,我們得到第三幅圖像,深秋山腳下的牧場(chǎng),殘陽(yáng)如血,山林如炬,凄艷欲絕,離恨頓生。

圖1  輸入圖像


圖2  示例圖像


圖3  圖像1的內(nèi)容 + 圖像2的風(fēng)格

人類(lèi)的感知都是基于概率的。這種方法將攝影風(fēng)格抽象為色彩的概率分布。每個(gè)像素的顏色表示成顏色空間的一個(gè)點(diǎn) (紅、綠、藍(lán))。每幅圖像顏色的直方圖(Histogram) 給出了顏色分布的概率分布函數(shù)(PDF)。



圖4  顏色分布概率密度函數(shù)。第三幅圖像是第一幅的內(nèi)容加上第二幅的風(fēng)格。


我們將顏色空間表示成一個(gè)三維的正方體Ω,牧場(chǎng)圖像的顏色分布概率密度函數(shù)是,莊園圖像的顏色分布概率密度函數(shù)是。我們希望將牧場(chǎng)圖像的顏色變換成莊園圖像的顏色,就是說(shuō)我們尋求一個(gè)顏色空間的微分自同胚,滿(mǎn)足如下條件:牧場(chǎng)圖像中n個(gè)像素映到莊園圖像中n個(gè)像素,換言之,所求顏色空間自同胚應(yīng)該保測(cè)度:假設(shè)是任意可測(cè)集合,則;同時(shí),我們希望顏色的變化盡量小,這等價(jià)于優(yōu)化如下的傳輸距離。


根據(jù)最優(yōu)傳輸理論[6],最優(yōu)自同胚是某一凸函數(shù)的梯度映射,凸函數(shù)滿(mǎn)足蒙日-安培方程

陳省身曾經(jīng)說(shuō)過(guò)蒙日-安培方程是最為非線(xiàn)性的偏微分方程。最近,丘成桐團(tuán)隊(duì)給出基于變分法的構(gòu)造性解法[5]。

將視覺(jué)圖像的藝術(shù)風(fēng)格理解為色彩空間的概率分布,想法雖然簡(jiǎn)單,但是很多時(shí)候卓有成效。

頻譜能量密度[2]


下圖是將一幅隨意的攝影相片轉(zhuǎn)換成不同風(fēng)格的肖像作品的示例。首先在輸入相片和樣本相片之間建立映射,然后將相片進(jìn)行類(lèi)似小波變換,轉(zhuǎn)換成所謂的拉普拉斯堆棧(Laplace Stack)。在頻率域,計(jì)算每個(gè)頻段的能量密度函數(shù)。將輸入圖片的每個(gè)頻段的能量密度函數(shù)加以調(diào)整,使得其和樣本圖片的能量密度函數(shù)大致吻合。最后施行逆變換,得到輸出圖像。


圖5. 不同風(fēng)格的人物肖像自動(dòng)生成。

這種方法可以改變圖像的顏色、對(duì)比度、光照、散聚焦、同時(shí)保留表情、姿態(tài)、形狀、透視和焦距。這種方法將藝術(shù)風(fēng)格理解為多尺度下的圖像局部統(tǒng)計(jì)特性,特別是局部對(duì)比度的統(tǒng)計(jì)特性。第一種方法只是做了全局的統(tǒng)計(jì),丟失了多尺度和局部統(tǒng)計(jì)信息。但是,這種方法需要輸入圖像和樣本圖像比較接近,因此局限性較大,不如最優(yōu)傳輸法靈活。

深度學(xué)習(xí)法[3]


人類(lèi)的視覺(jué)計(jì)算是一個(gè)非常復(fù)雜的過(guò)程。如圖 6 所示,在大腦皮層上有多個(gè)視覺(jué)功能區(qū)域(v1 至 v5等),低級(jí)區(qū)域的輸出成為高級(jí)區(qū)域的輸入。低級(jí)區(qū)域識(shí)別圖像中像素級(jí)別的局部的特征,例如邊緣折角結(jié)構(gòu),高級(jí)區(qū)域?qū)⒌图?jí)特征組合成全局特征,形成復(fù)雜的模式,模式的抽象程度逐漸提高,直至語(yǔ)義級(jí)別。

如圖 7 所示,我們可以毫不費(fèi)力地辨認(rèn)出左幀是奧巴馬的肖像,右?guī)且恢煌米拥陌酌?。其?shí),圖中大量信息丟失,但是提供了足夠的整體模式。由此可見(jiàn),視覺(jué)高級(jí)中樞忽略色彩、紋理、光照等局部細(xì)節(jié),側(cè)重整體模式匹配和上下文關(guān)系,并可以主動(dòng)補(bǔ)充大量缺失信息。

圖6. 大腦皮層的視覺(jué)中樞,視覺(jué)信號(hào)的傳導(dǎo)途徑:視網(wǎng)膜,LGN, V1, V2, V3, V4, V5 等。



圖7. 高級(jí)視覺(jué)中樞忽略細(xì)節(jié),識(shí)別主要模式,主動(dòng)補(bǔ)充缺失信息。


深度學(xué)習(xí)的卷積神經(jīng)元網(wǎng)絡(luò)(CNN)是模擬人腦視覺(jué)中樞的一種算法框架。神經(jīng)元網(wǎng)絡(luò)有許多層,每層網(wǎng)絡(luò)模擬一個(gè)視覺(jué)功能區(qū)域,完成在特定抽象程度級(jí)別的特征提取或整合。這里,德國(guó)科學(xué)家們使用了一個(gè)經(jīng)過(guò)充分訓(xùn)練過(guò)的CNN,CNN的設(shè)計(jì)目的是進(jìn)行一般物體識(shí)別[4]。神經(jīng)網(wǎng)絡(luò)的識(shí)別算法非常魯棒,同一類(lèi)物體,具有不同的顏色,紋理,視角,光照條件,頭可以被準(zhǔn)確識(shí)別出來(lái)。這意味著神經(jīng)網(wǎng)絡(luò)忽略了圖像的“風(fēng)格”,牢牢地抓住了圖像的“內(nèi)容”。因此,圖像的內(nèi)容被表示成神經(jīng)元網(wǎng)絡(luò)以此圖像為輸入時(shí)各層的激活響應(yīng)(activation,亦即各層的所有輸出)。(,在第l層中,第i個(gè)濾波器在第j個(gè)位置的響應(yīng))。我們?nèi)绻麖?img doc360img-src='http://image95.360doc.com/DownloadImg/2016/02/2009/66330955_47' data-s="300,640" data-type="png" data-ratio="0.6229508196721312" data-w="61" src="http://pubimage.360doc.com/wz/default.gif">來(lái)重構(gòu)圖像,則基于低層響應(yīng)重構(gòu)的圖像非常接近原始圖像;基于高層響應(yīng)重構(gòu)的圖像保持了正確的整體結(jié)構(gòu),但是紋理顏色等局部細(xì)節(jié)都是錯(cuò)亂的。圖像的“風(fēng)格”被每個(gè)層中各個(gè)特征之間的相關(guān)性所刻畫(huà),。利用來(lái)重構(gòu)圖像,當(dāng)層數(shù)較低時(shí),得到的圖像保持了原始圖像小尺度的風(fēng)格;當(dāng)層數(shù)較高時(shí),得到的圖像保持了原始圖像大尺度的風(fēng)格,但是整個(gè)場(chǎng)景的全局安排卻是錯(cuò)亂的。 

如果我們有兩張圖片,分別用卷積神經(jīng)網(wǎng)絡(luò)來(lái)分解得到內(nèi)容和風(fēng)格,然后,我們可以將其風(fēng)格的表示互換,重構(gòu)圖像,這樣就實(shí)現(xiàn)了“內(nèi)容保持,風(fēng)格變換”的圖像。這里,我們展示一些計(jì)算結(jié)果:








如上幾個(gè)例子不容置疑地展現(xiàn)了人工智能的方法可以分離藝術(shù)內(nèi)容和藝術(shù)風(fēng)格,并且能夠恰切地表示內(nèi)容和風(fēng)格,自如地轉(zhuǎn)換合成藝術(shù)風(fēng)格。雖然計(jì)算機(jī)的能力令人驚艷,但是今天最終藝術(shù)作品的審美和評(píng)判依然不可替代地由人類(lèi)來(lái)完成。那么,是否會(huì)在不遠(yuǎn)的將來(lái),人類(lèi)的審美能力也會(huì)被量化,由數(shù)學(xué)公式精確地推演,最終由人工智能來(lái)越俎代庖呢?人工智能真地能夠達(dá)到“蟲(chóng)二”的境界嗎?我們?nèi)祟?lèi)是應(yīng)該對(duì)此期待還是恐懼?

參考文獻(xiàn)


[1] Nicolas Bonneel, Michiel van de Panne, Sylvain Paris, Wolfgang Heidrich, Displacement Interpolation Using Lagrangian Mass Transport, ACM TOG, 30(6), SIGGRAPH ASIA, 2011.

[2] YiChang Shih, Sylvain Paris, Connelly Barnes , William T. Freeman, Fredo Durand, Style Transfer for Headshot Portraits, ACM TOG, 33(4), SIGGRAPH, 2014.

[3] Leon A. Gatys, Alexander S. Ecker, Matthias Bethge, A Neural Algorithm of Artistic Style, arXiv:1508.06576v1.

[4] https://github.com/jcjohnson/neural-style.

[5] Xianfeng Gu, Feng Luo, Jian Sun and Shing-Tung Yau, Variational Principles for Minkowski  Type Problems, Discrete Optimal Transport, and Discrete Monge-Ampere  Equations, Asian Journal of Mathematics (AJM), 2015.

[6] Gabriel Peyre, An Introduction to Optimal Transport, www.numerical-tours.com.


本文原載“新智元”,經(jīng)作者授權(quán)轉(zhuǎn)載,轉(zhuǎn)載時(shí)有少量修訂。

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶(hù)發(fā)布,不代表本站觀(guān)點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶(hù) 評(píng)論公約

    類(lèi)似文章 更多