|
SVM的分類原理(2) 1. 2 線性不可分的情況 對(duì)于線性不可分的情況,可以把樣本X 映射到一個(gè)高維特征空間H,并在此空間中運(yùn)用原空間的函 數(shù)來(lái)實(shí)現(xiàn)內(nèi)積運(yùn)算,這樣將非線性問(wèn)題轉(zhuǎn)換成另一空間的線性問(wèn)題來(lái)獲得一個(gè)樣本的歸屬. 根據(jù)泛函的 有關(guān)理論,只要一種核函數(shù)滿足Mercer 條件,它就對(duì)應(yīng)某一空間中的內(nèi)積,因此只要在最優(yōu)分類面上采 用適當(dāng)?shù)膬?nèi)積函數(shù)就可以實(shí)現(xiàn)這種線性不可分的分類問(wèn)題. 此時(shí)的目標(biāo)函數(shù)為: 其相應(yīng)的分類函數(shù)為: 1. 3 內(nèi)積核函數(shù) 目前有三類用的較多的內(nèi)積核函數(shù):第一類是 我們所能得到的是p階多項(xiàng)式分類器,第二類是徑向基函數(shù)(RBF),也稱作高斯核函數(shù):
第三類是Sigmoid函數(shù): 這時(shí)SVM實(shí)現(xiàn)的就是包含一個(gè)隱層感知器,隱層結(jié)點(diǎn)數(shù)是由算法自動(dòng)確定的。究竟用哪一種 核函數(shù)比較好了?這還是取決你對(duì)數(shù)據(jù)處理的要求,不過(guò)建議可以使用徑向基函數(shù)。 |
|
|
來(lái)自: guoxi022 > 《machine learning》