| 支持向量機(jī)-SVM(Support Vector Machine)從本質(zhì)來說是一種:用一條線(方程)分類兩種事物。 有了直觀的感知,在定義這一節(jié)在做一些深入的思考,分解名詞(Support Vector Machine)并嘗試解釋: 對(duì)于我們需要求解的這個(gè)超平面(直線)來說,我們知道 
 根據(jù)這兩點(diǎn),抽象SVM的直接表達(dá)(Directly Representation) 其實(shí)這個(gè)公式是一點(diǎn)也不抽象,需要更進(jìn)一步的用符號(hào)來表達(dá)。 我們知道在準(zhǔn)確描述世界運(yùn)行的規(guī)律這件事上,數(shù)學(xué)比文字要準(zhǔn)確并且無歧義的多,文字(例子)直觀啰嗦,數(shù)學(xué)(公式)準(zhǔn)確簡(jiǎn)介 補(bǔ)充一些關(guān)于二次規(guī)劃算法的相關(guān),(3)式的約束是一個(gè)不等式約束,所以我們可以使用KKT條件得到三個(gè)條件: 使用這些條件,可以構(gòu)建高效算法來解這個(gè)方程,比如SMO(Sequential Minimal Optimization)就是其中一個(gè)比較著名的。至于SMO是如何做的,考慮到現(xiàn)代很多SVM的Pakage都是直接拿來用,秉承著前人付出了努力造了輪子就不重復(fù)造的核心精神,直接調(diào)用就好 已經(jīng)說明了如何求得方程,以上的推導(dǎo)形式都是建立在樣本數(shù)據(jù)線性可分的基礎(chǔ)上,如果樣本數(shù)據(jù)你中有我我中有你(線性不可分),應(yīng)該如何處理呢?這里就需要引入軟間隔(Soft Margin),意味著,允許支持向量機(jī)在一定程度上出錯(cuò) 
 三種常見損失函數(shù)如下圖 
 (8)式就是常見的軟間隔支持向量機(jī),其中,每一個(gè)樣本都有一個(gè)對(duì)應(yīng)的松弛變量,用以表征該樣本不滿足約束的程度,求解的方法同理硬間隔支持向量機(jī) 以上我們求解的支持向量機(jī)都是在線性情況下的,那么非線性情況下如何處理?這里就引入:核方法 對(duì)于這樣的問題,可以將樣本從原始空間映射到一個(gè)更高為的特征空間,使得樣本在這個(gè)特征空間內(nèi)線性可分。 
 同理上文中引入拉格朗日乘子,求解整個(gè)方程后可得 
 
 也可以通過函數(shù)組合得到這些值 多類問題可以使用兩兩做支持向量機(jī),再由所有的支持向量機(jī)投票選出這個(gè)類別的歸屬,被稱為 更多文章歡迎訪問https://charlesliuyx.或者訪問原文鏈接 
 | 
|  |