|
作為AI的重要分支,機器學(xué)習(xí)在推薦系統(tǒng)、在線廣告、金融市場分析、計算機視覺、語言學(xué)、生物信息學(xué)等諸多領(lǐng)域都取得了巨大的成功。機器學(xué)習(xí)并不是像我們字面理解的那樣,讓冷冰冰的機器去學(xué)習(xí),或者狹義的理解為讓機器人去學(xué)習(xí)。 機器學(xué)習(xí),從本質(zhì)上來說,可以理解為算法學(xué)習(xí)(Algorithm Learning)、模型學(xué)習(xí)(Model Learning)或者叫函數(shù)學(xué)習(xí)(Function Learning)。今天這個PPT將為大家詳細介紹機器學(xué)習(xí)-算法。 01 機器學(xué)習(xí)算法大致可以分為三類 監(jiān)督學(xué)習(xí)算法 (Supervised Algorithms): 在監(jiān)督學(xué)習(xí)訓(xùn)練過程中,可以由訓(xùn)練數(shù)據(jù)集學(xué)到或建立一個模式(函數(shù) / learning model),并依此模式推測新的實例。該算法要求特定的輸入/輸出,首先需要決定使用哪種數(shù)據(jù)作為范例。例如,文字識別應(yīng)用中一個手寫的字符,或一行手寫文字。主要算法包括神經(jīng)網(wǎng)絡(luò)、支持向量機、最近鄰居法、樸素貝葉斯法、決策樹等。 無監(jiān)督學(xué)習(xí)算法 (Unsupervised Algorithms): 這類算法沒有特定的目標(biāo)輸出,算法將數(shù)據(jù)集分為不同的組。 強化學(xué)習(xí)算法 (Reinforcement Algorithms): 強化學(xué)習(xí)普適性強,主要基于決策進行訓(xùn)練,算法根據(jù)輸出結(jié)果(決策)的成功或錯誤來訓(xùn)練自己,通過大量經(jīng)驗訓(xùn)練優(yōu)化后的算法將能夠給出較好的預(yù)測。類似有機體在環(huán)境給予的獎勵或懲罰的刺激下,逐步形成對刺激的預(yù)期,產(chǎn)生能獲得最大利益的習(xí)慣性行為。在運籌學(xué)和控制論的語境下,強化學(xué)習(xí)被稱作“近似動態(tài)規(guī)劃”(approximate dynamic programming,ADP)。 02 基本的機器學(xué)習(xí)算法: 線性回歸算法 Linear Regression 支持向量機算法 Support Vector Machine,SVM 最近鄰居/k-近鄰算法 K-Nearest Neighbors,KNN 邏輯回歸算法 Logistic Regression 決策樹算法 Decision Tree k-平均算法 K-Means 隨機森林算法 Random Forest 樸素貝葉斯算法 Naive Bayes 降維算法 Dimensional Reduction 梯度增強算法 Gradient Boosting Apriori算法 最大期望算法Expectation-Maximization algorithm, EM PageRank算法
|
|
|
來自: 工農(nóng)子弟兵 > 《文件夾1》