小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

線性代數(shù)和概率論

 宇宙過客 2021-11-23

一、線性代數(shù)

萬事萬物都可以被抽象成某些特征的組合,線性代數(shù)的本質(zhì)是將具體事物抽象為數(shù)學(xué)對象,描述其靜態(tài)和動態(tài)的特征。

常見概念

標量(scalar)

一個標量 a 可以是整數(shù)、實數(shù)或復(fù)數(shù)

向量(vector)

多個標量 a1,a2,?,an 按一定順序組成一個序列。通常用一維數(shù)組表示,例如語音信號

矩陣(matrix)

矩陣包含向量,一個m*n的矩陣,可以看成是由n個m維的列向量構(gòu)成,也可以看成是由m個n維的行向量構(gòu)成。通過用二維數(shù)組表示,例如灰度圖像

張量(tensor)

張量就是高階的矩陣,如果把三階魔方的每一個小方塊看作一個數(shù),它就是個 3×3×3 的張量,3×3 的矩陣則恰是這個魔方的一個面,也就是張量的一個切片。通過用三維乃至更高維度的數(shù)組表示,例如RGB圖像

范數(shù)(norm)

對單個向量大小的度量,描述的是向量自身的性質(zhì),將向量映射為一個非負的數(shù)值。

內(nèi)積(inner product)

兩個向量之間的相對位置,即向量之間的夾角。計算的則是兩個向量之間的關(guān)系

線性空間(linear space)

一個集合,元素是具有相同維數(shù)的向量(可以是有限個或無限個), 并且定義了加法和數(shù)乘等結(jié)構(gòu)化的運算

內(nèi)積空間(inner product space)

定義了內(nèi)積運算的線性空間

正交基(orthogonal basis)

在內(nèi)積空間中,一組兩兩正交的向量。正交基的作用就是給內(nèi)積空間定義出經(jīng)緯度。?旦描述內(nèi)積空間的正交基確定了,向量和點之間的對應(yīng)關(guān)系也就隨之確定。

標準正交基(orthonormal basis)

正交基中基向量的范數(shù)單位長度都是1

線性變換(linear mapping)

線性變換描述了向量或者作為參考系的坐標系的變化,可以用矩陣表示;
線性空間中,變化的實現(xiàn)有兩種方式:

  • 點的變化
    Ax=y
    表示向量 x 經(jīng)過矩陣 A 所描述的變換,變成了向量 y
  • 參考系的變化
    描述矩陣的?對重要參數(shù)是特征值λ和特征向量x。
    對于給定的矩陣 A,假設(shè)其特征值為λ,特征向量為 x,則它們之間的關(guān)系如下:
    Ax=λx
    矩陣的特征和特征向量描述了變化速度與方向。
    把矩陣所代表的變化看作奔跑的人,那么特征值λ代表奔跑的速度,特征向量x代表奔跑的方向。

更通俗的理解是:在空間里將一個物體拉伸、旋轉(zhuǎn)到另外的一個形狀

二、概率論

同線性代數(shù)一樣,概率論也代表一種看待世界的方式,關(guān)注的焦點是生活中的不確定性和可能性。
概率論是線性代數(shù)之外,人工智能的另一個理論基礎(chǔ),多數(shù)機器學(xué)習(xí)模型采用的都是基于概率論的方法。
由于實際任務(wù)中可供使用的訓(xùn)練數(shù)據(jù)有限,因而需要對概率分布的參數(shù)進行估計,這也是機器學(xué)習(xí)的核心任務(wù)。

兩大學(xué)派

頻率學(xué)派(Frequentists)

頻率派認為參數(shù)是客觀存在,不會改變,雖然未知,但卻是固定值。只是觀察者的我們無從知曉,因此在計算具體事件的概率時,要先確定分布的類型和參數(shù),以此為基礎(chǔ)進行概率推演

貝葉斯學(xué)派(Bayesians)

貝葉斯派則認為參數(shù)是隨機值,固定的先驗分布是不存在的。假設(shè)本身取決于觀察結(jié)果,數(shù)據(jù)的作用就是對假設(shè)做出不斷修正,使觀察者對概率的主觀認識更加接近客觀實際。

頻率派最常關(guān)心的是似然函數(shù),而貝葉斯派最常關(guān)心的是后驗分布。

兩種概率估計方法

極大似然估計法(maximum likelihood estimation)

思想是使訓(xùn)練數(shù)據(jù)出現(xiàn)的概率最大化,依此確定概率分布中的未知參數(shù),估計出的概率分布也就符合訓(xùn)練訓(xùn)練數(shù)據(jù)的分布。
極大似然估計中,似然函數(shù)被定義為樣本觀測值出現(xiàn)的概率,確定未知參數(shù)的準則是讓似然函數(shù)最大化,也就是微積分中求解函數(shù)最大值的問題。
最大似然估計法估計參數(shù)時,只需要使用訓(xùn)練數(shù)據(jù)

最大后驗概率法(maximum a posteriori estimation)

思想是根據(jù)訓(xùn)練數(shù)據(jù)和已知的其他條件,使未知參數(shù)出現(xiàn)的可能性最大化,并選取最可能的未知參數(shù)取值作為估計值。
最大后驗概率法估計參數(shù)時,除了訓(xùn)練數(shù)據(jù)外,還需要額外的信息,也就是貝葉斯中的先驗概率

舉例說明

好學(xué)生和差學(xué)生打架

  1. 極大似然估計:老師認為肯定是差學(xué)生的錯,因為差學(xué)生愛惹事
  2. 最大后驗概率:老師如果知道優(yōu)等生和差學(xué)生之間的過節(jié)(先驗信息),把這些因素考慮進來,就不會簡單地認為是養(yǎng)生挑釁。

極大似然是尋找一組參數(shù)使得觀測數(shù)據(jù)出現(xiàn)的概率最大,最大后驗是尋找當前觀測數(shù)據(jù)下出現(xiàn)概率最大的一組參數(shù)。

兩種隨機變量

離散型隨機變量(discrete random variable)

在一定區(qū)間內(nèi)取值有有限個或者可數(shù)個,例如某些地區(qū)人口的出生數(shù)

連續(xù)型隨機變量(continuous random variable)

在一定區(qū)間內(nèi)變量取值有無限個,數(shù)值無法一一列舉出來,例如某些地區(qū)的房價

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多