九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
模式識別試題及總結(jié)

一、 填空與選擇填空(本題答案寫在此試卷上,30分)

1、模式識別系統(tǒng)的基本構(gòu)成單元包括:  模式采集  、  特征提取與選擇

和  模式分類   。

2、統(tǒng)計模式識別中描述模式的方法一般使用 特真矢量  ;句法模式識別中模式描述方法一般有  串  、  樹   、  網(wǎng)  。

3、聚類分析算法屬于 (1) ;判別域代數(shù)界面方程法屬于   (3)   。

(1)無監(jiān)督分類   (2)有監(jiān)督分類  (3)統(tǒng)計模式識別方法(4)句法模式識別方法

4、若描述模式的特征量為0-1二值特征量,則一般采用   (4)  進行相似性度量。

(1)距離測度  (2)模糊測度    (3)相似測度   (4)匹配測度

5、 下列函數(shù)可以作為聚類分析中的準則函數(shù)的有  (1)(3)(4)   。

(1)

(2)      (3)        (4)

6、Fisher線性判別函數(shù)的求解過程是將N維特征矢量投影在  (2)  中進行 。

(1)二維空間        (2)一維空間       (3)N-1維空間

7、下列判別域界面方程法中只適用于線性可分情況的算法有  (1) ;線性可分、不可分都適用的有

(3) 。

(1)感知器算法      (2)H-K算法      (3)積累位勢函數(shù)法

8、下列四元組中滿足文法定義的有  (1)(2)(4)   。

(1)({A, B}, {0, 1}, {A?01, A ? 0A1 , A ? 1A0 , B ? BA , B ? 0}, A)

(2)({A}, {0, 1}, {A?0, A ? 0A}, A)

(3)({S}, {a, b}, {S ? 00S, S ? 11S, S ? 00, S ? 11}, S)

(4)({A}, {0, 1}, {A?01, A ? 0A1, A ? 1A0}, A)

9、影響層次聚類算法結(jié)果的主要因素有( 計算模式距離的測度、(聚類準則、類間距離門限、預定的類別數(shù)目))。

10、歐式距離具有(  1、2  );馬式距離具有( 1、2、3、4    )。

(1)平移不變性(2)旋轉(zhuǎn)不變性(3)尺度縮放不變性(4)不受量綱影響的特性

11、線性判別函數(shù)的正負和數(shù)值大小的幾何意義是(正(負)表示樣本點位于判別界面法向量指向的正(負)半空間中;絕對值正比于樣本點到判別界面的距離。)。

12、感知器算法 1 。

(1)只適用于線性可分的情況;(2)線性可分、不可分都適用。

13、積累勢函數(shù)法較之于H-K算法的優(yōu)點是(該方法可用于非線性可分情況(也可用于線性可分情況) );

K(x)?

位勢函數(shù)K(x,xk)與積累位勢函數(shù)K(x)的關(guān)系為(?~xk?X????kK(x,xk))。

14、在統(tǒng)計模式分類問題中,聶曼-皮爾遜判決準則主要用于( 某一種判決錯誤較另一種判決錯誤更為重要)情況;最小最大判決準則主要用于( 先驗概率未知的)情況。

15、“特征個數(shù)越多越有利于分類”這種說法正確嗎?( 錯誤 )。特征選擇的主要目的是(從n個特征

中選出最有利于分類的的m個特征(m<n),以降低特征維數(shù))。一般在( 可分性判據(jù)對特征個數(shù)具有單調(diào)性)和( Cn>>n )的條件下,可以使用分支定界法以減少計算量。

16、 散度Jij越大,說明?i類模式與?j類模式的分布(差別越大);當?i類模式與?j類模式的分

布相同時,Jij=(0)。

17、 已知有限狀態(tài)自動機Af=(?,Q,?,q0,F(xiàn)),?={0,1};Q={q0,q1};?:?(q0,0)= q1,?(q0,

1)= q1,?(q1,0)=q0,?(q1,1)=q0;q0=q0;F={q0}。現(xiàn)有輸入字符串:(a) 00011101011,(b) 1100110011,(c) 101100111000,(d)0010011,試問,用Af對上述字符串進行分類的結(jié)果為( ω1:{a,d};ω2:{b,c}  )。


18、影響聚類算法結(jié)果的主要因素有(  ②③④  )。

①已知類別的樣本質(zhì)量;②分類準則;③特征選?。虎苣J较嗨菩詼y度。

19、模式識別中,馬式距離較之于歐式距離的優(yōu)點是(   ③④    )。

①平移不變性;②旋轉(zhuǎn)不變性;③尺度不變性;④考慮了模式的分布。

20、基于二次準則函數(shù)的H-K算法較之于感知器算法的優(yōu)點是(  ①③  )。

①可以判別問題是否線性可分;②其解完全適用于非線性可分的情況;

③其解的適應(yīng)性更好;④計算量小。

21、影響基本C均值算法的主要因素有(    ④①②    )。

①樣本輸入順序;②模式相似性測度;③聚類準則;④初始類心的選取。

22、位勢函數(shù)法的積累勢函數(shù)K(x)的作用相當于Bayes判決中的(  ②④  )。

①先驗概率;②后驗概率;③類概率密度;④類概率密度與先驗概率的乘積。

23、在統(tǒng)計模式分類問題中,當先驗概率未知時,可以使用(  ②④  )。

①最小損失準則;②最小最大損失準則;③最小誤判概率準則;④N-P判決。

24、在(   ①③   )情況下,用分支定界法做特征選擇計算量相對較少。

①Cn>>n,(n為原特征個數(shù),d為要選出的特征個數(shù));②樣本較多;③選用的可分性判據(jù)J對特征數(shù)目單調(diào)不減;④選用的可分性判據(jù)J具有可加性。 dm

25、 散度JD是根據(jù)(   ③   )構(gòu)造的可分性判據(jù)。

①先驗概率;②后驗概率;③類概率密度;④信息熵;⑤幾何距離。

26、似然函數(shù)的概型已知且為單峰,則可用( ①②③④⑤ )估計該似然函數(shù)。

①矩估計;②最大似然估計;③Bayes估計;④Bayes學習;⑤Parzen窗法。

27、Kn近鄰元法較之Parzen窗法的優(yōu)點是(  ②  )。

①所需樣本數(shù)較少;②穩(wěn)定性較好;③分辨率較高;④連續(xù)性較好。

28、從分類的角度講,用DKLT做特征提取主要利用了DKLT的性質(zhì):(  ①③  )。

①變換產(chǎn)生的新分量正交或不相關(guān);②以部分新的分量表示原矢量均方誤差最小;③使變換后的矢量能量更趨集中;

29、一般,剪輯k-NN最近鄰方法在(  ①  )的情況下效果較好。

①樣本數(shù)較大;②樣本數(shù)較?。虎蹣颖境蕡F狀分布;④樣本呈鏈狀分布。

30、如果以特征向量的相關(guān)系數(shù)作為模式相似性測度,則影響聚類算法結(jié)果的主要因素有(  ②③  )。

①已知類別樣本質(zhì)量;②分類準則;③特征選??;④量綱。


二、(15分)簡答及證明題

(1)影響聚類結(jié)果的主要因素有那些?

(2)證明馬氏距離是平移不變的、非奇異線性變換不變的。

答:(1)分類準則,模式相似性測度,特征量的選擇,量綱。

(2)證明:


(2分)


(2分)


(1分) (1分) 設(shè),有非奇異線性變換:

(4分)

三、(8分)說明線性判別函數(shù)的正負和數(shù)值大小在分類中的意義并證明之。

答:(1)(4分)的絕對值正比于到超平面的距離  平面的方程可以寫成  式中。于是是平面的單位法矢量,上式可寫成


設(shè)是平面中的任一點,是特征空間     在中任一點,點到平面的距離為差矢量上的投影的絕對值,即


(1-1)

上式中利用了在平面中,故滿足方程


式(1-1)的分子為判別函數(shù)絕對值,上式表明,的值     的距離,正比于到超平面一個特征矢量代入判別函數(shù)后所得值的絕對值越大表明該特征點距判別界面越遠。

(2)(4分)兩矢量和的正(負)反映在超平面的數(shù)積為


顯然,當和和夾角大于和空間中,夾角小于  (2分)  >0;反之,當<0。由于

,故的正(負)側(cè)  時,即在指向的那個半空間中,時,即在背向的那個半空間中,同號。所以,當在指向的半空間中時,;當在背向的半。判別函數(shù)值的正負表示出特征點位于哪個半空間中,或者換句話說,表示特征點位于界面的哪一側(cè)。

五、(12分,每問4分) 在目標識別中,假定有農(nóng)田和裝甲車兩種類型,類型?1和類型?2分別代表農(nóng)田和裝甲車,它們的先驗概率分別為0.8和0.2,損失函數(shù)如表1所示。現(xiàn)在做了三次試驗,獲得三個樣本的類概率密度如下:

:0.3,0.1,

0.6

:0.7,0.8,0.3

(1) 試用貝葉斯最小誤判概率準則判決三個樣本各屬于哪一個類型;

(2) 假定只考慮前兩種判決,試用貝葉斯最小風險準則判決三個樣本各屬于哪一類;

(3) 把拒絕判決考慮在內(nèi),重新考核三次試驗的結(jié)果。

表1

進行分類器設(shè)計,然后用所設(shè)計的分類器對道路圖像進行分割。

使用非監(jiān)督學習方法,則依據(jù)道路路面象素與非道路象素之間的聚類分析進行聚類運算,以實現(xiàn)道路圖像的分割。 2.動態(tài)聚類是指對當前聚類通過迭代運算改善聚類;

分級聚類則是將樣本個體,按相似度標準合并,隨著相似度要求的降低實現(xiàn)合并。 3. 線性分類器三種最優(yōu)準則:

Fisher準則:根據(jù)兩類樣本一般類內(nèi)密集, 類間分離的特點,尋找線性分類器最佳的法線向量方向,使兩類樣本在該方向上的投影滿足類內(nèi)盡可能密集,類間盡可能分開。   該種度量通過類內(nèi)離散矩陣Sw和類間離散矩陣Sb實現(xiàn)。

感知準則函數(shù):準則函數(shù)以使錯分類樣本到分界面距離之和最小為原則。

其優(yōu)點是通過錯分類樣本提供的信息對分類器函數(shù)進行修正,這種準則是人工神經(jīng)元網(wǎng)絡(luò)多層感知器的基礎(chǔ)。   支持向量機:基本思想是在兩類線性可分條件下,所設(shè)計的分類器界面使兩類之間的間隔為最大, 它的基本出發(fā)點是使期望泛化風險盡可能小。

一、 試問“模式”與“模式類”的含義。如果一位姓王的先生是位老年人,試問“王先生”和“老頭”誰是模式,誰是模式

類?

答:在模式識別學科中,就“模式”與“模式類”而言,模式類是一類事物的代表,概念或典型,而“模式”則是某一事物的具體體現(xiàn),如“老頭”是模式類,而王先生則是“模式”,是“老頭”的具體化。

二、 試說明Mahalanobis距離平方的定義,到某點的Mahalanobis距離平方為常數(shù)的軌跡的幾何意義,它與歐氏距

離的區(qū)別與聯(lián)系。

答:Mahalanobis距離的平方定義為:


其中x,u為兩個數(shù)據(jù),


是一個正定對稱矩陣(一般為協(xié)方差矩陣)。根據(jù)定義,距某一點的Mahalanobis

距離相等點的軌跡是超橢球,如果是單位矩陣Σ,則Mahalanobis距離就是通常的歐氏距離。

三、 試說明用監(jiān)督學習與非監(jiān)督學習兩種方法對道路圖像中道路區(qū)域的劃分的基本做法,以說明這兩種學習方法

的定義與它們間的區(qū)別。

答:監(jiān)督學習方法用來對數(shù)據(jù)實現(xiàn)分類,分類規(guī)則通過訓練獲得。該訓練集由帶分類號的數(shù)據(jù)集組成,因此監(jiān)督學習方法的訓練過程是離線的。

非監(jiān)督學習方法不需要單獨的離線訓練過程,也沒有帶分類號(標號)的訓練數(shù)據(jù)集,一般用來對數(shù)據(jù)集進行分析,如聚類,確定其分布的主分量等。

就道路圖像的分割而言,監(jiān)督學習方法則先在訓練用圖像中獲取道路象素與非道路象素集,進行分類器設(shè)計,然后用所設(shè)計的分類器對道路圖像進行分割。

使用非監(jiān)督學習方法,則依據(jù)道路路面象素與非道路象素之間的聚類分析進行聚類運算,以實現(xiàn)道路圖像的分割。

四、 試述動態(tài)聚類與分級聚類這兩種方法的原理與不同。

答:動態(tài)聚類是指對當前聚類通過迭代運算改善聚類;分級聚類則是將樣本個體,按相似度標準合并,隨著相似度要求的降低實現(xiàn)合并。

第 7 頁 共 22 頁

五、 如果觀察一個時序信號時在離散時刻序列得到的觀察量序列表示為

狀態(tài)序列表示成

,而該時序信號的內(nèi)在

。如果計算在給定O條件下出現(xiàn)S的概率,試問此概率是何種概率。如果

從觀察序列來估計狀態(tài)序列的最大似然估計,這與Bayes決策中基于最小錯誤率的決策有什么關(guān)系。

答:在給定觀察序列

條件下分析它由某個狀態(tài)序列S產(chǎn)生的概率似后驗概率,寫成

P(S|O),而通過O求對狀態(tài)序列的最大似然估計,與貝葉斯決策的最小錯誤率決策相當。

六、 已知一組數(shù)據(jù)的協(xié)方差矩陣為

1. 協(xié)方差矩陣中各元素的含義。   2. 求該數(shù)組的兩個主分量。

,試問

3. 主分量分析或稱K-L變換,它的最佳準則是什么?   4. 為什么說經(jīng)主分量分析后,消除了各分量之間的相關(guān)性。

答:協(xié)方差矩陣為,則

1) 對角元素是各分量的方差,非對角元素是各分量之間的協(xié)方差。

2) 主分量,通過求協(xié)方差矩陣的特征值,用得,則,

相應(yīng)的特征向量為:,對應(yīng)特征向量為,對應(yīng)。

這兩個特征向量即為主分量。   3) K-L變換的最佳準則為:

對一組數(shù)據(jù)進行按一組正交基分解,在只取相同數(shù)量分量的條件下,以均方誤差計算截尾誤差最小。   4) 在經(jīng)主分量分解后,協(xié)方差矩陣成為對角矩陣,因而各主分量間相關(guān)消除。

七、 試說明以下問題求解是基于監(jiān)督學習或是非監(jiān)督學習:

1. 求數(shù)據(jù)集的主分量   2. 漢字識別   3. 自組織特征映射   4. CT圖像的分割

答: 1、求數(shù)據(jù)集的主分量是非監(jiān)督學習方法;


八、 試列舉線性分類器中最著名的三種最佳準則以及它們各自的原理。

答:線性分類器三種最優(yōu)準則:

Fisher準則:根據(jù)兩類樣本一般類內(nèi)密集, 類間分離的特點,尋找線性分類器最佳的法線向量方向,使兩類樣本在該方向上的投影滿足類內(nèi)盡可能密集,類間盡可能分開。

第 8 頁 共 22 頁

2、漢字識別對待識別字符加上相應(yīng)類別號——有監(jiān)督學習方法;

3、自組織特征映射——將高維數(shù)組按保留近似度向低維映射——非監(jiān)督學習; 4、CT圖像分割——按數(shù)據(jù)自然分布聚類——非監(jiān)督學習方法;

該種度量通過類內(nèi)離散矩陣Sw和類間離散矩陣Sb實現(xiàn)。

感知準則函數(shù):準則函數(shù)以使錯分類樣本到分界面距離之和最小為原則。

其優(yōu)點是通過錯分類樣本提供的信息對分類器函數(shù)進行修正,這種準則是人工神經(jīng)元網(wǎng)絡(luò)多層感知器的基礎(chǔ)。

支持向量機:基本思想是在兩類線性可分條件下,所設(shè)計的分類器界面使兩類之間的間隔為最大, 它的基本出發(fā)點是使期望泛化風險盡可能小。

九、 在一兩維特征空間,兩類決策域由兩條直線H1和H2分界,

其中

而包含H1與H2的銳角部分為第一類,其余為第二類。   試求:

1.用一雙層感知器構(gòu)造該分類器   2.用凹函數(shù)的并構(gòu)造該分類器


答:按題意要求

1) H1與H2將空間劃分成四個部分,按使H1與H2大于零與小于零表示成四個區(qū)域,而第一類屬于(-+)區(qū)域,為方便起見,令

則第一類在(++)區(qū)域。用雙層感知器,神經(jīng)元用

值,則在第一類樣本輸入時,兩隱層結(jié)點的輸出均為+1,其余則分別為(+-),(――),(-+), 故可按圖設(shè)置域值。

第 9 頁 共 22 頁


2) 用凹函數(shù)的并表示:否則


或表示成


,如

,則

十、  設(shè)有兩類正態(tài)分布的樣本基于最小錯誤率的貝葉斯決策分界面,分別為X2=0,以及X1=3,其中兩類的協(xié)方

差矩陣  試求:

,先驗概率相等,并且有以及

。

, 。

答:設(shè)待求  由于

,待求,先驗概率相等。


則基于最小錯誤率的Bayes決策規(guī)則,在兩類決策面分界面上的樣本X應(yīng)滿足


(1)

其中按題意,(注:為方便起見,在下面計算中先去掉系數(shù)4/3)。

按題意分界面由x1=3及x2=0兩條直線構(gòu)成,則分界面方程為


對(1)式進行分解有

第 10 頁 共 22 頁

(2)


由(3)式第一項得

(3)


將(4)式與(2)式對比可知   a=1,c=1   又由c=1與  如果b=1/2,則表明

則(4)式為:2X1X2  (5)   將相應(yīng)結(jié)果帶入(3)式第二項有

(4)

,得b2=1/4,b有兩種可能,即b=1/2或b=-1/2,

,此時分界面方程應(yīng)為線性,與題意不符,只有b=-1/2


則結(jié)合(5)(2)應(yīng)有

(6)


,則

(7)


解得


,

第 11 頁 共 22 頁

答:第一類的均值向量為


十二、設(shè)一個二維空間中的兩類樣本服從正態(tài)分布,其參數(shù)分別為:

,

先驗概率, , 試證明:其基于最小錯誤率的貝葉斯決策分界面方程為一圓,并求其方程。


證明:先驗概率相等條件下,基于最小錯誤率貝葉斯決策的分界面上兩類條件概率密度函

數(shù)相等。

因此有:


化簡為

,是一個圓的方程。

十三、試分析五種常用決策規(guī)則思想方法的異同。

答、五種常用決策是:

1. 基于最小錯誤率的貝葉斯決策,利用概率論中的貝葉斯公式,得出使得錯誤率最小

的分類規(guī)則。

2. 基于最小風險的貝葉斯決策,引入了損失函數(shù),得出使決策風險最小的分類。當在

0-1損失函數(shù)條件下,基于最小風險的貝葉斯決策變成基于最小錯誤率的貝葉斯決策。

3. 在限定一類錯誤率條件下使另一類錯誤率最小的兩類別決策。

4. 最大最小決策:類先驗概率未知,考察先驗概率變化對錯誤率的影響,找出使最小

貝葉斯奉獻最大的先驗概率,以這種最壞情況設(shè)計分類器。

5. 序貫分類方法,除了考慮分類造成的損失外,還考慮特征獲取造成的代價,先用一

部分特征分類,然后逐步加入性特征以減少分類損失,同時平衡總的損失,以求得最有效益。

十四、假設(shè)在某個地區(qū)細胞識別中正常(w1)和異常(w2)兩類先驗概率分別為 P(w1)=0.9,

P(w2)=0.1,現(xiàn)有一待識別的細胞,其觀察值為x,從類條件概率密度分布曲線上查得P(w1)?0.2,P(w2)?0.4,并且已知?11?0,?12?6,?21?1,?22?0

試對該細胞x用一下兩種方法進行分類:

1. 基于最小錯誤率的貝葉斯決策;

2. 基于最小風險的貝葉斯決策;

請分析兩種結(jié)果的異同及原因。

答:

1.


2.


十五、既然有線性判別函數(shù),為什么還要引進非線性判別函數(shù)?試分析由“線性判別函數(shù)”向“非線性判別函數(shù)”推廣的思想和方法。

答:實際中有很多模式識別問題并不是線性可分的,這時就需要采用非線性分類器,比如當兩類樣本分不具有多峰性質(zhì)并互相交錯時,簡單的線性判別函數(shù)往往會帶來較大的分類錯誤。這時,樹分類器作為一種分段線性分類器,常常能有效地應(yīng)用于這種情況。

十六、1. 什么是特征選擇?

2. 什么是Fisher線性判別?

答:1. 特征選擇就是從一組特征中挑選出一些最有效的特征以達到降低特征空間維數(shù)的目的。

2. Fisher線性判別:可以考慮把d維空間的樣本投影到一條直線上,形成一維空間,

即把維數(shù)壓縮到一維,這在數(shù)學上容易辦到,然而,即使樣本在d維空間里形成若干緊湊的互相分得開的集群,如果把它們投影到一條任意的直線上,也可能使得幾類樣本混在一起而變得無法識別。但是在一般情況下,總可以找到某個方向,使得在這個方向的直線上,樣本的投影能分開得最好。問題是如何根據(jù)實際情況找到這條最好的、最易于分類的投影線,這就是Fisher算法所要解決的基本問題。


十七、寫出兩類和多類情況下最小風險貝葉斯決策判別函數(shù)和決策面方程。


十八、請論述模式識別系統(tǒng)的主要組成部分及其設(shè)計流程,并簡述各組成部分中常用方法的主要思想。


特征空間 信息獲?。和ㄟ^測量、采樣和量化,可以用矩陣或向量表示二維圖像或以為波形。 預處理:去除噪聲,加強有用的信息,并對輸入測量儀器或其他因素造成的退化現(xiàn)象進

行復原。

特征選擇和提?。簽榱擞行У貙崿F(xiàn)分類識別,就要對原始數(shù)據(jù)進行變換,得到最能反映分類本質(zhì)的特征。

分類決策:在特征空間中用統(tǒng)計方法把識別對象歸為某一類。


十九、有兩類樣本集

13      x1?[0,0,0]T,x12?[1,0,0]T,x1?[1,0,1]T,x14?[1,1,0]T

T2T34      x1?[1,1,1]T ,1]T,x22?[0,0,1],x2?[0,1,0],x2?[0,1

1. 用K-L變換求其二維特征空間,并求出其特征空間的坐標軸;

2. 使用Fisher線性判別方法給出這兩類樣本的分類面。



二十二、簡述支持向量機的基本思想。 答:

SVM從線性可分情況下的最優(yōu)分類面發(fā)展而來。

最優(yōu)分類面就是要求分類線不但能將兩類正確分開(訓練錯誤率為0),且使分類間隔最大。

SVM考慮尋找一個滿足分類要求的超平面,并且使訓練集中的點距離分類面盡可能的遠,也就是尋找一個分類面使它兩側(cè)的空白區(qū)域(margin)最大。

過兩類樣本中離分類面最近的點,且平行于最優(yōu)分類面的超平面上H1,H2的訓練樣本就叫支持向量。

二十三、對于兩類問題,假定P(xwi)~N(?i,?i),i?1,2,x為d維特征向量        請給出以下三種情況下的貝葉斯判別函數(shù),并說明各有什么特點:        1. ?1??2        2. ?1??2

3. ?1??2??2I,I為單位矩陣

答: 1.

1??2


2.

1??2

1

gi(x)??(x??i)t??1(x??i)?lnP(?i)

2

gi(x)?witx?wi0

1

wi???1?i;  wi0???it??1?i?lnP(?i)

2

wt(x?x0)?0

w???1(?i??j)

lnP(?i)/P(?j)1

x0?(?i??j)?.(?i??j)t?1

2(?i??j)?(?i??j)


判別邊界仍是一條直線,但不垂直于均值的連線。

3.

1??2??2I


(x??i)t(x??i)

gi(x)???lnP(?i)2

2?

(xtx?2?ix??it?i)

gi(x)??lnP(?i)2

2?

gi(x)?wx?wi0

i1t

wi?2;  wi0??2?i?i?lnP(?i)

2?


t

i

判決平面:

gi(x)?

gj(x)

t

i

gi(x)?wx?wi0

i1t

wi?2;  wi0??2?i?i?lnP(?i)

2?

t

1t1tj

x?2?i?i?lnP(?i)?2x?2?j?j?lnP(?j)?2??2?ti2

w(x?x0)?0

1?2

x0?(?i??j)?

2?i??j

2

t

w??i??j

P(?i)

ln(?i??j)P(?j)


判別邊界是一條直線,且垂直于均值的連線。

二十四、設(shè)兩個家庭,每家3-5人,選每個人的一張照片,共8張,混放在一起,將照片兩兩對照,得出描述其“相似程度”的模糊關(guān)系矩陣。要求按相似程度聚類,希望把二個家庭分開。

轉(zhuǎn)載請保留出處,http://www.360docs.net/doc/info-7baaf3a3284ac850ad024275.html

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
常見面試之機器學習算法思想簡單梳理
【機器學習】GBDT 與 LR 的區(qū)別總結(jié)
【華泰金工林曉明團隊】人工智能選股框架及經(jīng)典算法簡介——華泰人工智能系列之一
曼孚科技:AI算法領(lǐng)域常用的39個術(shù)語(上)
【算法地圖】一張地圖帶你玩轉(zhuǎn)機器學習
機器學習10大經(jīng)典算法詳解
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服