【YangEninala的回答(227票)】:
隱馬爾可夫(HMM)好講,簡單易懂不好講。我認(rèn)為 @者也的回答沒什么錯(cuò)誤,不過我想說個(gè)更通俗易懂的例子。
還是用最經(jīng)典的例子,擲骰子。假設(shè)我手里有三個(gè)不同的骰子。第一個(gè)骰子是我們平常見的骰子(稱這個(gè)骰子為D6),6個(gè)面,每個(gè)面(1,2,3,4,5,6)出現(xiàn)的概率是1/6。第二個(gè)骰子是個(gè)四面體(稱這個(gè)骰子為D4),每個(gè)面(1,2,3,4)出現(xiàn)的概率是1/4。第三個(gè)骰子有八個(gè)面(稱這個(gè)骰子為D8),每個(gè)面(1,2,3,4,5,6,7,8)出現(xiàn)的概率是1/8。
假設(shè)我們開始擲骰子,我們先從三個(gè)骰子里挑一個(gè),挑到每一個(gè)骰子的概率都是1/3。然后我們擲骰子,得到一個(gè)數(shù)字,1,2,3,4,5,6,7,8中的一個(gè)。
不停的重復(fù)上述過程,我們會(huì)得到一串?dāng)?shù)字,每個(gè)數(shù)字都是1,2,3,4,5,6,7,8中的一個(gè)。例如我們可能得到這么一串?dāng)?shù)字(擲骰子10次):1 6 3 5 2 7 3 5 2 4
這串?dāng)?shù)字叫做可見量鏈。但是在隱馬爾可夫模型中,我們不僅僅有這么一串可見量鏈,還有一串隱含量鏈。在這個(gè)例子里,這串隱含變量鏈就是你用的骰子的序列。比如,隱含量鏈有可能是:D6 D8 D8 D6 D4 D8 D6 D6 D4 D8
一般來說,HMM中說到的馬爾可夫鏈其實(shí)是指隱含量鏈,因?yàn)殡[含量(骰子)之間存在轉(zhuǎn)換概率的。在我們這個(gè)例子里,D6的下一個(gè)狀態(tài)是D4,D6,D8的概率都是1/3。D4,D8的下一個(gè)狀態(tài)是D4,D6,D8的轉(zhuǎn)換概率也都一樣是1/3。這樣設(shè)定是為了最開始容易說清楚,但是我們其實(shí)是可以隨意設(shè)定轉(zhuǎn)換概率,或者轉(zhuǎn)換概率分布的。比如,我們可以這樣定義,D6后面不能接D4,D6后面是D6的概率是0.9,是D8的概率是0.1。這樣就是一個(gè)新的HMM。
同樣的,盡管可見量之間沒有轉(zhuǎn)換概率,但是隱含量和可見量之間有一個(gè)概率叫做emission probability(發(fā)射概率?沒見過中文怎么說的。。。)。對(duì)于我們的例子來說,六面骰(D6)產(chǎn)生1的emission probability是1/6。產(chǎn)生2,3,4,5,6的概率也都是1/6。我們同樣可以對(duì)emission probability進(jìn)行其他定義。比如,我有一個(gè)被賭場動(dòng)過手腳的六面骰子,擲出來是1的概率更大,是1/2,擲出來是2,3,4,5,6的概率是1/10。
其實(shí)對(duì)于HMM來說,如果提前知道轉(zhuǎn)換概率矩陣(包括所有的轉(zhuǎn)換概率)和emission probability matrix(包含所有的emission probability),做模擬是相當(dāng)容易的。但是HMM的用途則一般是,我知道結(jié)果(多串可見量鏈),怎么返回去尋找轉(zhuǎn)換概率和emission probability。這時(shí)要用到forward algorithm和backward algorithm。如果大家感興趣,我可以接著講。
【龐雨秾的回答(206票)】:
摘自我的博客http://blog.csdn.net/ppn029012
1. 賭場風(fēng)云(背景介紹)
最近一個(gè)賭場的老板發(fā)現(xiàn)生意不暢,于是派出手下去賭場張望。經(jīng)探子回報(bào),有位大叔在賭場中總能贏到錢,玩得一手好骰子,幾乎是戰(zhàn)無不勝。而且每次玩骰子的時(shí)候周圍都有幾個(gè)保鏢站在身邊,讓人不明就里,只能看到每次開局,骰子飛出,沉穩(wěn)落地。老板根據(jù)多年的經(jīng)驗(yàn),推測(cè)這位不善之客使用的正是江湖失傳多年的"偷換骰子大法”(編者注:偷換骰子大法,用兜里自帶的骰子偷偷換掉均勻的骰子)。老板是個(gè)冷靜的人,看這位大叔也不是善者,不想輕易得罪他,又不想讓他壞了規(guī)矩。正愁上心頭,這時(shí)候進(jìn)來一位名叫HMM帥哥,告訴老板他有一個(gè)很好的解決方案。
不用近其身,只要在遠(yuǎn)處裝個(gè)攝像頭,把每局的骰子的點(diǎn)數(shù)都記錄下來。
然后HMM帥哥將會(huì)運(yùn)用其強(qiáng)大的數(shù)學(xué)內(nèi)力,用這些數(shù)據(jù)推導(dǎo)出
1. 該大叔是不是在出千?
2. 如果是在出千,那么他用了幾個(gè)作弊的骰子? 還有當(dāng)前是不是在用作弊的骰子。
3. 這幾個(gè)作弊骰子出現(xiàn)各點(diǎn)的概率是多少?
天吶,老板一聽,這位叫HMM的甚至都不用近身,就能算出是不是在作弊,甚至都能算出別人作弊的骰子是什么樣的。那么,只要再當(dāng)他作弊時(shí),派人圍捕他,當(dāng)場驗(yàn)證骰子就能讓他啞口無言。
2. HMM是何許人也?
在讓HMM開展調(diào)查活動(dòng)之前,該賭場老板也對(duì)HMM作了一番調(diào)查。
HMM(Hidden Markov Model), 也稱隱性馬爾可夫模型,是一個(gè)概率模型,用來描述一個(gè)系統(tǒng)隱性狀態(tài)的轉(zhuǎn)移和隱性狀態(tài)的表現(xiàn)概率。
系統(tǒng)的隱性狀態(tài)指的就是一些外界不便觀察(或觀察不到)的狀態(tài), 比如在當(dāng)前的例子里面, 系統(tǒng)的狀態(tài)指的是大叔使用骰子的狀態(tài),即
{正常骰子, 作弊骰子1, 作弊骰子2,...}
隱性狀態(tài)的表現(xiàn)也就是, 可以觀察到的,由隱性狀態(tài)產(chǎn)生的外在表現(xiàn)特點(diǎn)。這里就是說, 骰子擲出的點(diǎn)數(shù).
{1,2,3,4,5,6}
HMM模型將會(huì)描述,系統(tǒng)隱性狀態(tài)的轉(zhuǎn)移概率。也就是大叔切換骰子的概率,下圖是一個(gè)例子,這時(shí)候大叔切換骰子的可能性被描述得淋漓盡致。
很幸運(yùn)的,這么復(fù)雜的概率轉(zhuǎn)移圖,竟然能用簡單的矩陣表達(dá), 其中a_{ij}代表的是從i狀態(tài)到j(luò)狀態(tài)發(fā)生的概率
當(dāng)然同時(shí)也會(huì)有,隱性狀態(tài)表現(xiàn)轉(zhuǎn)移概率。也就是骰子出現(xiàn)各點(diǎn)的概率分布, (e.g. 作弊骰子1能有90%的機(jī)會(huì)擲到六,作弊骰子2有85%的機(jī)會(huì)擲到'小’). 給個(gè)圖如下,
隱性狀態(tài)的表現(xiàn)分布概率也可以用矩陣表示出來,
把這兩個(gè)東西總結(jié)起來,就是整個(gè)HMM模型。
這個(gè)模型描述了隱性狀態(tài)的轉(zhuǎn)換的概率,同時(shí)也描述了每個(gè)狀態(tài)外在表現(xiàn)的概率的分布??傊?,HMM模型就能夠描述扔骰子大叔作弊的頻率(骰子更換的概率),和大叔用的骰子的概率分布。有了大叔的HMM模型,就能把大叔看透,讓他完全在陽光下現(xiàn)形。
3. HMM能干什么!
總結(jié)起來HMM能處理三個(gè)問題,3.1 解碼(Decoding)
解碼就是需要從一連串的骰子中,看出來哪一些骰子是用了作弊的骰子,哪些是用的正常的骰子。
比如上圖中,給出一串骰子序列(3,6,1,2..)和大叔的HMM模型, 我們想要計(jì)算哪一些骰子的結(jié)果(隱性狀態(tài)表現(xiàn))可能對(duì)是哪種骰子的結(jié)果(隱性狀態(tài)).
3.2學(xué)習(xí)(Learning)
學(xué)習(xí)就是,從一連串的骰子中,學(xué)習(xí)到大叔切換骰子的概率,當(dāng)然也有這些骰子的點(diǎn)數(shù)的分布概率。這是HMM最為恐怖也最為復(fù)雜的招數(shù)!!3.3 估計(jì)(Evaluation)
估計(jì)說的是,在我們已經(jīng)知道了該大叔的HMM模型的情況下,估測(cè)某串骰子出現(xiàn)的可能性概率。比如說,在我們已經(jīng)知道大叔的HMM模型的情況下,我們就能直接估測(cè)到大叔扔到10個(gè)6或者8個(gè)1的概率。
4. HMM是怎么做到的?
4.1 估計(jì)
估計(jì)是最容易的一招,在完全知道了大叔的HMM模型的情況下,我們很容易就能對(duì)其做出估計(jì)。
現(xiàn)在我們有了大叔的狀態(tài)轉(zhuǎn)移概率矩陣A,B就能夠進(jìn)行估計(jì)。比如我們想知道這位大叔下一局連續(xù)擲出10個(gè)6的概率是多少? 如下
這表示的是,在一開始隱性狀態(tài)(s0)為1,也就是一開始拿著的是正常的骰子的情況下,這位大叔連續(xù)擲出10個(gè)6的概率。
現(xiàn)在問題難就難在,我們雖然知道了HMM的轉(zhuǎn)換概率,和觀察到的狀態(tài)V{1:T}, 但是我們卻不知道實(shí)際的隱性的狀態(tài)變化。
好吧,我們不知道隱性狀態(tài)的變化,那好吧,我們就先假設(shè)一個(gè)隱性狀態(tài)序列, 假設(shè)大叔前5個(gè)用的是正常骰子, 后5個(gè)用的是作弊骰子1.
好了,那么我們可以計(jì)算,在這種隱性序列假設(shè)下擲出10個(gè)6的概率.
這個(gè)概率其實(shí)就是,隱性狀態(tài)表現(xiàn)概率B的乘積.
但是問題又出現(xiàn)了,剛才那個(gè)隱性狀態(tài)序列是我假設(shè)的,而實(shí)際的序列我不知道,這該怎么辦。好辦,把所有可能出現(xiàn)的隱狀態(tài)序列組合全都試一遍就可以了。于是,
R就是所有可能的隱性狀態(tài)序列的集合。的嗯,現(xiàn)在問題好像解決了,我們已經(jīng)能夠通過嘗試所有組合來獲得出現(xiàn)的概率值,并且可以通過A,B矩陣來計(jì)算出現(xiàn)的總概率。
但是問題又出現(xiàn)了,可能的集合太大了, 比如有三種骰子,有10次選擇機(jī)會(huì), 那么總共的組合會(huì)有3^10次...這個(gè)量級(jí)O(c^T)太大了,當(dāng)問題再大一點(diǎn)時(shí)候,組合的數(shù)目就會(huì)大得超出了計(jì)算的可能。所以我們需要一種更有效的計(jì)算P(V(1:T)概率的方法。
比如說如下圖的算法可以將計(jì)算P(V1:T)的計(jì)算復(fù)雜度降低至O(cT).
有了這個(gè)方程,我們就能從t=0的情況往前推導(dǎo),一直推導(dǎo)出P(V1:T)的概率。下面讓我們算一算,大叔擲出3,2,1這個(gè)骰子序列的可能性有多大(假設(shè)初始狀態(tài)為1, 也就是大叔前一次拿著的是正常的骰子)?
4.2 解碼(Decoding)
解碼的過程就是在給出一串序列的情況下和已知HMM模型的情況下,找到最可能的隱性狀態(tài)序列。
用數(shù)學(xué)公式表示就是, (V是Visible可見序列, w是隱性狀態(tài)序列, A,B是HMM狀態(tài)轉(zhuǎn)移概率矩陣)(公式太多,請(qǐng)具體看我博客中的推導(dǎo)機(jī)器學(xué)習(xí) --- 4. 大內(nèi)密探HMM(隱馬爾可夫)圍捕賭場老千)
然后又可以使用估計(jì)(4.1)中的前向推導(dǎo)法,計(jì)算出最大的P(w(1:T), V(1:T)).
在完成前向推導(dǎo)法之后,再使用后向追蹤法(Back Tracking),對(duì)求解出能令這個(gè)P(w(1:T), V(1:T))最大的隱性序列.這個(gè)算法被稱為維特比算法(Viterbi Algorithm).
4.3 學(xué)習(xí)(Learning)
學(xué)習(xí)是在給出HMM的結(jié)構(gòu)的情況下(比如說假設(shè)已經(jīng)知道該大叔有3只骰子,每只骰子有6面),計(jì)算出最有可能的模型參數(shù).(公式太多,請(qǐng)具體看我博客中的推導(dǎo)機(jī)器學(xué)習(xí) --- 4. 大內(nèi)密探HMM(隱馬爾可夫)圍捕賭場老千)
5. HMM 的應(yīng)用
以上舉的例子是用HMM對(duì)擲骰子進(jìn)行建模與分析。當(dāng)然還有很多HMM經(jīng)典的應(yīng)用,能根據(jù)不同的應(yīng)用需求,對(duì)問題進(jìn)行建模。
但是使用HMM進(jìn)行建模的問題,必須滿足以下條件,
1.隱性狀態(tài)的轉(zhuǎn)移必須滿足馬爾可夫性。(狀態(tài)轉(zhuǎn)移的馬爾可夫性:一個(gè)狀態(tài)只與前一個(gè)狀態(tài)有關(guān))
2. 隱性狀態(tài)必須能夠大概被估計(jì)。
在滿足條件的情況下,確定問題中的隱性狀態(tài)是什么,隱性狀態(tài)的表現(xiàn)可能又有哪些.
HMM適用于的問題在于,真正的狀態(tài)(隱態(tài))難以被估計(jì),而狀態(tài)與狀態(tài)之間又存在聯(lián)系。
5.1 語音識(shí)別
語音識(shí)別問題就是將一段語音信號(hào)轉(zhuǎn)換為文字序列的過程. 在個(gè)問題里面
隱性狀態(tài)就是: 語音信號(hào)對(duì)應(yīng)的文字序列
而顯性的狀態(tài)就是: 語音信號(hào).
HMM模型的學(xué)習(xí)(Learning): 語音識(shí)別的模型學(xué)習(xí)和上文中通過觀察骰子序列建立起一個(gè)最有可能的模型不同. 語音識(shí)別的HMM模型學(xué)習(xí)有兩個(gè)步驟:
1. 統(tǒng)計(jì)文字的發(fā)音概率,建立隱性表現(xiàn)概率矩陣B
2. 統(tǒng)計(jì)字詞之間的轉(zhuǎn)換概率(這個(gè)步驟并不需要考慮到語音,可以直接統(tǒng)計(jì)字詞之間的轉(zhuǎn)移概率即可)
語音模型的估計(jì)(Evaluation): 計(jì)算"是十四”,"四十四"等等的概率,比較得出最有可能出現(xiàn)的文字序列.
5.2 手寫識(shí)別
這是一個(gè)和語音差不多,只不過手寫識(shí)別的過程是將字的圖像當(dāng)成了顯性序列.
5.3 中文分詞
“總所周知,在漢語中,詞與詞之間不存在分隔符(英文中,詞與詞之間用空格分隔,這是天然的分詞標(biāo)記),詞本身也缺乏明顯的形態(tài)標(biāo)記,因此,中文信息處理的特有問題就是如何將漢語的字串分割為合理的詞語序。例如,英文句子:you should go to kindergarten now 天然的空格已然將詞分好,只需要去除其中的介詞“to”即可;而“你現(xiàn)在應(yīng)該去幼兒園了”這句表達(dá)同樣意思的話沒有明顯的分隔符,中文分詞的目的是,得到“你/現(xiàn)在/應(yīng)該/去/幼兒園/了”。那么如何進(jìn)行分詞呢?主流的方法有三種:第1類是基于語言學(xué)知識(shí)的規(guī)則方法,如:各種形態(tài)的最大匹配、最少切分方法;第2類是基于大規(guī)模語料庫的機(jī)器學(xué)習(xí)方法,這是目前應(yīng)用比較廣泛、效果較好的解決方案.用到的統(tǒng)計(jì)模型有N元語言模型、信道—噪聲模型、最大期望、HMM等。第3類也是實(shí)際的分詞系統(tǒng)中用到的,即規(guī)則與統(tǒng)計(jì)等多類方法的綜合?!盵1]使用HMM進(jìn)行中文分詞.5.4 HMM實(shí)現(xiàn)拼音輸入法
拼音輸入法,是一個(gè)估測(cè)拼音字母對(duì)應(yīng)想要輸入的文字(隱性狀態(tài))的過程(比如, ‘pingyin’ -> 拼音)
參考:
http://ai.stanford.edu/~serafim/CS262_2007/notes/lecture5.pdf
【者也的回答(11票)】:
隱馬爾科夫模型(Hidden Markov Model)經(jīng)常被用在時(shí)間序列(例如一段時(shí)間內(nèi)的聲音信號(hào),運(yùn)動(dòng)物體的位置等你所感興趣的物理量)的建模與分析。
它有三個(gè)要素,
1. 可見隨機(jī)變量:用來描述你所感興趣的物理量,隨時(shí)間變化
2. 隱含的狀態(tài)變量:一個(gè)假設(shè)的存在,每個(gè)時(shí)間點(diǎn)的物理量背后都對(duì)應(yīng)一個(gè)狀態(tài)量
3. 變量間的關(guān)系:用概率的方法(通常是概率密度函數(shù))描述以下三個(gè)關(guān)系或變量:初始狀態(tài)量,當(dāng)前的隱含狀態(tài)量與下一個(gè)隱含狀態(tài)量間關(guān)系(此處還用到馬爾科夫假設(shè):當(dāng)前隱含狀態(tài)只取決于前一個(gè)隱含狀態(tài)),當(dāng)前的隱含狀態(tài)量與可見隨機(jī)量間關(guān)系
舉例說,我用HMM去描述一組不同類型的手部動(dòng)作,每個(gè)動(dòng)作有一種特定的模式,例如用手打拍子,2/4拍(上下上),3/4拍(上下右上),4/4拍(上下左右上),現(xiàn)實(shí)中,即使重復(fù)同樣的拍子,手所劃過的軌跡還是會(huì)有差別,但不同的拍子,其模式完全不同,用HMM去描述一種動(dòng)作,所對(duì)應(yīng)的可見隨機(jī)變量就是手的位置,隱含狀態(tài)變量就是上下左右四個(gè)大致位置,變量間關(guān)系用你假設(shè)的的概率密度函數(shù)描述。至于參數(shù)估計(jì),推斷等技術(shù)問題,有成熟高效的算法可以處理,這也是HMM受歡迎的原因。詳細(xì)內(nèi)容參考Rabiner的經(jīng)典論文:An introduction to hidden Markov models。
補(bǔ)充:
1. 隱含狀態(tài)變量是假設(shè)的存在,并不一定有對(duì)應(yīng)的物理解釋,此例狀態(tài)值取上下左右四個(gè)值是為了好理解,實(shí)現(xiàn)模型時(shí)可以取任意數(shù)量的狀態(tài)值,是一個(gè)可調(diào)參數(shù)。
2. 隱含狀態(tài)變量通常是離散的,可見狀態(tài)變量可離散可連續(xù)。
【婷婷孫的回答(7票)】:
有個(gè)黑屋子關(guān)了一個(gè)小妖怪,并且里面有N個(gè)壇子,每個(gè)壇子里有M種不同顏色的小球。
小妖怪隨意碰到一個(gè)壇子,從里面拿出一個(gè)小球出來,把小球從窗子遞出來,外面能看到小球的顏色。之后把小球放回去,再重復(fù)這個(gè)過程,就能得到一個(gè)序列。
在這個(gè)過程中存在兩個(gè)隨機(jī)過程,選擇壇子和從壇子里選擇小球,而中間的狀態(tài)轉(zhuǎn)移過程是被隱藏的。
其中重要的參數(shù)包含:一組狀態(tài)的集合(不同壇子);輸出符號(hào)的集合(不同顏色的小球);狀態(tài)轉(zhuǎn)移矩陣(從某個(gè)壇子跑到下一個(gè)壇子的概率);輸出符號(hào)的概率分布(某個(gè)壇子抓出某種顏色小球的概率);初始狀態(tài)概率分布(隨機(jī)選擇第一個(gè)壇子的概率)。
在課上聽老師這么講的……
【劉潤濤的回答(2票)】:
講這種東西就得先搞清HMM到底是啥,怎樣運(yùn)作;我個(gè)人特別討厭跟初學(xué)者上來就講state space/transition matrix/emission matrix云云的講法,因?yàn)槟菚r(shí)候大多人抽象的名詞的概念還沒固化在腦袋里,會(huì)說得他們很暈。用復(fù)雜抽象的語言描述是不合適的,這是根本不打算讓外行人聽懂?;诖嗽?,我之前發(fā)現(xiàn)對(duì)零基礎(chǔ)小伙伴們常常用游戲的例子比較好,比如這樣講:
我是一戰(zhàn)士,修煉出了三種戰(zhàn)斗形態(tài),分別為暴怒態(tài),平衡態(tài)和防御態(tài)。同時(shí)我也會(huì)三個(gè)技能,分別是普通平A,爆擊(攻擊傷害翻倍),吸血(生命偷取)。
我在暴怒狀態(tài)下打出暴擊的概率是80%,打出吸血概率為5%;
在平衡形態(tài)下,打出暴擊的比率為30%,打出吸血的概率是20%;
在防御形態(tài)下,暴擊成功概率為5%,吸血概率為60%。
我現(xiàn)在a你10次,發(fā)現(xiàn)8次都是暴擊,血翻倍在掉,你覺得我最可能是爆了什么狀態(tài)?(每次用這個(gè)不規(guī)范的例子和男生講,他們立刻就懂了;而且他們接下來還會(huì)問:"’暴怒狀態(tài)’不能總持續(xù)吧?這不科學(xué),應(yīng)該限定個(gè)暴怒狀態(tài)消失的概率為50%...."你瞧瞧連狀態(tài)轉(zhuǎn)換的transition prob自己都能假設(shè)出來了,都會(huì)搶答了都...HMM的第一個(gè)問題很容易地就解決了)
ps:懂了是什么之后再去看paper就好多了。沒記錯(cuò)的話去,看Introduction to hidden markov chain with applications。這文章將hmm的三個(gè)基本問題講得很清楚。
【BoonLee的回答(1票)】:
看吳軍博士的《數(shù)學(xué)之美》,里面有簡單的說明。然后看下HMM的三個(gè)計(jì)算問題和對(duì)應(yīng)的解答,基本就是動(dòng)態(tài)規(guī)劃的思想。
【songwang的回答(0票)】:
維基百科上的例子——通過朋友的行為去預(yù)測(cè)當(dāng)?shù)靥鞖獾淖兓?/p>
英文網(wǎng)址:Hidden Markov model
中文網(wǎng)址:隱馬爾可夫模型
其實(shí) Hagnesta 已在題目的評(píng)論里提到了。
【王宇的回答(0票)】:
你有兩枚硬幣:一枚叫A,head的幾率是0.5,另一枚叫B,head的幾率是0.7,接下來denote head為H, tail為T。
假設(shè)我們知道第一次投擲時(shí)用的是硬幣A,這就叫最initial state。每下一輪投擲之前,硬幣都有可能被從A換成B,或者從B換成A,也有可能不變,有個(gè)傻B說:“這就叫最transition probability吧”。
好,在這種情況下,你觀察到硬幣在10次flip 中出 現(xiàn)了如下pattern:HTHTTTTHHT
由此你想推斷,這十次都分別用的是哪個(gè)硬幣呢?這下就需要用EM法來算了,具體EM法是什么等會(huì)兒我再寫,手機(jī)打字太困難了
【羅捷的回答(0票)】:
1、股市分熊市和牛市,熊市和牛市之間以一定的概率互相變化,是一個(gè)馬爾科夫過程,但是你是不能直接看到一個(gè)指標(biāo)說現(xiàn)在是熊市還是牛市;
2、熊市每天80%概率下跌20%的概率上漲,牛市每天20%的概率下跌80%的概率上漲,上漲下跌是可以觀測(cè)到的。
一個(gè)過度簡化的例子,不代表股市真的是滿足這個(gè)模型的,但是我感覺這個(gè)應(yīng)該比較好理解吧,特別是對(duì)股票市場有所了解的。
原文地址:知乎
聯(lián)系客服