星期日, 11月 13, 2005

EM algorithm

第一次聽到EM時, 我還只是個碩一新生,
跟著翁老師去數學系聽seminar,
講題是什麼, 不知道, 也沒懂過,
只記得講者不斷地提到EM,
我小小聲地問翁老師: 什麼是EM?
老師很簡潔也很正確地回答: E就是取期望值, 然後M就是去求極大.
完全地不知所云

然後就時光飛逝, EM 跟我的生活毫無瓜葛, 直到今年,
修Statistical theory時,
知道了這是一種求incomplete data MLE的方法,
先在假設參數為已知的某值下,
計算sufficient statistics的期望值 (E-step),
然後假設我們觀察到的資料等於此期望值,
求取使得likelihood極大的參數值 (M-step),
然後不斷地重複這兩步驟(迭代), 直到結果不再變動(收斂),
即求到我們所要的 MLE.

這個學期修missing data, 除了學著寫EM的程式外,
也學了不少只能用來唬人的術語, 例如ECM, PX-EM等

也許我的學習就像是EM, 不斷地向上逼近,
只是逼近的速度非常非常地緩慢.

3 Comments:

Blogger sunlun said...

我也是修統計的
你寫得很不錯

5/20/2009 12:27 下午  
Blogger 成為Q3的男人 said...

作者已經移除這則留言。

6/02/2009 8:17 上午  
Anonymous 匿名 said...

純推最後二句

Please refer Bruce Lindsay's book for an algorithm with faster convergence rate

11/11/2009 3:11 上午  

張貼留言

<< Home