<div class="gmail_quote">On Mon, Jun 8, 2009 at 8:55 AM, David Cournapeau <span dir="ltr"><<a href="mailto:david@ar.media.kyoto-u.ac.jp">david@ar.media.kyoto-u.ac.jp</a>></span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
I think it depends on what you are doing - EM is used for 'real' work<br>
too, after all :)</blockquote><div><br>Certainly, but EM is really just a mediocre gradient descent/hill climbing algorithm that is relatively easy to implement.<br><br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Thanks for the link, I was not aware of this work. What is the<br>
difference between the ECG method and the method proposed by Lange in<br>
[1] ? To avoid 'local trapping' of the parameter in EM methods,<br>
recursive EM [2] may also be a promising method, also it seems to me<br>
that it has not been used so much, but I may well be wrong (I have seen<br>
several people using a simplified version of it without much theoretical<br>
consideration in speech processing).</blockquote><div><br>I hung-out in the machine learning community appx. 1999-2007 and
thought the Salakhutdinov work was extremely refreshing to see after
listening to no end of papers applying EM to whatever was the hot topic
at the time. :)  I've certainly seen/heard about various fixes to EM, but I haven't seen convincing reason(s) to prefer it over proper gradient descent/hill climbing algorithms (besides its present-ability and ease of implementation).<br>
<br>Cheers,<br><br>Jason<br></div></div><br>-- <br>Jason Rennie<br>Research Scientist, ITA Software<br>617-714-2645<br><a href="http://www.itasoftware.com/">http://www.itasoftware.com/</a><br><br>