<div class="gmail_quote">On Mon, Jun 8, 2009 at 11:02 AM, David Cournapeau <span dir="ltr"><<a href="mailto:david@ar.media.kyoto-u.ac.jp">david@ar.media.kyoto-u.ac.jp</a>></span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Isn't it true for any general framework who enjoys some popularity :)</blockquote><div><br>Yup :)<br><br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
I think there are cases where gradient methods are not applicable<br>
(latent models where the complete data Y cannot be split into<br>
observations-hidden (O, H) variables), although I am not sure that's a<br>
very common case in machine learning,<br>
</blockquote></div><br>I won't argue with that.  My bias has certainly been strongly influenced by the type of problems I've been exposed to.  It'd be interesting to hear of a problem where one can't separate observed/hidden variables :)<br>
<br>Cheers,<br><br>Jason<br><br>-- <br>Jason Rennie<br>Research Scientist, ITA Software<br>617-714-2645<br><a href="http://www.itasoftware.com/">http://www.itasoftware.com/</a><br><br>