<div dir="ltr"><div><div>This comes from Algorithm 1, line 1, in "Greedy Function Approximation: a Gradient Boosting Machine" by J. Friedman.<br><br></div>Intuitively, this has the same effect as fitting a bias (intercept) term in a linear model. This allows the subsequent iterations (decision trees) to work with centered targets.<br><br></div>Mathieu<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Aug 24, 2016 at 5:24 AM, Алексей Драль <span dir="ltr"><<a href="mailto:aadral@gmail.com" target="_blank">aadral@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi there,<div><br></div><div>I recently found out that GradientBoostingRegressor uses MeanEstimator for the initial estimator in ensemble. Could you please point out (or explain) to the research showing superiority of this approach compared to the usage of DecisionTreeRegressor?</div><span class="HOEnZb"><font color="#888888"><div><div><br></div>-- <br><div data-smartmail="gmail_signature"><div dir="ltr"><div>Yours sincerely,<div>Alexey A. Dral</div></div></div></div>
</div></font></span></div>
<br>______________________________<wbr>_________________<br>
scikit-learn mailing list<br>
<a href="mailto:scikit-learn@python.org">scikit-learn@python.org</a><br>
<a href="https://mail.python.org/mailman/listinfo/scikit-learn" rel="noreferrer" target="_blank">https://mail.python.org/<wbr>mailman/listinfo/scikit-learn</a><br>
<br></blockquote></div><br></div>