<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Stuart Reynolds <<a href="mailto:stuart@stuartreynolds.net">stuart@stuartreynolds.net</a>> 於 2020年1月9日 週四 上午10:33寫道:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div dir="auto"><span style="color:rgb(0,0,0)">Correlated features typically have the property that they are tending to be similarly predictive of the outcome.</span></div><div dir="auto"><br></div><div dir="auto">L1 and L2 are both a preference for low coefficients.</div><div dir="auto">If a coefficient can be reduced yet another coefficient maintains similar loss, the these regularization methods prefer this solution.</div><div dir="auto">If you use L1 or L2, you should mean and variance normalize your features.</div><div dir="auto"><br></div></div></blockquote><div><br></div><div>You mean LASSO and RIDGE both solve multilinearity?</div><div> </div></div></div>