<br><br><div class="gmail_quote">On Sat, Mar 14, 2009 at 2:28 PM,  <span dir="ltr"><<a href="mailto:josef.pktd@gmail.com">josef.pktd@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div class="im">On Sat, Mar 14, 2009 at 4:22 PM, Sturla Molden <<a href="mailto:sturla@molden.no">sturla@molden.no</a>> wrote:<br>
</div><div class="im">>> On Sat, Mar 14, 2009 at 1:37 PM, <<a href="mailto:josef.pktd@gmail.com">josef.pktd@gmail.com</a>> wrote:<br>
><br>
>> OK. One more question: how often do the tests fail? I want to include a<br>
>> note<br>
>> to repeat testing if the test fails.<br>
><br>
> I don't like this. I think the prngs should use fixed seeds known to pass<br>
> the test. Depending on confidence intervals in the units tests is really,<br>
> really bad style. Tests should be deterministic.<br>
><br>
> S.M.<br>
><br>
<br>
</div>The hypergeometric tests are on the support of the distribution and<br>
should never fail. And the outcome is not random.<br>
<br>
 The test of logser with N = 100000 also should be pretty exact and<br>
fail only with very low probability in the patched version. But again<br>
this is testet in scipy.stats.<br>
<br>
I think Sturlas idea to find a random seed that differentiates before<br>
and after will be better for numpy, and using only a small sample size<br>
e.g. N=1000, since it's pretty fast. But since I don't have an<br>
unpatched numpy version available right now, I cannot do this.<br>
</blockquote><div><br>Done. Thanks for the fixes and tests.<br><br>Chuck <br></div><br></div><br>