<p dir="ltr"><br>
On 29 Aug 2013 02:34, "Serhiy Storchaka" <<a href="mailto:storchaka@gmail.com">storchaka@gmail.com</a>> wrote:<br>
><br>
> 28.08.13 14:37, Victor Stinner написав(ла):<br>
><br>
>> No, my question is: how can we detect that a test is never run? Do we<br>
>> need test covertage on the test suite? Or inject faults in the code to<br>
>> test the test suite? Any other idea?<br>
><br>
><br>
> Currently a lot of tests are skipped silently. See issue18702 [1]. Perhaps we need a tool which collects skipped and runned tests, compare these sets with sets from a previous run on the same buildbot and reports if they are different.<br>

><br>
> [1] <a href="http://bugs.python.org/issue18702">http://bugs.python.org/issue18702</a></p>
<p dir="ltr">Figuring out a way to collect and merge coverage data would likely be more useful, since that could be applied to the standard library as well. Ned Batchelder's coverage.py supports aggregating data from multiple runs.</p>

<p dir="ltr">Cheers,<br>
Nick.<br></p>
<p dir="ltr">><br>
><br>
><br>
> _______________________________________________<br>
> Python-Dev mailing list<br>
> <a href="mailto:Python-Dev@python.org">Python-Dev@python.org</a><br>
> <a href="http://mail.python.org/mailman/listinfo/python-dev">http://mail.python.org/mailman/listinfo/python-dev</a><br>
> Unsubscribe: <a href="http://mail.python.org/mailman/options/python-dev/ncoghlan%40gmail.com">http://mail.python.org/mailman/options/python-dev/ncoghlan%40gmail.com</a><br>
</p>