<div dir="ltr">Hello everyone<br><div class="gmail_quote"><div dir="ltr"><div><br></div><div>I am Arink, computer science student and open source enthusiastic. This year I am interested to work on project "Performance parity between numpy arrays and Python scalars"[1]. </div>

<div><br></div><div>I tried to adobt rald's work on numpy1.7[2] (which was done for numpy1.6 [3]). </div><div>Till now by avoiding </div><div>a) the uncessary Checking for floating point errors which is slow, </div><div>

b) unnecessarily Creation / destruction of scalar array types</div><div><br></div><div>I am getting the speedup by ~ 1.05 times, which marginal offcourse. As in project's describtion it is mention that ufunc look up code is slow and inefficient. </div>

<div><br></div><div>Few questions</div><div>1. Does it has to check every single data type possible until if finds the best match for the data that the operation is being performed on, or is there better way to find the best possible match?</div>

<div>2. If yes, so where are bottle-necks? Is the checks for proper data types are very expensive?</div><div><br></div><div><br></div><div><br></div><div>[1]<a href="http://projects.scipy.org/scipy/wiki/SummerofCodeIdeas" target="_blank">http://projects.scipy.org/scipy/wiki/SummerofCodeIdeas</a></div>

<div>[2]<a href="https://github.com/arinkverma/numpy/compare/master...gsoc_performance" target="_blank">https://github.com/arinkverma/numpy/compare/master...gsoc_performance</a></div><div>[3]<a href="http://article.gmane.org/gmane.comp.python.numeric.general/52480" target="_blank">http://article.gmane.org/gmane.comp.python.numeric.general/52480</a></div>
<span class="HOEnZb"><font color="#888888">
<div><br></div></font></span></div></div>-- <br>Arink<br>Computer Science and Engineering <br>Indian Institute of Technology Ropar<br><a href="http://www.arinkverma.in" target="_blank">www.arinkverma.in</a>
</div>