<div dir="ltr">Hi all<div><br></div><div>Numba looks so nice library to try.<br></div><div><div>Thanks for the information.</div></div><div><br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div text="#000000" bgcolor="#FFFFFF">
    This suggests a new, higher-level data model which supports
    replicating data into different memory spaces (e.g. host and GPU).
    Then users (or some higher layer in the software stack) can dispatch
    operations to suitable implementations to minimize data movement.<br>
    <br>
    Given NumPy's current raw-pointer C API this seems difficult to
    implement, though, as it is very hard to track memory aliases.</div></blockquote><div>I understood modifying numpy.ndarray for GPU is technically difficult.</div><div><br></div><div>So my next primitive question is why NumPy doesn't offer</div><div>ndarray like interface (e.g. numpy.gpuarray)?</div><div>I wonder why everybody making *separate* library, making user confused.</div><div>Is there any policy that NumPy refuse standard GPU implementation?</div><div><br></div><div>Thanks. </div></div></div><br clear="all"><br>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">Yasunori Endo</div></div>