<div dir="ltr"><div dir="ltr">On Tue, Sep 10, 2019 at 6:06 AM Hameer Abbasi <<a href="mailto:einstein.edison@gmail.com">einstein.edison@gmail.com</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
  
    
  
  <div>
    <div class="gmail-m_1669295067200721925moz-cite-prefix">On 10.09.19 05:32, Stephan Hoyer wrote:<br>
    </div>
    <blockquote type="cite">
      
      <div dir="ltr">
        <div dir="ltr">On Mon, Sep 9, 2019 at 6:27 PM Ralf Gommers <<a href="mailto:ralf.gommers@gmail.com" target="_blank">ralf.gommers@gmail.com</a>> wrote:<br>
        </div>
        <div class="gmail_quote">
          <blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
            <div dir="ltr">
              <div dir="ltr">I think we've chosen to try the former -
                dispatch on functions so we can reuse the NumPy API. It
                could work out well, it could give some long-term
                maintenance issues, time will tell. The question is now
                if and how to plug the gap that __array_function__ left.
                It's main limitation is "doesn't work for functions that
                don't have an array-like input" - that left out ~10-20%
                of functions. So now we have a proposal for a structural
                solution to that last 10-20%. It seems logical to want
                that gap plugged, rather than go back and say "we
                shouldn't have gone for the first 80%, so let's go no
                further".</div>
            </div>
          </blockquote>
          <div><br>
          </div>
          <div>I'm excited about solving the remaining 10-20% of use
            cases for flexible array dispatching, but the unumpy
            interface suggested here (numpy.overridable) feels like a
            redundant redo of __array_function__ and __array_ufunc__.<br>
          </div>
          <div><br>
          </div>
          <div>I would much rather continue to develop specialized
            protocols for the remaining usecases. Summarizing those I've
            seen in this thread, these include:</div>
          <div>1. Overrides for┬ácustomizing array creation and coercion.</div>
          <div>2. Overrides to implement operations for new dtypes.</div>
          <div>
            <div>3. Overriding implementations of NumPy functions, e.g.,
              FFT and ufuncs with MKL.</div>
          </div>
          <div>
            <div><br>
            </div>
            <div>(1) could mostly be solved by adding np.duckarray() and
              another function for duck array coercion. There is still
              the matter of overriding np.zeros and the like, which
              perhaps justifies another new protocol, but in my
              experience the use-cases for truly an array from scratch
              are quite rare.</div>
          </div>
        </div>
      </div>
    </blockquote>
    <p>While they're rare for libraries like XArray; CuPy, Dask and
      PyData/Sparse need these.<br>
    </p>
    <blockquote type="cite">
      <div dir="ltr">
        <div class="gmail_quote">
          <div><br>
          </div>
          <div>(2) should be tackled as part of overhauling NumPy's
            dtype system to better support user defined dtypes. But it
            should definitely be in the form of specialized protocols,
            e.g., which pass in preallocated arrays to into ufuncs for a
            new dtype. By design, new dtypes should not be able to
            customize the semantics of array *structure*.</div>
        </div>
      </div>
    </blockquote>
    We already have a split in the type system with e.g. Cython's
    buffers, Numba's parallel type system. This is a different issue
    altogether, e.g. allowing a unyt dtype to spawn a unyt array, rather
    than forcing a re-write of unyt to cooperate with NumPy's new dtype
    system.<br></div></blockquote><div><br></div><div>I guess you're proposing that operations like np.sum(numpy_array, dtype=other_dtype) could rely on other_dtype for the implementation and potentially return a non-NumPy array? I'm not sure this is well motivated -- it would be helpful to discuss actual use-cases.</div><div><br></div><div>The most commonly used NumPy functionality related to dtypes can be found only in methods on np.ndarray, e.g., astype() and view(). But I don't think there's any proposal to change that.</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><p>4. Having default implementations that allow overrides of a large
      part of the API while defining only a small part. This holds for
      e.g. transpose/concatenate.</p></div></blockquote><div>I'm not sure how unumpy solve the problems we encountered when trying to do this with __array_function__ -- namely the way that it exposes all of NumPy's internals, or requires rewriting a lot of internal NumPy code to ensure it always casts inputs with asarray().</div><div><br></div><div>I think it would be useful to expose default implementations of NumPy operations somewhere to make it easier to implement __array_function__, but it doesn't make much sense to couple this to user facing overrides. These can be exposed as a separate package or numpy module (e.g., numpy.default_implementations) that uses np.duckarray(), which library authors can make use of by calling inside their __aray_function__ methods.</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div>
    <p>5. Generation of Random numbers (overriding <tt>RandomState</tt>).
      CuPy has its own implementation which would be nice to override.<br></p></div></blockquote><div>I'm not sure that NumPy's random state objects make sense for duck arrays. Because these are stateful objects, they are pretty coupled to NumPy's implementation -- you cannot store any additional state on RandomState objects that might be needed for a new implementation. At a bare minimum, you will loss the reproducibility of random seeds, though this may be less of a concern with the new random API.</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><blockquote type="cite">
      <div dir="ltr">
        <div class="gmail_quote">
          
          <div>I also share Nathaniel's concern that the overrides in
            unumpy are too powerful, by allowing for control from
            arbitrary function arguments and even *non-local* control
            (i.e., global variables) from context managers. This level
            of flexibility can make code very hard to debug, especially
            in larger codebases.</div>
        </div>
      </div>
    </blockquote>
    Backend switching needs global context, in any case. There isn't a
    good way around that other than the class dundermethods outlined in
    another thread, which would require rewrites of large amounts of
    code.<br></div></blockquote><div><br></div><div>Do we really need to support robust backend switching in NumPy? I'm not strongly opposed, but what use cases does it actually solve to be able to override np.fft.fft rather than using a new function?</div><div><br></div><div>At some point, if you want maximum performance you won't be writing the code using NumPy proper anyways. At best you'll be using a system with duck-array support like CuPy.</div></div></div>