<div dir="ltr">All,<br><br>I am excited to announce the release of MyGrad 2.0.<br><br>MyGrad's primary goal is to make automatic differentiation accessible and easy to use across the NumPy ecosystem (see [1] for more detailed comments).<br><div><br></div><div>Source: <a href="https://github.com/rsokl/MyGrad">https://github.com/rsokl/MyGrad</a><br>Docs: <a href="https://mygrad.readthedocs.io/en/latest/">https://mygrad.readthedocs.io/en/latest/</a><br><div><br>MyGrad's only dependency is NumPy and (as of version 2.0) it makes keen use of NumPy's excellent protocols for overriding functions and ufuncs. Thus you can "drop in" a mygrad-tensor into your pure NumPy code and compute derivatives through it.<br><br>Ultimately, MyGrad could be extended to bring autodiff to other array-based libraries like CuPy, Sparse, and Dask.<br><br>For full release notes see [2]. Feedback, critiques, and ideas are welcome!<br><br>Cheers,<br>Ryan Soklaski<br><br>[1] MyGrad is not meant to "compete" with the likes of PyTorch and JAX, which are fantastically-fast and powerful autodiff libraries. Rather, its emphasis is on being lightweight and seamless to use in NumPy-centric workflows.<br>[2] <a href="https://mygrad.readthedocs.io/en/latest/changes.html#v2-0-0">https://mygrad.readthedocs.io/en/latest/changes.html#v2-0-0</a><br><br><br></div></div></div>