<p dir="ltr">On 28 Oct 2014 20:10, "Chris Barker" <<a href="mailto:chris.barker@noaa.gov">chris.barker@noaa.gov</a>> wrote:<br>
><br>
> Memory efficiency -- somethign like my growable array is not all that hard to implement and pretty darn quick -- you just do the usual trick_ over allocate a bit of memory, and when it gets full re-allocate a larger chunk.</p>
<p dir="ltr">Can't you just do this with regular numpy using .resize()? What does your special class add? (Just curious.)</p>
<p dir="ltr">> From a quick loo, it seems that the Panda's code is pretty nice -- maybe the 2X memory footprint should be ignored.</p>
<p dir="ltr">+1</p>
<p dir="ltr">It's fun to sit around and brainstorm clever implementation strategies, but Wes already went ahead and implemented all the tricky bits, and optimized them too. No point in reinventing the wheel.</p>
<p dir="ltr">(Plus as I pointed out upthread, it's entirely likely that this "2x overhead" is based on a misunderstanding/oversimplification of how virtual memory works, and the actual practical overhead is much lower.)</p>
<p dir="ltr">-n</p>