<div dir="ltr">I m really sorry if no one of you liked/agreed with the fridge analogy but that&#39;s what my brain could come up with at the time, I have to say it&#39;s not a very scientific argument. but I only meant to say that if you are piping data into memory &amp; this data is larger than that memory then there is no problem with the code but with the data, &amp; I think this paragraph actually confirms some of it :<br>
<br><blockquote style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;" class="gmail_quote">
For anyone who cares about the real issue: it seems that tarfile.py caches<br>
every member it processes in an internal list. &nbsp;The list isn&#39;t actually<br>
used if accessing the file as an iterator, so by reinitializing it to [],<br>
the memory consumption problem is avoided. &nbsp;This breaks other methods of<br>
the module, which are used to extract particular desired members, but in<br>
my case, that&#39;s okay.<br></blockquote><div><br>but I have to admit I was completely wrong and a new patch to the tarfile module will soon see the light to fix this problem for the rest of ur lives painlessly.<br><br>
<br></div></div>