<div dir="ltr"><div><div><br></div>xz compression is pretty hard, if a little bit slow.  Also, if you want really stellar compression ratios and you don't care about time to compress, you might check out one of the many paq implementations.<br>
<br>I have a module that does xz compression in 4 different ways:<br><a href="http://stromberg.dnsalias.org/svn/backshift/tags/1.20/xz_mod.py">http://stromberg.dnsalias.org/svn/backshift/tags/1.20/xz_mod.py</a><br></div>It's only for smallish chunks in the ctypes version, because that was all I needed.  The others should be able to handle relatively large inputs.<br>
<div><div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Oct 30, 2013 at 11:21 AM,  <span dir="ltr"><<a href="mailto:jonas.thornvall@gmail.com" target="_blank">jonas.thornvall@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">I am searching for the program or algorithm that makes the best possible of completly (diffused data/random noise) and wonder what the state of art compression is.<br>

<br>
I understand this is not the correct forum but since i think i have an algorithm that can do this very good, and do not know where to turn for such question i was thinking to start here.<br>
<br>
It is of course lossless compression i am speaking of.<br>
<span class=""><font color="#888888">--<br>
<a href="https://mail.python.org/mailman/listinfo/python-list" target="_blank">https://mail.python.org/mailman/listinfo/python-list</a><br>
</font></span></blockquote></div><br></div></div></div></div>