<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
Second, each local machine needs to maintain a cache index to do the<br>
deduplication. This is done automatically for you, but takes some<br>
extra time to rebuild every time you switch machines. It also takes up<br>
some space on each machine.<br clear="all"><br></blockquote><div><br><br></div><div>I have seen that too, and for me backup from multiple machines is a requirement.<br></div><div>I am using borg this way as a perfect n-way sync tool - even if something goes wrong  I can dig to an earlier version.<br><br></div><div>What I've seen and I wish it could be improved, is that every time it seems to bring a lot of meta data, even from those backups that originate from my machine.<br></div><div>I was expecting to bring only hashes of the machines in between, not from mines.<br></div><div><br>Let me explain a little bit, if I may.<br></div><div>Let's say I have machine A and machine B.<br></div><div>So I perform backup A-1, A-2, A3.<br></div><div>Then when I try to send backup B-1, before that I get hashes from A-1, A-2, A3 (which makes sense). So the order now of backups is A-1, A-2, A-3, B-1.<br><br></div><div>When I try back to perform backup on A again, then I get hashes from all backups, A-1, A-2, A-3, B-1 , while I was expecting only hasjed from B-1.<br></div><div>If I have many backups, which is the case of course, then this gets big really quick...<br><br></div><div>PS: I don't know if it fetches the 100% of older hashes, but for sure it fetches all  foreign hashes and most self hashes.<br></div></div><br>-- <br><div class="gmail_signature">Panayotis Katsaloulis<br></div>
</div></div>