<div dir="ltr">I think you are right, it's not a bandwidth issue. But NFS dealing with that many small functions may be the bottleneck. <div><br></div><div>I've seen NFS be the bottleneck many times when dealing with large amounts of small files or small changes. Big file transfers, it blazes. Tons of tiny ones, grinds to a halt. Some NFS mount tweaks can help that though.</div></div><br><div class="gmail_quote"><div dir="ltr">On Tue, Oct 30, 2018 at 2:55 AM Sebastian Pölsterl <<a href="mailto:sebp@k-d-w.org">sebp@k-d-w.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
I'm using borg via borgmatic to backup of about 10TB of data. Since <br>
incremental backups take about 13 hours, I was wondering if there's any <br>
configuration option that can be used to speed things up, or if 13 hours <br>
is an expected duration.<br>
<br>
In total, the volume contains about 25 million files, but changes are <br>
rare. Backups are created daily and are carried out over a gigabit <br>
network connection with the client's disk mounted via NFS on the server <br>
running borg. Backups are created with --files-cache ctime,size and lz4 <br>
compression. Based on monitoring bandwidth usage, I would say that <br>
network bandwidth is not the bottleneck.<br>
<br>
Is there any configuration option I have been missing so far that could <br>
help to speed up daily backups?<br>
<br>
Thanks for your help!<br>
<br>
-- <br>
Sebastian<br>
_______________________________________________<br>
Borgbackup mailing list<br>
<a href="mailto:Borgbackup@python.org" target="_blank">Borgbackup@python.org</a><br>
<a href="https://mail.python.org/mailman/listinfo/borgbackup" rel="noreferrer" target="_blank">https://mail.python.org/mailman/listinfo/borgbackup</a><br>
</blockquote></div>