<p><br>
On Jun 11, 2014 1:16 AM, "JLMS" <<a href="mailto:jjllmmss@googlemail.com">jjllmmss@googlemail.com</a>> wrote:<br>
><br>
> HI,<br>
><br>
> I am wondering what are people out there doing to transfer high volumes of data (100 GB or more every time) between geographically distant sites.<br>
><br>
> I started using rsync (over ssh, including using a version of ssh optimized for performance during file transfers) and got very poor performance (3-7 MB/s).<br>
><br>
> I started to play with sending data in parallel (going as far as splitting some files) and although I improved speed by a factor of 3 or 4 times, the time the transfers take is still unsatisfactory.<br>
><br>
> I started by opening many instances of rsync and my bottleneck became the amount of sessions ssh can handle before starting to drop connections, at the end I had to settle for running around 10 rsync instances, this works much better but would be considered still slow by the powers that be.<br>

><br>
> I would appreciate any ideas, pointers, etc that may make possible to transfer such amounts of data in an efficient manner as possible. I am looking for expertise in the field rather than assisted googling (although if you find something very,very interesting I would of course love to hear about it) :-)<br>

></p>
<p>What is the latency of the link? <br>
What is the bandwidth of the link?<br>
You might need to use transfer protocols more suited to satellite links.</p>
<p>James<br>
</p>