<br><br><div class="gmail_quote">On Tue, Jan 5, 2010 at 9:36 PM, Philip Semanchuk <span dir="ltr"><<a href="mailto:philip@semanchuk.com">philip@semanchuk.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

<div class="im"><br>
On Jan 5, 2010, at 11:26 PM, aditya shukla wrote:<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hello people,<br>
<br>
I have 5 directories corresponding 5  different urls .I want to download<br>
images from those urls and place them in the respective directories.I have<br>
to extract the contents and download them simultaneously.I can extract the<br>
contents and do then one by one. My questions is for doing it simultaneously<br>
do I have to use threads?<br>
</blockquote>
<br></div>
No. You could spawn 5 copies of wget (or curl or a Python program that you've written). Whether or not that will perform better or be easier to code, debug and maintain depends on the other aspects of your program(s).<br>


<br>
bye<br>
Philip</blockquote><div><br></div><div>Obviously, spawning 5 copies of wget is equivalent to starting 5 threads. The answer is 'yes'. </div></div><br>