I fetched a different problem. Whenever I tried to fetch any page from wikipedia, I received 403. Then I found that wikipedia don't accept the default user-agent (might be python-urllib2.x or something like this). After setting my own user-agent, it worked fine. You can try this if you receive 403.<br>
<br><div class="gmail_quote">On Thu, Nov 26, 2009 at 10:04 AM, Stephen Hansen <span dir="ltr"><<a href="mailto:apt.shansen@gmail.com">apt.shansen@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<br><br><div class="gmail_quote">2009/11/25 Steven D'Aprano <span dir="ltr"><<a href="mailto:steven@remove.this.cybersource.com.au" target="_blank">steven@remove.this.cybersource.com.au</a>></span><div class="im">
<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
I'm trying to scrape a Wikipedia page from Python. Following instructions<br>
here:<br>
<br></blockquote><div><br></div></div><div>Have you checked out <a href="http://meta.wikimedia.org/wiki/Pywikipediabot" target="_blank">http://meta.wikimedia.org/wiki/Pywikipediabot</a>?</div><div><br></div><div>Its not just via urllib, but I've scraped several MediaWiki-based sites with the software successfully.</div>

<div><br></div><font color="#888888"><div>--S</div></font></div>
<br>--<br>
<a href="http://mail.python.org/mailman/listinfo/python-list" target="_blank">http://mail.python.org/mailman/listinfo/python-list</a><br>
<br></blockquote></div><br>