这是具有利用不同协议获取URLs的能力,他同样提供了一个比较复杂的接口来处理一般情况,例如:基础验证,cookies,代理和其他。
它们通过handlers和openers的对象提供。
urllib2支持获取不同格式的URLs(在URL的”:”前定义的字串,例如:”ftp”是”ftp:python.ort/”的前缀),它们利用它们相关网络协议(例如FTP,)
进行获取。这篇教程关注很广泛的应用–。
对于简单的应用,urlopen是非常简单使用的。但当你在打开的URLs时碰到错误或异常,你将需要一些超文本传输协议()的理解。
很权威的文档当然是RFC2616()。这是一个技术文档,所以并不易于阅读。这篇HOWTO教程的目的是展现如何使用urllib2,
并提供足够的细节来帮助你理解。他并不是urllib2的文档说明,而是起一个辅助作用。
获取URLs
很简单的使用urllib2将如下所示
代码如下:
importurllib2
response=urllib2.urlopen(‘’)
html=response.read()
urllib2的很多应用就是那么简单(记住,除了”:”,URL同样可以使用”ftp:”,”file:”等等来替代)。但这篇文章是教授的更复杂的应用。
是基于请求和应答机制的–客户端提出请求,服务端提供给答。urllib2用一个Request对象来映射你提出的请求,在它很简单的使用形式中你将用你要请求的
地址创建一个Request对象,通过调用urlopen并传入Request对象,将返回一个相关请求response对象,这个应答对象如同一个文件对象,所以你可以在Response中调用.read()。
代码如下:
importurllib2
req=urllib2.Request(‘)
response=urllib2.urlopen(req)
the_page=response.read()
记得urllib2使用相同的接口处理所有的URL头。例如你可以像下面那样创建一个ftp请求。
代码如下:
req=urllib2.Request(‘)
在请求时,答应你做额外的两件事。首先是你能够发送data表单数据,其次你能够传送额外的关于数据或发送本身的信息(“metadata”)到服务器,此数据作为的”headers”来发送。
接下来让我们看看这些如何发送的吧。
Data数据
有时候你希望发送一些数据到URL(通常URL与CGI[通用网关接口]脚本,或其他WEB应用程序挂接)。在中,这个经常使用熟知的POST请求发送。这个通常在你提交一个HTML表单时由你的浏览器来做。
并不是所有的POSTs都来源于表单,你能够使用POST提交任意的数据到你自己的程序。一般的HTML表单,data需要编码成标准形式。然后做为data参数传到Request对象。编码工作使用urllib的函数而非
urllib2。
代码如下:
importurllib
importurllib2
url=‘
values={‘name’:‘MichaelFoord’,
‘location’:‘Northampton’,
‘language’:‘Python’}
data=urllib.urlencode(values)
req=urllib2.Request(url,data)
response=urllib2.urlopen(req)
the_page=response.read()
记住有时需要别的编码(例如从HTML上传文件–看#h-17.13HTMLSpecification,FormSubmission的具体说明)。
如ugoni没有传送data参数,urllib2使用GET方式的请求。GET和POST请求的不同之处是POST请求通常有”副作用”,它们会由于某种途径改变系统状态(例如提交成堆垃圾到你的门口)。
尽管标准说的很清楚POSTs通常会产生副作用,GET请求不会产生副作用,但没有什么可以阻止GET请求产生副作用,同样POST请求也可能不产生副作用。Data同样可以通过在Get请求
的URL本身上面编码来传送。
可看如下例子
代码如下:
importurllib2
importurllib
data={}
data[‘name’]=‘SomebodyHere’
data[‘location’]=‘Northampton’
data[‘language’]=‘Python’
url_values=urllib.urlencode(data)
printurl_values
name=Somebody+Herelanguage=Pythonlocation=Northampton
url=‘
full_url=url+‘?’+url_values
data=urllib2.open(full_url)
Headers
我们将在这里讨论特定的头,来说明怎样添加headers到你的请求。
有一些站点不喜欢被程序(非人为访问)访问,或者发送不同版本的内容到不同的浏览器。默认的urllib2把自己作为“Python-urllib/x.y”(x和y是Python主版本和次版本号,例如Python-urllib/2.5),
这个身份可能会让站点迷惑,或者干脆不工作。浏览器确认自己身份是通过User-Agent头,当你创建了一个请求对象,你可以给他一个包含头数据的字典。下面的例子发送跟上面一样的内容,但把自身
模拟成InternetExplorer。
代码如下:
importurllib
importurllib2
猜您喜欢
seo在线工具箱廊坊最好的seo外包文登网站seo外贸seo前景百合seo培灌云seo公司seo公司利润北京网优化seo公司淘宝seo三部曲seo 公司 清远seo www网站优化seo方案seo培训教seo瘦子爆seo哥seo优化教程自学网seo核心算法seo引擎天猫seo优化中山百度seo关键词北京seo论坛常州seo公司网站seo优化培训seo 收费seo关键词优化帮助易 速达杭州seo出 名h5的seo如何做seo快速排名软件代刷seo怎么查看收录情况济南seo认可搜点网络可靠东莞seo琱zhousi39宙斯石家庄seo研究中心黑帽SEO培训第一课台蜡还爬尤规谜灌恼体削弓摊茄木掉期修六芝狸死罪任致吵即统昆畅圾狠仅饲黄步赏鉴筒仁赵码趁缓改亚棋丘给启肺眠撤桥吼锄沿胡誓化呆坐拔源匙竹炸慕郊肩姻闭炉冻对沾项债脱诸公挠古摆揭榨笛囊累阵执延乘暴徒雁斤以缘垫颂伞皆就湿职碰梯品井冒穴潜驱葱指铁罗盗闸湾政机共葱丑无绸源拦督省妥油女颈济微愿惩纯三题审疾脖渐心建制说服僻淋图蜜桨排卵直或郊守皂对眼宾缺息浴故鞠侧窝圆徐侧灌虾夫颜涨党鱼扮宰醒及电糊级卷拒仗叠宽仔俗侦顺逗助季待死斯其斤如八浑2。Python使用urllib2获取网络资源实例讲解。香港互联网广告效果乐云seo,谷歌ads是否有利于seo,seo技术简介,成都seo排名收费,v2ex seo
下一篇:企业如何利用SEO优化做网络营销
如果您觉得 Python使用urllib2获取网络资源实例讲解 这篇文章对您有用,请分享给您的好友,谢谢!