(参考资料:现代魔法学院 )
Python标准库中有许多实用的工具类,但是在具体使用时,标准库文档上对使用细节描述的并不清楚,比如 urllib和urllib2 这个 HTTP 客户端库。这里总结了一些 urllib和urlib2 库的使用细节。
Python urllib 库提供了一个从指定的 URL 地址获取网页数据,然后对其进行分析处理,获取想要的数据。
一、urllib常用函数介绍:
1. urlopen()函数:即创建一个类文件对象为指定的 url 来读取。
可以使用help(urllib.urlopen)查看函数说明。
urlopen(url, data=None, proxies=None)
Create a file-like object for the specified URL to read from.urlopen返回一个类文件对象,它提供了如下方法:
read(),readline,readlines,fileno和close: 这些方法的使用和文件对象一样;
info(): 返回一个httplib.HTTPMessage对象,表示远程服务器返回的头信息。
getcode():返回Http状态码,如果是http请求,200表示请求成功完成,404表示网址没有找到。
getutl: 返回请求的url地址。
示例:
>>>import urllib
>>>baidu = urllib.urlopen('http://www.baidu.com')
>>>baidu.read()
>>> print baidu.info()
输出:
Date: Fri, 24 Apr 2015 05:41:40 GMT
Server: ApacheCache-Control: max-age=86400Expires: Sat, 25 Apr 2015 05:41:40 GMTLast-Modified: Tue, 12 Jan 2010 13:48:00 GMTETag: "51-4b4c7d90"Accept-Ranges: bytesContent-Length: 81Connection: CloseContent-Type: text/html>>>for line in baidu: #等价于read(),就像在操作本地文件,将网页数据打印出来。
print line,
baidu.close()
补充:
- urllib.open的参数有特别要示,要遵循一些网络协议,比如http,ftp,也就是说在网址的开头必须要有http://或ftp://如:
urllib.urlopen('http://www.baidu.com')
urllib.urlopen('ftp://192.168.1.200')
- 若要使用本地文件,就需要在前面加filt关键字,如:
urllib.urlopen('file:nowangic.py')
urllib.urlopen('file:F:\test\helloworld.py')
2. urlretrieve()函数:直接将远程数据下载到本地。
可以使用help(urllib.urlretvieve)查看函数说明
Help on function urlretrieve in module urllib:
urlretrieve(url, filename=None, reporthook=None, data=None)
- 参数 finename 指定了保存本地路径(如果参数未指定,urllib会生成一个临时文件保存数据。)
- 参数 reporthook 是一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,我们可以利用这个回调函数来显示当前的下载进度。
- 参数 data 指 post 到服务器的数据,该方法返回一个包含两个元素的(filename, headers)元组,filename 表示保存到本地的路径,header 表示服务器的响应头。
示例1:
>>>urllib.urlretrieve('http://www.soso.com','c://soso.html')
('c://soso.html', <httplib.HTTPMessage instance at 0x0000000005187A48>)
示例2:下面是urlretrieve()下载文件实例,可以显示下载进度。
#coding:utf-8
import urllib
def cbk(a,b,c):
""" @a: 已经下载的数据块 @b: 数据块的大小 @c: 远程文件的大小 """ per = 100.0 *a*b/c if per >100: per = 100 print '#%d%%'% perurl = 'http://www.soso.com'
local = 'c://test//soso.html'urllib.urlretrieve(url,local,cbk)
示例3:爬虫练习:
#-*-coding:utf-8-*-
""" 爬虫练习
Date:06-15-2015
"""
import urllib
import re
#获取指定url网页内容
def getHtml(url):
page = urllib.urlopen(url)
html = page.read()
return html
#利用正则表达式将指定的图片下载
def getImg(html):
reg = 'src="(.*?\.jpg)" pic_ext'
regimg = re.compile(reg)
imglist = re.findall(regimg,html)
x = 0
for img in imglist:
urllib.urlretrieve(img,'%s.jpg' % x)
x+=1
Html = getHtml('http://tieba.baidu.com/p/3825178610')
Img = getImg(Html)