转载自: http://cuiqingcai.com/968.html
大家好哈,上一节我们研究了一下爬虫的异常处理问题,那么接下来我们一起来看一下Cookie的使用。
为什么要使用Cookie呢?
Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)
比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的。那么我们可以利用Urllib2库保存我们登录的Cookie,然后再抓取其他页面就达到目的了。
在此之前呢,我们必须先介绍一个opener的概念。
1.Opener
当你获取一个URL你使用一个opener(一个urllib2.OpenerDirector的实例)。在前面,我们都是使用的默认的opener,也就是urlopen。它是一个特殊的opener,可以理解成opener的一个特殊实例,传入的参数仅仅是url,data,timeout。
如果我们需要用到Cookie,只用这个opener是不能达到目的的,所以我们需要创建更一般的opener来实现对Cookie的设置。
2.Cookielib
cookielib模块的主要作用是提供可存储cookie的对象,以便于与urllib2模块配合使用来访问Internet资源。Cookielib模块非常强大,我们可以利用本模块的CookieJar类的对象来捕获cookie并在后续连接请求时重新发送,比如可以实现模拟登录功能。该模块主要的对象有CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。
它们的关系:CookieJar —-派生—->FileCookieJar —-派生—–>MozillaCookieJar和LWPCookieJar
1)获取Cookie保存到变量
首先,我们先利用CookieJar对象实现获取cookie的功能,存储到变量中,先来感受一下
1
2
3
4
5
6
7
8
9
10
11
12
13
|
import urllib2
import cookielib
#声明一个CookieJar对象实例来保存cookie
cookie=cookielib.CookieJar()
#利用urllib2库的HTTPCookieProcessor对象来创建cookie处理器
handler=urllib2.HTTPCookieProcessor(cookie)
#通过handler来构建opener
opener=urllib2.build_opener(handler)
#此处的open方法同urllib2的urlopen方法,也可以传入request
response=opener.open('http://www.baidu.com')
foritem incookie:
print'Name = '+item.name
print'Value = '+item.value
|
我们使用以上方法将cookie保存到变量中,然后打印出了cookie中的值,运行结果如下
|
Name=BAIDUID
Value=B07B663B645729F11F659C02AAE65B4C:FG=1
Name=BAIDUPSID
Value=B07B663B645729F11F659C02AAE65B4C
Name=H_PS_PSSID
Value=12527_11076_1438_10633
Name=BDSVRTM
Value=0
Name=BD_HOME
Value=0
|
2)保存Cookie到文件
在上面的方法中,我们将cookie保存到了cookie这个变量中,如果我们想将cookie保存到文件中该怎么做呢?这时,我们就要用到
FileCookieJar这个对象了,在这里我们使用它的子类MozillaCookieJar来实现Cookie的保存
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
import cookielib
import urllib2
#设置保存cookie的文件,同级目录下的cookie.txt
filename='cookie.txt'
#声明一个MozillaCookieJar对象实例来保存cookie,之后写入文件
cookie=cookielib.MozillaCookieJar(filename)
#利用urllib2库的HTTPCookieProcessor对象来创建cookie处理器
handler=urllib2.HTTPCookieProcessor(cookie)
#通过handler来构建opener
opener=urllib2.build_opener(handler)
#创建一个请求,原理同urllib2的urlopen
response=opener.open("http://www.baidu.com")
#保存cookie到文件
cookie.save(ignore_discard=True,ignore_expires=True)
|
关于最后save方法的两个参数在此说明一下:
官方解释如下:
ignore_discard: save even cookies set to be discarded.
ignore_expires: save even cookies that have expiredThe file is overwritten if it already exists
由此可见,ignore_discard的意思是即使cookies将被丢弃也将它保存下来,ignore_expires的意思是如果在该文件中cookies已经存在,则覆盖原文件写入,在这里,我们将这两个全部设置为True。运行之后,cookies将被保存到cookie.txt文件中,我们查看一下内容,附图如下
3)从文件中获取Cookie并访问
那么我们已经做到把Cookie保存到文件中了,如果以后想使用,可以利用下面的方法来读取cookie并访问网站,感受一下
1
2
3
4
5
6
7
8
9
10
11
12
13
|
import cookielib
import urllib2
#创建MozillaCookieJar实例对象
cookie=cookielib.MozillaCookieJar()
#从文件中读取cookie内容到变量
cookie.load('cookie.txt',ignore_discard=True,ignore_expires=True)
#创建请求的request
req=urllib2.Request("http://www.baidu.com")
#利用urllib2的build_opener方法创建一个opener
opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
response=opener.open(req)
print response.read()
|
设想,如果我们的 cookie.txt 文件中保存的是某个人登录百度的cookie,那么我们提取出这个cookie文件内容,就可以用以上方法模拟这个人的账号登录百度。
4)利用cookie模拟网站登录
下面我们以我们学校的教育系统为例,利用cookie实现模拟登录,并将cookie信息保存到文本文件中,来感受一下cookie大法吧!
注意:密码我改了啊,别偷偷登录本宫的选课系统 o(╯□╰)o
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
import urllib
import urllib2
import cookielib
filename='cookie.txt'
#声明一个MozillaCookieJar对象实例来保存cookie,之后写入文件
cookie=cookielib.MozillaCookieJar(filename)
opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
postdata=urllib.urlencode({
'stuid':'201200131012',
'pwd':'23342321'
})
#登录教务系统的URL
loginUrl='http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bks_login2.login'
#模拟登录,并把cookie保存到变量
result=opener.open(loginUrl,postdata)
#保存cookie到cookie.txt中
cookie.save(ignore_discard=True,ignore_expires=True)
#利用cookie请求访问另一个网址,此网址是成绩查询网址
gradeUrl='http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bkscjcx.curscopre'
result=opener.open(gradeUrl)
print result.read()
|
以上程序的原理如下
创建一个带有cookie的opener,在访问登录的URL时,将登录后的cookie保存下来,然后利用这个cookie来访问其他网址。
如登录之后才能查看的成绩查询呀,本学期课表呀等等网址,模拟登录就这么实现啦,是不是很酷炫?
好,小伙伴们要加油哦!我们现在可以顺利获取网站信息了,接下来就是把网站里面有效内容提取出来,下一节我们去会会正则表达式!
转载请注明:静觅 » Python爬虫入门六之Cookie的使用
相关推荐
请求头中最常见的一些重要内容(爬虫需要): 1. User-Agent:请求载体的身份标识(用啥发送的请求) 2. Referer:防盗链(这次请求是从哪个页面来的?反爬会用到) 3. cookie:本地字符串数据信息(用户登录信息,反爬的...
Scrapy是一个基于Twisted的开源的Python爬虫框架,在工业中应用非常广泛。 相关内容可以参考基于Scrapy网络爬虫的搭建,同时给出这篇文章介绍的微信搜索爬取的项目代码,给大家作为学习参考。 参考项目:使用...
requests 实现了 HTTP 协议中绝大部分功能,它提供的功能包括 Keep-Alive、连接池、Cookie持久化、内容自动解压、HTTP代理、SSL认证等很多特性,下面这篇文章主要给大家介绍了python爬虫入门中关于优雅的HTTP库...
Python爬虫入门目录解析和提取正则表达式 rere的定义re的语法re的使用re的对象re的实战(淘宝网)获取cookie完整代码结果展示XpathXpath的定义HTML的转换XML的读取Xpath实战(丁香园)Beautiful SoupBeautiful Soup...
好在,还有一个非常惊艳的 HTTP 库叫 requests,它是 GitHUb 关注数最多的 Python 项目之一,requests 的作者是 Kenneth Reitz 大神。 requests 实现了 HTTP 协议中绝大部分功能,它提供的功能包括 Keep-Alive、连接...
python的版本经过了python2.x和python3.x等版本,无论哪种版本,关于python爬虫相关的知识是融会贯通的,软件开发网关于爬虫这个方便整理过很多有价值的教程,小编通过本文章给大家做一个关于python爬虫相关知识的...
python入门到高级全栈工程师培训视频学习资料;本资料仅用于学习,请查看后24小时之内删除。 【课程内容】 第1章 01 计算机发展史 02 计算机系统 03 小结 04 数据的概念 05 进制转换 06 原码补码反码 07 物理层和...
特别开心,因为在Python爬虫群里问那些大佬,可是他们的回答令我寒心,自己琢磨!!! 靠谁比如靠自己,为此我总结下经验,以免入门的小白再次踩这样的吭。其实网上很多博客写的都比较不详细甚 首先问题自己思考,不...
Python学习网络爬虫主要分3个大的版块:抓取,分析,存储另外,比较常用的爬虫框架 ,这里最后也详细介绍一下。首先双重一下本人总结的相关文章,这些覆盖了入门网络爬虫需要的基本概念和技巧:当我们在浏览器中输入...
大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧。那么这次为大家带来,Python爬取糗事百科的小段子的例子。 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次...
Python之禅.md README.md 更新日志.md 玩转PyCharm.md Day01-15\01.初识Python.md Day01-15\02.语言元素.md Day01-15\03.分支结构.md Day01-15\04.循环结构.md Day01-15\05.构造程序逻辑.md Day01-15\06.函数和模块...
selenium用到了chrome内核来获取cookie 文件结构 timetables static css bootstrap.min.css templates 404.html base.html error.html index.html week.html venv app.py(flask后端程序) connect_sql.py(用于flask...
small_spider专门记录自己做过的小爬虫豆瓣电影的影评用request实现,需要带行cookie,从浏览器复制,之后加载到session后运行,单进程实现。PythonExample是菜鸟编程的 Python3 实例,预计有55题。适合新手入门训练