问答文章1 问答文章501 问答文章1001 问答文章1501 问答文章2001 问答文章2501 问答文章3001 问答文章3501 问答文章4001 问答文章4501 问答文章5001 问答文章5501 问答文章6001 问答文章6501 问答文章7001 问答文章7501 问答文章8001 问答文章8501 问答文章9001 问答文章9501

python 怎样爬去网页的内容

发布网友 发布时间:2022-04-20 01:29

我来回答

2个回答

懂视网 时间:2022-05-10 11:26

本篇文章主要介绍了python3使用requests模块爬取页面内容的实战演练,具有一定的参考价值,有兴趣的可以了解一下

1.安装pip

我的个人桌面系统用的linuxmint,系统默认没有安装pip,考虑到后面安装requests模块使用pip,所以我这里第一步先安装pip。


$ sudo apt install python-pip

安装成功,查看PIP版本:


$ pip -V

2.安装requests模块

这里我是通过pip方式进行安装:


$ pip install requests

运行import requests,如果没提示错误,那说明已经安装成功了!

检验是否安装成功

3.安装beautifulsoup4

Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库。它能够通过你喜欢的转换器实现惯用的文档导航,查找、修改文档的方式。Beautiful Soup会帮你节省数小时甚至数天的工作时间。


$ sudo apt-get install python3-bs4

注:这里我使用的是python3的安装方式,如果你用的是python2,可以使用下面命令安装。


$ sudo pip install beautifulsoup4

4.requests模块浅析

1)发送请求

首先当然是要导入 Requests 模块:


>>> import requests

然后,获取目标抓取网页。这里我以下为例:


>>> r = requests.get('http://www.gxlcms.com/article/124421.htm')

这里返回一个名为 r 的响应对象。我们可以从这个对象中获取所有我们想要的信息。这里的get是http的响应方法,所以举一反三你也可以将其替换为put、delete、post、head。

2)传递URL参数

有时我们想为 URL 的查询字符串传递某种数据。如果你是手工构建 URL,那么数据会以键/值对的形式置于 URL 中,跟在一个问号的后面。例如, cnblogs.com/get?key=val。 Requests 允许你使用 params 关键字参数,以一个字符串字典来提供这些参数。

举例来说,当我们google搜索“python爬虫”关键词时,newwindow(新窗口打开)、q及oq(搜索关键词)等参数可以手工组成URL ,那么你可以使用如下代码:


>>> payload = {'newwindow': '1', 'q': 'python爬虫', 'oq': 'python爬虫'}

>>> r = requests.get("https://www.google.com/search", params=payload)

3)响应内容

通过r.text或r.content来获取页面响应内容。


>>> import requests

>>> r = requests.get('https://github.com/timeline.json')

>>> r.text

Requests 会自动解码来自服务器的内容。大多数 unicode 字符集都能被无缝地解码。这里补充一点r.text和r.content二者的区别,简单说:

resp.text返回的是Unicode型的数据;

resp.content返回的是bytes型也就是二进制的数据;

所以如果你想取文本,可以通过r.text,如果想取图片,文件,则可以通过r.content。

4)获取网页编码


>>> r = requests.get('http://www.cnblogs.com/')

>>> r.encoding

'utf-8'

5)获取响应状态码

我们可以检测响应状态码:


>>> r = requests.get('http://www.cnblogs.com/')

>>> r.status_code

200

5.案例演示

最近公司刚引入了一款OA系统,这里我以其官方说明文档页面为例,并且只抓取页面中文章标题和内容等有用信息。

演示环境

操作系统:linuxmint

python版本:python 3.5.2

使用模块:requests、beautifulsoup4

代码如下:


#!/usr/bin/env python
# -*- coding: utf-8 -*-
_author_ = 'GavinHsueh'

import requests
import bs4

#要抓取的目标页码地址
url = 'http://www.ranzhi.org/book/ranzhi/about-ranzhi-4.html'

#抓取页码内容,返回响应对象
response = requests.get(url)

#查看响应状态码
status_code = response.status_code

#使用BeautifulSoup解析代码,并锁定页码指定标签内容
content = bs4.BeautifulSoup(response.content.decode("utf-8"), "lxml")
element = content.find_all(id='book')

print(status_code)
print(element)

程序运行返回爬去结果:

抓取成功

关于爬去结果乱码问题

其实起初我是直接用的系统默认自带的python2操作的,但在抓取返回内容的编码乱码问题上折腾了老半天,google了多种解决方案都无效。在被python2“整疯“之后,只好老老实实用python3了。对于python2的爬取页面内容乱码问题,欢迎各位前辈们分享经验,以帮助我等后生少走弯路。

热心网友 时间:2022-05-10 08:34

用python爬取网页信息的话,需要学习几个模块,urllib,urllib2,urllib3,requests,httplib等等模块,还要学习re模块(也就是正则表达式)。根据不同的场景使用不同的模块来高效快速的解决问题。

最开始我建议你还是从最简单的urllib模块学起,比如爬新浪首页(声明:本代码只做学术研究,绝无攻击用意):

这样就把新浪首页的源代码爬取到了,这是整个网页信息,如果你要提取你觉得有用的信息得学会使用字符串方法或者正则表达式了。

平时多看看网上的文章和教程,很快就能学会的。

补充一点:以上使用的环境是python2,在python3中,已经把urllib,urllib2,urllib3整合为一个包,而不再有这几个单词为名字的模块

声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com
胜达这款车百公里油耗多少? 胜达节能油加盟办厂可靠吗是不是骗子 河南洛阳胜达就是骗子,我把钱交了也不来人了,他们一个老总说了爱咋办... 胜达油是个骗局吗 胜达节能油是什么? 叩解度关于叩解的论述 湿重跟湿重有关的打浆磨片 戴尔XPS M1330-950重要参数 如果到别的单位去面试的话 如果人家问起为什么会选择这家公司而离开另外... 学生会被两个部门同时面试怎么办 瓷砖用什么清洁剂好,如何清洗瓷砖,外墙瓷砖如何... 本人想用C#做一个WEB版的网络爬虫,具体实现给出新... 瓷砖用什么清洁剂好,外墙瓷砖如何清洗? java 爬虫怎么做 草酸清洗瓷砖使用方法 想做一个网络爬虫,它能够通过关键字来爬取网页。... 瓷砖用什么清洁剂好怎样清洗,外墙瓷砖如何清洗 什么是网络爬虫以及怎么做它? 瓷砖墙面清洗剂的类型及如何清洁瓷砖墙面 如何使用Java语言实现一个网页爬虫 瓷砖消雾剂的使用方法 如何使用爬虫做一个网站? 瓷砖清洗剂 瓷砖清洁剂强力去污方法 买个什么样的手机无线上网合适 笔记本怎么用wap上网 电话铃声怎么设置 怎样设置电话铃声 OPPO A8手机单个联系人电话铃声怎么设置? 一来电话屏幕上方出现更换铃声怎么设置 美缝剂清洗剂怎么用?瓷砖上的美缝剂咋清理 ? 怎么样做一个简单的网络爬虫程序,实现爬出一个网... 做网页的步骤是什么? 瓷砖地面清洁剂有哪些 日常清洁瓷砖地面的小方法 如何爬虫网页数据 洗瓷砖用盐酸还是草酸 求大神帮忙写一下正则表达式,我现在要做一个网络... 瓷片怎么清洁 墙面瓷片很脏了,有什么办法清洗呀?好烦哦... 新手求助:爬一个网页发现爬下来的网页源码 搜索引擎如何对网站进行爬行和抓取 家里的瓷砖太脏了,用洁佬爷瓷砖清洁剂可以清理掉... 现在做一个爬虫程序,希望把爬到的网页存进hadoop... 瓷砖用什么清洁剂 如果在一个网站开发程序里编写一段爬虫程序能不能... 地砖清洗剂常见问题 地砖清洗剂哪种好? java写网络爬虫,如何爬取在同一个网页中,但是已... 如何让网页被爬虫抓取? Python爬网页 哪里能卖手表卡西欧