返回顶部
首页 > 资讯 > 精选 >如何使用BeautifulSoup4数据解析实例
  • 811
分享到

如何使用BeautifulSoup4数据解析实例

2023-06-14 15:06:18 811人浏览 薄情痞子
摘要

小编给大家分享一下如何使用BeautifulSoup4数据解析实例,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!这里以爬取三国演义所有章节为例。1.爬取要求是爬取

小编给大家分享一下如何使用BeautifulSoup4数据解析实例,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

这里以爬取三国演义所有章节为例。

1.爬取要求是爬取三国演义的所有章节

2.目标地址:https://www.shicimingju.com/book/sanguoyanyi.html

3.代码

from bs4 import BeautifulSoupimport requestsif __name__ == '__main__':headers = {'User-Agent': 'Mozilla/5.0 (windows NT 10.0; Win64; x64) AppleWEBKit/537.36 (Khtml, like Gecko) Chrome/84.0.4147.105 Safari/537.36'}url = 'https://www.shicimingju.com/book/sanguoyanyi.html'page_text = requests.get(url=url,headers=headers).text    soup = BeautifulSoup(page_text,'lxml')li_list = soup.select('.book-mulu > ul > li')fp = open('./三国演义小说.txt','w',encoding='utf-8')for li in li_list:title = li.a.string        detail_url = 'Https://www.shicimingju.com'+li.a['href']detail_page_text = requests.get(url=detail_url,headers=headers).text        detail_soup = BeautifulSoup(detail_page_text, 'lxml')div_tag = detail_soup.find('div',class_='chapter_content')content = div_tag.text        fp.write('\n' + title + ':' + content +'\n')print(title,'爬取成功')

4.出现乱码以及处理

如何使用BeautifulSoup4数据解析实例

response.text在用文本格式看的时候有乱码,回来的内容可能被压缩了。在此修改response.content.decode(utf-8)以utf-8格式输出。

from bs4 import BeautifulSoupimport requestsif __name__ == '__main__':headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'}url = 'https://www.shicimingju.com/book/sanguoyanyi.html'page_text = requests.get(url=url,headers=headers).content.decode("utf-8")soup = BeautifulSoup(page_text,'lxml')li_list = soup.select('.book-mulu > ul > li')fp = open('./三国演义小说.txt','w',encoding='utf-8')for li in li_list:title = li.a.string        detail_url = 'https://www.shicimingju.com'+li.a['href']detail_page_text = requests.get(url=detail_url,headers=headers).content.decode("utf-8")detail_soup = BeautifulSoup(detail_page_text, 'lxml')div_tag = detail_soup.find('div',class_='chapter_content')content = div_tag.text        fp.write('\n' + title + ':' + content +'\n')print(title,'爬取成功')

5.最终效果展现

如何使用BeautifulSoup4数据解析实例

以上是“如何使用BeautifulSoup4数据解析实例”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网精选频道!

--结束END--

本文标题: 如何使用BeautifulSoup4数据解析实例

本文链接: https://lsjlt.com/news/272670.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • 如何使用BeautifulSoup4数据解析实例
    小编给大家分享一下如何使用BeautifulSoup4数据解析实例,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!这里以爬取三国演义所有章节为例。1.爬取要求是爬取...
    99+
    2023-06-14
  • Python爬虫解析器BeautifulSoup4怎么使用
    这篇文章主要介绍“Python爬虫解析器BeautifulSoup4怎么使用”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Python爬虫解析器BeautifulSoup4怎么使用”文章能帮助大家解...
    99+
    2023-07-02
  • 如何使用GSON解析JSON数据
    目录添加依赖JSON数据介绍GsonFormat@SerializedName注解Gson的使用具体实例GSON是谷歌提供的一个开源库,可以用来解析JSON数据 添加依赖 不过GSO...
    99+
    2024-04-02
  • Python实战使用XPath采集数据示例解析
    目录lxml发送请求明确需求:解析数据保存数据lxml lxml 是 Python 的一个库,用于解析和呈现 XML 和 HTML。它支持多种内置和第三方 XML 和 HTML 标记...
    99+
    2023-05-16
    Python XPath采集数据 Python XPath
  • Android使用OKHTTP解析JSON数据的实例代码
    为了代码重用,我们首先封装一个类。这个类是HttpUtilHttpUtil.javapackage com.example.asus.networktest; import okhttp3.OkHttpClient;import okhtt...
    99+
    2023-05-31
    okhttp json roi
  • JavaScript数据类型使用实例分析
    这篇文章主要讲解了“JavaScript数据类型使用实例分析”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“JavaScript数据类型使用实例分析”吧! ...
    99+
    2024-04-02
  • Python数据分析:案例实操:使用Py
    Python爬虫太火了,没写过爬虫,都不敢说自己学过Python?! 可是刚一开始学,我就遇到了难题----数据分析!听起来很高大上,有没有? 想要做爬虫,就得先学会使用数据分析工具,制作图表这是最基本的。网上发现一个讲Pytho...
    99+
    2023-01-31
    案例 数据 Python
  • nodejs body-parser 解析post数据实例
    安装 $ npm install body-parser API var bodyPaeser =require('body-parser') 可以通过body-parser 对象创建中间件,当...
    99+
    2022-06-04
    实例 数据 body
  • Pandas数据分析之groupby函数用法实例详解
    目录正文一、了解groupby二、数据文件简介三、求各个商品购买量四、求各个商品转化率五、转化率最高的30个商品及其转化率小小の总结正文 今天本人在赶学校课程作业的时候突然发现gro...
    99+
    2024-04-02
  • 如何在 Python 中使用 numpy 实现实时数据分析?
    Python 是一种非常强大的编程语言,而 numpy 则是 Python 中用于科学计算的一个强大的工具。numpy 提供了许多用于数值计算的功能和数据结构,因此它被广泛地用于实时数据分析。在本篇文章中,我们将介绍如何使用 numpy 在...
    99+
    2023-07-04
    编程算法 numy 实时
  • 阿里云实例与数据库实例区别解析
    在使用阿里云服务时,我们常常会涉及到实例和数据库实例的概念。本文将详细解析这两种实例的区别。 阿里云实例和数据库实例是阿里云提供的两种不同类型的服务。虽然它们在表面上看起来类似,但其实它们之间存在着许多重要的区别。阿里云实例:阿里云实例是阿...
    99+
    2023-11-06
    实例 阿里 区别
  • Pandas数据分析常用函数如何使用
    本篇内容介绍了“Pandas数据分析常用函数如何使用”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!Pandas是数据处理和分析过程中常用的P...
    99+
    2023-07-05
  • javascript数组使用实例分析
    这篇文章主要讲解了“javascript数组使用实例分析”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“javascript数组使用实例分析”吧!1、push在数组末尾添加一个或者多个元素va...
    99+
    2023-06-29
  • MYSQL函数使用实例分析
    这篇“MYSQL函数使用实例分析”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“MYSQL函数使用实例分析”文章吧。MYSQL...
    99+
    2023-06-30
  • Android系列---JSON数据解析的实例
    上篇随笔详细介绍了三种解析服务器端传过来的xml数据格式,而对于服务器端来说,返回给客户端的数据格式一般分为html、xml和json这三种格式,那么本篇随笔将讲解一下json...
    99+
    2022-06-06
    json数据 JSON Android
  • RxJava2Scheduler使用实例深入解析
    目录前言Scheduler 与 Worker定义scheduleDirect / schedulePeriodicallyDirectcreateWorkerSchedulersNe...
    99+
    2022-11-13
    RxJava Scheduler RxJava2 Scheduler使用
  • 使用nodejs解析json数据
    目录nodejs解析json数据第一第二第三第四node.js解析本地json从文件读取json解析json字符串为json对象扩展nodejs解析json数据 nodejs是服务器...
    99+
    2024-04-02
  • python如何使用XPath解析数据爬取起点小说网数据
    小编给大家分享一下python如何使用XPath解析数据爬取起点小说网数据,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!python的数据类型有哪些python的...
    99+
    2023-06-14
  • Android json数据解析详解及实例代码
     Android json数据解析详解 移动开发经常要与服务器数据交互,也常使用json数据格式,那就说说Android json解析。 1.最简单json格式解析...
    99+
    2022-06-06
    json数据 JSON Android
  • 实例详解esp8266解析json数据的方法
    #include <ArduinoJson.h> void setup() { Serial.begin(115200); Serial.println("这里用...
    99+
    2024-04-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作