返回顶部
首页 > 资讯 > 后端开发 > JAVA >jsoup的使用
  • 367
分享到

jsoup的使用

前端java开发语言 2023-08-20 09:08:39 367人浏览 薄情痞子
摘要

本文在写作过程中参考了官方文档,传送门。 一、jsoup概述   jsoup 是一款基于 Java 的html解析器,它提供了一套非常省力的api,不但能直接解析某个URL地址、HTML文本内容,而且还能通过类似于DOM、CSS或者J

本文在写作过程中参考了官方文档,传送门

一、jsoup概述

  jsoup 是一款基于 Java 的html解析器,它提供了一套非常省力的api,不但能直接解析某个URL地址、HTML文本内容,而且还能通过类似于DOM、CSS或者Jquery的方法来操作数据,所以 jsoup 也可以被当做爬虫工具使用。


二、相关概念简介

  • Document :文档对象。每份HTML页面都是一个文档对象,Document 是 jsoup 体系中最顶层的结构。
  • Element:元素对象。一个 Document 中可以着包含着多个 Element 对象,可以使用 Element 对象来遍历节点提取数据或者直接操作HTML。
  • Elements:元素对象集合,类似于List
  • node:节点对象。标签名称、属性等都是节点对象,节点对象用来存储数据。
  • 类继承关系:Document 继承自 Element ,Element 继承自 Node。
  • 一般执行流程:先获取 Document 对象,然后获取 Element 对象,最后再通过 Node 对象获取数据。
    在这里插入图片描述

三、获取文档(Document)

获得文档对象 Document 一共有4种方法,分别对应不同的获取方式。

正式开始之前,我们需要导入有关 jar 包。

<dependency>    <groupId>org.jsoupgroupId>    <artifactId>jsoupartifactId>    <version>1.15.1version>dependency>

3.1)从URL中加载文档对象(常用)

使用 Jsoup.connect(String url).get()方法获取(只支持 Httphttps 协议):

Document doc = Jsoup.connect("http://csdn.com/").get();String title = doc.title();System.out.println(title);

connect(String url)方法创建一个新的 Connection并通过.get()或者.post()方法获得数据。如果从该URL获取HTML时发生错误,便会抛出 IOException,应适当处理。

Connection 接口还提供一个方法链来解决特殊请求,我们可以在发送请求时带上请求的头部参数,具体如下:

Document doc = Jsoup.connect("http://csdn.com")  .data("query", "Java")  .userAgent("Mozilla")  .cookie("auth", "token")  .timeout(8000)  .post();  System.out.println(doc);

想获得完整的响应对象和响应码?我们可以使用execute()方法:

// 获得响应对象Connection.Response response = Jsoup.connect("http://csdn.com").execute();int                 code     = response.statusCode();// 输出状态码:200System.out.println(code);

3.2)从本地文件中加载文档对象

可以使用静态的Jsoup.parse(File in, String charsetName) 方法从文件中加载文档。其中in表示路径,charsetName表示编码方式,示例代码:

File input = new File("/tmp/input.html");Document doc = Jsoup.parse(input, "UTF-8");System.out.println(doc);

3.3)从字符串文本中加载文档对象

使用静态的Jsoup.parse(String html) 方法可以从字符串文本中获得文档对象 Document ,示例代码:

String html = "First parse"  + "

Parsed HTML into a doc.

"
;Document doc = Jsoup.parse(html);System.out.println(doc);

3.4)从片断中获取文档对象

使用Jsoup.parseBodyFragment(String html)方法.

String html = "

Lorem ipsum.

"
;Document doc = Jsoup.parseBodyFragment(html);// doc 此时为:

Lorem ipsum.

Element body = doc.body();System.out.println(body);

parseBodyFragment 方法创建一个新的文档,并插入解析过的HTML到body元素中。假如你使用正常的 Jsoup.parse(String html) 方法,通常也能得到相同的结果,但是明确将用户输入作为 body 片段处理是个更好的方式。

Document.body() 方法能够取得文档body元素的所有子元素,与 doc.getElementsByTag("body")相同。


四、选择元素(Element)

解析文档对象并获取数据一共有 2 种方式,分别为 DOM方式、CSS选择器方式,我们可以选择一种自己喜欢的方式去获取数据,效果一样。

4.1)DOM方式

将HTML解析成一个Document之后,就可以使用类似于DOM的方法进行操作。

// 获取csdn首页所有的链接Document doc       = Jsoup.connect("http://csdn.com").get();Elements elements  = doc.getElementsByTag("body");Elements contents  = elements.first().getElementsByTag("a");for (Element content : contents) {    String linkHref = content.attr("href");    String linkText = content.text();    System.out.print(linkText+"\t");    System.out.println(linkHref);}

说明

Elements这个对象提供了一系列类似于DOM的方法来查找元素,抽取并处理其中的数据。具体如下:

4.1.1)查找元素

  • getElementById(String id):通过id来查找元素
  • getElementsByTag(String tag):通过标签来查找元素
  • getElementsByClass(String className):通过类选择器来查找元素
  • getElementsByAttribute(String key) :通过属性名称来查找元素,例如查找带有href元素的标签。
  • siblingElements():获取兄弟元素。如果元素没有兄弟元素,则返回一个空列表。
  • firstElementSibling():获取第一个兄弟元素。
  • lastElementSibling():获取最后一个兄弟元素。
  • nextElementSibling():获取下一个兄弟元素。
  • previousElementSibling():获取上一个兄弟元素。
  • parent():获取此节点的父节点。
  • children():获取此节点的所有子节点。
  • child(int index):获取此节点的指定子节点。

4.1.2)获取元素数据

  • attr(String key):获取单个属性值
  • attributes():获取所有属性值
  • attr(String key, String value):设置属性值
  • text():获取文本内容
  • text(String value):设置文本内容
  • html():获取元素内的HTML内容
  • html(String value):设置元素内的HTML内容
  • outerHtml():获取元素外HTML内容
  • data():获取数据内容(例如:script和style标签)
  • id():获得id值(例:

    衣服

  • className():获得第一个类选择器值
  • classNames():获得所有的类选择器值
  • tag():获取元素标签
  • tagName():获取元素标签名(如:

    等)

4.1.3)操作HTML文本

  • append(String html):在末尾追加HTML文本
  • prepend(String html):在开头追加HTML文本
  • html(String value):在匹配元素内部添加HTML文本。

4.2)CSS选择器方式

可以使用类似于CSS选择器的语法来查找和操作元素,常用的方法为select(String selector)

Document doc = Jsoup.connect("http://csdn.com").get();// 获取带有 href 属性的 a 元素Elements elements = doc.select("a[href]");for (Element content : elements) {    String linkHref = content.attr("href");    String linkText = content.text();    System.out.print(linkText + "\t");    System.out.println(linkHref);}

4.2.1)说明

select()方法在DocumentElementElements对象中都可以使用,而且是上下文相关的,因此可实现指定元素的过滤,或者采用链式访问。

select() 方法将返回一个Elements集合,并提供一组方法来抽取和处理结果。

4.2.2)select(String selector)方法参数简介

4.2.3)参数属性组合使用

  • el#id: 元素+ID,比如: div#logo
  • el.class: 元素+class,比如: div.masthead
  • el[attr]: 元素+class,比如 a[href]匹配所有带有 href 属性的 a 元素。
  • 任意组合,比如:a[href].highlight匹配所有带有 href 属性且class="highlight"的 a 元素。
  • ancestor child: 查找某个元素下子元素,比如:可以用.body p 查找在"body"元素下的所有 p元素
  • parent > child: 查找某个父元素下的直接子元素,比如:可以用div.content > p 查找 p 元素,也可以用body > * 查找body标签下所有直接子元素
  • siblingA + siblingB: 查找在A元素之前第一个同级元素B,比如:div.head + div
  • siblingA ~ siblingX: 查找A元素之前的同级X元素,比如:h1 ~ p
  • el, el, el:多个选择器组合,查找匹配任一选择器的唯一元素,例如:div.masthead, div.logo

4.2.4)特殊参数:伪选择器

  • :lt(n): 查找哪些元素的同级索引值(它的位置在DOM树中是相对于它的父节点)小于n,比如:td:lt(3) 表示小于三列的元素
  • :gt(n):查找哪些元素的同级索引值大于n``,比如div p:gt(2)表示哪些div中有包含2个以上的p元素
  • :eq(n): 查找哪些元素的同级索引值与n相等,比如:fORM input:eq(1)表示包含一个input标签的Form元素
  • :has(seletor): 查找匹配选择器包含元素的元素,比如:div:has(p)表示哪些div包含了p元素
  • :not(selector): 查找与选择器不匹配的元素,比如: div:not(.logo) 表示不包含 class=logo 元素的所有 div 列表
  • :contains(text): 查找包含给定文本的元素,搜索不区分大不写,比如: p:contains(jsoup)
  • :containsOwn(text): 查找直接包含给定文本的元素
  • :matches(regex): 查找哪些元素的文本匹配指定的正则表达式,比如:div:matches((?i)login)
  • :matchesOwn(regex): 查找自身包含文本匹配指定正则表达式的元素
  • 注意:上述伪选择器索引是从0开始的,也就是说第一个元素索引值为0,第二个元素index为1等

五、获取数据(Node)

在获得文档对象并且指定查找元素后,我们就可以获取元素中的数据。
这些访问器方法都有相应的setter方法来更改数据。

  • .attr(String key) :获得属性的值。
  • .text():获得元素中的文本。
  • .html():获得元素或属性内部的HTML内容(不包括本身)。
  • .outerHtml():获得元素或属性完整的HTML内容。
  • .id():获得元素id属性值。
  • className():获得元素类选择器值。
  • .tagName():获得元素标签命名。
  • .hasClass(String className):检查这个元素是否含有一个类选择器(不区分大小写)。
String   html = "

example link.

"
;Document doc = Jsoup.parse(html);// 查找第一个元素Element link = doc.select("a").first();// 输出:exampleString text = link.text();// 输出:http://csdn.com/String href = link.attr("href");// 输出:exampleString aHtml = link.outerHtml();// 输出:exampleString aOuterHtml = link.outerHtml();


六、修改数据

在解析了一个Document对象之后,你可能想修改其中的某些属性值,并把它输出到前台页面或保存到其他地方,jsoup对此提供了一套非常简便的接口(支持链式写法)。

6.1)设置属性的值

当以下方法针对Element对象操作时,只有一个元素会受到影响。当针对Elements对象进行操作时,可能会影响到多个元素。

  • .attr(String key, String value):设置标签的属性值。
  • .addClass(String className):增加类选择器选项
  • .removeClass(String className):删除对应的类选择器
Document doc = Jsoup.connect("http://csdn.com").get();// 复数,ElementsElements elements = doc.getElementsByClass("text");// 单数,ElementElement element = elements.first();// 复数对象,所有 class="text" 的元素都将受到影响elements.attr("name","goods");// 单数对象,只有一个元素会受到影响(链式写法)element.attr("name","shop")        .addClass("red");

6.2)修改元素的HTML内容

可以使用Element中的HTML设置方法具体如下:

  • .html(String value):这个方法将先清除元素中的HTML内容,然后用传入的HTML代替。
  • .prepend(String value):在元素添加html内容。
  • .append(String value):在元素添加html内容。
  • .wrap(String value):对元素包裹一个外部HTML内容,将元素置于新增的内容中间。
Document doc = Jsoup.connect("http://csdn.com").get();Element div = doc.select("div").first();div.html("

csdn

"
);div.prepend("

a

"
);div.append("

good

"
);// 输出:

a

csdn

good

Element span = doc.select("span").first();span.wrap("
  • "
    );// 输出:
  • csdn
  • 6.3)修改元素的文本内容

    对于传入的文本,如果含有像 <, > 等这样的字符,将以文本处理,而非HTML。

    • .text(String text) :清除元素内部的HTML内容,然后用提供的文本代替。
    • .prepend(String first):在元素添加文本节点。
    • Element.append(String last):在元素添加文本节点。
     // 
    Element div = doc.select("div").first();div.text(" one "); div.prepend(" two ");div.append(" three ");// 输出:
    two one three

    七、其他功能

    6.1)相对路径转绝对路径

    问题描述
      你有一个包含相对URLs路径的HTML文档,现在需要将这些相对路径转换成绝对路径的URLs。

    解决方式

    1. 确保在你解析文档时有指定base URI路径。
    2. 然后使用 abs: 属性前缀来取得包含base URI的绝对路径。代码如下:
    Document doc = Jsoup.connect("http://www.open-open.com").get();Element link = doc.select("a").first();// 输出:/String relHref = link.attr("href");// 输出:http://www.open-open.com/String absHref = link.attr("abs:href");

    说明

    在HTML元素中,URLs经常写成相对于文档位置的相对路径,如:https://blog.csdn.net/qq_35760825/article/details/。当你使用 .attr(String key) 方法来取得a元素的href属性时,它将直接返回在HTML源码中指定的值。

    假如你需要取得一个绝对路径,需要在属性名前加 abs: 前缀,这样就可以返回包含根路径的URL地址attr("abs:href")。因此在解析HTML文档时,定义base URI非常重要。

    如果你不想使用abs: 前缀,还有一个方法能够实现同样的功能 .absUrl(String key)

    6.2)消除不受信任的HTML (防止XSS攻击)

    问题描述

      在某些网站中经常会提供用户评论的功能,但是有些不怀好意的用户,会搞一些脚本到评论内容中,而这些脚本可能会破坏整个页面的行为,更严重的是获取一些机要信息,此时需要清理该HTML,以避免跨站脚本攻击(XSS)。

    解决方式
      使用clean()方法清除恶意代码,但需要指定一个配置的 Safelist(旧版本中是Whitelist),通常使用Safelist.basic()即可。Safelist的工作原理是将输入的 HTML 内容单独隔离解析,然后遍历解析树,只允许已知的安全标签和属性输出。

    String unsafe =         "

    Link

    "
    ; // 输出:

    Link

    String safe = Jsoup.clean(unsafe, Safelist.basic());System.out.println(safe);

    说明

      jsoup的Safelist不仅能够在服务器端对用户输入的HTML进行过滤,只输出一些安全的标签和属性,还可以限制用户可以输入的标签范围。

    6.2)消除不受信任的HTML (防止XSS攻击)

    问题描述

      在某些网站中经常会提供用户评论的功能,但是有些不怀好意的用户,会搞一些脚本到评论内容中,而这些脚本可能会破坏整个页面的行为,更严重的是获取一些机要信息,此时需要清理该HTML,以避免跨站脚本攻击(XSS)。

    解决方式
      使用clean()方法清除恶意代码,但需要指定一个配置的 Safelist(旧版本中是Whitelist),通常使用Safelist.basic()即可。Safelist的工作原理是将输入的 HTML 内容单独隔离解析,然后遍历解析树,只允许已知的安全标签和属性输出。

    String unsafe =         "

    Link

    "
    ; // 输出:

    Link

    String safe = Jsoup.clean(unsafe, Safelist.basic());System.out.println(safe);

    说明

      jsoup的Safelist不仅能够在服务器端对用户输入的HTML进行过滤,只输出一些安全的标签和属性,还可以限制用户可以输入的标签范围。

    6.3)jsoup使用代理

    Connection.Response execute = Jsoup.connect("http://csdn.net/")               .proxy("12.12.12.12", 1080)// 使用代理               .execute();

    如果你读完觉得有收获,不妨点个赞~

    来源地址:https://blog.csdn.net/qq_35760825/article/details/125571815

    --结束END--

    本文标题: jsoup的使用

    本文链接: https://lsjlt.com/news/376347.html(转载时请注明来源链接)

    有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

    猜你喜欢
    • jsoup的使用
      本文在写作过程中参考了官方文档,传送门。 一、jsoup概述   jsoup 是一款基于 Java 的HTML解析器,它提供了一套非常省力的API,不但能直接解析某个URL地址、HTML文本内容,而且还能通过类似于DOM、CSS或者j...
      99+
      2023-08-20
      前端 java 开发语言
    • Java jsoup怎么使用
      今天小编给大家分享一下Java jsoup怎么使用的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。jsoup是一款 Java ...
      99+
      2023-06-27
    • jsoup 框架的使用小结
      目录概述概念简介相关概念简介jsoup 的主要类APIJsoup 类Connection 接口Element(元素)类查找元素获取元素数据修改数据基本使用获取文档(Document)...
      99+
      2023-05-14
      jsoup使用 jsoup 框架用法
    • java中Jsoup怎么使用
      使用Jsoup库进行网页解析的步骤如下:1. 导入Jsoup库。通过在项目的构建路径中添加Jsoup库的jar文件,或者使用Mave...
      99+
      2023-09-29
      java Jsoup
    • jsoup框架如何使用
      本篇内容介绍了“jsoup框架如何使用”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!概念简介jsoup 是一款基于 Java 的 HTML ...
      99+
      2023-07-05
    • android使用Jsoup 抓取页面的数据
      jsoup 是一款Java 的HTML解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取...
      99+
      2022-06-06
      jsoup 数据 Android
    • Android使用Jsoup解析Html表格的方法
      本文实例讲述了Android使用Jsoup解析Html表格的方法。分享给大家供大家参考,具体如下: 看代码吧,可解析表中的label text button 自己根据需要再添加...
      99+
      2022-06-06
      jsoup解析html jsoup HTML 方法 html表格 Android
    • Java使用httpRequest+Jsoup爬取红蓝球号码
      目录1、Jsoup介绍1.1、简介1.2、Jsoup的主要功能2、源网站及页面元素分析2.1、号码源2.2、dom元素分析3、代码实现1、Jsoup介绍 1.1、简介 jsoup...
      99+
      2024-04-02
    • 使用maven实现有关Jsoup简单爬虫的步骤
      目录一、Jsoup的简介二、我们可以利用Jsoup做什么三、利用Jsoup爬取某东示例四、Jsoup用法五、总结一、Jsoup的简介 jsoup 是一款Java 的HTML解析器,可...
      99+
      2024-04-02
    • Java如何使用httpRequest+Jsoup爬取红蓝球号码
      小编给大家分享一下Java如何使用httpRequest+Jsoup爬取红蓝球号码,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!1、Jsoup介绍1.1、简介jsoup 是一款Java 的HTML解析器,可直接解析某个UR...
      99+
      2023-06-20
    • 在Java中使用Jsoup实现一个爬虫功能
      在Java中使用Jsoup实现一个爬虫功能?相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。 Java 爬虫工具Jsoup详解Jsoup是一款 Java 的 HTML 解...
      99+
      2023-05-31
      java 爬虫 jsoup
    • Web抓取框架JSoup怎么用
      这篇文章主要介绍了Web抓取框架JSoup怎么用,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。仅供参考学习。Web抓取框架就像许多现代科技一样,从网站提取信息这一功能也有多个...
      99+
      2023-06-02
    • Java 使用maven实现Jsoup简单爬虫案例详解
      一、Jsoup的简介         jsoup 是一款Java 的HTML解析器,可直接解析某个UR...
      99+
      2024-04-02
    • springboot中使用过滤器,jsoup过滤XSS脚本详解
      目录springboot使用过滤器,jsoup过滤XSS脚本1.把可能包含脚本的参数位置分析一下2.分析实现过程3.代码实现过程使用jsoup防止XSS攻击springboot使用过...
      99+
      2024-04-02
    • 在Jav中使用httpclient与Jsoup实现获取动态生成的数据
      这期内容当中小编将会给大家带来有关在Jav中使用httpclient与Jsoup实现获取动态生成的数据,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。Java爬虫Jsoup+httpclient获取动态生成...
      99+
      2023-05-31
      java httpclient jsoup
    • Android应用中的html怎么利用jsoup进行解析
      Android应用中的html怎么利用jsoup进行解析?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。1.jsoup介绍jsoup 是一款Java 的HTML解析器,可直接...
      99+
      2023-05-31
      jsoup roi html
    • Android开发之利用jsoup解析HTML页面的方法
      本文实例讲述了Android利用jsoup解析HTML页面的方法。分享给大家供大家参考,具体如下: 这节主要是讲解jsoup解析HTML页面。由于在android开发过程中,不...
      99+
      2022-06-06
      jsoup解析html jsoup HTML 方法 android开发 Android
    • java爬虫jsoup解析HTML的工具学习
      目录前言下载一个文档的对象模型获取 Document 对象解析并提取 HTML 元素使用传统的操作DOM的方式选择器修改获取数据前言 使用python写爬虫的人,应该都听过beaut...
      99+
      2024-04-02
    • springboot中怎么使用过滤器以及jsoup过滤XSS脚本怎么写
      springboot中怎么使用过滤器以及jsoup过滤XSS脚本怎么写,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。springboot使用过滤器,jsoup过滤XSS脚本背景...
      99+
      2023-06-22
    • Java爬虫实现Jsoup利用dom方法遍历Document对象
      先给出网页地址: https://wall.alphacoders.com/featured.phplang=Chinese 主要步骤: 利用Jsoup的connect方法获取Do...
      99+
      2024-04-02
    软考高级职称资格查询
    编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
    • 官方手机版

    • 微信公众号

    • 商务合作