返回顶部
首页 > 资讯 > 精选 >Spark MLlib的API CountVectorizer怎么用
  • 588
分享到

Spark MLlib的API CountVectorizer怎么用

2023-06-19 10:06:13 588人浏览 安东尼
摘要

这篇文章主要介绍“spark MLlib的api CountVectorizer怎么用”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Spark MLlib的API CountVectorizer怎么

这篇文章主要介绍“spark MLlib的api CountVectorizer怎么用”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Spark MLlib的API CountVectorizer怎么用”文章能帮助大家解决问题。

CountVectorizer

CountVectorizer  CountVectorizerModel 旨在帮助将文本文档集合转化为频数向量。当先验词典不可用时,CountVectorizer可以用作Estimator提取词汇表,并生成一个CountVectorizerModel。该模型会基于该字典为文档生成稀疏矩阵,该稀疏矩阵可以传给其它算法,比如LDA,去做一些处理。

在拟合过程中,CountVectorizer会从整个文档集合中进行词频统计并排序后的前vocabSize个单词。

一个可选参数minDF也会影响拟合过程,方法是指定词汇必须出现的文档的最小数量(或小于1.0)。另一个可选的二进制切换参数控制输出向量。如果设置为true,则所有非零计数都设置为1.这对于模拟二进制计数而不是整数计数的离散概率模型特别有用。

举例说明该算法

假如我们有个DataFrame有两列:id和texts。

id

texts

0

Array("a", "b",  "c")

1

Array("a", "b",  "b", "c", "a")

每一行texts都是一个Array [String]类型的文档。使用字典(A,B,C)调用CountVectorizer产生CountVectorizerModel。然后转换后的输出列“向量”包含

vector列:

id

texts

vector

0

Array("a", "b",  "c")

(3,[0,1,2],[1.0,1.0,1.0])

1

Array("a", "b",  "b", "c", "a")

(3,[0,1,2],[2.0,2.0,1.0])

将两篇文档中的词去重后就组成了一个字典,这个字典中有3个词:a,b,c,分别建立索引为0,1,2. 
在第三列的文档向量,是由基于字典的索引向量,与对应对索引的词频向量所组成的。 
文档向量是稀疏的表征,例子中只有3个词可能感觉不出,在实际业务中,字典的长度是上万,而文章中出现的词可能是几百或几千,故很多索引对应的位置词频都是0.

spark中的源码

导包

import org.apache.spark.ml.feature.{CountVectorizer, CountVectorizerModel}

准备数据

val df = spark.createDataFrame(Seq(
 (0, Array("a", "b", "c")),
 (2, Array("a", "b", "c", "c", "a"))
)).toDF("id", "Words")

从全文集中拟合CountVectorizerModel(自动计算字典)

val cvModel: CountVectorizerModel = new CountVectorizer()
 .setInputCol("words")
 .setOutputCol("features")
 .setVocabSize(3)
 .setMinDF(2).fit(df)

查看结果

cvModel.transfORM(df).show(false)

Spark MLlib的API CountVectorizer怎么用

指定预先字典

val cvm = new CountVectorizerModel(Array("a", "b", "c"))
.setInputCol("words").setOutputCol("features")

为了避免重复,重新造一组数据

val df = spark.createDataFrame(Seq(
 (0, Array("a", "b", "c")),
 (2, Array("a", "b", "c", "c", "a"))
)).toDF("id", "words")

查看结果

cvm.transform(df).show(false)

Spark MLlib的API CountVectorizer怎么用

关于“Spark MLlib的API CountVectorizer怎么用”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识,可以关注编程网精选频道,小编每天都会为大家更新不同的知识点。

--结束END--

本文标题: Spark MLlib的API CountVectorizer怎么用

本文链接: https://lsjlt.com/news/295600.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • Spark MLlib的API CountVectorizer怎么用
    这篇文章主要介绍“Spark MLlib的API CountVectorizer怎么用”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Spark MLlib的API CountVectorizer怎么...
    99+
    2023-06-19
  • Spark中MLlib的应用场景有哪些
    分类:使用MLlib可以构建分类模型来预测数据实例的类别,例如垃圾邮件检测、情感分析等。 回归:MLlib可以用于构建回归模...
    99+
    2024-03-04
    Spark MLlib
  • Spark中MLlib和ML库的区别是什么
    这篇文章给大家介绍Spark中MLlib和ML库的区别是什么,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。机器学习库(MLlib)MLlib是Spark的机器学习(ML)库。其目标是使实际的机器学习可扩展和容易。在高层...
    99+
    2023-06-19
  • Spark SQL怎么用
    这篇文章主要介绍“Spark SQL怎么用”,在日常操作中,相信很多人在Spark SQL怎么用问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Spark SQL怎么用”的疑惑有所帮助!接下来,请跟着小编一起来...
    99+
    2023-06-03
  • spark与hbase怎么用
    小编给大家分享一下spark与hbase怎么用,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!package hgs.spark.hbaseimport org.apache.spark.SparkCon...
    99+
    2023-06-02
  • Spark Stream怎么使用
    这篇文章主要讲解了“Spark Stream怎么使用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Spark Stream怎么使用”吧!pom.xml<dependency>&n...
    99+
    2023-06-03
  • 怎么用Spark读取HBASE数据
    这篇文章主要讲解了“怎么用Spark读取HBASE数据”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么用Spark读取HBASE数据”吧! ...
    99+
    2024-04-02
  • spark中的transform有什么用
    在Spark中,transform是一种用于 DataFrame 或 RDD 的转换操作,它可以对数据进行转换并返回一个新的 Dat...
    99+
    2024-04-02
  • HTML5的FileWriter API怎么用
    本文小编为大家详细介绍“HTML5的FileWriter API怎么用”,内容详细,步骤清晰,细节处理妥当,希望这篇“HTML5的FileWriter API怎么用”文章能帮助大家解决疑惑,下面跟着小编的思...
    99+
    2024-04-02
  • HTML5的Canvas API怎么用
    这篇文章主要介绍“HTML5的Canvas API怎么用”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“HTML5的Canvas API怎么用”文章能帮助大家解决问题...
    99+
    2024-04-02
  • Vue3中的API怎么用
    这篇文章主要讲解了“Vue3中的API怎么用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Vue3中的API怎么用”吧!1. 初始化项目// ① npm i&n...
    99+
    2023-06-27
  • 怎么进行Spark in action on Kubernetes - Spark Operator的原理解析
    怎么进行Spark in action on Kubernetes - Spark Operator的原理解析,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。前言...
    99+
    2023-06-02
  • 怎么进行Spark NLP使用入门
    怎么进行Spark NLP使用入门,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。AI在企业中的应用关于AI在企业中应用的年度O‘Reilly报告已经在2019年2月发布, 该报...
    99+
    2023-06-19
  • Spark Sql中FROM_UNIXTIME和UNIX_TIMESTAMP怎么使用
    这篇文章主要介绍“Spark Sql中FROM_UNIXTIME和UNIX_TIMESTAMP怎么使用”,在日常操作中,相信很多人在Spark Sql中FROM_UNIXTIME和UNIX_TIMESTAMP怎么使用问题...
    99+
    2023-06-29
  • 怎么用Docker-Compose搭建Spark集群
    这篇文章主要讲解了“怎么用Docker-Compose搭建Spark集群”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么用Docker-Compose搭建Spark集群”吧!docker-...
    99+
    2023-06-30
  • 怎么使用Go语言实现Spark
    这篇文章主要介绍了怎么使用Go语言实现Spark的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇怎么使用Go语言实现Spark文章都会有所收获,下面我们一起来看看吧。为什么使用Go语言实现SparkGo语言的成长...
    99+
    2023-07-06
  • hive使用spark引擎怎么配置
    要使用Spark引擎在Hive中进行配置,您可以按照以下步骤操作: 确保您已经正确安装了Spark并且Hive已经配置好。 ...
    99+
    2024-04-02
  • spark中submit的作用是什么
    在Spark中,submit方法用于提交一个Spark应用程序,启动Spark应用程序的执行。通过submit方法,可以指定要运行的...
    99+
    2024-04-03
    spark submit
  • spark中submit的用法是什么
    在Spark中,submit是SparkContext对象的一个方法,用于提交一个作业到Spark集群运行。具体用法如下: spar...
    99+
    2024-04-03
    spark submit
  • spark中mappartitions的作用是什么
    在Spark中,mapPartitions是一个转换操作,它可以对RDD中的每个分区进行处理而不是对每个元素进行处理。这个操作比ma...
    99+
    2024-04-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作