返回顶部
首页 > 资讯 > 精选 >spark与hbase怎么用
  • 172
分享到

spark与hbase怎么用

2023-06-02 19:06:04 172人浏览 泡泡鱼
摘要

小编给大家分享一下spark与HBase怎么用,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!package hgs.spark.hbaseimport org.apache.spark.SparkCon

小编给大家分享一下sparkHBase怎么用,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!

package hgs.spark.hbaseimport org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.hadoop.conf.Configurationimport org.apache.hadoop.hbase.HBaseConfigurationimport org.apache.spark.rdd.NewHadoopRDDimport org.apache.hadoop.hbase.mapReduce.TableInputFORMatobject HbaseTest {  def main(args: Array[String]): Unit = {    val conf = new SparkConf        conf.setMaster("local").setAppName("local")        val context = new SparkContext(conf)        val hadoopconf = new HBaseConfiguration    hadoopconf.set("hbase.ZooKeeper.quorum", "bigdata01:2181,bigdata02:2181,bigdata03:2181")    hadoopconf.set("hbase.zookeeper.property.clientPort", "2181")    val tableName = "test1"    hadoopconf.set(TableInputFormat.INPUT_TABLE, tableName)    hadoopconf.set(TableInputFormat.SCAN_ROW_START, "h")    hadoopconf.set(TableInputFormat.SCAN_ROW_STOP, "x")    hadoopconf.set(TableInputFormat.SCAN_COLUMN_FAMILY, "cf1")    hadoopconf.set(TableInputFormat.SCAN_COLUMNS, "cf1:col1,cf1:col2")            val hbaseRdd = context.newapiHadoopRDD(hadoopconf,         classOf[TableInputFormat],         classOf[org.apache.hadoop.hbase.io.ImmutableBytesWritable],        classOf[org.apache.hadoop.hbase.client.Result])                hbaseRdd.foreach(x=>{         val vale =  x._2.getValue("cf1".getBytes, "col1".getBytes)         val val2 = x._2.getValue("cf1".getBytes, "col2".getBytes)          println(new String(vale),new String(val2))        })    context.stop()      }}
package hgs.spark.hbaseimport org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.hadoop.hbase.HBaseConfigurationimport org.apache.hadoop.hbase.mapred.TableOutputFormatimport org.apache.hadoop.mapred.JobConfimport org.apache.hadoop.hbase.client.Putimport org.apache.hadoop.hbase.io.ImmutableBytesWritableobject SparkToHbase {  def main(args: Array[String]): Unit = {    val conf = new SparkConf        conf.setMaster("local").setAppName("local")        val context = new SparkContext(conf)        val rdd = context.parallelize(List(("aaaaaaa","aaaaaaa"),("bbbbb","bbbbb")), 2)    val hadoopconf = new HBaseConfiguration    hadoopconf.set("hbase.zookeeper.quorum", "bigdata01:2181,bigdata02:2181,bigdata03:2181")    hadoopconf.set("hbase.zookeeper.property.clientPort", "2181")    hadoopconf.set(TableOutputFormat.OUTPUT_TABLE, "test1")    //hadoopconf.set(TableOutputFormat., "test1")        val jobconf  = new JobConf(hadoopconf,this.getClass)    jobconf.set(TableOutputFormat.OUTPUT_TABLE, "test1")    jobconf.setOutputFormat(classOf[TableOutputFormat])        val exterrdd = rdd.map(x=>{            val put = new Put(x._1.getBytes)      put.add("cf1".getBytes, "col1".getBytes, x._2.getBytes)      (new ImmutableBytesWritable,put)    })        exterrdd.saveAsHadoopDataset(jobconf)        context.stop()              }}

看完了这篇文章,相信你对“spark与hbase怎么用”有了一定的了解,如果想了解更多相关知识,欢迎关注编程网精选频道,感谢各位的阅读!

--结束END--

本文标题: spark与hbase怎么用

本文链接: https://lsjlt.com/news/230977.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • spark与hbase怎么用
    小编给大家分享一下spark与hbase怎么用,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!package hgs.spark.hbaseimport org.apache.spark.SparkCon...
    99+
    2023-06-02
  • Spark怎么写HBASE
    这篇文章将为大家详细讲解有关Spark怎么写HBASE,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。package com.iesol.high_frequencyimport java.io.Buffe...
    99+
    2023-06-03
  • Hadoop、Spark、HBase与Redis的适用性讨论(二):HBase
    接下来说说HBase。对此,经常听到的一个说法是:HBase只适合于支撑离线分析型应用,特别是做为MapReduce任务的后台数据源。持这个观点不少,甚至在国内一个响当当的电信设备提供商中,HBase也是被...
    99+
    2024-04-02
  • 怎么用Spark读取HBASE数据
    这篇文章主要讲解了“怎么用Spark读取HBASE数据”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么用Spark读取HBASE数据”吧! ...
    99+
    2024-04-02
  • spark怎么读取hbase表
    这篇文章主要介绍了spark怎么读取hbase表的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇spark怎么读取hbase表文章都会有所收获,下面我们一起来看看吧。一.场景:     spa...
    99+
    2023-06-03
  • 如何使用Spark分析云HBase的数据
    这篇文章将为大家详细讲解有关如何使用Spark分析云HBase的数据,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。1 云HBase查询分析的现状HBase原生API:HBase原生API适合基于row k...
    99+
    2023-06-02
  • Cassandra怎么与Spark集成
    要与Spark集成Cassandra,可以使用Spark的Cassandra连接器。以下是一些步骤: 在Spark中添加Cass...
    99+
    2024-04-09
    Cassandra Spark
  • Spark SQL怎么用
    这篇文章主要介绍“Spark SQL怎么用”,在日常操作中,相信很多人在Spark SQL怎么用问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Spark SQL怎么用”的疑惑有所帮助!接下来,请跟着小编一起来...
    99+
    2023-06-03
  • Spark Stream怎么使用
    这篇文章主要讲解了“Spark Stream怎么使用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Spark Stream怎么使用”吧!pom.xml<dependency>&n...
    99+
    2023-06-03
  • HBase高表与宽表怎么选择
    这篇文章主要讲解了“HBase高表与宽表怎么选择”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“HBase高表与宽表怎么选择”吧!hbase中的宽表是指很多列较少行,即列多行少的表,一行中的数...
    99+
    2023-06-19
  • 怎么理解spark的自定义分区和排序及spark与jdbc
    这篇文章将为大家详细讲解有关怎么理解spark的自定义分区和排序及spark与jdbc,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。//自定义分区import org.apache...
    99+
    2023-06-02
  • hbase 2.0.2 java api怎么用
    这篇文章将为大家详细讲解有关hbase 2.0.2 java api怎么用,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。package com.hbase.test;import ja...
    99+
    2023-06-02
  • 怎么部署Hbase单机与伪分布式
    这篇文章主要介绍“怎么部署Hbase单机与伪分布式”,在日常操作中,相信很多人在怎么部署Hbase单机与伪分布式问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么部署Hbas...
    99+
    2024-04-02
  • Spark MLlib的API CountVectorizer怎么用
    这篇文章主要介绍“Spark MLlib的API CountVectorizer怎么用”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Spark MLlib的API CountVectorizer怎么...
    99+
    2023-06-19
  • HBase怎么确保高可用
    HBase怎么确保高可用,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。HBase是一个基于Hadoop面向列的非关系型分布式数据库(NoS...
    99+
    2024-04-02
  • 怎么使用docker部署hbase
    这篇文章将为大家详细讲解有关怎么使用docker部署hbase,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。安装docker先输入docker -v,装过就不用再装了。yum update&nb...
    99+
    2023-06-14
  • MongoDB如何与Spark集成使用
    MongoDB和Spark可以通过MongoDB Connector for Apache Spark实现集成。 MongoDB C...
    99+
    2024-05-07
    MongoDB Spark
  • HBase与Hive的区别是什么
    这篇文章主要介绍“HBase与Hive的区别是什么”,在日常操作中,相信很多人在HBase与Hive的区别是什么问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”HBase与Hive的区别是什么”的疑惑有所帮助!...
    99+
    2023-06-03
  • hbase与hive是怎么实现数据同步的
    这期内容当中小编将会给大家带来有关hbase与hive是怎么实现数据同步的,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。一、impala与hive的数据同步首先,我们在hive命令行执行showdatab...
    99+
    2023-05-31
    hbase hive
  • hbase中count命令怎么使用
    在HBase中,可以使用scan命令来统计行数。下面是使用count命令的示例: 在HBase shell中,输入以下命令以选择...
    99+
    2023-10-28
    hbase
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作