spark怎么连接使用hbase
本篇内容主要讲解“spark怎么连接使用hbase”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“spark怎么连接使用hbase”吧!

在成都网站设计、网站建设中从网站色彩、结构布局、栏目设置、关键词群组等细微处着手,突出企业的产品/服务/品牌,帮助企业锁定精准用户,提高在线咨询和转化,使成都网站营销成为有效果、有回报的无锡营销推广。成都创新互联公司专业成都网站建设十余年了,客户满意度97.8%,欢迎成都创新互联客户联系。
一、环境准备
1、复制HBase目录下的lib文件 到 spark目录/lib/hbase。spark 依赖此lib
清单如下:guava-12.0.1.jar htrace-core-3.1.0-incubating.jar protobuf-java-2.5.0.jar 这三个jar加上以hbase开头所有jar,其它就不必了。全部复制会引起报错。
2、修改spark配置文件(spark-env.sh),在最后面增加一行
export SPARK_CLASSPATH=/usr/local/spark-1.5.1-bin-hadoop2.4/lib/hbase/*
3、重启spark 集群
二、代码
package com.xx;
import org.apache.commons.logging.Log;
import org.apache.commons.logging.LogFactory;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
import org.apache.hadoop.hbase.mapreduce.TableInputFormat;
import org.apache.hadoop.hbase.protobuf.ProtobufUtil;
import org.apache.hadoop.hbase.protobuf.generated.ClientProtos;
import org.apache.hadoop.hbase.util.Base64;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaSparkContext;
import java.io.IOException;
/**
* spark 读取HBase数据
* @author Chenj
*/
public class ReadHBase {
private static final Log LOG = LogFactory.getLog(ErrorCount.class);
private static final String appName = "hbase test";
private static final String master = "spark://192.168.1.21:7077";
public static void main(String[] avgs){
SparkConf conf = new SparkConf().
setAppName(appName).
setMaster(master).
setSparkHome(System.getenv("SPARK_HOME")).
setJars(new String[]{System.getenv("jars")});
Configuration configuration = HBaseConfiguration.create();
configuration.set("hbase.zookeeper.property.clientPort", "2181"); //设置zookeeper client端口
configuration.set("hbase.zookeeper.quorum", "192.168.1.19"); // 设置zookeeper quorum
configuration.addResource("/usr/local/hbase-1.0.1.1/conf/hbase-site.xml"); //将hbase的配置加载
configuration.set(TableInputFormat.INPUT_TABLE, "heartSocket");
JavaSparkContext sc = new JavaSparkContext(conf);
Scan scan = new Scan();
scan.addFamily(Bytes.toBytes("d"));
scan.addColumn(Bytes.toBytes("d"), Bytes.toBytes("consumeTime"));
try {
ClientProtos.Scan proto = ProtobufUtil.toScan(scan);
String scanToString = Base64.encodeBytes(proto.toByteArray());
configuration.set(TableInputFormat.SCAN, scanToString);
} catch (IOException e) {
e.printStackTrace();
}
JavaPairRDD rdd = sc.newAPIHadoopRDD(configuration,
TableInputFormat.class,
ImmutableBytesWritable.class,
Result.class);
LOG.info("总个数为:" + rdd.count());
}
} 3、提交运行
./spark-submit --class com.xx.ReadHBase --master spark://ser21:7077 /usr/local/spark-1.0-SNAPSHOT.jar
到此,相信大家对“spark怎么连接使用hbase”有了更深的了解,不妨来实际操作一番吧!这里是创新互联网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!
新闻名称:spark怎么连接使用hbase
转载源于:http://www.jxjierui.cn/article/jchisc.html


咨询
建站咨询
