
添加hive-jdbc 和hadoop-common 的依赖。
注意: 此处添加的依赖要和自己服务器上的版本对应上。
2、修改 hadoop 和 hive 的配置文件org.apache.hive hive-jdbc1.2.1 org.apache.hadoop hadoop-common2.7.2
- 修改 hadoop 的配置文件
修改 $HADOOP_HOME/etc/hadoop/core-site.xml 配置文件,添加如下配置:
hadoop.proxyuser.hadoop.hosts * hadoop.proxyuser.hadoop.groups *
修改后需重启集群。
- 修改 hive 的配置文件
修改 $HIVE_HOME/conf/hive-site.xml 配置文件,添加如下配置:
3、启动hivserver2服务hive.server2.thrift.bind.host hadoop102 hive.server2.thrift.port 10000
需要启动hiveserver2的进程。
二、创建 hive 连接 1、打开 Database 窗口 2、创建 Driver选中 Driver ,并点击
- 改名(非必需)
- 下载 Driver 所需依赖
去自己的服务器上 $HIVE_HOME/lib 目录下下载 hive-*.jar 开头的 jar 包
然后去 $HADOOP_HOME/share/hadoop/common 文件下下载 hadoop 的 jar 包
**注意:**此处要是不下载hadoop的jar包的话,之后创建 hive 连接的时候会报错,如下图所示:
- 将所有 jar 包添加到 Driver 中
点击红框内的加号
添加上述下载的 hive 的和 hadoop 的 jar 包,点击 OK 。
- 选择 hive 的 JDBC 的 Driver 类
将 jar 包添加后,等 jar 包加载完毕,会在 Class 复选框内出现一个 org.apache.hive.jdbc.HiveDriver 类,选中即可,然后点击OK就创建好了hive的Driver。
- 点击Hive2
- 添加hive连接
- 测试连接是否成功
点击Test Connection,测试是否可以连通,成功则如下图所示:
以下错误虽然不影响使用但是,看不到hive中的数据库和表,目前没有找到是什么原因导致的。
注明:hive版本1.2.1,hadoop的版本2.7.2。
错误:enabling autocommit is not supported.
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)