idea 中连接 hive

idea 中连接 hive,第1张

idea 中连接 hive 一、准备工作 1、添加依赖

添加hive-jdbc 和hadoop-common 的依赖。
注意: 此处添加的依赖要和自己服务器上的版本对应上。


     org.apache.hive
     hive-jdbc
     1.2.1



      org.apache.hadoop
      hadoop-common
      2.7.2

2、修改 hadoop 和 hive 的配置文件
  • 修改 hadoop 的配置文件
    修改 $HADOOP_HOME/etc/hadoop/core-site.xml 配置文件,添加如下配置:
 
  

	hadoop.proxyuser.hadoop.hosts
	*



	hadoop.proxyuser.hadoop.groups
	*


修改后需重启集群。

  • 修改 hive 的配置文件
    修改 $HIVE_HOME/conf/hive-site.xml 配置文件,添加如下配置:

	hive.server2.thrift.bind.host
	hadoop102




	hive.server2.thrift.port
	10000

3、启动hivserver2服务

需要启动hiveserver2的进程。

二、创建 hive 连接 1、打开 Database 窗口

2、创建 Driver

选中 Driver ,并点击

3、配置 Driver
  • 改名(非必需)
  • 下载 Driver 所需依赖
    去自己的服务器上 $HIVE_HOME/lib 目录下下载 hive-*.jar 开头的 jar 包

    然后去 $HADOOP_HOME/share/hadoop/common 文件下下载 hadoop 的 jar 包

    **注意:**此处要是不下载hadoop的jar包的话,之后创建 hive 连接的时候会报错,如下图所示:
  • 将所有 jar 包添加到 Driver 中
    点击红框内的加号

    添加上述下载的 hive 的和 hadoop 的 jar 包,点击 OK 。
  • 选择 hive 的 JDBC 的 Driver 类
    将 jar 包添加后,等 jar 包加载完毕,会在 Class 复选框内出现一个 org.apache.hive.jdbc.HiveDriver 类,选中即可,然后点击OK就创建好了hive的Driver。
4、创建 hive 的连接
  • 点击Hive2
  • 添加hive连接
  • 测试连接是否成功
    点击Test Connection,测试是否可以连通,成功则如下图所示:
三、未解决错误

以下错误虽然不影响使用但是,看不到hive中的数据库和表,目前没有找到是什么原因导致的。
注明:hive版本1.2.1,hadoop的版本2.7.2。

错误:enabling autocommit is not supported.

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zaji/5179072.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2022-11-18
下一篇2022-11-18

发表评论

登录后才能评论

评论列表(0条)

    保存