
前言
资料
HA高可用部署
Hive安装部署
Hbase安装部署
sqoop安装部署
解压安装包
修改配置文件
环境变量
sqoop-env.sh
拷贝JDBC驱动
测试Sqoop是否能够成功连接数据库
kafka安装部署
解压安装包
环境变量
配置文件
创建logs文件夹
zookeeper.properties
server.properties
启动集群
验证
关闭集群
flume安装部署
解压安装包
配置环境变量
flume-env.sh
报错
配置flume与kafka连接
踩坑
创建目录
创建脚本
在kafka节点创建topic
打开console
启动测试
执行脚本
在kafka中查看
spark安装部署
前言
备战2021 年“湖北省工匠杯”技能大赛——大数据技术应用竞赛,附上资料链接,若有错误之处请指正。相关文章在博客都有写到,大家可以参考参考。
资料链接:https://pan.baidu.com/s/162xqYRVSJMy_cKVlWT4wjQ
提取码:yikm
请移步HA高可用搭建,参考文章完成HA高可用部署。
Hive安装部署请移步构建数据仓库赛题解析,参考文章完成Hive安装部署。
Hbase安装部署请移步Hbase安装,参考文章完成Hbase安装部署。
需注意:hbase-site.xml文件
:
master:9000应该改为mycluster
sqoop安装部署 解压安装包mkdir /usr/sqoop tar -zxvf /usr/package/sqoop-1.4.7.bin.tar.gz -C /usr/sqoop/修改配置文件 环境变量
vim /etc/profile
添加:
#sqoop export SQOOP_HOME=/usr/sqoop/sqoop-1.4.7.bin export PATH=$PATH:$SQOOP_HOME/bin
生效环境变量
source /etc/profile
查看
sqoop versionsqoop-env.sh
cd /usr/sqoop/sqoop-1.4.7.bin/conf/ mv sqoop-env-template.sh sqoop-env.sh echo "export HADOOP_COMMON_HOME=/usr/hadoop/hadoop-2.6.0 export HADOOP_MAPRED_HOME=/usr/hadoop/hadoop-2.6.0 export HIVE_HOME=/usr/hive/apache-hive-1.1.0-bin export ZOOKEEPER_HOME=/usr/zookeeper/zookeeper-3.4.5 export ZOOCFGDIR=/usr/zookeeper/zookeeper-3.4.5" >> sqoop-env.sh cat sqoop-env.sh拷贝JDBC驱动
cp /usr/package/mysql-connector-java-5.1.47-bin.jar /usr/sqoop/sqoop-1.4.7.bin/lib/测试Sqoop是否能够成功连接数据库
我的集群是slave2作为存储数据库的。
sqoop list-databases --connect jdbc:mysql://slave2:3306/ --username root --password 123456kafka安装部署 解压安装包
mkdir /usr/kafka tar -zxvf /usr/package/kafka_2.11-1.0.0.tgz -C /usr/kafka/环境变量
vim /etc/profile
添加 :
#kafka export KAFKA_HOME=/usr/kafka/kafka_2.11-1.0.0 export PATH=$PATH:$KAFKA_HOME/bin
生效环境变量
source /etc/profile配置文件 创建logs文件夹
cd /usr/kafka/kafka_2.11-1.0.0/ mkdir logszookeeper.properties
修改dataDir与zookeeper中zoo.cfg一致
cd /usr/kafka/kafka_2.11-1.0.0/config vim zookeeper.properties
修改为
dataDir=/usr/zookeeper/zookeeper-3.4.5/zkdataserver.properties
vim server.properties
broker.id修改
master上为0,slave1上为1,slave2上为2
注:broker.id不得重复
log.dirs修改
修改为
使能删除topic功能
增加
#使能删除topic功能 delete.topic.enable=true
配置连接Zookeeper集群地址
修改为
zookeeper.connect=master:2181,slave1:2181,slave2:2181
启动集群
启动zookeeper
/usr/zookeeper/zookeeper-3.4.5/bin/zkServer.sh start
启动kafka
cd /usr/kafka/kafka_2.11-1.0.0/ bin/kafka-server-start.sh config/server.properties & jps验证
仅在master下
查看当前服务器中的所有topic
bin/kafka-topics.sh --zookeeper master:2181 --list
创建topic
bin/kafka-topics.sh --zookeeper master:2181 --create --replication-factor 3 --partitions 1 --topic first
选项说明:
--topic 定义topic名
--replication-factor 定义副本数
--partitions 定义分区数
bin/kafka-server-stop.sh stop //等待消息d出停止再输入 jps /usr/zookeeper/zookeeper-3.4.5/bin/zkServer.sh stop jpsflume安装部署 解压安装包
mkdir /usr/flume tar -zxvf /usr/package/apache-flume-1.6.0-bin.tar.gz -C /usr/flume/
配置环境变量
vim /etc/profile
添加:
#flume export FLUME_HOME=/usr/flume/apache-flume-1.6.0-bin export FLUME_CONF_DIR=$FLUME_HOME/conf export PATH=$PATH:$FLUME_HOME/bin
生效环境变量
source /etc/profileflume-env.sh
cd /usr/flume/apache-flume-1.6.0-bin/conf/ mv flume-env.sh.template flume-env.sh echo "export JAVA_HOME=/usr/java/jdk1.8.0_171" >> flume-env.sh cat flume-env.sh
查看
flume-ng version报错
Error: Could not find or load main class org.apache.flume.tools.GetJavaProperty
解决方案
flume-ng脚本问题
解决办法
cd /usr/flume/apache-flume-1.6.0-bin/bin/ vim flume-ng //在124行增加以下内容 2>/dev/null | grep hbase
成功解决
配置flume与kafka连接cd /usr/flume/apache-flume-1.6.0-bin/conf/ echo "#配置flume agent的source、channel、sink a1.sources = r1 a1.channels = c1 a1.sinks = k1 #配置source a1.sources.r1.type = exec a1.sources.r1.command = tail -F /tmp/logs/kafka.log #配置channel a1.channels.c1.type = memory a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100 #配置sink a1.sinks.k1.channel = c1 a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink #配置Kafka的Topic a1.sinks.k1.kafka.topic = mytest #配置kafka的broker地址和端口号 a1.sinks.k1.brokerList = matser:9092,slave1:9092,slave2:9092 #配置批量提交的数量 a1.sinks.k1.kafka.flumeBatchSize = 20 a1.sinks.k1.kafka.producer.acks = 1 a1.sinks.k1.kafka.producer.linger.ms = 1 a1.sinks.k1.kafka.producer.compression.type = snappy #绑定source和sink到channel a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1" >> kafka.properties踩坑
报错
(conf-file-poller-0) [ERROR - org.apache.flume.node.AbstractConfigurationProvider.loadSinks(AbstractConfigurationProvider.java:427)] Sink k1 has been removed due to an error during configuration org.apache.flume.conf.ConfigurationException: brokerList must contain at least one Kafka broker at org.apache.flume.sink.kafka.KafkaSinkUtil.adddocumentedKafkaProps(KafkaSinkUtil.java:55) at org.apache.flume.sink.kafka.KafkaSinkUtil.getKafkaProperties(KafkaSinkUtil.java:37) at org.apache.flume.sink.kafka.KafkaSink.configure(KafkaSink.java:211) at org.apache.flume.conf.Configurables.configure(Configurables.java:41)
解决方法
kafka.properties文件中配置
a1.sinks.k1.kafka.bootstrap.servers(1.7+版本的写法)
a1.sinks.k1.brokerList (1.6版本的写法)
mkdir -p /tmp/logs touch /tmp/logs/kafka.log创建脚本
cd vim kafkaoutput.sh //加入以下内容 #!/bin/bash for((i=0;i<=1000;i++)) do echo "kafka_test-"+$i >> /tmp/logs/kafka.log done
脚本赋权
chmod 777 kafkaoutput.sh在kafka节点创建topic
前提zookpeer,kafka启动
创建topic
仅在master上
kafka-topics.sh --create --zookeeper master:2181 --replication-factor 3 --partitions 1 --topic mytest打开console
kafka-console-consumer.sh --bootstrap-server master:9092,slave1:9092,slave2:9092 --from-beginning --topic mytest启动测试
flume-ng agent --conf /usr/flume/apache-flume-1.6.0-bin/conf/ --conf-file /usr/flume/apache-flume-1.6.0-bin/conf/kafka.properties -name a1 -Dflume.root.logger=INFO,console
成功!
执行脚本sh kafkaoutput.sh在kafka中查看
cat /tmp/logs/kafka.log
spark安装部署
请移步spark安装,参考完成spark安装部署。
全文完,爆肝一天,第一次接触这么多组件部署在集群上,而且还有相互对接配置,不停地报错,排错,总算完成啦!
眼睛疼!!!
接下来一段时间好好准备比赛啦!加油!
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)