Hadoop与Spark注意事项

Hadoop与Spark注意事项,第1张

Hadoop与Spark注意事项 Hadoop与Spark注意事项
1、Hadoop与Spark集群启动与停止都有两种方式

一种是逐个服务器结点启动或停止(start-master.sh/start-worker.sh/stop-master.sh)另一种是在单个节点上一键启动或停止(start-all.sh/stop-all.sh) 2、 Hadoop与Spark集群使用一键启动或停止必须设置ssh免密登录

Hadoop与Spark各结点服务器之间通信使用ssh,若不设置免密登录会无法在单个节点一键启动/停止多节点。

免密登录设置查看Hadoop分布式模式下SSH免密码登录;域名映射设置进入etc/hosts文件进行映射关系设置(如:127.0.0.1 localhost),本机名称设置进入etc/hostname文件设置(如:localhost)。

3、Spark在启动集群时,所依赖组件需先行启动。

比如在HA集群下,Zookeeper与HDFS需在集群启动前启动。

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zaji/5702237.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2022-12-17
下一篇2022-12-17

发表评论

登录后才能评论

评论列表(0条)

    保存