
登陆hdfs的web界面(默认端口50070),如果界面显示namenode正常,datanode也在线上,容量也正常,则说明安装成功;
往hdfs里面写入文件,如果写入成功,则安装成功;
启动yarn,如果启动成功
jdk:jdk180
hadoop:hadoop-2101
spark:spark-301
将jdk解压缩
之后在/etc/profile里面添加环境变量
注意每次都要source /etc/profile
解压Hadoop
并配置环境变量,将Hadoop的路径写入~/bashrc
需要source ~/bashrc
修改hostname,
sudo vim /etc/hostname
修改hosts的名字
sudo vim /etc/hosts
以下是master的hostname和hosts
slave1和slave2的hostname也需要改。
配置免密登录
ssh-keygen -t rsa # 一直按回车就可以
cat /id_rsapub >> /authorized_keys
需要修改Hadoop安装目录下/etc/hadoop中的5个配置文件。slaves、core-sitexml、hdfs-sitexml、mapred-sitexml、yarn-sitexml
<configuration>
<property>
<name>fsdefaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadooptmpdir</name>
<value>file:/home/zkx/hadoop-2101/tmp</value>
<description>Abase for other temporary directories</description>
</property>
</configuration>
这文件记录备份相关。我们有2个 slave 节点,因此可以将 dfsreplication 的值设为 2
<configuration>
<property>
<name>dfsnamenodesecondary>
安装好的Hadoop系统验证是否安装成功时使用命令:
结果报错:解决方法
hadoop fs -ls 命令的完整语法是:hadoop fs -ls [path]
默认情况下当你未指定[path] 时,hadoop会在HDFS里面将路径扩展为/home/[username];这样的话[username]就会被执行命令的Linux用户名替代。因此,当执行此命令时,hadoop fs -ls ,你看到的报错,ls: ''no suck file or directory ,因为Hadoop正在寻找这路径/home/longting(Linux用户名),但是这条路径在HDFS中不存在。所以你可以这样做:
这样,你就明确指定了[path]并且是HDFS的根,它会自定被认为是HDFS的根目录。另外,当你想查看指定文件系统的路径,需要使用file:///url方案。
参考文献
>
以上就是关于如何快速判断hadoop是否安装成功全部的内容,包括:如何快速判断hadoop是否安装成功、Hadoop与spark集群安装、hadoop使用HDFS报错:ls: `.': No such file or directory等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)