如何快速判断hadoop是否安装成功

如何快速判断hadoop是否安装成功,第1张

登陆hdfs的web界面(默认端口50070),如果界面显示namenode正常,datanode也在线上,容量也正常,则说明安装成功;

往hdfs里面写入文件,如果写入成功,则安装成功;

启动yarn,如果启动成功

jdk:jdk180

hadoop:hadoop-2101

spark:spark-301

将jdk解压缩

之后在/etc/profile里面添加环境变量

注意每次都要source /etc/profile

解压Hadoop

并配置环境变量,将Hadoop的路径写入~/bashrc

需要source ~/bashrc

修改hostname,

sudo vim  /etc/hostname

修改hosts的名字

sudo vim  /etc/hosts

以下是master的hostname和hosts

slave1和slave2的hostname也需要改。

配置免密登录

ssh-keygen -t rsa      # 一直按回车就可以

cat /id_rsapub >> /authorized_keys

需要修改Hadoop安装目录下/etc/hadoop中的5个配置文件。slaves、core-sitexml、hdfs-sitexml、mapred-sitexml、yarn-sitexml

<configuration>

<property>

                <name>fsdefaultFS</name>

                <value>hdfs://master:9000</value>

        </property>

        <property>

                <name>hadooptmpdir</name>

                <value>file:/home/zkx/hadoop-2101/tmp</value>

                <description>Abase for other temporary directories</description>

        </property>

</configuration>

这文件记录备份相关。我们有2个 slave 节点,因此可以将 dfsreplication 的值设为 2

<configuration>

<property>

                <name>dfsnamenodesecondary>

安装好的Hadoop系统验证是否安装成功时使用命令

结果报错:解决方法

hadoop fs -ls 命令的完整语法是:hadoop fs -ls [path]

默认情况下当你未指定[path] 时,hadoop会在HDFS里面将路径扩展为/home/[username];这样的话[username]就会被执行命令的Linux用户名替代。因此,当执行此命令时,hadoop fs -ls ,你看到的报错,ls: ''no suck file or directory ,因为Hadoop正在寻找这路径/home/longting(Linux用户名),但是这条路径在HDFS中不存在。所以你可以这样做:

这样,你就明确指定了[path]并且是HDFS的根,它会自定被认为是HDFS的根目录。另外,当你想查看指定文件系统的路径,需要使用file:///url方案。

参考文献

>

以上就是关于如何快速判断hadoop是否安装成功全部的内容,包括:如何快速判断hadoop是否安装成功、Hadoop与spark集群安装、hadoop使用HDFS报错:ls: `.': No such file or directory等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/web/9816301.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-02
下一篇2023-05-02

发表评论

登录后才能评论

评论列表(0条)

    保存