Hadoop的主站无法开始与不同的$ HADOOP_HOME奴隶(Hadoop master can

2019-10-17 04:58发布

在高手, $HADOOP_HOME/home/a/hadoop ,从属的$HADOOP_HOME/home/b/hadoop

在主,当我尝试使用start-all.sh ,则主名称节点successfuly启动,但无法启动与下面的消息从服务器的数据节点:

b@192.068.0.2: bash: line 0: cd: /home/b/hadoop/libexec/..: No such file or directory
b@192.068.0.2: bash: /home/b/hadoop/bin/hadoop-daemon.sh: No such file or directory

关于如何指定任何想法$HADOOP_HOME在主配置奴隶?

Answer 1:

我不知道的方式为从主的各种奴隶配置不同的主目录,但Hadoop的常见问题解答说,Hadoop框架并不需要使用SSH和数据管理部和TaskTracker共同守护进程可以手动在每个节点上启动。

我建议你写自己的脚本开始的事情,考虑到你的节点的特定环境。 但是,请务必在主的奴隶文件中的所有奴隶。 看来,这是必要的,心脏跳动是不够的高手补充的奴隶。



文章来源: Hadoop master cannot start slave with different $HADOOP_HOME