hadoop 之分布式安装

jopen 8年前

1、防火墙;

    1) 重启后生效 
    开启: chkconfig iptables on 
    关闭: chkconfig iptables off 

    2) 即时生效,重启后失效 
    开启: service iptables start 
    关闭: service iptables stop 

    3)查看防火墙状态:service iptables status

 2、HDFS 启动

       sbin/hadoop-daemon.sh start/stop namenode

        sbin/hadoop-daemon.sh start/stop secondarynamenode

        sbin/hadoop-daemon.sh start/stop datanode

       需要在sbin目录下操作


yarn jar /opt/cloud/hadoop-2.6.0-cdh5.4.2/ws/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0-cdh5.4.2.jar  wordcount /wordcount  /output

sbin/yarn-daemon.sh start resourcemanager

sbin/yarn-daemon.sh start nodemanager


       ./yarn-daemon.sh stop nodemanager

       ./yarn-daeon.sh stop resourcemanager

       如何克隆虚拟机:http://www.centoscn.com/CentOS/2015/0208/4656.html

       CentOS Linux 克隆完后,连接问题   http://my.oschina.net/u/2356966/blog/469248

一定要保证,集群中的所有节点的配置都是一样的,

因此,我是在同一个节点上配置,然后同步到其他的机器上。

             临时修改用户名:hostname  新名

             永久性修改:vim /etc/sysconfig/network

ssh这是个命令,可以放到shell脚本,那么这样就能够实现自动化的连接到其他的机器,同时,执行相应的命令。          

设置步骤

        生成自己的公私钥对:ssh-keygen -t rsa

        将自己的公钥复制到对方的机器下,并授权;ssh-copy-id root@master

        别忘了给自己也设置下

        使用ssh直接登录,不需要添写密码

ssh-keygen -t rsa  生成一次

ssh-copy-id root@master   多次授权给不同的机器

 

同步;

scp -r hadoop-2.6.0-cdh5.4.2/  root@slave01:/opt/cloud/

scp -r jdk1.7.0_45/  root@slave01:/opt/cloud/

scp -r /etc/profile root@slave01:/etc/profile



master节点格式化:hdfs namenode -format


datanode节点启动,需要删除dfs中的dn文件

来自: http://my.oschina.net/u/2356966/blog/535315