安装hadoop图文-创新互联
1.下载hadoop-2.5.1,存放根目录


站在用户的角度思考问题,与客户深入沟通,找到德宏州网站设计与德宏州网站推广的解决方案,凭借多年的经验,让设计与互联网技术结合,创造个性化、用户体验好的作品,建站类型包括:网站设计制作、
成都网站建设、企业官网、英文网站、手机端网站、网站推广、
申请域名、网页空间、企业邮箱。业务覆盖德宏州地区。
2.通过tar -zxvf 包名 来进行解压


3.通过mv命令将解压后的hadoop包移动到/home下


4.修改hadoop-en.sh配置文件,添加jdk的安装目录,操作如下图所示




5.修改core-site.xml配置文件,添加namenode的配置信息


6.修改hdfs-site.xml配置文件,添加secondarynamenode的配置信息


7.修改slaves配置文件,添加datanode节点的配置信息


8.配置masters的secondarynode的主机名


9.将node1上的安装目录hadoop复制到其他的节点




10.将node1上的hosts文件复制到其他节点hosts文件所在目录/etc/hosts





11.将hadoop的安装目录添加到系统环境变量


12.将环境变量文件.bash_profile复制到其他节点




13.在node1上重新加载bash_profile

14.通过hdfs namenode -format格式化namenode节点(node1是namenode节点)


15.通过start-dfs.sh命令启动hadoop


16.通过http://192.168.2.136:50070/访问namenode的监控页面(192.168.2.136是node1)

17.通过http://192.168.2.137:50090访问secondarynamenode的监控页面(192.168.2.137是node2)

18.说明
安装前
检查jdk版本是否与hadoop匹配
检查节点时间是否一致,时间相差不要超过30秒
免密码登录是否设置
到此hadoop的简单安装与配置完成
笔者在这里使用的是虚拟机来安装这些环境
node1 安装namenode节点
node2 安装secondarynamenode节点
node3 安装datanode节点
node4 安装datanode节点
node5 安装datanode节点
另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。
标题名称:安装hadoop图文-创新互联
网站URL:
http://wjwzjz.com/article/dphsij.html