博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
hadoop单节点伪集群
阅读量:5148 次
发布时间:2019-06-13

本文共 3042 字,大约阅读时间需要 10 分钟。

相关软件

 

软件/系统

版本

描述/地址

Hadoop

3.1.2

下载地址:https://hadoop.apache.org/releases.html

jdk

1.8

版本兼容:https://cwiki.apache.org/confluence/display/HADOOP/Hadoop+Java+Versions

centos

7.6_64

 

 

 

 

 

 

 

 

 

安装jdk

上传jdk并安装    rpm -ivh jdk-8u211-linux-x64.rpm配置环境变量在/etc/profle文件中添加或修改    export  JAVA_HOME=/usr/java/jdk1.8.0_211-amd64    export  PATH=$PATH:$JAVA_HOME/bin使环境变量生效    source  /etc/profile验证java    java -version

 安装hadoop

1》上传hadoop-3.1.2.tar.gz至/opt目录兵解压    $ tar -zxvf  hadoop-3.1.2.tar.gz2》修改配置文件hadoop-env.sh (在第54行)    $ vim /opt/hadoop-3.1.2/etc/Hadoop/hadoop-env.sh  +54         export JAVA_HOME=/usr/java/jdk1.8.0_211-amd643》配置环境变量   修改配置文件/etc/profile,新增/追加如下    # export hadoop_home=/opt/hadoop-3.1.2             #新增    #export PATH=$PATH:$JAVA_HOME/bin:$hadoop_home/bin #追加执行source  /etc/profile使环境变量生效

设置免密登录(单节点也需要)

1 ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa2 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys3 chmod 0600 ~/.ssh/authorized_keys

修改配置文件core-site.xml

vim /opt/hadoop-3.1.2/etc/Hadoop/core-site.xml

在<configuration>字段内增加如下,(配置文件中的存储路径可自定义)

fs.defaultFS
hdfs://localhost:9000
hadoop.tmp.dir
/opt/doufy/tmp/hadoop

修改配置文件hdfs-site.xml:

vim /opt/hadoop-3.1.2/etc/Hadoop/hdfs-site.xml

在<configuration>字段内增加如下

dfs.replication
1

改配置文件mapred-site.xml:

vim /opt/hadoop-3.1.2/etc/Hadoop/mapred-site.xml

在<configuration>字段内增加如下

mapreduce.framework.name
yarn
mapreduce.application.classpath
    
$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*

修改配置文件yarn-site.xml:

vim /opt/hadoop-3.1.2/etc/Hadoop/yarn-site.xml

在<configuration>字段内增加如下

yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.env-whitelist
JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME

格式化文件系统

会在预配置文件(core-site.xml)的路径下生成一系列文件

1 # hdfs namenode -format

常用命令

 

官方文档先看着吧,后续慢慢补充

 

启动NameNode守护进程和DataNode守护进程

1 #/opt/hadoop-3.1.2/sbin/start-dfs.sh2 #/opt/hadoop-3.1.2/sbin/start-yarn.sh 访问地址:  NameNode的Web界面          http://IP:9870/  ResourceManager的Web界面   http://IP:8088/

Root用户会报错,解决方法如下

处理1 vim sbin/start-dfs.sh vim sbin/stop-dfs.sh 两处增加以下内容 HDFS_DATANODE_USER=root HADOOP_SECURE_DN_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root 处理2 vim sbin/start-yarn.sh vim sbin/stop-yarn.sh 两处增加以下内容 YARN_RESOURCEMANAGER_USER=root HADOOP_SECURE_DN_USER=yarn YARN_NODEMANAGER_USER=root

 

 

 

 

转载于:https://www.cnblogs.com/doufy/p/10978818.html

你可能感兴趣的文章
Hive(7)-基本查询语句
查看>>
Redis快速入门
查看>>
注意java的对象引用
查看>>
C++ 面向对象 类成员函数this指针
查看>>
inline函数的总结
查看>>
Python字符编码
查看>>
leetcode 49. 字母异位词分组(Group Anagrams)
查看>>
NSPredicate的使用,超级强大
查看>>
自动分割mp3等音频视频文件的脚本
查看>>
财务结算的目的和一般流程
查看>>
判断字符串是否为空的注意事项
查看>>
布兰诗歌
查看>>
老李分享:5个衡量软件质量的标准
查看>>
Xcode部分插件无法使用识别的问题
查看>>
set学习记录
查看>>
用函数写注册功能
查看>>
JVM笔记4:Java内存分配策略
查看>>
IE8 window.open 不支持此接口 的问题解决
查看>>
Django -- 发送HTML格式的邮件
查看>>
最近面试问题汇总
查看>>