大数据(Hadoop(JDK安装、HDFS伪分布式环境搭建、HDFS|大数据:Hadoop(JDK安装、HDFS伪分布式环境搭建、HDFS 的shell操作))
- 所有的内容都来源与 Hadoop 官方文档
- 解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app
- 添加到系统环境变量:
- ~/.bash_profile
- export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79
- export PATH=$TAVA_HOME/bin:$PATH
- 环境变量生效:source ~/bash_profile
- 验证Java是否配置成功:java -v
2)ssh安装
- 参考:远程连接SSH
二、HDFS伪分布式环境搭建 1)下载并解压hadoop
- 下载:cdh网站下载
- 解压:tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz -C ~/app
2)修改 Hadoop 配置文件
- 在 hadoop_home/etc/hadoop 目录下修改
- 配置 hadoop-env.sh 文件
- 配置:export JAVA_HOME=/home/hadoop/app/jdk1.7.0_79
- 配置 cor-site.xml 及 hdfs-site.xml 文件
- cor-site.xml 中,默认的数据存放在临时文件夹,需要添加新的属性(hadoop.tmp.dir),可以指定存放的文件夹(如存放在文件夹 /home/hadoop/app 中),防止数据在每次重启系统时被删除;
文章图片
- 配置 slaves 文件:用于添加素有 DataNode 的名字;
3)启动 hdfs
- 格式化文件系统(在客户端操作,且仅第一次执行即可,不要重复执行):hdfs namenode -format,或者 hadoop namenode -format
- 启动 hdfs:(sbin 目录下)sbin/start-dfs.sh
- 验证是否启动成功:
文章图片
- 3 个进程,如果缺少,说明缺少的部分配置不成功;(可通过日志输出查看进程的启动过程)
- 浏览器访问方式:http://localhost:50070
4)停止 hdfs
- (在 sbin 目录下)sbin/stop-dfs.sh
三、HDFS 的shell 操作
- hdfs dfs + commands 或者 hadoop fs + commands
- 用法与 Linux 命令相同
文章图片
- 例:
- hadoop fs -put hello.txt:将文件 hello.txt 从本地传到 HDFS 上;
- hadoop fs -get hello.txt:从 HDFS 上获取文件 hello.txt 到本地;
- hadoop fs -text /hello.txt:查看文件 hello.txt 的内容;
- hadoop fs -mkdir /test:在 HDFS 上创建一个目录 test;
- hadoop fs -mkdir -p /test/a/b:在 HDFS 上创建递归文件夹;
- hadoop fs -rm /hello.txt:删除一个文件;(-rm 不能删除文件夹,只能删除文件)
- hadoop fs -rm -R /test:删除文件夹 test 及其下所有递归文件;
- hadoop fs -ls -R:查看递归文件夹;
文章图片
【大数据(Hadoop(JDK安装、HDFS伪分布式环境搭建、HDFS|大数据:Hadoop(JDK安装、HDFS伪分布式环境搭建、HDFS 的shell操作))】转载于:https://www.cnblogs.com/volcao/p/11445486.html
推荐阅读
- 我要做大厨
- Docker应用:容器间通信与Mariadb数据库主从复制
- 《真与假的困惑》???|《真与假的困惑》??? ——致良知是一种伟大的力量
- 知识
- 三十年后的广场舞大爷
- 奔向你的城市
- 村里的故事|村里的故事 --赵大头
- 期刊|期刊 | 国内核心期刊之(北大核心)
- 华为旁!大社区、地铁新盘,佳兆业城市广场五期!
- 汇讲-勇于突破