勿动,下接:hadoop3.x集群:测试yarn和MapReduce
说明
将 linux 本地文件 上传到 HDFS 文件系统中
linux创建测试文件
登录 hadoop1
创建文件:
vim /program/data.txt
内容如下:
李雷
韩梅梅
lucy
lili
张三
李四
王五
李雷
韩梅梅
lucy
李雷
韩梅梅
李雷
执行:esc
-> wq
退出
hdfs操作
hdfs创建目录
hadoop fs -mkdir /test
hdfs上传
hadoop fs -put /program/data.txt /test/
将 linux 系统的 data.txt
文件,上传到 HDFS /test/
路径
在web中查看
点击文件名称,显示如下图:
在 文件系统中查看
hadoop1
登录 hadoop1
,打开下面文件:
/program/hadoop-3.0.3/data/tmp/dfs/data/current/BP-1363844142-192.168.58.101-1632145194155/current/finalized/subdir0/subdir0/blk_1073741826
内容 与 data.txt 文件相同
hadoop2
登录 hadoop2
,打开下面文件:
/program/hadoop-3.0.3/data/tmp/dfs/data/current/BP-1363844142-192.168.58.101-1632145194155/current/finalized/subdir0/subdir0/blk_1073741826
内容 与 data.txt 文件相同
hadoop3
登录 hadoop3
,打开下面文件:
/program/hadoop-3.0.3/data/tmp/dfs/data/current/BP-1363844142-192.168.58.101-1632145194155/current/finalized/subdir0/subdir0/blk_1073741826
内容 与 data.txt 文件相同