linuxhdfs命令 hdfsshell命令( 四 )


在root ALL=(ALL) ALL后 hadoop ALL=(ALL) ALL
修改hadoop目录的权限
sudo chown -R larry:hadoop /home/larry/hadoop所有者:组 文件
sudo chmod -R 755 /home/larry/hadoop
修改hdfs的权限
sudo bin/hadoop dfs -chmod -R 755 /
sudo bin/hadoop dfs -ls /
修改hdfs文件的所有者
sudo bin/hadoop fs -chown -R larry /
sudo bin/hadoop dfsadmin -safemode leave #解除hadoop的安全模式
hadoop fs -copyFromLocal localsrc URI#拷贝本地文件到hdfs
hadoop fs -cat/user/hadoop/file4#将路径指定文件的内容输出到stdout
hadoop fs -chgrp [-R] GROUP URI#改变文件的所属组
hadoop fs -chmod [-R] 755 URI#改变用户访问权限
hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]#修改文件的所有者
hadoop fs -copyToLocal URI localdst#拷贝hdfs文件到本地
hadoop fs -cp URI [URI …] dest#拷贝hdfs文件到其它目录
hadoop fs -du URI [URI …]#显示目录中所有文件的大小
hadoop fs -getmerge src localdst [addnl]#合并文件到本地目录
如:
root@cdh3:~# hdfs dfs -ls /
Found 8 items
drwxr-xr-x- hbase hbase0 2017-06-24 10:05 /hbase
drwxrwxr-x- solrsolr0 2016-12-01 22:43 /solr
drwxr-xr-x- rootsupergroup0 2017-04-24 22:58 /sparklib
drwxr-xr-x- rootsupergroup0 2017-07-19 17:44 /sparklib-2.1.0
drwxr-xr-x- hdfssupergroup0 2016-12-05 09:08 /system
drwxrwxrwt- hdfssupergroup0 2017-07-13 09:40 /tmp
drwxr-xrwx- hdfssupergroup0 2017-06-23 10:54 /user
drwxr-xr-x- rootsupergroup0 2017-04-13 11:12 /file
root@cdh3:~# hdfs dfs -chown Administrator /file
chown: changing ownership of '/file': Non-super user cannot change owner
root@cdh3:~# hdfs dfs -chown -R Administrator /file
chown: changing ownership of '/file': Non-super user cannot change owner
root@cdh3:~# su hdfs
hdfs@cdh3:/root$ hdfs dfs -chown -R Administrator /file
hdfs@cdh3:/root$ hdfs dfs -chgrp -R Administrator /file
hdfs@cdh3:/root$ hdfs dfs -ls /file
Found 9 items
-rw-r--r--2 Administrator Administrator3302 2017-04-13 11:11 /file/data-transfer.properties
-rw-r--r--2 Administrator Administrator313898 2017-04-13 11:00 /file/dom4j-1.6.1.jar
drwxr-xr-x- Administrator Administrator0 2017-04-12 10:03 /file/hangxin
-rw-r--r--2 Administrator Administrator24212 2017-03-17 12:06 /file/hx.jar
-rw-r--r--2 Administrator Administrator802721 2017-03-17 11:50 /file/mysql-connector-java-5.1.20-bin.jar
drwxr-xr-x- Administrator Administrator0 2017-03-22 09:46 /file/notregex
drwxr-xr-x- Administrator Administrator0 2017-04-25 00:01 /file/regex
-rw-r--r--2 Administrator Administrator106006 2017-04-13 11:12 /file/sihconfig.xml
-rw-r--r--2 Administrator Administrator123 2017-03-16 14:31 /file/spark-config.properties
#
如何在linux脚本中执行hdfs命令首先脚本需要有执行权限
chmod u+x file.sh
执行脚本有三种方法:
1. ./file.sh
特点:开启bash子进程来执行,也就是开启额外的进程来进行,不影响原进程的变量、配置等
2. bash file.sh
特点:和./file.sh相同
3. source file.sh 或者 . file.sh
特点:在原bash进程中执行脚本 。
第三种方法主要用于在脚本中切换用户su、切换目录cd等命令 。
source 和 . 命令是相同的 。
你可以搜索 source
怎么用命令行删除hdfs上的文件命令linuxhdfs命令:hadoop fs -rmr /home/mm/lily2(要求是你把hadooplinuxhdfs命令的bin加到PATH中linuxhdfs命令,并开启hadoop)
rm -rf /home/mm/lily2(这是删除linux文件系统linuxhdfs命令的文件夹) 。
删除目录
rd /s /q "c:\hello"
rem 加引号可以防止因路径中有空格而出错
rem 上面的代码意为:删除c:\hello目录下所有的内容(包括"c:\hello")
删除文件

推荐阅读