#|hive 表数据导出到CSV文件

insert overwrite local directory '/url/lxb/hive' row format delimited fields terminated by ',' select * from table_name limit 100


hive -e "set hive.cli.print.header=true; select * from table_name where some_query_conditions" | sed 's/[\t]/,/g'> test.csv

set hive.cli.print.header=true将表头输出
sed ‘s/[\t]/,/g’ 将\t 替换成,(逗号分隔)
【#|hive 表数据导出到CSV文件】spark-shell
val df = spark.sql("select * from test.student3") df.write.csv("/HDFS目录") hadoop fs -get /HDFS目录 XXX

注意这里是 HDFS目录 ,spark会在目录下生成很多小的csv文件,导出后需要使用 cat *.csv > one.csv 来合并

    推荐阅读