insert overwrite local directory '/url/lxb/hive'
row format delimited
fields terminated by ','
select * from table_name limit 100
hive -e "set hive.cli.print.header=true;
select * from table_name where some_query_conditions" | sed 's/[\t]/,/g'> test.csv
set hive.cli.print.header=true将表头输出
sed ‘s/[\t]/,/g’ 将\t 替换成,(逗号分隔)
【#|hive 表数据导出到CSV文件】spark-shell
val df = spark.sql("select * from test.student3")
df.write.csv("/HDFS目录")
hadoop fs -get /HDFS目录 XXX
注意这里是 HDFS目录 ,spark会在目录下生成很多小的csv文件,导出后需要使用 cat *.csv > one.csv 来合并
推荐阅读
- hive|hive(导入CSV文件)
- hive|Spark读取csv文件,清洗后存入Hive库中
- HIVE|hive 通过csv文件创建表
- 大数据|spark sql 创建rdd以及DataFrame和DataSet互转
- hadoop|Hive 安装、配置、数据导入和使用
- hive|Hive导入/导出 : 创建分区表及分区表导入csv文本文件数据
- #|二进制粒子群算法的配电网故障定位(Python&Matlab实现)
- #|美团外卖——物流论文小笔记(Python实现)
- #|多目标优化NSGA-II(非支配排序常见于遗传算法)(C语言实现)