hadoop实践02---eclipse操作hdfs的api上传文件
1、eclipse中编写代码后双击main方法--->Run as ---> java application ,然后指定的文件 就会提交到hdfs中。
2、查看文件:http://192.168.108.128:50070/dfshealth.html#tab-overview
package hdfs24; import java.net.URI; import java.net.URISyntaxException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; public class hdfsClientDemo { public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); //复本数 conf.set("dfs.replication", "1"); conf.set("dfs.blocksize", "1024m"); FileSystem fs = FileSystem.get(new URI("hdfs://192.168.108.128:9000"), conf, "root"); fs.copyFromLocalFile(new Path("D:/postman-4.1.2.rar"), new Path("/aaa/")); fs.close(); } }
【hadoop实践02---eclipse操作hdfs的api上传文件】
推荐阅读
- Hadoop|Hadoop总结篇及面试常考点
- 洞态在某互联??融科技企业的最佳落地实践
- 数据库|围剿慢SQL,工行MySQL研发管控和治理实践
- C#实现Stripe支付的方法实践
- Serverless|Serverless 在阿里云函数计算中的实践
- Docker运维技术最佳实践|08-Docker 镜像安装实践(MySql数据库,Redis数据库,Nginx代理,Nacos组件)
- Python每日一练|Python每日一练(牛客网新题库)——第10天(从入门到实践四十招)
- 应用实践|应用实践 | 10 亿数据秒级关联,货拉拉基于 Apache Doris 的 OLAP 体系演进(附 PPT 下载)
- 树梅派学习 4. 双色LED实验
- 简单ELK配置实现生产级别的日志采集和查询实践