Spark基础入门(01)—RDD
1,基本概念 RDD(Resilient Distributed Dataset) :弹性分布式数据集 它是Spark中最基本的数据抽象,是编写Spark程序的基础。简单的来讲,一个Spark程序可以概括为: <输入> => [转换] => <输出> 输入和输出是必须要有的,转换是大部分情况下都有的
推荐阅读
- JavaScript基础回顾知识点记录6-操作元素样式和事件对象(介绍基本使用)
- Spark详解(十四)(Spark SQL的Join实现)
- 秒懂边缘云|秒懂边缘云 | CDN基础入门(访问控制及带宽阈值)
- Node js 开发入门 —UDP 编程,小白也能轻松学会
- Java基础|高并发线程/锁/内存处理模型
- Java基础|Servlet+Filter+Listenler基础入门
- Educoder实训编程解析|【EduCoder实训答案】shell脚本入门——流程控制
- Linux基础使用|Linux 运行和控制 shell 脚本
- kylin入门到实战(入门)
- EMC专题|【ESD专题】1.ESD基础及IEC61000-4-2标准