出门莫恨无人随,书中车马多如簇。这篇文章主要讲述写给初学者,一文搞懂大数据学习岗位面试及简历相关的知识,希望能为你提供帮助。
【写给初学者,一文搞懂大数据学习岗位面试及简历】最近有读者私聊我时发现有不少应届生和初学者,他们在大数据怎么学,以及大数据怎么面试,简历怎么写等方面有很大的困扰,今天我们就来谈谈关于大数据的一些事。
我之前在知乎回答过类似的问题,有人问大数据工程师的日常工作内容是干嘛?
,我当时看到之后就随意回答了下,先说了下大数据日常干嘛,然后又说了下怎么准备大数据的面试,怎么学大数据等等,没想到反响还挺好,截图了部分评论:
文章图片
文章图片
文章图片
文章图片
今天走心回答一波,把知乎回答的内容再整理下。
文章图片
1. 大数据学习大数据怎么学,该学哪些东西,不需要学哪些东西,是大家问的最多的一个问题,也有不少同学问培训机构讲的框架太多了,是否都要掌握,接下来我们逐个解析。
从 2008 年 Hadoop 成为 Apache 顶级项目开始,大数据迎来了体系化的快速发展,到如今已经走过十几个年头,这些年里大数据框架层出不穷,可以用“乱花渐欲迷人眼”形容,框架这么多,应该怎么学?
我们可以思考下整个大数据的流程是什么,从数据采集-> 数据存储-> 数据处理-> 数据应用,再加一个任务调度。每个流程都有很多对应的大数据框架,我们学习其中一两个比较重要,也就是企业用的较多的框架即可。
数据采集:就是把数据从其他平台采集到我们大数据平台,只是负责采集数据,所以对这个流程的框架要求是会用即可,日志采集工具如Flume,大数据平台与传统的数据库(mysql、postgresql...)间进行数据的传递工具如Sqoop,我们会用即可,这种工具上手也很快,没有太复杂的功能。
数据存储:数据存储就比较重要了,大数据如此流行,和大规模分布式数据存储快速发展有很大关系,当然数据存储的框架也比较多,不同的框架,功能不太一样,首先第一个:Hadoop HDFS,分布式文件系统,HDFS的诞生,解决了海量数据的存储问题, 但是一个优秀的数据存储系统需要同时考虑数据存储和访问两方面的问题,比如你希望能够对数据进行随机访问,这是传统的关系型数据库所擅长的,但却不是分布式文件系统所擅长的,那么有没有一种存储方案能够同时兼具分布式文件系统和关系型数据库的优点,基于这种需求,就产生了 HBase、MongoDB等。
数据处理:大数据最重要的环节就是数据处理了,数据处理通常分为两种:批处理和流处理。
- 批处理:对一段时间内海量的离线数据进行统一的处理,对应的处理框架有 Hadoop MapReduce、Spark、Flink 等;
- 流处理:对运动中的数据进行处理,即在接收数据的同时就对其进行处理,对应的处理框架有 Spark Streaming、Flink 等。
时间敏感和及时性要求高就可以采用流处理。随着服务器硬件的价格越来越低和大家对及时性的要求越来越高,流处理越来越普遍,如股票价格预测和电商运营数据分析等。
大数据是一个非常完善的生态圈,有需求就有解决方案。为了能够让熟悉 SQL 的人员也能够进行数据处理与分析,查询分析框架应运而生,常用的有 Hive 、Spark SQL 、Flink SQL、Phoenix 等。这些框架都能够使用标准的 SQL 或者 类 SQL 语法灵活地进行数据的查询分析。
这些 SQL 经过解析优化后转换为对应的作业程序来运行,如 Hive 本质上就是将 SQL 转换为 MapReduce 或 Spark 作业,Phoenix 将 SQL 查询转换为一个或多个 HBase Scan。
大数据流处理中使用的比较多的另外一个框架是 Kafka,Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以用于消峰,避免在秒杀等场景下并发数据对流处理程序造成冲击。
数据应用:处理好的数据就可以输出应用了,如可视化展示,推动业务决策,用于推荐算法,机器学习等。
任务调度:复杂大数据处理的另外一个显著的问题是,如何调度多个复杂的并且彼此之间存在依赖关系的作业?基于这种需求,产生了 Azkaban 和 Oozie 等工作流调度框架。
同时针对集群资源管理的需求,又衍生了 Hadoop YARN,资源调度框架。
想要保证集群高可用,需要用到 ZooKeeper ,ZooKeeper 是最常用的分布式协调服务,它能够解决大多数集群问题,包括首领选举、失败恢复、元数据存储及其一致性保证。
以上,在分析大数据处理流程中,我们把常用的框架都说了下,基本上也是大数据中最常用的框架,尽量全部掌握。
以上框架大部分是用java写的,有部分是用Scala写的,所以我们必须掌握的语言是Java、Scala,以便我们开发相关应用及阅读源码等。
总结我们总结下重点框架:
- 语言:Java 和 Scala(语言以这两种为主,需要重点掌握)
- Linux(需要对Linux有一定的理解)
- Hadoop(需理解底层,能看懂源码)
- Hive(会使用,理解底层SQL转化原理及优化)
- Spark(能进行开发。对源码有了解)
- Kafka(会使用,理解底层原理)
- Flink(能进行开发。对源码有了解)
- HBase(理解底层原理)
- Zookeeper(会用,最好理解原理)
- Sqoop、Flume、Oozie/Azkaban(会用即可)
- 离线数仓建设(搭建数仓,数仓建模规范)
- 维度建模(建模方式常用的有范式建模和维度建模,重点关注维度建模)
- 实时数仓架构(两种数仓架构:Lambda架构和Kappa架构)
等工作之后,有时间还需要学习比较流行的 OLAP 查询引擎:
Impala 、Presto、Druid 、Kudu 、ClickHouse 、Doris
如果还有时间,需学习数据质量及数据治理相关的内容!
另还有元数据管理工具:Atlas
数据湖-Data Lake 三剑客:Delta、Hudi、Iceberg
2. 大数据就业方向因为大数据涉及到的知识相对比较广泛,全部学精难度太大,所以现在企业在招聘的时候会细分大数据岗位,专注于某个方向招聘,所以先解下大数据的都有哪些就业方向,然后你在后续的学习过程中对哪部分比较感兴趣就重点关注那部分
从上帝视角看一张图,了解下大数据所处的位置及与相关岗位的关系
文章图片
- 数仓工程师 (全称:数据仓库工程师)
数仓工程师是大数据领域公司招聘较多的岗位,薪资也较高,需要重点关注!
数据仓库分为离线数仓和实时数仓,但是企业在招聘时大多要求两者都会,进入公司之后可能会专注于离线或实时其中之一。
就目前来说,大多数的企业还是以离线数仓为主,不过未来趋势肯定是实时数仓为主,所以学习时,为了现在能找到工作,需要学习离线数仓,为了以后的发展,需要学习实时数仓。所以,离线和实时都是我们重点掌握的!
需要掌握的技能:
不管离线还是实时,重中之重就是:SQL
SQL 语法及调优一定要掌握,这里说的 SQL 包括 mysql 中的 sql,hive中的 hive sql,spark 中的 spark sql,flink 中 的 flink sql。
在企业招聘的笔记及面试中,一般问的关于 sql 的问题主要是以 hive sql 为主,所以请重点关注!
除 sql 外,还需要重点掌握以下技能,分为离线和实时
离线数仓需要重点掌握的技能:
- Hadoop(HDFS,MapReduce,YARN)
- Hive(重点,包括hive底层原理,hive SQL及调优)
- Spark(Spark 会用及了解底层原理)
- Oozie(调度工具,会用即可)
- 离线数仓建设(搭建数仓,数仓建模规范)
- 维度建模(建模方式常用的有范式建模和维度建模,重点关注维度建模)
- Hadoop(这是大数据基础,不管离线和实时都必须掌握)
- Kafka(重点,大数据领域中算是唯一的消息队列)
- Flink(重中之重,这个不用说了,实时计算框架中绝对王者)
- HBase(会使用,了解底层原理)
- Druid(会用,了解底层原理)
- 实时数仓架构(两种数仓架构:Lambda架构和Kappa架构)
- 大数据开发工程师
大数据开发分两类,第一类是编写Hadoop、Spark、Flink 的应用程序,第二类是对大数据处理系统本身进行开发,如对开源框架的扩展开发,数据中台的开发等!
需要重点掌握的技能:
- 语言:Java 和 Scala(语言以这两种为主,需要重点掌握)
- Linux(需要对Linux有一定的理解)
- Hadoop(需理解底层,能看懂源码)
- Hive(会使用,能进行二次开发)
- Spark(能进行开发。对源码有了解)
- Kafka(会使用,理解底层原理)
- Flink(能进行开发。对源码有了解)
- HBase(理解底层原理)
- ETL工程师
从开始的图中也能看出,ETL工程师是对接业务和数据的交接点,所以需要处理上下游的关系
对于上游,需要经常跟业务系统的人打交道,所以要对业务系统比较熟悉。比如它们存在各种接口,不管是API级别还是数据库接口,这都需要ETL工程师非常了解。
其次是其下游,这意味着你要跟许多数据开发工程师师、数据科学家打交道。比如将准备好的数据(数据的清洗、整理、融合),交给下游的数据开发和数据科学家。
需要重点掌握的技能
- 语言:Java/Python(会基础)
- Shell脚本(需要对shell较为熟悉)
- Linux(会用基本命令)
- Kettle(需要掌握)
- Sqoop(会用)
- Flume(会用)
- MySQL(熟悉)
- Hive(熟悉)
- HDFS(熟悉)
- Oozie(任务调度框架会用其中一个即可,其他如 azkaban,airflow)
- 数据分析工程师
分析师们会根据数据和业务情况,分析得出结论、制定业务策略或者建立模型,创造新的业务价值并支持业务高效运转。
同时数据分析师在后期还有数据爬虫、数据挖掘和算法工程师三个分支。
需要重点掌握的技能:
- 数学知识(数学知识是数据分析师的基础知识,需要掌握统计学、线性代数等课程)
- 编程语言(需要掌握python、R语言)
- 分析工具(Excel是必须的,还需要掌握 Tableau 等可视化工具)
- 数据敏感性(对数据要有一定的敏感性,看见数据就能想到它的用处,能带来哪些价值)
但是话又说回来,需求这东西你没办法提前复习啊,只有需求来了才知道要干什么,所以面试时只能考察技术及你的过往项目经历,通过你之前做的项目看你对这个项目的理解情况,这主要看和面试官有没有眼缘,没有具体标准,因为每个人做的项目可能不一样,你项目中会的地方多说一点,不会的少说一点或者干脆不说,面试官感觉你说得好,你就有希望
文章图片
但是技术是有标准的,问你某个技术点,你会就是会,不会就是不会
但是在学技术的时候要多思考,这个技术点为什么这样实现,有什么好处,多思考会让大脑越来越灵活,就比如Flink支持精准一次处理语义,但是大家深入思考下flink的精准处理是怎么实现的,有人说是通过两阶段提交协议实现的,对,是通过这个协议,那再深入思考下,这个协议的主要内容是什么,底层的算法是怎么实现的,这样一步步的向下思考,你就会发现一个新世界。
以上说这么多,其实就两点,面试主要考察技术和项目。项目也是非常重要的,通过项目一方面可以考察你的技术掌握情况,另一方面考察你对项目的理解情况,如果你连自己简历中的项目都不太熟悉,说的磕磕绊绊,那么你进到公司后,怎么能短时间内快速熟悉业务呢。
所以,简历中一定要写项目,并且对项目要非常熟悉!
4. 大数据简历对于许多应届生来说,有不少是带着学生思维来撰写简历,不仅于求职加分无益,还给自己挖了许多坑。败在简历关,等于一场马拉松摔输在了起跑线,还没开始就结束了。
简历的大忌:
- 海投简历
求职讲求“人岗匹配”,即面试者个人素质与职位要求高度一致。要针对岗位要求适当修改简历,提升岗位匹配度。
- 简历毫无重点
简历怎么写:重点来啦!!!
写简历一定要用四大原则和STAR法则!
什么是四大原则,什么是STAR法则,接下来我们就逐项解析:
四大原则:
- 关键词原则
- 动词原则
比如表明自己行为的动词“从事”“积累”“得到”,似乎是所有工作中都用得到,但根本看不出这份经历的独特性。
为了展现你的经历真实与价值,足够专业化的动词才是加分项。
- 数字原则
数字一般可以用于三种维度:价值,时间,数量。
牢记,能够量化的内容都量化,用数据展现你丰厚的经历。
- 结果原则
STAR法则
文章图片
Situation 项目背景
介绍一下你所处的平台和团队有多优秀,以证明你曾经的被认可程度。
Task 项目目标
介绍一下你们此项活动的具体目标与设想,有时可以和上一部分进行合并。
Action 你做了什么
说明你在团队中做出了怎样的努力,充当了怎样的角色,发挥了什么样的作用,以此展现你的个人实力和在团队中的成长与历练。这一部分往往是最重要的。
Result 得到怎样的结果
说明你最终取得了怎样的工作成果,表述时可以参照上部分的“四大原则”。
最后给大家一些高逼格的关键词和动词,仅供娱乐:
文章图片
注:以下词语简历及面试时可以用,但是别太过!
你们对这些词有什么看法呢。
文章图片
最后,来一个面试官的死亡提问:
你这个问题的底层逻辑是什么?顶层设计在哪?最终交付价值是什么?过程的抓手在哪?如何保证回答闭环?你比别人的亮点在哪?优势在哪?你的思考和沉淀是什么?这个问题换成我来问是否会不一样?你的独特价值在哪?
文章图片
讨论你是因为什么原因而从事大数据工作呢,因为大学学的这个专业?大数据比较热门而学?大数据工资高转行学?欢迎在评论区留下你的留言!
文章图片
推荐阅读
- VLAN概述与交换机的命令(accesstrunk)实验
- OpenHarmony 3.0 LTS全解析(首个真正意义上全量长期支持版本)
- 坦克大战(上)
- Web宝塔面板 安装Mongo 启动服务 创建用户
- 静态路由原理与配置
- Veeam BR 常见问题
- 国产开源网络编程框架t-io的炸裂性能介绍之30W长连接并发
- Android技术分享| 自习室自定义View代替通知动画
- Java技术指南「编译器专题」深入分析探究“静态编译器”(JAVAIDEAECJ编译器)