告别Kafka Stream,让轻量级流处理更加简单
作者|白玙
一说到数据孤岛,所有技术人都不陌生。在 IT 发展过程中,企业不可避免地搭建了各种业务系统,这些系统独立运行且所产生的数据彼此独立封闭,使得企业难以实现数据共享和融合,并形成了"数据孤岛"。
【告别Kafka Stream,让轻量级流处理更加简单】由于数据散落在不同数据库、消息队列中,计算平台直接访问这些数据时可能遇到可用性、传输延迟,甚至系统吞吐问题。如果上升到业务层面,我们会发现这些场景随时都会遇到:汇总业务交易数据、旧系统数据迁移到新系统中、不同系统数据整合。因此,为了能让数据更加实时、高效的融合并支持各业务场景,企业通常选择使用各种 ETL 工具以达到上述目的。
因此,我们可以看到企业自行探索的各种解决方案,比如使用自定义脚本,或使用服务总线(Enterprise Service Bus,ESB)和消息队列(Message Queue,MQ),比如使用企业应用集成(Enterprise application integration,EAI)通过底层结构的设计来横贯企业异构系统、应用、数据源等,实现数据的无缝共享与交换。
尽管以上手段都算实现了有效实时处理,但也给企业带来更难决断的选择题:实时,但不可扩展,或可扩展。但批处理。与此同时,随着数据技术、业务需求的不断发展,企业对 ETL 的要求也不断提升:
- 除了支持事务性数据,也需要能够处理诸如 Log、Metric 等类型越来越丰富的数据源;
- 批处理速度需要进一步提升;
- 底层技术架构需要支持实时处理,并向以事件为中心演进。
- 作为实时、可扩展消息总线,不再需要企业应用集成;
- 为所有消息处理目的地提供流数据管道;
- 作为有状态流处理微服务的基础构建块。
- 用户各类点击、浏览、加购、登陆等行为数据;
- 基础日志数据;
- APP 主动上传数据;
- 来自 db 中的数据;
- 其他。
看在这里,大家肯定会有疑问:Kafka Stream 作为流式处理类库,直接提供具体的类给开发者调用,整个应用的运行方式主要由开发者控制,方便使用和调试。这有什么问题吗?虽然以上方法确实能够很快解决问题,但其问题也显而易见。
- 研发团队需要自行编写代码,且需要后期持续维护,运维成本较大;
- 对于很多轻量或简单计算需求,引入一个全新组件的技术成本过高,需要进行技术选型;
- 在某组件选定后,需要研发团队进行学习并持续维护,这就带来了不可预期的学习成本、维护成本。
文章图片
为了解决问题,我们提供了一个更加轻量的解决方案:Kafka ETL 功能。
使用 Kafka ETL 功能后,只需通过 Kafka 控制台进行简单配置,在线写一段清洗代码,即可实现 ETL 的目的。可能存在的高可用、维护等问题,完全交由 Kafka。
那么接下来,我们为大家展示如何快速的创建数据 ETL 任务,仅需 3 步即可。
Step 1 : 创建任务
选择 Kafka 来源实例、来源 Topic,以及对应的选择 Kafka 目标实例、目标 Topic。并配置消息初始位置、失败处理以及创建资源方式。
文章图片
文章图片
Step 2:编写ETL主逻辑
我们可以选择 Python3 作为函数语言。
与此同时,这里提供了多种数据清洗、数据转化模板,比如规则过滤、字符串替换、添加前/后缀等常用函数。
文章图片
Step 3:设置任务运行、异常参数配置,并执行
文章图片
可以看到,无需额外的组件接入或者复杂的配置,更轻量、更低成本的 Kafka ETL 仅需 3-5 步的可视化配置,即可开始 ETL 任务。对于数据 ETL 要求相对简单的团队而言,Kafka ETL 成为最佳选择,可以将更多精力放在业务研发上。
如此轻松便捷的 ETL 功能,真的不容错过!告别繁琐的脚本,告别组件选型与接入,立即扫码或点击链接(https://www.aliyun.com/produc...),体验更加轻松的 ETL 吧!
文章图片
推荐阅读
- 深入浅出谈一下有关分布式消息技术(Kafka)
- 2020年,告别焦虑的自己,2021年,期待满意的自己。
- 15.Kafka
- 加油自己
- Stream详解
- 我欠她一个温柔的告别和一个抱歉
- 告别无效忙碌、低效生活,“重要”“紧急”四象限法则轻松搞定
- 原来告别真的是悄无声息
- kylin-stream|kylin-stream source
- 告别圆舞曲