03 DataBricks挂载到Blob

项目初始阶段由于不熟悉DataBricks,创建的库和表的数据直接放在了DBFS中,但是在由测试环境迁移到正式环境时有了问题---DBFS中的数据不能直接copy出来。最终使用代码copy一个库到blob存储,耗时长还易出错。所以在项目初期建表之间就应该将DataBricks直接挂载到Blob存储中。这样只是把表和库的结构放在DBFS中,数据就直接放在Blob,非常方便迁移。
挂载脚本
#prd dbutils.fs.mount( # data_file blob容器名字 挂载blob的位置 source = "wasbs://data_file@databricksasprdsa.blob.core.chinacloudapi.cn", #/mnt/data_warehouse DBFS路径 mount_point = "/mnt/data_warehouse", #key:blob访问密钥 extra_configs = {"fs.azure.account.key.databricksasprdsa.blob.core.chinacloudapi.cn":"key"})

示例:创建数据库及表
CREATE DATABASE stg; --创建数据库create table stg.stg_text ( indes stirng, edw_created_on_dt timestamp, edw_changed_on_dt timestamp, edw_etl_insert_dt timestamp, edw_etl_update_dt timestamp, etl_insert_dt timestamp, etl_update_dt timestamp )using delta location '/mnt/data_warehouse/az_kpi/stg.db/stg_text'; -- 结构存储位置

    推荐阅读