博客
关于我
基于Hive进行数仓建设的资源元数据信息统计:Spark篇
阅读量:434 次
发布时间:2019-03-06

本文共 909 字,大约阅读时间需要 3 分钟。

在数据仓库建设过程中,元数据管理是至关重要的一环。根据Kimball的数据仓库理论,元数据可以划分为技术元数据、业务元数据和过程元数据三大类。这些元数据类型为元数据系统的构建提供了坚实的基础。

技术元数据主要涉及数据存储的结构信息、文件路径等技术细节。业务元数据则关注数据之间的血缘关系及业务归属。过程元数据,如表的每日行数、占用存储空间、更新时间等,是数据仓库运维的重要依据。

基于上述元数据分类构建的元数据系统,通常具备以下核心功能:

  • 血缘关系管理

    这些血缘关系主要体现在日常的SQL和ETL任务中,确保数据集之间的关联性和一致性。

  • 大数据集群资源管理

    通过对Spark、Flink、Mapreduce等引擎使用情况的采集和可视化,监控任务的CPU、内存、磁盘IO等资源使用情况。异常情况及高资源消耗的表或业务可以通过可视化界面快速发现并及时处理。

  • 数据同步与权限管理

    该功能涉及数据同步策略的制定及权限管理,确保数据的安全性和高效传输。

  • Hive库表元数据信息统计

    这部分统计包括行数、文件数、HDFS存储大小、最后一次操作时间等指标。通过持续采集这些数据并生成可视化曲线图,数据仓库团队可以及时发现数据规律或质量问题。同时,为业务开发人员提供业务量趋势分析支持。

  • 本文将重点介绍如何利用Spark对Hive库及分区表、非分区表相关指标进行统计。实际生产中,不仅可以通过特定方式及时更新获取Hive元数据,还可以参考Spark底层执行过程,实现自定义业务逻辑。

    需要注意的是,Spark默认不统计文件数,但Hive有此功能。

    Hive和Spark对Hive库表元数据信息统计的主要区别

  • SQL语法支持不同

    Spark支持对Hive分区表进行表级统计,但需指定具体分区;而Hive需要明确指向特定分区进行统计。

  • 统计结果体现不同

    行数统计中,Hive使用numRows,Spark使用spark.sql.statistics.numRows

  • 默认统计项不同

    Spark不统计文件数,Hive默认支持此功能。

  • 这些区别在实际应用中可能导致元数据管理策略的不同选择。建议根据具体需求选择合适的工具进行元数据统计工作。

    转载地址:http://vsvkz.baihongyu.com/

    你可能感兴趣的文章
    Open×××有线网络时使用正常,无线网络时使用报错的解决方案
    查看>>
    Opera Mobile Classic Emulator
    查看>>
    Operation not supported on read-only collection 的解决方法 - [Windows Phone开发技巧系列1]
    查看>>
    OperationResult
    查看>>
    Operations Manager 2007 R2系列之仪表板(多)视图
    查看>>
    operator new and delete
    查看>>
    operator new 与 operator delete
    查看>>
    operator() error
    查看>>
    OPPO K3在哪里打开USB调试模式的完美方法
    查看>>
    oppo后端16连问
    查看>>
    OPPO软件商店APP侵权投诉流程
    查看>>
    Optional用法与争议点
    查看>>
    Optional类:避免NullPointerException
    查看>>
    Optional讲解
    查看>>
    ORA-00069: cannot acquire lock
    查看>>
    ORA-00923: 未找到要求的 FROM 关键字
    查看>>
    ORA-00932: inconsistent datatypes: expected - got NCLOB【ORA-00932: 数据类型不一致: 应为 -, 但却获得 NCLOB 】【解决办法】
    查看>>
    ORA-00942 表或视图不存在
    查看>>
    ORA-01034: ORACLE not available
    查看>>
    ORA-01152: 文件 1 没有从过旧的备份中还原
    查看>>