HDFS Fsimage分析磁盘目录(文件级别)

芒果7个月前技术文章257

首先获取fsimage信息
hdfs dfsadmin -fetchImage  /opt/fsimage

格式化fsimage 转换为可读文本
hdfs oiv -i /opt/fsimage/fsimage_0000000000000026275 -o /opt/fsimage/fsimage.csv -p Delimited  -delimiter "," 

B8ECC326-C8C3-4C2F-A19C-1A69B25D82DE.png

查看前10行fsimage.csv
head /opt/fsimage/fsimage.csv
数据结构:
1. Path(路径):HDFS 中存储文件或目录的位置。
2. Replication(副本数):文件在 HDFS 中的副本数。HDFS 通过将文件划分为块并在不同的节点上复制这些块来提供容错和可靠性。
3. ModificationTime(修改时间):指示文件或目录上一次被修改的时间戳。
4. AccessTime(访问时间):指示文件或目录上一次被访问的时间戳。
5. PreferredBlockSize(首选块大小):文件在 HDFS 中的块大小。文件被分割成相同大小的块,并存储在 HDFS 上的不同节点上。
6. BlocksCount(块数):文件在 HDFS 中的块数量。
7. FileSize(文件大小):文件的总大小。(单位字节)
8. NSQUOTA(命名空间配额):命名空间(文件和目录)的配额限制。
9. DSQUOTA(数据配额):文件或目录的数据配额限制。
10. Permission(权限):用于确定文件或目录对用户和组的访问权限。包括读取、写入和执行权限。
11. UserName(用户名):文件或目录所属的用户。
12. GroupName(组名):文件或目录所属的组。
这些参数描述了在 HDFS 中管理和组织文件和目录时使用的关键属性和元数据。 


C27120C2-C144-46CA-99EF-C23261663400.png


删除fsimage.csv的首行表头
sed -i -e "1d" /opt/fsimage.csv
以上是手动步骤 
可以通过代码直接进行 跑代码就可以了
统计文件大小
# coding=UTF-8

import subprocess
from datetime import date
import pandas as pd
def Get_fsimage(path):
    fsimage_path = subprocess.getstatusoutput(f"hdfs dfsadmin -fetchImage {path}")[1]
    print(fsimage_path)
    result = fsimage_path.split(" ")
    return result[-3]
def Get_fsimage_csv(fsimage_path):
    result = \
        subprocess.getstatusoutput(
            f'hdfs oiv -i {fsimage_path} -o /opt/fsimage/fsimage.csv -p Delimited  -delimiter ","')[
            1]
    print(result)
def Get_head_fsimage():
    subprocess.getstatusoutput('sed -i -e "1d" /opt/fsimage/fsimage.csv')[1]
    result = subprocess.getstatusoutput("head /opt/fsimage/fsimage.csv")[1]
    print(result)
def Get_filesize():
    fsimage_csv = subprocess.getstatusoutput('cat /opt/fsimage/fsimage.csv')[1]
    lines = fsimage_csv.split("\n")
    groups = []
    for line in lines:
        result = line.split(',')
        # 将第6个元素转换为浮点数
        # result[-6] = float(result[-6])
        # 进行除法运算并保留两位小数
        result[-6] = round(int(result[-6]) / 1024 / 1024, 2)
        group = [result[0], result[-1], result[-2], result[-6]]
        groups.append(group)
    column_titles = ["路径", "所属组", "所属用户", "文件大小(MB)"]
    df = pd.DataFrame(groups, columns=column_titles)
    filename = '/opt/fsimage/hdfs_output' + date.today().strftime("%Y%m%d") + '.xlsx'
    df.to_excel(filename, index=False)
    return filename
def run():
    print("获取fsimage信息")
    fsimage_path = Get_fsimage("/opt/fsimage/")
    print("格式化fsimage 转换为可读文本")
    Get_fsimage_csv(fsimage_path)
    print("尝试获取前10行数据")
    Get_head_fsimage()
    print("统计文件大小......")
    filename = Get_filesize()
    print(f"统计完成! \n 输出路径:{filename}")
if __name__ == '__main__':
    print('开始')
    run() 

输出为excel文档 需要对文件大小进行降序

BA518C1A-B594-41E6-9E9B-6D602AF98080.png


标签: 大数据运维

相关文章

Trino配置yanagishima-23.0(包含编译)

Trino配置yanagishima-23.0(包含编译)

1 环境介绍1.1 本文采用trino 359yanagishima v23.02 编译yanagishima2.1 安装编译yanagishima需要的工具安装编译yanagishima需要的工具w...

使用Sqoop将数据从Hive导入MySQL(一)

使用Sqoop将数据从Hive导入MySQL(一)

使用Sqoop将数据从Hive导入MySQL首先查看csv数据类型创建类似的hive表并导入数据CREATE TABLE data (    province STRING,    code INT,...

hive 报 找不到或无法加载主类 org.apache.hadoop.mapreduce.v2.app.MRAppMaster

hive 报 找不到或无法加载主类 org.apache.hadoop.mapreduce.v2.app.MRAppMaster

解决办法:关键需要配置两个配置:mapred-site.xml 和 yarn-site.xml下面配置hadoop classpath。先运行shell命令:hadoop classpath添加一个配...

chengying-4.0登入接口逆向

chengying-4.0登入接口逆向

首先是登入的加密url:http://xxxxx/api/v2/user/login参数1. username:admin@dtstack.com2. password:614bb9438210c69...

mysql8 rpm安装教程

1:卸载原有REPO源查询已经存在的mysql及相关依赖包rpm -qa | grep mysql此时你会看到一堆列表,使用 yum 命令依次卸载yum remove mysql-xxx-xxx-xx...

ES运维(三)架构与规划(阿里云)

ES运维(三)架构与规划(阿里云)

1、 阿里云Elasticsearch架构图阿⾥云Elasticsearch和Kibana容器化运⾏在ECS中,监控agent(独⽴进程)负责收集监控指标,通过SLS发送给云监控完成监控报警。实例之间...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。