MongoDB的碎片化问题

太阳1年前技术文章745

一、碎片化问题

1.1 为什么会出现碎片化的问题

在生产业务中,一般会对集合数据进行频繁的增删改,常见的碎片化原因有:

1、记录被remove,但是其空间没有被复用

drop命令会直接删除集合的物理文件,空间立即被回收;但是remove命令删除文档记录后,其文件物理空间不会被回收

2、记录update,记录实际占用变小,但是空间没有被复用

1.2 如何处理碎片化问题

1、compact命令

1)业务低峰期,在secondary节点执行compact命令;

2)将已经compact完毕的secondary节点提升为primary节点;

3)对降级为secodary的节点做compact。

2、重建collection

     3、新添加一个secondary节点,然后将该节点升级为primary节点(数据量非常大的情况下为了不影响业务)

二、compact命令

2.1 语法

db.runCommand({compact:'dsir',force:true})		//若在primary节点执行,需要指定force:true

2.2 compact所需权限

use admin
db.createRole(
   {
      role: "myCustomCompactRole",
      privileges: [
         {
            resource: { "db" : "<database>" , "collection" : "<collection>" },
            actions: [ "compact" ]
         }
      ],
      roles: []
   }
)

db.grantRoleToUser("myCompactUser", [ "dbAdmin" | "myCustomCompactRole" ] )

2.3 compact注意点

1、compact主要做了哪些操作

1)检查所操作compact集合是否满足条件

1)前面80%的空间里,是否有20%的空闲空间,用于写入文件后面20%的数据
2)前面90%的空间里,是否有10%的空闲空间,用于写入文件后面10%的数据

2)若满足任一条件,引擎层开始执行compact,执行期间阻塞该DB上左右读写操作,并将该集合文件后面的数据往前面空闲的空间写,然后逐步 truancate 文件回收物理空间。

3)若不满足以上任一条件,说明执行compact肯定无法回收10%的物理空间,那么该集合当前无需进行compact,直接退出compact操作。

2、compact的特点(影响)

1)compact 一个集合,会加集合所在DB的互斥写锁,会导致该DB上所有的读写请求都阻塞;而且 compact 执行的时间跟集合的数据量相关,数据量越大compact执行时间越久,所以强烈建议在业务低峰期执行,避免影响业务。

2)如果您使用db.killOp()方法终止操作,或者在压缩操作完成之前重启服务器,请注意以下事项:

1.如果启用了日志记录,无论压缩操作的状态如何,数据都将保持有效和可用。您可能必须手动重新构建索引。
2.如果没有启用日志记录,当compact操作被中断时,无法保证数据有效性
3.在这两种情况下,集合中现有的大部分空闲空间都可能无法重用。需要重新执行compact恢复对空间空间的使用。

3)compact操作在每个节点都是独立的,不会随着primary节点的操作传递到secondary节点;

4)如果想要在primary节点执行conpact操作,需要标识force:true;

5)在secondary节点执行compact操作时,该节点的状态会转换为RECOVERING,期间业务无法访问该节点;

3、各引擎compact如何释放空间

  1)WiredTiger引擎

1.compact操作会释放data和index的空间给操作系统;
2.compact执行需要额外的一部分空间。

  2)MMAPv1引擎

1.commpact操作可以减少data空间,并且重建index,但是这些空间不会归还给操作系统,只会留给MongoDB供之后的数据写入;
2.如果想要回收MMAPv1的磁盘空间,需要执行initial sync;
3.执行compact操作至少需要当前实例还有2G的空闲空间才可执行。

三、数据库/集合空间信息

3.1 查看数据库存储空间占用

use db
db.stats()

use db
db.runCommand({dbStats : 1,scale : 1073741824})   //scale指定单位为GB

3.2 查看集合存储空间占用

use db
db.collbame.stats()

use db
db.runCommand({"collStats":"oplog.rs",scale:1048576})  //scale指定单位,单位为MB


相关文章

ranger审计日志对接CDH solr

ranger审计日志对接CDH solr

一、准备条件1、已安装完毕ranger-admin2、已在CDH上部署solr(注意在安装solr时更改下solr在zk上的节点信息)二、更改相关配置1、修改ranger-2.1.0-admin/co...

Kubernetes 因令牌过期新增节点报错问题处理

1、背景Kubernetes 集群初始化完成之后,间隔一天发现 Worker 节点无法正常加入集群。2、报错信息$ kubeadm join api.k8s.com:9443 --token mmvh...

MySQL基本配置文件

MySQL基本配置文件

# 5.7  # mkdir /data/mysql57/{data,logs,run} -pv [client] port ...

Hive压测之开源Hive基准测试工具(hive-testbench-hive14)

Hive压测之开源Hive基准测试工具(hive-testbench-hive14)

此文章禁止转载概述Hive基准测试工具工具,可用来造数测试Hive基本性能。TPC-DS:提供一个公平和诚实的业务和数据模型,99个案例TPC-H:面向商品零售业的决策支持系统测试基准,定义了8张表,...

ElasticSearch shard&replica机制梳理和创建index图解

ElasticSearch shard&replica机制梳理和创建index图解

1、shard&replica的机制梳理1个index包含多个shard。一个shard包含index的部分数据每个shard都是最小的工作单元,承载部分数据,lucene实例,完整的建立索引...

MySQL运维实战(4.4) SQL_MODE之STRICT_TRANS_TABLES和STRICT_ALL_TABLES

如果设置STRICT模式,则如果数据写入时,如果数据不符合字段定义(字符串超出长度、数值类型数据超出范围、违反not null约束等),SQL会报错。如果不设置STRICT模式,会对异常数据进行截断处...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。