MongoDB 容量规划

-1
NOSQL HTML MongoDB C/C++ Go 13931 次浏览

今天对MongoDB容量规划做一个比较详细的总结。若有不对之处还望各位指正。

存储是什么?

首先我们要问一个很傻的问题:存储是什么。存储就是用来装数据的东西,它需要满足以下两点基本需求:

  • 1.存储数据
  • 2.读取数据

什么是容量规划?

我们讨论的存储,说到底都是基于操作系统之上的一个应用软件,而操作系统能利用的,无非是系统的存储:磁盘、内存、CPU cache等等。所以容量规划的意义就是:按要存储的数据特点,针对一段时间的数据量,对机器各个存储的容量、性能及系统配置进行合理预估。

通常这个问题在实际容量规划中可以化简为对内存,硬盘容量和性能的预估。

下面我们就以MongoDB为例说一下容量预估的一些计算方法。我们通常的一个粗糙的要求是要将所有热数据放到内存中。这里的热数据可能包括经常访问的数据,索引和系统开销。下面我们就这三个方面进行说明:

常访问的数据

根据不同的应用场景,你可以对数据访问情况进行预估。比如用MongoDB保存帖子内容,每个帖子大小为1k,目前有1亿个帖子,每天新增100w个帖子,那么3个月后帖子量大概为2亿,需要200G的硬盘空间。

每天新增的100w帖子是常访问的,而可能我们每天活跃访问的贴子为200w,也就是说另外100w是之前的老帖子。如果我们规划给热数据的内存大 小为1G,那只能装下100w数据,装不了200w数据。由于帖子访问的随机性,最坏的情况是我们每次访问的数据都不在内存中(比如先访问了不在内存中的100w,加载到内存中,再访问刚刚被换到磁盘上的数据,又需要再加载一次),需要进行和PV相同次数的磁盘IO,灾难!最好的情况我们也需要100w次磁盘IO(比如先对在内存中的100w数据进行频繁访问,再对不在内存中的100w数据进行频繁访问),在访问频率均匀的情况下,每秒需要进行大概12次的磁盘IO。

那我们把规划给热数据的内存大小调为2G,看看会如何,这时候一天200w热数据正好能装下。那么最好的情况下,需要进行100w次磁盘IO(比如 200w数据中的100w老数据全都在昨天的热数据中,则只需要对100w数据进行重新加载),在访问频率均匀的情况下,每秒需要进行大概12次的磁盘 IO。最坏的情况下,需要进行200w次磁盘IO(比如今天访问的200w条数据和昨天的热数据没有重合),在访问频率均匀的情况下,每秒需要进行大概 25次的磁盘IO。

同理,我们再增大内存,会需要访问的数据在内存中的机率增大,从而减小磁盘IO的频率。

上面说的是一个简单例子,具体你可以根据自己的数据访问特性进行评估和计算,而且不仅要算平均IO,更重要的是巅峰IO。

同时不要忘了,MongoDB还会定时调用fsync将内存中的脏页flush到磁盘(默认一分钟一次),你可以根据你自己脏数据的量或者比例来评估每次的IO,然后你再考虑是否需要将fsync的频率调低一点。

如果你还开启了journaling log,那这个IO量也需要加进去。

当然,接下来的就是你的磁盘是否能够承受最终的IO量,然后你可以考虑你是否需要使用更快的硬盘,是否需要RAID,是否需要换用SSD等等了。

索引量

索引和常访问数据不同,索引要求全部放在内存中,所以索引的容量计算就相对容易很多。通过MongoDB的db.stats()命令就能看到你当前 占用的索引大小。比如上面的例子,现在1亿条数据如果索引大小为5G的话,那么2亿条的时候大概需要10G。所以内存必须要装下这10G索引。

系统开销

MongoDB daemon的开销基本可以理解为一个常数,所以这里的系统开销就主要是连接开销。这取决于你的应用特点。比如你最大的并发操作为100。也就是同时 100个连接与MongoDB相连。每个连接一个线程开销为系统的stack size设置,默认是10M,那就是1G(当然你可以适当调整这个值)。需要对数据进行实时排序的话,需要再算上排序时的内存开销。

总结

当然,上面讲的是一个简单的预估方法,我们不期望能够通过计算得出真实的容量估算结果,毕竟互联网产品的变化总是那么不可控。但是在部署前按业务情况进行相关的容量预估是非常重要的。好的预估可以在金钱、性能和运维成本上得到一个相对平衡的结果。

文章出处:http://blog.nosqlfan.com/html/3322.html
请尽量让自己的答案能够对别人有帮助

5个答案

默认排序 按投票排序