里程碑: TB级数据库

今天录入完毕2008年的全部数据,按照预计尚未达到TB级。由于国庆假期,计划休息几天,10月5日再次恢复入库。所以对前期录入的数据做一个查漏补缺,经过检查发现有2000+疑似遗漏文件,补上这些文件数据库将达到TB级别。由于文件均已下载到本地,本地补入正好也测试一下大强度入库。早上8点36分查询状态,显示为:

FITS:34072,Size:1003.03GB,Downloads:2.01GB@2012/09/29 00:36:59 UTC

数据库进入TB级别~~~~

随着数据库容量的增加,数据库性能如何呢?根据昨晚起的监控,数据库状态优秀,各项指标完美(当然现在没有用户,就入库而言)。之前我们多次提到MongoDB采用内存映射整个数据,通过察看系统内存情况:

 total used free shared buffers cached
 Mem: 65961872 65669372 292500 0 64136 60128504
 -/+ buffers/cache: 5476732 60485140
 Swap: 68190200 57948 68132252

64GB内存几乎都使用了,100%发挥了投资效率。第一行free段只有可怜的293MB,但也不必过分担心系统运行,大量内存都用于cached段,cached内存对于应用来说是完全可用的。系统可用内存在第二行尚有60GB。MongoDB这种设计使得在内存富裕时,几乎全部用于cache用于加速数据库访问,但当内存不富裕时,cache会被释放,保证其它应用的使用,当然这些机制都是有OS完成的,MongoDB本身无需管理内存,真是“不重复造车轮”的典范。

从最近一月使用情况来看,MongoDB文档中所提特色与优势在实践中均得到了兑现,并且实现和文档描述一样容易。(像电视购物?)
看来下一个挑战将来自“单张200MB FITS”的问题了!

本文即将完成时,补入完毕,定格照:

FITS:34696,Size:1022.53GB,Downloads:2.01GB@2012/09/29 01:02:10 UTC
此条目发表在 系统信息 分类目录,贴了 , 标签。将固定链接加入收藏夹。