码迷,mamicode.com
首页 > 其他好文 > 详细

solr 亿万级数据查询性能测试

时间:2014-10-14 17:15:08      阅读:491      评论:0      收藏:0      [点我收藏+]

标签:blog   数据   2014   log   html   htm   数据库   sql   as   

废话不多说,我电脑配置 i7四核cpu 8G内存

插入数据文档中有5个字段,其中有两个分词,一个int,一个date

批量插入测试一次10万循环10次总共100万用时85秒

批量插入测试一次10万循环100次总共1000万用时865秒

插入性能还是不错的

查询测试

在12166454数据中(约等于一千两百万)总共占用硬盘2.8G

查询分词字段 title:中国用时0.031秒

非分词字段查询 view_count:1 用时 0.030秒

范围查询 view_count:[0 TO 1000] 用时0.125秒

上面这些查询第二次查询的时候用时都在0.001秒之下应该是因为有缓存的原因

相对数据库的模糊查询优势及其明显,我用mysql两千万数据查询“%中国%”直接数据库卡掉了

(不过这么比较美意思,全文检索存储方式跟sql不一样,各有优劣)

在过亿的数据量中

插入一亿数据耗时1小时40分钟35秒
插入过程中 内存占用70%左右 cpu没多少变化 11%左右

(上班写的,未完待续)


solr 亿万级数据查询性能测试

标签:blog   数据   2014   log   html   htm   数据库   sql   as   

原文地址:http://blog.csdn.net/h348592532/article/details/40076487

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!