[lucene] 大家如何实现Lucene的缓存?

mniz 2010-02-02
不知道大家的数据量大起来的话,怎么实现缓存的?

思路是怎么实现的?

是一次查询出部分的结果出来给内存,如果不够在跟新,还是说另有他法实现?

大家是用第三方缓存还是自己去实现缓存?

还请数据大的朋友们来指点下,谢谢
luckaway 2010-02-03
其实搜索需不需要加缓存主要看搜索的重复率高不高!

如果PV不高的话,命中率是很低的!

imjl 2010-02-03
我用solr的时候是用memcached,,,搜索关键词+相关数据(100页)的docid




mniz 2010-02-03
luckaway 写道
其实搜索需不需要加缓存主要看搜索的重复率高不高!

如果PV不高的话,命中率是很低的!




问下,什么是PV?

缓存的问题我解决了,我缓存过滤条件 速度很快,服务器上面大概是0.007是极限,目前

到时候可能服务器还会向上调整
luckaway 2010-02-04
PV是页面访问量

从缓存里取数据效率固然很高! 但是如果命中率不高,就是在缓存对象的存活时间内,有多少请求是相同的过滤条件-即缓存的key是一样的!

如果命中率不高,那就没必要了!
mniz 2010-02-04
哦,谢谢,

这个缓存过滤条件的话,和key 是没什么关系的

当然我是以空间换速度的,里面总共有几个过滤条件,写一个工厂+单例来产生每个过滤器的的缓存,同时保持是静态的,所以这样速度就比较快

PS:查询的过滤器不会太多,目前我用了6个
Global site tag (gtag.js) - Google Analytics