首先,说明笔者的机器环境(不结合环境谈解决方案都是耍流氓): cpu 32核,内存128G,非固态硬盘: RaiD0 (4T * 6),单节点,数据量在700G到1800G,索引15亿~21亿。敖丙大人,在蘑菇街,可多集群分片,固态硬
首先,说明笔者的机器环境(不结合环境谈解决方案都是耍流氓): cpu 32核,内存128G,非固态硬盘: RaiD0 (4T * 6),单节点,数据量在700G到1800G,索引15亿~21亿。敖丙大人,在蘑菇街,可多集群分片,固态硬盘,比不起啊。
转载请注明出处:https://www.cnblogs.com/NaughtyCat/p/elasticsearch-OOM-optimize-story.html
业务场景:
保存7天索引,每天有400G。发现ES时不时的OOM,和重启。当索引超过500G的时候,ES重启到加载所有分片,时间约30分钟到1小时。
题外话,ES OOM 会生成 .hprof 文件,如下图(作者【CoderBaby】):
用jhat来分析OOM堆转储文件,具体命令如: jhat -port 7401 -J-Xmx4G java_pid19546.hprof
解决办法:
设置存储类型为:“hybridfs” ,即: "index.store.type": "hybridfs" (原来为“mmapfs”,详见附2)。mmapfs — index映射到内存,NIOfs — 并发多线程以Nio的方式读取index文件, hybridfs—混合 mmafs和niofs ,根据读取模式选择最佳的文件系统
效果:在600G左右的索引,5天索引,确实没有了OOM。但一旦增大到7个索引,就不行了。用jstat命令,即:stat -GCutil 6811 (ES的PID)查看ES的JVM,如下图:
O: Old space utilization as a percentage of the space"s current capacity (老年代空间占用率)。O最高达到79,就往下降,原来为存储类型为“mmapfs”,O很容易就飙到100.
关闭索引(文件仍然存在于磁盘,只是释放掉内存,需要的时候可重新打开)。设置打开索引参数: "__es.maxPermanentlyOpenIndices":4 (最大打开索引:7改为4)。
设置堆大小,从15G提高到30G,即: -Xms30g -Xmx30g (注意:最大不要超过物理内存的 %50)
命令: sysctl -w vm.max_map_count=2621440(默认值是 “262144”),扩大这个,可以防止这个数量太低而导致的OOM(详见附6)
设置merge时最大的线程数:index.merge.scheduler.max_thread_count。固态硬盘——默认最大值 Math.max(1, Math.min(4, Runtime.getRuntime().availableProcessors() / 2)) ,普通旋转磁盘——设置为1
笔者机器上,单merge 线程,300G的索引耗时:7个小时
优化效果: term 单条件查询,查询时间从10秒多提高到3秒多,索引减少约%2.85,减少4000多万,具体如下表:
index | total_segments_berfore_merge | total_segments_after_merge | query_IP_after(seconds) | query_IP_after(seconds) | decrease(count/percentage) |
pcap_flow-2019-12-09 | 1412695374 | 137249867 | 10 | 3.6 | 40196703/ %2.845 |
可通过命令查看各个分片的情况,如下(可查看总的segments数量):
curl -s "Http://localhost:9200/_cat/segments/pcap_flow-2019-12-10?v&h=shard,segment,size,size.memory" | awk "{sum += $NF} END {print sum}"
force merge的restful API:
curl -X POST "localhost:9200/pcap_flow-2019-12-11/_forcemerge?max_num_segments=2"
说明:
1)max_num_segments, 设置最大segement数量,数量越小,查询速度提高越明显,但merge耗时越长
2)全部merge,不加索引ID,则如下:
curl -X POST "localhost:9200/_forcemerge"
3)merge过程是串行的,如果同时merge多个,后面的会被阻塞,直到第一个merge完成为止。另外,对于不再有写入的更新的index,才建议force merge,不然反而会让搜索的性能更差
4)restful api 查看_segments,如下:
curl -X GET "localhost:9200/_cat/segments?v&pretty"
效果如下图:
题外话,如果贵司银子多,可以集群分片,搞SSD,否则只有结构优化,这一招。
附:
1)官网 index force merge说明: https://www.elastic.co/guide/en/elasticsearch/reference/7.4/indices-forcemerge.html
2) ES 存储类型: https://www.elastic.co/guide/en/elasticsearch/reference/current/index-modules-store.html
3)merge 线程数: https://www.elastic.co/guide/en/elasticsearch/reference/current/index-modules-merge.html
4)磁盘阵列RAID: https://zh.wikipedia.org/wiki/RAID
5)关于索引合并的统计分析: http://openskill.cn/article/375
6)扩大虚拟地址空间: https://www.elastic.co/guide/en/elasticsearch/reference/current/vm-max-map-count.htm
*****************************************************************************************************
精力有限,想法太多,专注做好一件事就行
*****************************************************************************************************
--结束END--
本文标题: 记一次Elasticsearch OOM的优化过程——基于segments force merge 和 store type 转为 hybridfs
本文链接: https://lsjlt.com/news/3171.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-10-23
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
2024-10-22
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0