tldr использует ILM для управления этим для вас и устанавливает размер фрагмента где-то между 30-50 ГБ, и пусть он управляет всем этим для вас
более длинный ответ заключается в том, что проблема не в индексах, а в осколках
например, если вы используете 10 индексов с 1 основным и 1 сегментом реплики, и эти 500 ТЫСЯЧ событий составляют 500 МБ, то у вас есть 20 сегментов с 25 МБ данных в них. ресурсы - куча, процессор, - необходимые Elasticsearch для управления ими, такие же, как если бы у вас был один и тот же сегмент и количество индексов, но с 50 ГБ данных в каждом сегменте
рекомендуемый размер сегментов составляет 30-50 ГБ, но это зависит от варианта использования и множества других факторов, таких как размер кластера, SLA запросов и индексирования и многое другое. для большинства случаев использования журналов 50 ГБ-это хороший баланс между плотностью и оперативностью