Rollup
前言
Rollup 是 Elasticsearch 6.3 推出的新功能,目前還在 Experimental 階段,官方不建議直接使用在 Production 環境中,不過版本的演進已從 6.3 發展到了到 7.13,相信已經發展到了接近成熟的階段 ,因此這次還是選擇介紹這功能,不過實際在正式環境中,建議還是等官方正式移除 Experimental 的階段後再開始使用。
進入此章節的先備知識
Elasticsearch Query DSL。
Elasticsearch Aggregation 的基本認識。
此章節的重點學習
Rollup 的使用方式、時機及限制。
透過 Kibana 來建立 Rollup Jobs。
什麼是 Rollup
Rollup 是一個把用來依時間分析的歷史資料的時間 顆粒度( Granularity ) 變大,以節省空間的 定期執行 的機制。
例如我們收集的即時資料 1秒鐘 有 1000筆,每天就會有 86,400,000 筆資料,而一年後就會有 365 * 86,400,000 筆,這個佔用的儲存空間是很大的,而好處是我們可以隨時查到精確的某一筆原始資料。
但平常在分析上,若我們將時間顆拉度拉最小只能看到 分鐘 為單位,這時只需要保存以1分鐘產生一筆彙總的資料,這樣的筆數就只剩下 86,400 筆,只剩下原來的 1/1000。 (當然實際大小可能有所不同,因為彙總的資料的資料大小可能和原始資料有點落差。)
使用 Rollup 的好處
節省磁碟儲存空間
節省執行查詢的記憶體快取空間
節省 JVM heap 載入 Index 的記憶體空間
查詢的速度比較快
如何在 Kibana 中建立 Rollup Job
建立 Rollup Job
首先,進入 Kibana > Stack Management 後,點選左側 Data 區塊中的 Rollup Jobs。
點 Create rollup job 之後,會進入設定頁面:
這邊的設定基本上都蠻直覺的,依照旁邊的說明設定即可。
Name: 幫 Rollup Job 取個名字。
Data flow: 指定 Index pattern 以及 Rollup 產生的 Index 名字。
Schedule: 這個 Rollup Job 執行的頻率。
Ho manay documents do you want to roll up at a time: 執行時批次處理的大小,數字愈來處理速度愈快,但記憶體也耗的愈多。
How long should the rollup job wait before rolling up new data: 在執行 Rollup 時,可以設定一個 Latency 執,這個 Latency 指的是資料在 ingest 進入 ES 時,有可能會有一些延遲 ,一但設了這個 Latency,Rollup Job 就會多等到 Latency 的時間過了之後,才會處理這部份的資料。
這邊有個要注意的
Index pattern
不應該包含到Rollup index name
,上圖就是一個錯誤的例子,這樣會造成處理邏輯上的錯誤,如果你設定了這樣的配置,最終會看到以下這樣的錯誤畫面。
接下來要分別設定 Date histogram 的時間顆粒度:
設定有哪些欄位會使用到 Term bucketing:
哪些欄位可能會進行 Histogram 的 aggregation:
哪些欄位會使用到 Metrics,這邊請依照資料的特性來判斷,有些沒必要的就不用勾選了。
最後 Review 完沒問題時,就可以直接建立。
查看 Rollup Jobs
當建立完成後,在 Rollup Jobs 的選單中可以看到我們建立的這個 Job。
點開後也可以看到他的 Stats,包含目前已經處理了多少 Documents、Pages、以及執行過多少次。
這時到 Index Management 來查看 Elasticsearch 中的 Index,就可以看到由這個 Rollup Job 所產生的 Index 了。
記得要把上面
Include rollup indices
打勾,才會看得到。
這時 Rollup Job 產生的資料已經可以使用了。
而且我們可以看到, rollup-logstash-daily
佔用的是 446mb 的空間,比起整體 logstash-1
~ logstash-10
的總量,大約只佔了 1/10 。
使用 Rollup 的資料
先來剖析一下 Rollup 產生出來的資料
首先,這是我們測試用的一筆資料,這是一個 HTTP Request 的 Log:
而經過 Rollup Job 產生出來的資料,若我們直接用 _search
API 來查詢:
會看到他回傳的結果長這樣子:
Rollup 後的資料,已經是使用另外的彙總的格式來儲存,所以他已經沒有原本的資料內容了。
查詢 Rollup 的資料
從上面的例子可以看到,使用 _search
的結果會是長得不一樣的文件,也因此 Rollup 後的資料,若是要進行 search 時,要使用 _rollup_search
的 API。
這邊先從原始的資料來查詢:
再來使用 _rollup_search
來執行一樣的 query:
可以看到結果是一樣的,通常如果是有一些 metrics 的數值運算的話,有可能會有小誤差。
另外在使用上會有一些限制,以下會做相關的介紹。
這邊特別要說一下,使用
_rollup_search
若是跨到 Rollup Index 與 原始的資料 時,不會計算重覆的資料,這讓 Rollup 與 Live data 混搭使用非常的方便。
使用的限制
Rollup 的資料在使用上有一些限制
_rollup_search
可同時包含多個非 rollup index,但一次只能包含一個 rollup index。在使用 Aggregation 時,只有 rollup job 中有被指定的欄位可以被使用。
時間顆粒度只能以 rollup 的基本單位往上的乘數,例如設定的是
3d
,就只能用3d
,6d
,9d
...以此類推。Query 的方式只能使用
Term
,Terms
,Range
,MatchAll
, 以及Boolean
,ContantScore
等 compound 查詢。能使用的 Bucketing Aggregation 為:
Date Histogram
,Histogram
,Terms。
能使用的 Metrics Aggregation 為:
Min
,Max
,Sum
,Average
,Value Count
。若是在建立 Rollup Job 時有指定時區的話,在使用 Date Histogram 時也一定要指定同樣的時區。
在 Kibana 建立新的 Index Pattern
在 Kibana 中,若要使用 Rollup 的資料,要特別建立一個 Rollup Index Pattern
,如下圖:
建立好這個 Index Pattern 後,就可以在 Discover, Virtual, Dashboard 來使用了。
使用建議與注意事項
Rollup 目前還不支援 Rollover
(2020.09.29 更新) Rollup 目前產生出來的 Index 還無法套用 Rollover 的機制,這部份的支援已在官方的討論中,有可能在未來會直接整併成 Index Lifecycle Management 中的其中一個 Action,可參考這篇 Githib Issue。
Rollup 的 Interval 支援度
ES 在 Rollup 的支援上,除了讓你整理成較大的時間顆粒度來儲存資料,例如以 1天
為單位。
如果你在進行 Query 與 Aggregate 時,當然最小的顆粒度就是 1天,但如果你要的單位是比1天還大的顆粒度,如:1週
、1個月
、一季
、一年
…等,你不需要為這每個顆粒度建立獨立的 Rollup job,這些都能在 _rollup_search
的計算時,直接以 1天
的資料來彙總計算出來。
盡量使用 Fixed time interval 而不要用 Calendar time interval
這部份的說明比較複雜,建議直接參考 官方文件的說明 ,主要的概念是,建議少用 Calendar 的"一天",而是用"24小時"、少用 Calendar 的"一個月",而是用"30天",這樣的 Interval 單位,因為 Calendar 時間在查詢的時,會是比較難複雜且使用時的限制較多。
另外若使用上是有指定時區的話,記得設定好時區,這樣在時間的切分上才會如使用的預期。
參考騰訊的做法
騰訊針對 Metrics 類型的資料:
在原始的即時資料監控下,監控的時間顆粒度是 10秒。
在一個月以前的監控數據,時間顆粒度是 1小時。
這樣的顆粒度,是在設計 Rollup Job 時需先考量清楚的,確保使用的情境與需求來製訂規則。
Rollup Job 一但決定下去,就無法改變,除非重建 Rollup Job。
參考資料
Last updated