在 Elasticsearch 中,可以使用 Painless 脚本来实现一些非标准的处理结果。这些脚本可以直接嵌入到数据处理管道中,但为了使脚本与管道相互独立,还可以将脚本单独存储在 Elasticsearch 中,并在数据摄取管道(Ingest pipeline)中按需调用它们。
这种存储脚本的方式,咱们之前也有过介绍,Elasticsearch 中有个专有术语名词与之对应,叫:stored script 存储脚本。通过 stored script 方式,可以在不同的地方重复使用同一段脚本,而无需复制代码。
在Elasticsearch中使用 stored script 存储脚本是一种高效且灵活的方法,特别适用于那些需要在多个数据处理场景中重复使用相同逻辑的场合。通过这种方式,可以构建更加模块化、易于管理的数据处理管道。
如下脚本的目的是将源数据中的字段从Base64格式转换为解码后的文本。
PUT /_scripts/decodebase64{ "script": { "description": "Decode base64", "lang": "painless", "source": "def src=ctx[params['field']]; if (src == null) { return; } def target=params['target_field']; ctx[target]=src.decodeBase64();" }}
脚本解读如下:
这个脚本可以在Elasticsearch的摄取管道中使用,用于在数据索引之前动态地对字段进行Base64解码。
如下脚本仅验证,实战中可忽略。
GET /_scripts/decodebase64
召回结果如下:
{ "_id": "decodebase64", "found": true, "script": { "lang": "painless", "source": "def src=ctx[params['field']]; if (src == null) { return; } def target=params['target_field']; ctx[target]=src.decodeBase64();" }}
注意:之前咱们很少这么用。看细节,上面的召回结果有 "_id": "decodebase64", 你关注一下,一会就能用到!
PUT /_ingest/pipeline/decodebase64{ "description": "Decode hash values", "processors": [ { "script": { "id": "decodebase64", "params": { "field": "name_base64", "target_field": "name" } } } ]}
上述代码创建了一个名为 decodebase64 的 Elasticsearch 摄取管道,其功能是使用存储的脚本 decodebase64 将字段 name_base64 中的 Base64 编码值解码,并将解码后的文本存储到 name 字段中。
和咱们之前讲的不同的地方、灵活的地方在于:field 和 target_field 变成了变量了,可以灵活按照项目需求替换之。
POST /fruits/_bulk?pipeline=decodebase64{"index":{"_id":"1"}}{"name_base64":"QXBwbGU="}{"index":{"_id":"2"}}{"name_base64":"QW5hbmFz"}{"index":{"_id":"3"}}{"name_base64":"Q2hlcnJ5"}
如上 bulk 批量写入的时候指定 pipeline 的方式,咱们之前也少有讲解。
GET fruits/_search
结果如下图所示:
图片
我们清晰的看到,咱们写入的 name_base64 字段借助我们创建的管道、基于存储脚本解码为 name字段值。
不着急下结论,咱们再看一组例子。
步骤参见第2部分,咱们只讲重点。
如下存储脚本的目的:在Elasticsearch中创建并存储一个名为decodehex的脚本,该脚本用于将HEX(十六进制)编码的字符串转换为普通文本。
PUT /_scripts/decodehex{ "script": { "description": "Decode HEX", "lang": "painless", "source": "def src=ctx[params['field']]; if (src == null) { return; } def target=params['target_field']; StringBuilder sb = new StringBuilder(); for (int i = 0; i < src.length(); i += 2) { String byteStr = src.substring(i, i + 2); char byteChar = (char) Integer.parseInt(byteStr, 16); sb.append(byteChar) } ctx[target] = sb.toString();" }}
脚本解读如下:
如上脚本可以在Elasticsearch的摄取管道中使用,用于在数据索引之前动态地对字段进行 HEX 解码。
如下脚本仅验证,实战中可忽略。
GET /_scripts/decodehex
召回结果如下:
图片
PUT /_ingest/pipeline/decodehex{ "description": "Decode hash values", "processors": [ { "script": { "id": "decodehex", "params": { "field": "color_hex", "target_field": "color" } } } ]}
该管道的功能是使用存储的脚本 decodehex 来处理数据:它会取 color_hex 字段中的HEX(十六进制)编码字符串,将其解码成普通文本,并将解码后的结果存储到 color 字段中。这个过程主要用于在将数据索引到 Elasticsearch 之前自动进行数据转换和预处理。
同样,灵活的地方在于:field、target_field 是变量。
POST /fruits_ext/_bulk?pipeline=decodehex{"index":{"_id":"1"}}{"color_hex":"477265656e"}{"index":{"_id":"2"}}{"color_hex":"59656c6c6f77"}{"index":{"_id":"3"}}{"color_hex":"526564"}
如上 bulk 批量写入的时候指定 pipeline 的方式,咱们之前也少有讲解。
GET fruits_ext/_search
结果如下图所示:
图片
当然,第2部分、第3部分的存储脚本使用可以灵活的整合为一部分,如下所示。
PUT /_ingest/pipeline/decodehashes{ "description": "Decode hash values", "processors": [ { "script": { "id": "decodebase64", "params": { "field": "name_base64", "target_field": "name" } } }, { "script": { "id": "decodehex", "params": { "field": "color_hex", "target_field": "color" } } } ]}
批量构建数据结果:
POST /fruits_all/_bulk?pipeline=decodehashes{"index":{"_id":"1"}}{"name_base64":"QXBwbGU=","color_hex":"477265656e"}{"index":{"_id":"2"}}{"name_base64":"QW5hbmFz","color_hex":"59656c6c6f77"}{"index":{"_id":"3"}}{"name_base64":"Q2hlcnJ5","color_hex":"526564"}
执行检索效果:
图片
我们一起探索了如何在Elasticsearch中创建并存储脚本,以及如何检索这些脚本,以确认它们的 id 和内容。我们还学习了如何在数据处理的摄取管道中调用这些存储的脚本。
通过这种方法,你可以有效地节省存储空间,并减少因重复编写相同脚本而可能出现的错误。简而言之,你只需编写和存储一次脚本,就可以在多个地方反复使用,这无疑提高了工作效率,同时也使得数据处理过程更加流畅和可靠。
本文链接:http://www.28at.com/showinfo-26-57396-0.htmlElasticsearch 8.X 小技巧:使用存储脚本优化数据索引与转换过程
声明:本网页内容旨在传播知识,不代表本站观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。