Elasticsearch 8.X 路径检索的企业级玩法
1、企业级实战问题
问题描述如下:
"path":"hdfs://xx.xx.xx:8200/home/lht/aaa.doc"。       想检索到aaa文件。并且以doc为筛选条件。可行吗?
就是我有文件数组。匹配到文件数组里的文件类型就检索出来?
——问题来源:GPVIP 微信群
2、问题定义
给定一个路径 path,期待实现:输入扩展名,可以实现检索?
扩展要求:有没有专门针对 path 路径的检索或者相关实现?
问题描述清楚了,接下来我们先做分析和方案的探讨。
3、解决方案的探讨
思考几个问题:
- 问题1:传统的分词器能否搞得定?
 - 问题2:分词搞不定的话,预处理能协助搞定吗?
 - 问题3:落脚到题目的需求,最终探讨如何解决问题?!
 
3.1 传统的分词器能否搞定?
Elasticsearch 内置的分词器包含但不限于:
- standard(默认分词器);
 - simple 分词器;
 - whitespace 分词器;
 - keyword 分词器等等.....
 
我们拿标准分词器 standard 举例:
DELETE test-index-20220917
PUT test-index-20220917
{
  "mappings": {
    "properties": {
      "path": {
        "type": "text",
        "analyzer": "standard",
        "fields": {
          "keyword": {
            "type": "keyword"
          }
        }
      }
    }
  }
}
POST test-index-20220917/_bulk
{"index":{"_id":1}}
{"path":"hdfs://xx.xx.xx:8200/home/lht/aaa.doc"}通过 analyze API 看看分词结果。
POST _analyze
{
  "text": [
    "hdfs://xx.xx.xx:8200/home/lht/aaa.doc"
  ],
  "analyzer": "standard"
}分词结果为:

如下的检索,standard 分词器检索不到!!
POST test-index-20220917/_search
{
  "query": {
    "match": {
      "path": "doc"
    }
  }
}2.2 能否以扩展名进行检索?
如上的仅 standard 标准分词搞不定扩展名的检索。主要原因分词无法分出扩展名。
没有扩展名怎么办?需要借助数据预处理的方式来解决。
当我们在写入ES 之前,我们需要把 扩展名提炼出来!
模拟一把!
POST _ingest/pipeline/_simulate
{
  "pipeline": {
    "processors": [
      {
        "script": {
          "description": "Extract 'tags' from 'env' field",
          "lang": "painless",
          "source": """
            String[] envSplit = ctx['path'].splitOnToken(params['delimiter']);
            int envArrayLen = envSplit.length;
            ctx['extension'] = envSplit[envArrayLen -1];
          """,
          "params": {
            "delimiter": "."
          }
        }
      }
    ]
  },
  "docs": [
    {
      "_source": {
        "path": "hdfs://xx.xx.xx:8200/home/lht/aaa.pdf"
      }
    }
  ]
}结果包含扩展名,符合预期。
模拟可以搞定,剩下的定义索引+指定缺省管道,必然也可以搞定。

篇幅原因,不再赘述。
至此,扩展名问题通过 script 预处理管道可以搞定了!
还有问题2亟待解决,那就是我们能否覆盖类似路径更全的场景?全部路径都能检索到!
2.3 路径分词的解决方案实现
提到分词器,大家脑海里立马要映射出分词器的“三段论”组成结构。
第一:0或者多个 character filter 过滤器;
第二:唯一的tokenizer;
第三:0或多个 token filter 过滤器。

通过官方文档,我们能找到有:Path hierarchy tokenizer。其实它就是我们一直想找的路径分词器。
如何来使用?好不好用呢?
拿个例子一看便知:
POST _analyze
{
"tokenizer": "path_hierarchy",
"text": "hdfs://xx.xx.xx:8200/home/lht/ccc.doc"
}如下截图所示:至少初步达到预期,看着非常专业了!

但,ccc.doc 没有给出分词结果,能否有参数可以搞定呢?
可以的。reverse 默认 false,改成 true 就可以实现。
实战如下:
PUT my-index-000001
{
  "settings": {
    "analysis": {
      "analyzer": {
        "my_analyzer": {
          "tokenizer": "my_tokenizer"
        }
      },
      "tokenizer": {
        "my_tokenizer": {
          "type": "path_hierarchy",
          "delimiter": "/",
          "reverse": true
        }
      }
    }
  }
}
POST my-index-000001/_analyze
{
  "analyzer": "my_analyzer",
  "text": "hdfs://xx.xx.xx:8200/home/lht/ccc.doc"
}
有了这些,我们整合一下,其实能实现复杂的路径检索实现。
整合如下:
PUT _ingest/pipeline/extension_pipeline
{
  "processors": [
    {
      "script": {
        "description": "get file extension of path",
        "lang": "painless",
        "source": """
            String[] envSplit = ctx['path'].splitOnToken(params['delimiter']);
            int envArrayLen = envSplit.length;
            ctx['extension'] = envSplit[envArrayLen -1];
          """,
        "params": {
          "delimiter": "."
        }
      }
    }
  ]
}
PUT test-index-20220917-02
{
  "settings": {
    "index": {
      "default_pipeline": "extension_pipeline"
    },
    "analysis": {
      "analyzer": {
        "custom_path_tree": {
          "tokenizer": "custom_hierarchy"
        },
        "custom_path_tree_reversed": {
          "tokenizer": "custom_hierarchy_reversed"
        }
      },
      "tokenizer": {
        "custom_hierarchy": {
          "type": "path_hierarchy",
          "delimiter": "/"
        },
        "custom_hierarchy_reversed": {
          "type": "path_hierarchy",
          "delimiter": "/",
          "reverse": "true"
        }
      }
    }
  },
  "mappings": {
    "properties": {
      "path": {
        "type": "text",
        "fields": {
          "tree": {
            "type": "text",
            "analyzer": "custom_path_tree"
          },
          "tree_reversed": {
            "type": "text",
            "analyzer": "custom_path_tree_reversed"
          }
        }
      }
    }
  }
}
POST test-index-20220917-02/_bulk
{"index":{"_id":1}}
{"path":"hdfs://xx.xx.xx:8200/home/lht/aaa.doc"}
{"index":{"_id":2}}
{"path":"hdfs://xx.xx.xx:8200/home/lht/bbb.pptx"}
{"index":{"_id":3}}
{"path":"hdfs://xx.xx.xx:8200/home/lht/ccc.doc"}简单解释一下:
- 第一:定义了预处理器,通过脚本获取了路径的扩展名。
 - 第二:定义了正向和反向的两个分词器,实现了路径的全覆盖分词。
 - 第三:导入了数据。
 
用了一个分词器的两种不同的实现方式,实现了正向路径和反向路径的双重检索,同时加了类型的精准匹配!
POST test-index-20220917-02/_search
{
  "query": {
    "bool": {
      "must": [
        {
          "term": {
            "extension.keyword": {
              "value": "doc"
            }
          }
        },
        {
          "match": {
            "path.tree_reversed": "home/lht/aaa.doc"
          }
        },
        {
          "match": {
            "path.tree": "hdfs://xx.xx.xx:8200/home/lht"
          }
        }
      ]
    }
  }
}如下的结果达到预期。

3、小结

通过 script 预处理获取到的路径中文件的扩展名,以便后续继续扩展名进行检索。
没有使用 standard 标准分词器,而是使用路径相关的 path 路径的正向和反向的分词器来解决路径检索问题,path 路径相关的检索都推荐使用!
你有没有遇到类似问题,如何解决的呢?欢迎留言交流。
文章转载自公众号:铭毅天下Elasticsearch




















