跳至主要內容

Elasticsearch 搜索(下)

钝悟...大约 21 分钟数据库搜索引擎数据库Elasticsearch数据库搜索引擎数据库Elasticsearch查询DSL

Elasticsearch 搜索(下)

Elasticsearch 提供了基于 JSON 的 DSL(Domain Specific Language)来定义查询。

可以将 DSL 视为查询的 AST(抽象语法树),由两种类型的子句组成:

查询子句的行为会有所不同,具体取决于它们是在 query content 还是 filter context 中使用。

  • query context - 有相关性计算,采用相关性算法,计算文档与查询关键词之间的相关度,并根据评分(_score)大小排序。
  • filter context - 无相关性计算,可以利用缓存,性能更好。

从用法角度,Elasticsearch 查询分类大致分为:

全文查询

Full Text Search(全文搜索)open in new window 支持在非结构化文本数据中搜索与查询关键字最匹配的数据。

在 ES 中,支持以下全文搜索方式:

match(匹配查询)

matchopen in new window 查询用于搜索单个字段。首先,会针对检索文本进行解析(分词),分词后的任何一个词项只要被匹配,文档就会被搜到。默认情况下,相当于对分词后词项进行 or 匹配操作。

match 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "match": {
      "customer_full_name": {
        "query": "George Hubbard"
      }
    }
  }
}

响应结果:

{
  "took": 891, // 查询使用的毫秒数
  "timed_out": false, // 是否有分片超时,也就是说是否只返回了部分结果
  "_shards": {
    // 总分片数、响应成功/失败数量信息
    "total": 1,
    "successful": 1,
    "skipped": 0,
    "failed": 0
  },
  "hits": {
    // 搜索结果
    "total": {
      // 匹配的总记录数
      "value": 82,
      "relation": "eq"
    },
    "max_score": 10.018585, // 所有匹配文档中的最大相关性分值
    "hits": [
      // 匹配文档列表
      {
        "_index": "kibana_sample_data_ecommerce", // 文档所属索引
        "_type": "_doc", // 文档所属 type
        "_id": "2ZUtBX4BU8KXl1YJRBrH", // 文档的唯一性标识
        "_score": 10.018585, // 文档的相关性分值
        "_source": {
          // 文档的原始 JSON 对象
          // 略
        }
      }
      // 省略多条记录
    ]
  }
}

可以通过组合 <field>query 参数来简化匹配查询语法。下面是一个简单的示例。

match 简写示例

下面的查询等价于前面的匹配查询示例:

GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "match": {
      "customer_full_name": "George Hubbard"
    }
  }
}

在进行全文本字段检索的时候, match API 提供了 operator 和 minimum_should_match 参数:

  • operator 参数值可以为 “or” 或者 “and” 来控制检索词项间的关系,默认值为 “or”。所以上面例子中,只要书名中含有 “linux” 或者 “architecture” 的文档都可以匹配上。
  • minimum_should_matchopen in new window 可以指定词项的最少匹配个数,其值可以指定为某个具体的数字,但因为我们无法预估检索内容的词项数量,一般将其设置为一个百分比。
minimum_should_match 示例

至少有 50% 的词项匹配的文档才会被返回:

GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "match": {
      "category": {
        "query": "Women Clothing Accessories",
        "operator": "or",
        "minimum_should_match": "50%"
      }
    }
  }
}

match 查询提供了 fuzziness 参数,fuzziness 允许基于被查询字段的类型进行模糊匹配。请参阅 Fuzzinessopen in new window 的配置。

在这种情况下可以设置 prefix_lengthmax_expansions 来控制模糊匹配。如果设置了模糊选项,查询将使用 top_terms_blended_freqs_${max_expansions} 作为其重写方法,fuzzy_rewrite 参数允许控制查询将如何被重写。

默认情况下允许模糊倒转 (abba),但可以通过将 fuzzy_transpositions 设置为 false 来禁用。

fuzziness 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "match": {
      "customer_first_name": {
        "query": "Gearge",
        "fuzziness": "AUTO"
      }
    }
  }
}

如果使用的分析器像 stop 过滤器一样删除查询中的所有标记,则默认行为是不匹配任何文档。可以使用 zero_terms_query 选项来改变默认行为,它接受 none(默认)和 all (相当于 match_all 查询)。

zero_terms_query 示例
GET kibana_sample_data_logs/_search
{
  "query": {
    "match": {
      "message": {
        "query": "Mozilla Linux",
        "operator": "and",
        "zero_terms_query": "all"
      }
    }
  }
}

match_phrase(短语匹配查询)

match_phraseopen in new window 查询首先会对检索内容进行分词,分词器可以自定义,同时文档还要满足以下两个条件才会被搜索到:

  1. 分词后所有词项都要出现在该字段中(相当于 and 操作)
  2. 字段中的词项顺序要一致
match_phrase 示例
GET kibana_sample_data_logs/_search
{
  "query": {
    "match_phrase": {
       "agent": {
        "query": "Linux x86_64"
      }
    }
  }
}

match_phrase_prefix(短语前缀匹配查询)

查询和 match_phraseopen in new window 查询类似,只不过 match_phrase_prefixopen in new window 最后一个 term 会被作为前缀匹配。

match_phrase_prefix 示例

匹配以 https://www.elastic.co/download 开头的短语

GET kibana_sample_data_logs/_search
{
  "query": {
    "match_phrase_prefix": {
      "url": {
        "query": "https://www.elastic.co/download"
      }
    }
  }
}

multi_match(多字段匹配查询)

multi_matchopen in new window 查询允许对多个字段执行相同的匹配查询。

multi_match 查询在内部执行的方式取决于 type 参数,可以设置为:

multi_match 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "multi_match": {
      "query": 34.98,
      "fields": [
        "taxful_total_price",
        "taxless_total_*" # 可以使用通配符
      ]
    }
  }
}

词项级别查询

Term(词项)是表达语意的最小单位。搜索和利用统计语言模型进行自然语言处理都需要处理 Term。

全文查询在执行查询之前会分析查询字符串。

与全文查询不同,词项级别查询不会分词,而是将输入作为一个整体,在倒排索引中查找准确的词项。并且使用相关度计算公式为每个包含该词项的文档进行相关度计算。一言以概之:词项查询是对词项进行精确匹配。词项查询通常用于结构化数据,如数字、日期和枚举类型。

词项查询有以下类型:

exists(字段不为空查询)

existsopen in new window 返回在指定字段上有值的文档。

由于多种原因,文档字段可能不存在索引值:

  • JSON 中的字段为 null[]
  • 该字段在 mapping 中配置了 "index" : false
  • 字段值的长度超过了 mapping 中的 ignore_above 设置
  • 字段值格式错误,并且在 mapping 中定义了 ignore_malformed
exists 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "exists": {
      "field": "email"
    }
  }
}

fuzzy(模糊查询)

fuzzyopen in new window 返回包含与搜索词相似的词的文档。ES 使用 Levenshtein edit distance(Levenshtein 编辑距离)open in new window 测量相似度或模糊度。

编辑距离是将一个术语转换为另一个术语所需的单个字符更改的数量。这些变化可能包括:

  • 改变一个字符:(box -> fox)
  • 删除一个字符:(black -> lack)
  • 插入一个字符:(sic -> sick
  • 反转两个相邻字符:(act → cat)

为了找到相似的词条,fuzzy query 会在指定的编辑距离内创建搜索词条的所有可能变体或扩展集。然后返回完全匹配任意扩展的文档。

注意:如果配置了 search.allow_expensive_queriesopen in new window ,则 fuzzy query 不能执行。

fuzzy 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "fuzzy": {
      "customer_full_name": {
        "value": "mary"
      }
    }
  }
}

prefix(前缀查询)

prefixopen in new window 用于查询某个字段中包含指定前缀的文档。

比如查询 user.id 中含有以 ki 为前缀的关键词的文档,那么含有 kindkid 等所有以 ki 开头关键词的文档都会被匹配。

prefix 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "prefix": {
      "customer_full_name": {
        "value": "mar"
      }
    }
  }
}

range(范围查询)

rangeopen in new window 用于匹配在某一范围内的数值型、日期类型或者字符串型字段的文档。比如搜索哪些书籍的价格在 50 到 100 之间、哪些书籍的出版时间在 2015 年到 2019 年之间。使用 range 查询只能查询一个字段,不能作用在多个字段上

range 查询支持的参数有以下几种 -

  • gt - 大于
  • gte - 大于等于
  • lt - 小于
  • lte - 小于等于
  • format - 如果字段是 Date 类型,可以设置日期格式化
  • time_zone - 时区
  • relation - 指示范围查询如何匹配范围字段的值。
    • INTERSECTS (Default) - 匹配与查询字段值范围相交的文档。
    • CONTAINS - 匹配完全包含查询字段值的文档。
    • WITHIN - 匹配具有完全在查询范围内的范围字段值的文档。
range 示例

数值范围查询示例:

GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "range": {
      "taxful_total_price": {
        "gt": 10,
        "lte": 50
      }
    }
  }
}

日期范围查询示例:

GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "range": {
      "order_date": {
        "time_zone": "+00:00",
        "gte": "2018-01-01T00:00:00",
        "lte": "now"
      }
    }
  }
}

regexp(正则匹配查询)

regexpopen in new window 返回与正则表达式相匹配的词项所属的文档。正则表达式open in new window 是一种使用占位符字符匹配数据模式的方法,称为运算符。

注意:如果配置了 search.allow_expensive_queriesopen in new window ,则 regexp queryopen in new window 会被禁用。

regexp 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "regexp": {
      "email": ".*@.*-family.zzz"
    }
  }
}

term(词项匹配查询)

termopen in new window 用来查找指定字段中包含给定单词的文档,term 查询不被解析,只有查询词和文档中的词精确匹配才会被搜索到,应用场景为查询人名、地名等需要精准匹配的需求。

注意:应避免 term 查询对 text 字段使用查询。默认情况下,Elasticsearch 针对 text 字段的值进行解析分词,这会使查找 text 字段值的精确匹配变得困难。要搜索 text 字段值,需改用 match 查询。

term 示例
# 1. 创建一个索引
DELETE my-index-000001
PUT my-index-000001
{
  "mappings": {
    "properties": {
      "full_text": { "type": "text" }
    }
  }
}

# 2. 使用 "Quick Brown Foxes!" 关键字查 "full_text" 字段
PUT my-index-000001/_doc/1
{
  "full_text": "Quick Brown Foxes!"
}

# 3. 使用 term 查询
GET my-index-000001/_search?pretty
{
  "query": {
    "term": {
      "full_text": "Quick Brown Foxes!"
    }
  }
}
# 因为 full_text 字段不再包含确切的 Term —— "Quick Brown Foxes!",所以 term query 搜索不到任何结果

# 4. 使用 match 查询
GET my-index-000001/_search?pretty
{
  "query": {
    "match": {
      "full_text": "Quick Brown Foxes!"
    }
  }
}

DELETE my-index-000001

⚠️ 注意:应避免 term 查询对 text 字段使用查询。

默认情况下,Elasticsearch 针对 text 字段的值进行解析分词,这会使查找 text 字段值的精确匹配变得困难。

要搜索 text 字段值,需改用 match 查询。

terms(多词项匹配查询)

termsopen in new windowtermopen in new window 相同,但可以搜索多个值。

terms query 查询参数:

  • index:索引名
  • id:文档 ID
  • path:要从中获取字段值的字段的名称,即搜索关键字
  • routing(选填):要从中获取 term 值的文档的自定义路由值。如果在索引文档时提供了自定义路由值,则此参数是必需的。
terms 示例
# 1. 创建一个索引
DELETE my-index-000001
PUT my-index-000001
{
  "mappings": {
    "properties": {
      "color": { "type": "keyword" }
    }
  }
}

# 2. 写入一个文档
PUT my-index-000001/_doc/1
{
  "color": [
    "blue",
    "green"
  ]
}

# 3. 写入另一个文档
PUT my-index-000001/_doc/2
{
  "color": "blue"
}

# 3. 使用 terms query
GET my-index-000001/_search?pretty
{
  "query": {
    "terms": {
      "color": {
        "index": "my-index-000001",
        "id": "2",
        "path": "color"
      }
    }
  }
}

DELETE my-index-000001

wildcard(通配符查询)

wildcardopen in new window 即通配符查询,返回与通配符模式匹配的文档。

? 用来匹配一个任意字符,* 用来匹配零个或者多个字符。

注意:如果配置了 search.allow_expensive_queriesopen in new window ,则 wildcard queryopen in new window 会被禁用。

wildcard 示例

示例:以下搜索返回 user.id 字段包含以 ki 开头并以 y 结尾的术语的文档。这些匹配项可以包括 kiykitykimchy

GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "wildcard": {
      "email": {
        "value": "*@underwood-family.zzz",
        "boost": 1,
        "rewrite": "constant_score"
      }
    }
  }
}

复合查询

复合查询就是把一些简单查询组合在一起实现更复杂的查询需求,除此之外,复合查询还可以控制另外一个查询的行为。

复合查询有以下类型:

  • boolopen in new window - 布尔查询,可以组合多个过滤语句来过滤文档。
  • boostingopen in new window - 提供调整相关性打分的能力,在 positive 块中指定匹配文档的语句,同时降低在 negative 块中也匹配的文档的得分。
  • constant_scoreopen in new window - 使用 constant_score 可以将 query 转化为 filter,filter 可以忽略相关性算分的环节,并且 filter 可以有效利用缓存,从而提高查询的性能。
  • dis_maxopen in new window - 返回匹配了一个或者多个查询语句的文档,但只将最佳匹配的评分作为相关性算分返回。
  • function_scoreopen in new window - 支持使用函数来修改查询返回的分数。

bool (布尔查询)

boolopen in new window 查询可以把任意多个简单查询组合在一起,使用 must、should、must_not、filter 选项来表示简单查询之间的逻辑,每个选项都可以出现 0 次到多次,它们的含义如下:

  • must - 文档必须匹配 must 选项下的查询条件,相当于逻辑运算的 AND,且参与文档相关度的评分。
  • should - 文档可以匹配 should 选项下的查询条件也可以不匹配,相当于逻辑运算的 OR,且参与文档相关度的评分。
  • must_not - 与 must 相反,匹配该选项下的查询条件的文档不会被返回;需要注意的是,must_not 语句不会影响评分,它的作用只是将不相关的文档排除
  • filter - 和 must 一样,匹配 filter 选项下的查询条件的文档才会被返回,但是 filter 不评分,只起到过滤功能,与 must_not 相反
bool 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "bool": {
      "filter": {
        "term": {
          "type": "order"
        }
      },
      "must_not": {
        "range": {
          "taxful_total_price": {
            "gte": 30
          }
        }
      },
      "should": [
        {
          "match": {
            "day_of_week": "Sunday"
          }
        },
        {
          "match": {
            "category": "Clothing"
          }
        }
      ],
      "minimum_should_match": 1
    }
  }
}

boosting

boostingopen in new window 提供了调整相关性打分的能力。

boosting 查询包括 positivenegativenegative_boost 三个部分。positive 中的查询评分保持不变;negative 中的查询会降低文档评分;相关性算分降低的程度将由 negative_boost 参数决定,其取值范围为:[0.0, 1.0]

boosting 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "boosting": {
      "positive": {
        "term": {
          "day_of_week": "Monday"
        }
      },
      "negative": {
        "range": {
          "taxful_total_price": {
            "gte": "30"
          }
        }
      },
      "negative_boost": 0.2
    }
  }
}

constant_score

使用 constant_scoreopen in new window 可以将 query 转化为 filter,filter 可以忽略相关性算分的环节,并且 filter 可以有效利用缓存,从而提高查询的性能。

constant_score 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "constant_score": {
      "filter": {
        "term": {
          "day_of_week": "Monday"
        }
      },
      "boost": 1.2
    }
  }
}

dis_max

dis_maxopen in new window 查询与 bool 查询有一定联系也有一定区别,dis_max 查询支持多并发查询,可返回与任意查询条件子句匹配的任何文档类型。与 bool 查询可以将所有匹配查询的分数相结合使用的方式不同,dis_max 查询只使用最佳匹配查询条件的分数。

dis_max 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "dis_max": {
      "queries": [
        {
          "term": {
            "currency": "EUR"
          }
        },
        {
          "term": {
            "day_of_week": "Sunday"
          }
        }
      ],
      "tie_breaker": 0.7
    }
  }
}

function_score

function_scoreopen in new window 查询可以修改查询的文档得分,这个查询在有些情况下非常有用,比如通过评分函数计算文档得分代价较高,可以改用过滤器加自定义评分函数的方式来取代传统的评分方式。

使用 function_score 查询,用户需要定义一个查询和一至多个评分函数,评分函数会对查询到的每个文档分别计算得分。

function_score 查询提供了以下几种算分函数:

function_score 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "function_score": {
      "query": { "match_all": {} },
      "boost": "5",
      "functions": [
        {
          "filter": { "match": { "day_of_week": "Sunday" } },
          "random_score": {},
          "weight": 23
        },
        {
          "filter": { "match": { "day_of_week": "Monday" } },
          "weight": 42
        }
      ],
      "max_boost": 42,
      "score_mode": "max",
      "boost_mode": "multiply",
      "min_score": 42
    }
  }
}

推荐搜索

ES 通过 Suggesteropen in new window 提供了推荐搜索能力,可以用于文本纠错,文本自动补全等场景。

根据使用场景的不同,ES 提供了以下 4 种 Suggester:

  • Term Suggester - 基于单词的纠错补全。
  • Phrase Suggester - 基于短语的纠错补全。
  • Completion Suggester - 自动补全单词,输入词语的前半部分,自动补全单词。
  • Context Suggester - 基于上下文的补全提示,可以实现上下文感知推荐。

Term Suggester

Term Suggester 提供了基于单词的纠错、补全功能,其工作原理是基于编辑距离(edit distance)来运作的,编辑距离的核心思想是一个词需要改变多少个字符就可以和另一个词一致

term suggester 示例
GET kibana_sample_data_ecommerce/_search
{
  "query": {
    "match": {
      "day_of_week": "Sund"
    }
  },
  "suggest": {
    "my_suggest": {
      "text": "Sund",
      "term": {
        "suggest_mode": "missing",
        "field": "day_of_week"
      }
    }
  }
}

响应结果:

{
  "took": 2,
  "timed_out": false,
  "_shards": {
    "total": 1,
    "successful": 1,
    "skipped": 0,
    "failed": 0
  },
  "hits": {
    // 略
  },
  "suggest": {
    "my_suggest": [
      {
        "text": "Sund",
        "offset": 0,
        "length": 4,
        "options": [
          {
            "text": "Sunday",
            "score": 0.5,
            "freq": 614
          }
        ]
      }
    ]
  }
}

Term Suggester API 有很多参数,比较常用的有以下几个 -

  • text - 指定了需要产生建议的文本,一般是用户的输入内容。
  • field - 指定从文档的哪个字段中获取建议。
  • suggest_mode - 设置建议的模式。其值有以下几个选项 -
    • missing - 如果索引中存在就不进行建议,默认的选项。
    • popular - 推荐出现频率更高的词。
    • always - 不管是否存在,都进行建议。
  • analyzer - 指定分词器来对输入文本进行分词,默认与 field 指定的字段设置的分词器一致。
  • size - 为每个单词提供的最大建议数量。
  • sort - 建议结果排序的方式,有以下两个选项 -
    • score - 先按相似性得分排序,然后按文档频率排序,最后按词项本身(字母顺序的等)排序。
    • frequency - 先按文档频率排序,然后按相似性得分排序,最后按词项本身排序。

Phrase Suggester

Phrase Suggester 在 Term Suggester 的基础上增加了一些额外的逻辑,因为是短语形式的建议,所以会考量多个 term 间的关系,比如相邻的程度、词频等

phrase suggester 示例
GET kibana_sample_data_logs/_search
{
  "suggest": {
    "text": "Firefix",
    "simple_phrase": {
      "phrase": {
        "field": "agent",
        "direct_generator": [ {
          "field": "agent",
          "suggest_mode": "always"
        } ],
        "highlight": {
          "pre_tag": "<em>",
          "post_tag": "</em>"
        }
      }
    }
  }
}

响应结果:

{
  "took" : 2,
  "timed_out" : false,
  "_shards" : // 略
  "hits" : // 略
  "suggest" : {
    "simple_phrase" : [
      {
        "text" : "Firefix",
        "offset" : 0,
        "length" : 7,
        "options" : [
          {
            "text" : "firefox",
            "highlighted" : "<em>firefox</em>",
            "score" : 0.2000096
          }
        ]
      }
    ]
  }
}

Phrase Suggester 可用的参数也是比较多的,下面介绍几个用得比较多的参数选项 -

  • max_error - 指定最多可以拼写错误的词语的个数。
  • confidence - 其作用是用来控制返回结果条数的。如果用户输入的数据(短语)得分为 N,那么返回结果的得分需要大于 N * confidenceconfidence 默认值为 1.0。
  • highlight - 高亮被修改后的词语。

Completion Suggester

Completion Suggester 提供了自动补全的功能

Completion Suggester 在实现的时候会将 analyze(将文本分词,并且去除没用的词语,例如 is、at 这样的词语) 后的数据进行编码,构建为 FST 并且和索引存放在一起。FST(finite-state transduceropen in new window)是一种高效的前缀查询索引。由于 FST 天生为前缀查询而生,所以其非常适合实现自动补全的功能。ES 会将整个 FST 加载到内存中,所以在使用 FST 进行前缀查询的时候效率是非常高效的。

在使用 Completion Suggester 前需要定义 Mapping,对应的字段需要使用 “completion” type。

completion suggester 示例

构造用于自动补全的测试数据:

# 先删除原来的索引
DELETE music

# 新增 type 字段,类型为 completion,用于自动补全测试
PUT music
{
  "mappings": {
    "properties": {
      "suggest": {
        "type": "completion"
      }
    }
  }
}

# 添加推荐
PUT music/_doc/1?refresh
{
  "suggest" : {
    "input": [ "Nevermind", "Nirvana" ],
    "weight" : 34
  }
}
PUT music/_doc/1?refresh
{
  "suggest": [
    {
      "input": "Nevermind",
      "weight": 10
    },
    {
      "input": "Nirvana",
      "weight": 3
    }
  ]
}

获取推荐:

POST music/_search
{
  "suggest": {
    "song-suggest": {
      "prefix": "nir",
      "completion": {
        "field": "suggest",
        "size": 5,
        "skip_duplicates": true
      }
    }
  }
}

Context Suggester

Context Suggester 是 Completion Suggester 的扩展,可以实现上下文感知推荐

ES 支持两种类型的上下文:

  • Category:任意字符串的分类。
  • Geo:地理位置信息。

在使用 Context Suggester 前需要定义 Mapping,然后在数据中加入相关的 Context 信息。

context suggester 示例

构造用于 Context Suggester 的测试数据:

# 删除原来的索引
DELETE books_context

# 创建用于测试 Context Suggester 的索引
PUT books_context
{
  "mappings": {
	"properties": {
		"book_id": {
		  "type": "keyword"
		},
		"name": {
		  "type": "text",
		  "analyzer": "standard"
		},
		"name_completion": {
		  "type": "completion",
		  "contexts": [
			{
			  "name": "book_type",
			  "type": "category"
			}
		  ]
		},
		"author": {
		  "type": "keyword"
		},
		"intro": {
		  "type": "text"
		},
		"price": {
		  "type": "double"
		},
		"date": {
		  "type": "date"
		}
	  }
  },
  "settings": {
	"number_of_shards": 3,
	"number_of_replicas": 1
  }
}

# 导入测试数据
PUT books_context/_doc/4
{
  "book_id": "4ee82465",
  "name": "Linux Programming",
  "name_completion": {
	"input": ["Linux Programming"],
	"contexts": {
	  "book_type": "program"
	}
  },
  "author": "Richard Stones",
  "intro": "Happy to Linux Programming",
  "price": 10.9,
  "date": "2022-06-01"
}
PUT books_context/_doc/5
{
  "book_id": "4ee82466",
  "name": "Linus Autobiography",
  "name_completion": {
	"input": ["Linus Autobiography"],
	"contexts": {
	  "book_type": "autobiography"
	}
  },
  "author": "Linus",
  "intro": "Linus Autobiography",
  "price": 14.9,
  "date": "2012-06-01"
}

执行 Context Suggester 查询:

POST books_context/_search
{
  "suggest": {
    "my_suggest": {
      "prefix": "linu",
      "completion": {
        "field": "name_completion",
        "contexts": {
          "book_type": "autobiography"
        }
      }
    }
  }
}

参考资料

评论
  • 按正序
  • 按倒序
  • 按热度
Powered by Waline v2.15.7