1. 前缀搜索:prefix
概念:以xx开头的搜索,不计算相关度评分。
前缀搜索匹配的是term(精确值查找),而不是field。
前缀搜索的性能很差
前缀搜索没有缓存
前缀搜索尽可能把前缀长度设置的更长
json GET /_search
{"query": {"prefix": {"": {"value": ""}}}
}
index_prefixes: 默认 "min_chars" : 2, "max_chars" : 5
通配符匹配的也是term,而不是field
json GET /_search
{"query": {"wildcard": {"": {"value": ""}}}
}
json GET /_search
{"query": {"regexp": {"": {"value": "","flags": "ALL"}}}
}
ALL
启用所有可选操作符。
COMPLEMENT
启用操作符。可以使用对下面最短的模式进行否定。例如
a~bc # matches ‘adc’ and ‘aec’ but not ‘abc’
INTERVAL
启用<>操作符。可以使用<>匹配数值范围。例如
foo<1-100> # matches ‘foo1’, ‘foo2’ … ‘foo99’, ‘foo100’
foo<01-100> # matches ‘foo01’, ‘foo02’ … ‘foo99’, ‘foo100’
INTERSECTION
启用&操作符,它充当AND操作符。如果左边和右边的模式都匹配,则匹配成功。例如:
aaa.+&.+bbb # matches ‘aaabbb’
ANYSTRING
启用@操作符。您可以使用@来匹配任何整个字符串。 您可以将@操作符与&和~操作符组合起来,创建一个“everything except”逻辑。例如:
@&~(abc.+) # matches everything except terms beginning with ‘abc’
2. 模糊查询:fuzzy
混淆字符 (box → fox) 缺少字符 (black → lack)
多出字符 (sic → sick) 颠倒次序 (act → cat)
json GET /_search
{"query": {"fuzzy": {"": {"value": ""}}}
}
value:(必须,关键词)
fuzziness:编辑距离,(0,1,2)并非越大越好,召回率高但结果不准确
两段文本之间的Damerau-Levenshtein距离是使一个字符串与另一个字符串匹配所需的插入、删除、替换和调换的数量
距离公式:Levenshtein是lucene的,es改进版:Damerau-Levenshtein,
axe=>aex Levenshtein=2 Damerau-Levenshtein=1
transpositions:(可选,布尔值)指示编辑是否包括两个相邻字符的变位(ab→ba)。默认为true
3. 短语前缀:matchphraseprefix
match_phrase会分词
被检索字段必须包含match_phrase中的所有词项并且顺序必须是相同的
被检索字段包含的match_phrase中的词项之间不能有其他词项
matchphraseprefix与match_phrase相同,但是它多了一个特性,就是它允许在文本的最后一个词项(term)上的前缀匹配,如果 是一个单词,比如a,它会匹配文档字段所有以a开头的文档,如果是一个短语,比如 “this is ma” ,他会先在倒排索引中做以ma做前缀搜索,然后在匹配到的doc中做matchphrase查询,(网上有的说是先matchphrase,然后再进行前缀搜索, 是不对的)
analyzer 指定何种分析器来对该短语进行分词处理
max_expansions 限制匹配的最大词项
boost 用于设置该查询的权重
slop 允许短语间的词项(term)间隔:slop 参数告诉 match_phrase 查询词条相隔多远时仍然能将文档视为匹配 什么是相隔多远? 意思是说为了让查询和文档匹配你需要移动词条多少次?
json GET _analyze
{"tokenizer": "ngram","text": "reba always loves me"
}
json GET _analyze
{"tokenizer": "ik_max_word","filter": ["ngram"],"text": "reba always loves me"
}