关于elasticsearch属性not_analyzed,坑

问题描述:实际使用过程中使用aggregations统计的时候,中文莫名其妙拆分成一个字一个字

插入数据如下,对label统计的时候,就变成了“美”、“式”单个字:

"title" : "这是test",
 "label" : [
            "美式",
            "沙发"
          ],
 "create_date" : "2017-11-1 15:41:01"

思路来源文章:Elasticsearch 的坑爹事——记录一次mapping field修改过程


解决办法:删了重新创建,一开始就把属性初始好

curl -XPUT http://127.0.0.1:9200/test -d '{"mappings" : {"kind" : {"properties" : {"id" : {"type" : "string"},"label" : {"type" : "string","index": "not_analyzed"}}}}}'


但是设置了not_analyzed后,搜索的时候就不行了(因为没有进行分词,所以理解为精确查找)………………尴尬

为了达到搜索和统计的目的——我的解决思路:

建立两个存储一模一样数据的字段,一个用于检索(默认"index": "analyzed"),一个用于统计(这个字段设置为"index": "not_analyzed")

curl -XPUT http://139.16.110.110:9200/portal -d '{"mappings" : {"product" : {"properties" : {"id" : {"type" : "string"},"label" : {"type" : "string"},"label_recom" : {"type" : "string","index": "not_analyzed"}}}}}'










  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 6
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

多来哈米

还可以打赏???来试一毛

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值