bulk 是 elasticsearch 提供的一种批量增删改的操作API。
bulk 对 JSON串 有着严格的要求。每个JSON串 不能换行 ,只能放在同一行,同时, 相邻的JSON串之间必须要有换行 (Linux下是\n;Window下是\r\n)。bulk的每个操作必须要 一对JSON串 (delete语法除外)。
action必须是以下几种:
行为 | 解释 |
---|---|
create | 如果文档不存在就创建,但如果文档存在就返回错误 包含 。POSt和PUT 两种操作 |
index | 如果文档不存在就创建,如果文档存在就更新,版本_version 会加1 |
update | 更新一个文档,如果文档不存在就返回错误 |
delete | 删除一个文档,如果要删除的文档id不存在,就返回错误 |
其实可以看得出来 index 是比较常用的。 bulk 请求不是原子操作,它们不能实现事务。每个请求操作时分开的,所以每个请求的成功与否不干扰其它操作。
Bulk一次最大处理多少数据量?
Bulk会把将要处理的数据载入内存中,所以数据量是有限制的,最佳的数据量不是一个确定的数值,它取决于你的硬件,你的文档大小以及复杂性,你的索引以及搜索的负载。
一般建议是1000-5000个文档,大小建议是5-15M,默认不能超过100M,可以在es的配置文件(即$ES_HOME下的config下的elasticsearch.yml)中
# bulk批量的混合操作,一般不推荐这种使用,项目中也用的极少。
PUT /_bulk
{
"create" : {
"_index" : "ad", "_id" : "6" }}
{
"doc" : {
"name" : "bulk"}}
{
"index" : {
"_index" : "ad", "_id" : "6" }}
{
"doc" : {
"name" : "bulk"}}
{
"delete":{
"_index" : "ad", "_id" : "1"}}
{
"update":{
"_index" : "ad", "_id" : "3"}}
{
"doc" : {
"name" : "huawei p20"}}
# 输出结果
{
"took" : 77,
# 如果任意一个文档出错,这里返回true,
"errors" : true,
# items数组,它罗列了每一个请求的结果,结果的顺序与我们请求的顺序相同
"items" : [
{
# create这个文档已经存在,所以异常
"create":{
"_index":"ad",
"_type":"_doc",
"_id":"6",
"status":409,
"error":{
"type":"version_conflict_engine_exception",
"reason":"[6]: version conflict, document already exists (current version [1])",
"index_uuid":"90zLKRHyT02kyN148mQpqg",
"shard":"0",
"index":"ad"
}
}
},
# index这个文档已经存在,会覆盖
{
"index":{
"_index":"ad",
"_type":"_doc",
"_id":"6",
"_version":2,
"result":"updated",
"_shards":{
"total":2,
"successful":1,
"failed":0
},
"_seq_no":11,
"_primary_term":3,
"status":200
}
},
{
"delete":{