草庐IT

elasticsearch通过文件批量导入数据

L-960 2024-03-11 原文

前言

有一个需求,需要测试es单个索引的性能,需要将一个索引灌1亿条数据,比较了3种常用的批量导入方式,选择了文件+shell批量导入

索引的mapping,如下

PUT corpus_details_17
{
  "settings": {
    "index.blocks.read_only_allow_delete": "false",
    "index.max_result_window": "10000000",
    "number_of_replicas": "0",
    "number_of_shards": "1"
  },
  "mappings": {
      "properties": {
        "targetContent": {
          "type": "text"
        },
        "sourceContent": {
          "type": "text"
        },
        "sourceLanguageId": {
          "type": "long"
        },
        "realmCode": {
          "type": "long"
        },
        "createTime": {
          "format": "yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis",
          "type": "date"
        },
        "corpusScore": {
          "type": "float"
        },
        "id": {
          "type": "long"
        },
        "targetLanguageId": {
          "type": "long"
        }
      
    }
  }
}

方式1:restAPI+shell

通过restAPI导入数据在数据量非常小的情况下也可以使用,一次性导入一亿条数据,这个要很长时间,非常慢,不推荐

方式2:java客户端批量导入

这种方式可以使用多线程,但是这种方式与restAPI无本质区别,无非是快了几倍,但是对于1亿数量级来说也非常慢,不推荐

方式3:批量生成数据文件+shell

官网:https://www.elastic.co/guide/cn/elasticsearch/guide/current/bulk.html#bulk
这篇文章简单介绍了批量导入数据的操作

1、首先生成导入的数据文件,文件是json的格式,最后一定要多一行回车

{"index":{"_index":"corpus_details_17","_type":"_doc"}}
{"id":15,"sourceContent":"测试数据","sourceLanguageId":1,"targetContent":"It's a cold winter AA.1","targetLanguageId":2,"realmCode":0,"corpusScore":0.842105,"createTime":1672292073000}
{"index":{"_index":"corpus_details_17","_type":"_doc"}}
{"id":16,"sourceContent":"测试数据","sourceLanguageId":1,"targetContent":"It's a cold winter AA.2","targetLanguageId":2,"realmCode":0,"corpusScore":0.842105,"createTime":1672292073000}
{"index":{"_index":"corpus_details_17","_type":"_doc"}}
{"id":17,"sourceContent":"测试数据","sourceLanguageId":1,"targetContent":"It's a cold winter AA.3","targetLanguageId":2,"realmCode":0,"corpusScore":0.842105,"createTime":1672292073000}
{"index":{"_index":"corpus_details_17","_type":"_doc"}}
{"id":18,"sourceContent":"测试数据","sourceLanguageId":1,"targetContent":"It's a cold winter AA.4","targetLanguageId":2,"realmCode":0,"corpusScore":0.842105,"createTime":1672292073000}
{"index":{"_index":"corpus_details_17","_type":"_doc"}}
{"id":19,"sourceContent":"测试数据","sourceLanguageId":1,"targetContent":"It's a cold winter AA.5","targetLanguageId":2,"realmCode":0,"corpusScore":0.842105,"createTime":1672292073000}

_index:索引、_type:类型(es默认_doc),下面是要插入的数据,一个数据文件的大小控制在25M左右。

@Slf4j
public class GenerateFile {
    
    public static void main(String[] args) throws Exception {

        final LocalDateTime time = LocalDateTime.of(2022, 12, 29, 13, 34, 33);

        int count = 1;

        String filePath = "test" + count + ".json";

        File file = new File(filePath);

        FileOutputStream out = new FileOutputStream(file, false);

        for (int i = 0; i <= 100000000; i++) {

            CorpusDetailsMapping mapping = new CorpusDetailsMapping();
            mapping.setId((long) (i+14));
            mapping.setSourceContent("测试数据");
            mapping.setSourceLanguageId(1);
            mapping.setTargetContent("It's a cold winter AA." + i);
            mapping.setTargetLanguageId(2);
            mapping.setRealmCode(0);
            mapping.setCorpusScore(0.842105f);
            mapping.setCreateTime(time);

            String json = JSONUtil.toJsonStr(mapping);

            json = "{\"index\":{\"_index\":\"corpus_details_17\",\"_type\":\"_doc\"}}\n" + json + "\n";

            out.write(json.getBytes(StandardCharsets.UTF_8));

            // 换新文件写入
            if (i % 100000  == 0) {
                if (out != null) {
                    out.close();
                }
                count++;
                log.info("已写入文件:"+filePath);
                filePath = "test" + count + ".json";
                file = new File(filePath);
                out = new FileOutputStream(file, false);
            }

        }
        out.close();
    }
}

2、可以通过curl -u name:'pwd' -XPUT "172.16.0.65:7201/_bulk" -H "Content-Type:application/json" --data-binary @test1.json 执行批量导入

3、我们通过java脚本生成了1001个文件,以shell脚本同时执行多个文件

  int=0
  while(($int<1001))
  do
	  let "int++"
	  echo test"$int".json
	  curl -u name:'pwd' -XPUT "172.16.0.65:7201/_bulk" -H "Content-Type:application/json" --data-binary @test"$int".json
  done

4、结论,单线程半个小时生成一个亿的数据文件,一个小时左右完成了1亿数据的导入

有关elasticsearch通过文件批量导入数据的更多相关文章

  1. ruby - 使用 RubyZip 生成 ZIP 文件时设置压缩级别 - 2

    我有一个Ruby程序,它使用rubyzip压缩XML文件的目录树。gem。我的问题是文件开始变得很重,我想提高压缩级别,因为压缩时间不是问题。我在rubyzipdocumentation中找不到一种为创建的ZIP文件指定压缩级别的方法。有人知道如何更改此设置吗?是否有另一个允许指定压缩级别的Ruby库? 最佳答案 这是我通过查看ruby​​zip内部创建的代码。level=Zlib::BEST_COMPRESSIONZip::ZipOutputStream.open(zip_file)do|zip|Dir.glob("**/*")d

  2. ruby - 其他文件中的 Rake 任务 - 2

    我试图在一个项目中使用rake,如果我把所有东西都放到Rakefile中,它会很大并且很难读取/找到东西,所以我试着将每个命名空间放在lib/rake中它自己的文件中,我添加了这个到我的rake文件的顶部:Dir['#{File.dirname(__FILE__)}/lib/rake/*.rake'].map{|f|requiref}它加载文件没问题,但没有任务。我现在只有一个.rake文件作为测试,名为“servers.rake”,它看起来像这样:namespace:serverdotask:testdoputs"test"endend所以当我运行rakeserver:testid时

  3. ruby-on-rails - 在 Rails 中将文件大小字符串转换为等效千字节 - 2

    我的目标是转换表单输入,例如“100兆字节”或“1GB”,并将其转换为我可以存储在数据库中的文件大小(以千字节为单位)。目前,我有这个:defquota_convert@regex=/([0-9]+)(.*)s/@sizes=%w{kilobytemegabytegigabyte}m=self.quota.match(@regex)if@sizes.include?m[2]eval("self.quota=#{m[1]}.#{m[2]}")endend这有效,但前提是输入是倍数(“gigabytes”,而不是“gigabyte”)并且由于使用了eval看起来疯狂不安全。所以,功能正常,

  4. ruby-on-rails - Rails 3 中的多个路由文件 - 2

    Rails2.3可以选择随时使用RouteSet#add_configuration_file添加更多路由。是否可以在Rails3项目中做同样的事情? 最佳答案 在config/application.rb中:config.paths.config.routes在Rails3.2(也可能是Rails3.1)中,使用:config.paths["config/routes"] 关于ruby-on-rails-Rails3中的多个路由文件,我们在StackOverflow上找到一个类似的问题

  5. ruby - 将差异补丁应用于字符串/文件 - 2

    对于具有离线功能的智能手机应用程序,我正在为Xml文件创建单向文本同步。我希望我的服务器将增量/差异(例如GNU差异补丁)发送到目标设备。这是计划:Time=0Server:hasversion_1ofXmlfile(~800kiB)Client:hasversion_1ofXmlfile(~800kiB)Time=1Server:hasversion_1andversion_2ofXmlfile(each~800kiB)computesdeltaoftheseversions(=patch)(~10kiB)sendspatchtoClient(~10kiBtransferred)Cl

  6. ruby - 如何将脚本文件的末尾读取为数据文件(Perl 或任何其他语言) - 2

    我正在寻找执行以下操作的正确语法(在Perl、Shell或Ruby中):#variabletoaccessthedatalinesappendedasafileEND_OF_SCRIPT_MARKERrawdatastartshereanditcontinues. 最佳答案 Perl用__DATA__做这个:#!/usr/bin/perlusestrict;usewarnings;while(){print;}__DATA__Texttoprintgoeshere 关于ruby-如何将脚

  7. ruby - 解析 RDFa、微数据等的最佳方式是什么,使用统一的模式/词汇(例如 schema.org)存储和显示信息 - 2

    我主要使用Ruby来执行此操作,但到目前为止我的攻击计划如下:使用gemsrdf、rdf-rdfa和rdf-microdata或mida来解析给定任何URI的数据。我认为最好映射到像schema.org这样的统一模式,例如使用这个yaml文件,它试图描述数据词汇表和opengraph到schema.org之间的转换:#SchemaXtoschema.orgconversion#data-vocabularyDV:name:namestreet-address:streetAddressregion:addressRegionlocality:addressLocalityphoto:i

  8. ruby - 通过 rvm 升级 ruby​​gems 的问题 - 2

    尝试通过RVM将RubyGems升级到版本1.8.10并出现此错误:$rvmrubygemslatestRemovingoldRubygemsfiles...Installingrubygems-1.8.10forruby-1.9.2-p180...ERROR:Errorrunning'GEM_PATH="/Users/foo/.rvm/gems/ruby-1.9.2-p180:/Users/foo/.rvm/gems/ruby-1.9.2-p180@global:/Users/foo/.rvm/gems/ruby-1.9.2-p180:/Users/foo/.rvm/gems/rub

  9. ruby - 使用 Vim Rails,您可以创建一个新的迁移文件并一次性打开它吗? - 2

    使用带有Rails插件的vim,您可以创建一个迁移文件,然后一次性打开该文件吗?textmate也可以这样吗? 最佳答案 你可以使用rails.vim然后做类似的事情::Rgeneratemigratonadd_foo_to_bar插件将打开迁移生成的文件,这正是您想要的。我不能代表textmate。 关于ruby-使用VimRails,您可以创建一个新的迁移文件并一次性打开它吗?,我们在StackOverflow上找到一个类似的问题: https://sta

  10. ruby - 通过 erb 模板输出 ruby​​ 数组 - 2

    我正在使用puppet为ruby​​程序提供一组常量。我需要提供一组主机名,我的程序将对其进行迭代。在我之前使用的bash脚本中,我只是将它作为一个puppet变量hosts=>"host1,host2"我将其提供给bash脚本作为HOSTS=显然这对ruby​​不太适用——我需要它的格式hosts=["host1","host2"]自从phosts和putsmy_array.inspect提供输出["host1","host2"]我希望使用其中之一。不幸的是,我终其一生都无法弄清楚如何让它发挥作用。我尝试了以下各项:我发现某处他们指出我需要在函数调用前放置“function_”……这

随机推荐