草庐IT

StarRocks 自增ID实现分页优化

BigDataMK 2023-05-07 原文

StarRocks 自增ID实现分页优化

场景介绍

目前StarRocks在不支持自增ID的情况下,对于明细模型的分页查询场景,由于要保证每一次分页查询出来的数据的唯一性,需要我们人为去指定order by的列,无法利用到StarRocks自身的排序键等特性,造成分页查询场景下,性能并不是很好。

有没有一种替代方案能够在外部实现一种自增id,保证每个批次提交的数据都比之前批次的数据的ID大,同时,该ID具有唯一性。并且是一个友好的数据类型(数值型),用来做明细模型的第一列,利用StarRocks的排序键来为分页场景加速。

当然是有的。

实现方案

该方案其实就是利用各种etl工具,例如spark connector,flink connector,datax等等,在数据进入StarRocks之前,做一个新增衍生列的操作,新增一个全局自增的ID,放在第一列,写入到StarRocks中去,当成排序键,用来加速。

测试用例

spark connector

中秋节的时候,社区流木大佬,发布了spark connector,对应链接为:spark connector 支持了读写StarRocks的数据,借此机会,我们使用该connector来实现一个我们的案例,具体对比测试一下,分页查询的场景性能提升。

测试环境

测试环境为本地部署的虚拟集群。具体配置如下:

角色数量使用版本CPU内存磁盘
fe32.3.04C6G40G
be32.3.04C6G40G

三台机器为fe be混布。

数据准备

数据为本地造的数据,数据格式为JSON数据,数据结构如下所示:

{"dept":"8","date2":"2020-06-06 00:00:41","id":"8","date1":"2020-08-01 19:19:03","emp_id":"30999482"}
  • 数据解释:

    emp_id:是一个 0 到 100000000的随机整数

    date1: 是一个 2020-01-01 到 2021-03-11的随机日期

    date2: 是一个 2020-01-01 到 2021-03-11的随机日期

    id: 是 一个 -1 到 10的随机整数

    dept: 是 一个 -1 到 10的随机整数

  • 建表语句

    CREATE TABLE `no_snow` (
      `emp_id` int(11) NOT NULL DEFAULT "-1" COMMENT "",
      `dept` varchar(65533) NOT NULL COMMENT "",
      `id` int(11) NOT NULL COMMENT "",
        `date1` datetime comment "date1",
        `date2` datetime comment "date2"
    ) ENGINE=OLAP 
    DUPLICATE  KEY(`emp_id`,`dept`,`id`)
    COMMENT "OLAP"
    DISTRIBUTED BY HASH(`emp_id`) BUCKETS 8 
    PROPERTIES (
    "replication_num" = "2",
    "in_memory" = "false",
    "storage_format" = "DEFAULT",
    "enable_persistent_index" = "false"
    );
    

    转换后的表结构为:

    CREATE TABLE `snow` (
        `snow_id` bigint not null comment '',
      `emp_id` int(11) NOT NULL DEFAULT "-1" COMMENT "",
      `dept` varchar(65533) NOT NULL COMMENT "",
      `id` int(11) NOT NULL COMMENT "",
        `date1` datetime comment "date1",
        `date2` datetime comment "date2"
    ) ENGINE=OLAP 
    DUPLICATE KEY(`snow_id`,`emp_id`,`dept`,`id`)
    COMMENT "OLAP"
    DISTRIBUTED BY HASH(`snow_id`,`emp_id`,`dept`,`id`) BUCKETS 8 
    PROPERTIES (
    "replication_num" = "2",
    "in_memory" = "false",
    "storage_format" = "DEFAULT",
    "enable_persistent_index" = "false"
    );
    

编写代码

  • 数据导入

    这里我们准备了一个共计20000000条数据的结果集,数据大小为:2.37G

    这里我们将这一个文件拆分为 7个行数为4000000行的小文件,进行导入

    导入命令如下:

    curl --location-trusted -u root: -H "label:testcdc005" -H "format: json"  -H "jsonpaths:[\"$.emp_id\",\"$.dept\",\"$.id\",\"$.date1\",\"$.date2\"]" -H "ignore_json_size:true" -T ./data.json.04 http://192.168.110.170:8036/api/test/testcdc/_stream_load
    
    {
        "TxnId": 8016,
        "Label": "testcdc005",
        "Status": "Success",
        "Message": "OK",
        "NumberTotalRows": 4000000,
        "NumberLoadedRows": 4000000,
        "NumberFilteredRows": 0,
        "NumberUnselectedRows": 0,
        "LoadBytes": 408356148,
        "LoadTimeMs": 9708,
        "BeginTxnTimeMs": 1,
        "StreamLoadPutTimeMs": 6,
        "ReadDataTimeMs": 311,
        "WriteDataTimeMs": 9638,
        "CommitAndPublishTimeMs": 61
    }
    
  • spark 代码

    spark connector 的依赖加载参考 spark connector这篇文章

    • maven 配置

      <properties>
              <maven.compiler.source>8</maven.compiler.source>
              <maven.compiler.target>8</maven.compiler.target>
              <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
              <spark.version>2.4.8</spark.version>
              <scala.version>2.11</scala.version>
              <hadoop.version>2.6.0</hadoop.version>
          </properties>
          <dependencies>
              <dependency>
                  <groupId>org.apache.spark</groupId>
                  <artifactId>spark-core_${scala.version}</artifactId>
                  <version>${spark.version}</version>
              </dependency>
      
              <dependency>
                  <groupId>org.apache.spark</groupId>
                  <artifactId>spark-sql_${scala.version}</artifactId>
                  <version>${spark.version}</version>
              </dependency>
              <dependency>
                  <groupId>com.starrocks</groupId>
                  <artifactId>starrocks-spark2_2.11</artifactId>
                  <version>1.0.1</version>
              </dependency>
              <dependency>
                  <groupId>org.apache.spark</groupId>
                  <artifactId>spark-streaming_${scala.version}</artifactId>
                  <version>${spark.version}</version>
              </dependency>
              <dependency>
                  <groupId>org.apache.hadoop</groupId>
                  <artifactId>hadoop-client</artifactId>
                  <version>2.7.7</version>
              </dependency>
              <dependency>
                  <groupId>com.alibaba</groupId>
                  <artifactId>fastjson</artifactId>
                  <version>2.0.11</version>
              </dependency>
              <dependency>
                  <groupId>mysql</groupId>
                  <artifactId>mysql-connector-java</artifactId>
                  <version>5.1.27</version>
              </dependency>
          </dependencies>
      
    • spark 代码

      import org.apache.spark.sql.{Dataset, SparkSession}
      
      
      object SrTest {
        def main(args: Array[String]): Unit = {
          val spark = SparkSession.builder()
            .appName("sparksql")
            .master("local")
            .getOrCreate()
      
      // read data from sr
          val srReader = spark.read.format("starrocks")
            .option("starrocks.fenodes", "192.168.110.170:8036")
            .option("starrocks.benodes", "192.168.110.170:8046")
            .option("user", "root")
            .option("password", "")
            .option("starrocks.table.identifier", "test.testcdc")
            .load()
          // srReader.show(5)
          val flow = new SnowFlow(1, 1, 1)
          import spark.implicits._
          srReader.show(10)
      //etl
          val resDS: Dataset[(Long, Int, String, Int, String, String)] = srReader.map(x => {
            val emp_id: Int = x.getAs[Int]("emp_id")
            val id: Int = x.getAs[Int]("id")
            val date1: String = x.getAs[String]("date1")
            val date2: String = x.getAs[String]("date2")
            val dept = x.getAs[String]("dept")
            val snowId = flow.nextId()
            (snowId, emp_id, dept, id, date1, date2)
          })
      
          resDS.show(5)
            //write data to sr
          resDS.coalesce(5).toDF("snow_id", "emp_id", "dept", "id", "date1", "date2").write.format("starrocks")
            .option("starrocks.fenodes", "192.168.110.170:8036")
            .option("starrocks.benodes", "192.168.110.170:8046")
            .option("user", "root")
            .option("password", "")
            .option("starrocks.table.identifier", "test.testsnow").save()
        }
      }
      
      

      这里的代码主要是读取sr数据,然后增加了一个衍生列,写回到sr。

    • 雪花算法代码

      import java.io.Serializable;
      public class SnowFlow implements Serializable {
          //因为二进制里第一个 bit 为如果是 1,那么都是负数,但是我们生成的 id 都是正数,所以第一个 bit 统一都是 0。
      
          //机器ID  2进制5位  32位减掉1位 31个
          private long workerId;
          //机房ID 2进制5位  32位减掉1位 31个
          private long datacenterId;
          //代表一毫秒内生成的多个id的最新序号  12位 4096 -1 = 4095 个
          private long sequence;
          //设置一个时间初始值    2^41 - 1   差不多可以用69年
          private long twepoch = 1585644268888L;
          //5位的机器id
          private long workerIdBits = 5L;
          //5位的机房id;。‘
          private long datacenterIdBits = 5L;
          //每毫秒内产生的id数 2 的 12次方
          private long sequenceBits = 2L;
          // 这个是二进制运算,就是5 bit最多只能有31个数字,也就是说机器id最多只能是32以内
          private long maxWorkerId = -1L ^ (-1L << workerIdBits);
          // 这个是一个意思,就是5 bit最多只能有31个数字,机房id最多只能是32以内
          private long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);
      
          private long workerIdShift = sequenceBits;
          private long datacenterIdShift = sequenceBits + workerIdBits;
          private long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;
      
          // -1L 二进制就是1111 1111  为什么?
          // -1 左移12位就是 1111  1111 0000 0000 0000 0000
          // 异或  相同为0 ,不同为1
          // 1111  1111  0000  0000  0000  0000
          // ^
          // 1111  1111  1111  1111  1111  1111
          // 0000 0000 1111 1111 1111 1111 换算成10进制就是4095
          private long sequenceMask = -1L ^ (-1L << sequenceBits);
          //记录产生时间毫秒数,判断是否是同1毫秒
          private long lastTimestamp = -1L;
      
          public long getWorkerId() {
              return workerId;
          }
      
          public long getDatacenterId() {
              return datacenterId;
          }
      
          public long getTimestamp() {
              return System.currentTimeMillis();
          }
      
          public SnowFlow() {
          }
      
          public SnowFlow(long workerId, long datacenterId, long sequence) {
      
              // 检查机房id和机器id是否超过31 不能小于0
              if (workerId > maxWorkerId || workerId < 0) {
                  throw new IllegalArgumentException(
                          String.format("worker Id can't be greater than %d or less than 0", maxWorkerId));
              }
      
              if (datacenterId > maxDatacenterId || datacenterId < 0) {
      
                  throw new IllegalArgumentException(
                          String.format("datacenter Id can't be greater than %d or less than 0", maxDatacenterId));
              }
              this.workerId = workerId;
              this.datacenterId = datacenterId;
              this.sequence = sequence;
          }
      
          // 这个是核心方法,通过调用nextId()方法,
          // 让当前这台机器上的snowflake算法程序生成一个全局唯一的id
          public synchronized long nextId() {
              // 这儿就是获取当前时间戳,单位是毫秒
              long timestamp = timeGen();
              // 判断是否小于上次时间戳,如果小于的话,就抛出异常
              if (timestamp < lastTimestamp) {
      
                  System.err.printf("clock is moving backwards. Rejecting requests until %d.", lastTimestamp);
                  throw new RuntimeException(
                          String.format("Clock moved backwards. Refusing to generate id for %d milliseconds",
                                  lastTimestamp - timestamp));
              }
      
              // 下面是说假设在同一个毫秒内,又发送了一个请求生成一个id
              // 这个时候就得把seqence序号给递增1,最多就是4096
              if (timestamp == lastTimestamp) {
      
                  // 这个意思是说一个毫秒内最多只能有4096个数字,无论你传递多少进来,
                  //这个位运算保证始终就是在4096这个范围内,避免你自己传递个sequence超过了4096这个范围
                  sequence = (sequence + 1) & sequenceMask;
                  //当某一毫秒的时间,产生的id数 超过4095,系统会进入等待,直到下一毫秒,系统继续产生ID
                  if (sequence == 0) {
                      timestamp = tilNextMillis(lastTimestamp);
                  }
      
              } else {
                  sequence = 0;
              }
              // 这儿记录一下最近一次生成id的时间戳,单位是毫秒
              lastTimestamp = timestamp;
              // 这儿就是最核心的二进制位运算操作,生成一个64bit的id
              // 先将当前时间戳左移,放到41 bit那儿;将机房id左移放到5 bit那儿;将机器id左移放到5 bit那儿;将序号放最后12 bit
              // 最后拼接起来成一个64 bit的二进制数字,转换成10进制就是个long型
              return ((timestamp - twepoch) << timestampLeftShift) |
                      (datacenterId << datacenterIdShift) |
                      (workerId << workerIdShift) | sequence;
          }
      
          /**
           * 当某一毫秒的时间,产生的id数 超过4095,系统会进入等待,直到下一毫秒,系统继续产生ID
           *
           * @param lastTimestamp
           * @return
           */
          private long tilNextMillis(long lastTimestamp) {
      
              long timestamp = timeGen();
      
              while (timestamp <= lastTimestamp) {
                  timestamp = timeGen();
              }
              return timestamp;
          }
      
          //获取当前时间戳
          private long timeGen() {
              return System.currentTimeMillis();
          }
      }
      

有关StarRocks 自增ID实现分页优化的更多相关文章

  1. ruby - 如何根据特征实现 FactoryGirl 的条件行为 - 2

    我有一个用户工厂。我希望默认情况下确认用户。但是鉴于unconfirmed特征,我不希望它们被确认。虽然我有一个基于实现细节而不是抽象的工作实现,但我想知道如何正确地做到这一点。factory:userdoafter(:create)do|user,evaluator|#unwantedimplementationdetailshereunlessFactoryGirl.factories[:user].defined_traits.map(&:name).include?(:unconfirmed)user.confirm!endendtrait:unconfirmeddoenden

  2. 华为OD机试用Python实现 -【明明的随机数】 2023Q1A - 2

    华为OD机试题本篇题目:明明的随机数题目输入描述输出描述:示例1输入输出说明代码编写思路最近更新的博客华为od2023|什么是华为od,od薪资待遇,od机试题清单华为OD机试真题大全,用Python解华为机试题|机试宝典【华为OD机试】全流程解析+经验分享,题型分享,防作弊指南华为o

  3. 基于C#实现简易绘图工具【100010177】 - 2

    C#实现简易绘图工具一.引言实验目的:通过制作窗体应用程序(C#画图软件),熟悉基本的窗体设计过程以及控件设计,事件处理等,熟悉使用C#的winform窗体进行绘图的基本步骤,对于面向对象编程有更加深刻的体会.Tutorial任务设计一个具有基本功能的画图软件**·包括简单的新建文件,保存,重新绘图等功能**·实现一些基本图形的绘制,包括铅笔和基本形状等,学习橡皮工具的创建**·设计一个合理舒适的UI界面**注明:你可能需要先了解一些关于winform窗体应用程序绘图的基本知识,以及关于GDI+类和结构的知识二.实验环境Windows系统下的visualstudio2017C#窗体应用程序三.

  4. MIMO-OFDM无线通信技术及MATLAB实现(1)无线信道:传播和衰落 - 2

     MIMO技术的优缺点优点通过下面三个增益来总体概括:阵列增益。阵列增益是指由于接收机通过对接收信号的相干合并而活得的平均SNR的提高。在发射机不知道信道信息的情况下,MIMO系统可以获得的阵列增益与接收天线数成正比复用增益。在采用空间复用方案的MIMO系统中,可以获得复用增益,即信道容量成倍增加。信道容量的增加与min(Nt,Nr)成正比分集增益。在采用空间分集方案的MIMO系统中,可以获得分集增益,即可靠性性能的改善。分集增益用独立衰落支路数来描述,即分集指数。在使用了空时编码的MIMO系统中,由于接收天线或发射天线之间的间距较远,可认为它们各自的大尺度衰落是相互独立的,因此分布式MIMO

  5. 【Java入门】使用Java实现文件夹的遍历 - 2

    遍历文件夹我们通常是使用递归进行操作,这种方式比较简单,也比较容易理解。本文为大家介绍另一种不使用递归的方式,由于没有使用递归,只用到了循环和集合,所以效率更高一些!一、使用递归遍历文件夹整体思路1、使用File封装初始目录,2、打印这个目录3、获取这个目录下所有的子文件和子目录的数组。4、遍历这个数组,取出每个File对象4-1、如果File是否是一个文件,打印4-2、否则就是一个目录,递归调用代码实现publicclassSearchFile{publicstaticvoidmain(String[]args){//初始目录Filedir=newFile("d:/Dev");Datebeg

  6. ruby - Arrays Sets 和 SortedSets 在 Ruby 中是如何实现的 - 2

    通常,数组被实现为内存块,集合被实现为HashMap,有序集合被实现为跳跃列表。在Ruby中也是如此吗?我正在尝试从性能和内存占用方面评估Ruby中不同容器的使用情况 最佳答案 数组是Ruby核心库的一部分。每个Ruby实现都有自己的数组实现。Ruby语言规范只规定了Ruby数组的行为,并没有规定任何特定的实现策略。它甚至没有指定任何会强制或至少建议特定实现策略的性能约束。然而,大多数Rubyist对数组的性能特征有一些期望,这会迫使不符合它们的实现变得默默无闻,因为实际上没有人会使用它:插入、前置或追加以及删除元素的最坏情况步骤复

  7. ruby - Rails -- :id attribute? 所需的数据库索引 - 2

    因此,当我遵循MichaelHartl的RubyonRails教程时,我注意到在用户表中,我们为:email属性添加了一个唯一索引,以提高find的效率方法,因此它不会逐行搜索。到目前为止,我们一直在根据情况使用find_by_email和find_by_id进行搜索。然而,我们从未为:id属性设置索引。:id是否自动索引,因为它在默认情况下是唯一的并且本质上是顺序的?或者情况并非如此,我应该为:id搜索添加索引吗? 最佳答案 大多数数据库(包括sqlite,这是RoR中的默认数据库)会自动索引主键,对于RailsMigration

  8. ruby - "public/protected/private"方法是如何实现的,我该如何模拟它? - 2

    在ruby中,你可以这样做:classThingpublicdeff1puts"f1"endprivatedeff2puts"f2"endpublicdeff3puts"f3"endprivatedeff4puts"f4"endend现在f1和f3是公共(public)的,f2和f4是私有(private)的。内部发生了什么,允许您调用一个类方法,然后更改方法定义?我怎样才能实现相同的功能(表面上是创建我自己的java之类的注释)例如...classThingfundeff1puts"hey"endnotfundeff2puts"hey"endendfun和notfun将更改以下函数定

  9. ruby - 每个页面上的 Jekyll 分页 - 2

    据我们所知,Jekyll默认分页仅支持index.html,我想创建blog.html并在那里包含分页。有什么解决办法吗? 最佳答案 如果您创建一个名为/blog的目录并在其中放置一个index.html文件,那么您可以向_config.yml表示paginate_path:"blog/page:num"。不是使用根文件夹中的默认index.html作为分页器模板,而是使用/blog/index.html。分页器将根据需要生成类似/blog/page2/和/blog/page3/的页面。这将使您到达yourwebsite.com/b

  10. ruby - 实现k最近邻需要哪些数据? - 2

    我目前有一个reddit克隆类型的网站。我正在尝试根据我的用户之前喜欢的帖子推荐帖子。看起来K最近邻或k均值是执行此操作的最佳方法。我似乎无法理解如何实际实现它。我看过一些数学公式(例如k表示维基百科页面),但它们对我来说并没有真正意义。有人可以推荐一些伪代码,或者可以查看的地方,以便我更好地了解如何执行此操作吗? 最佳答案 K最近邻(又名KNN)是一种分类算法。基本上,您采用包含N个项目的训练组并对它们进行分类。如何对它们进行分类完全取决于您的数据,以及您认为该数据的重要分类特征是什么。在您的示例中,这可能是帖子类别、谁发布了该项

随机推荐