JAVA|雪花算法生成全局唯一ID

传统的生成ID的方法有以下几个:

  • Java的UUID
  • mysql的自增主键
  • 利用Redis的INCR
以上方法都存在一定的问题。
  • 【JAVA|雪花算法生成全局唯一ID】UUID生成的是以下一串36位的16进制数
    6d62ff8c-66d3-43e1-8009-44fec60d3b30
    但是用UUID当主键的话存在一定问题,首先,它是无序的,因为mysql主键都会自动生成唯一索引,如果主键无序的话,插入一条数据维护索引的代价会很高,造成插入数据的性能降低。其次,UUID的长度过长,mysql官方推荐主键的长度越短越好,显然,36位的UUID不满足条件。
  • 如果使用mysql的自增主键,分布式环境下如果并发量过高,会导致mysql服务器压力过大,为了防止MySQL崩溃,这时候就需要搭建MySQL集群,这时候就需要去设置步长,这样做的成本过高。
  • 因为Redis是单线程的,天生满足原子性,可以用Redis的INCR去生成唯一ID来获取更高的吞吐量。但是这样也存在问题,和mysql一样,在集群环境下,需要设置不同的增长补偿,而且redis还涉及到key的过期时间,这样去维护一个Redis集群成本是很高的。
而现在分布式系统最常用的生成全局唯一ID的方法是雪花算法snowFlake。
雪花算法生成的结果是一位64bit的整数,为一个long类型(转换成字符串最多为19位)
雪花算法结构图如下
JAVA|雪花算法生成全局唯一ID
文章图片

  • 从左到右,第一位为符号位,0表示正,1表示符,不用。
  • 时间戳(毫秒转化为年):2^41/(3652460601000)=69.73年。说明雪花算法可表示的范围为69年(从1970年开始),说明雪花算法能用到2039年。
  • 12bit-序列号:表示每个机房的每个机器每毫秒可以产生2^12-1(4095)个不同的ID序号
    雪花算法生成的ID整个分布式系统不会重复(因为有workerId和datacenterId)
由上可见用雪花算法生成的ID既是全局唯一的,又是递增的,又不需要任何维护成本,所以雪花算法相比之下是最好生成全局唯一ID的方法。
雪花算法Java源码如下:
public class SnowFlake { /** * 起始的时间戳 */ private final static long START_STMP = 1480166465631L; /** * 每一部分占用的位数 */ private final static long SEQUENCE_BIT = 12; //序列号占用的位数 private final static long MACHINE_BIT = 5; //机器标识占用的位数 private final static long DATACENTER_BIT = 5; //数据中心占用的位数/** * 每一部分的最大值 */ private final static long MAX_DATACENTER_NUM = -1L ^ (-1L << DATACENTER_BIT); private final static long MAX_MACHINE_NUM = -1L ^ (-1L << MACHINE_BIT); private final static long MAX_SEQUENCE = -1L ^ (-1L << SEQUENCE_BIT); /** * 每一部分向左的位移 */ private final static long MACHINE_LEFT = SEQUENCE_BIT; private final static long DATACENTER_LEFT = SEQUENCE_BIT + MACHINE_BIT; private final static long TIMESTMP_LEFT = DATACENTER_LEFT + DATACENTER_BIT; private long datacenterId; //数据中心 private long machineId; //机器标识 private long sequence = 0L; //序列号 private long lastStmp = -1L; //上一次时间戳public SnowFlake(long datacenterId, long machineId) {if (datacenterId > MAX_DATACENTER_NUM || datacenterId < 0) { throw new IllegalArgumentException("datacenterId can't be greater than MAX_DATACENTER_NUM or less than 0"); } if (machineId > MAX_MACHINE_NUM || machineId < 0) { throw new IllegalArgumentException("machineId can't be greater than MAX_MACHINE_NUM or less than 0"); } this.datacenterId = datacenterId; this.machineId = machineId; }/** * 产生下一个ID * * @return */ public synchronized long nextId() { long currStmp = getNewstmp(); if (currStmp < lastStmp) { throw new RuntimeException("Clock moved backwards.Refusing to generate id"); }if (currStmp == lastStmp) { //相同毫秒内,序列号自增 sequence = (sequence + 1) & MAX_SEQUENCE; //同一毫秒的序列数已经达到最大 if (sequence == 0L) { currStmp = getNextMill(); } } else { //不同毫秒内,序列号置为0 sequence = 0L; }lastStmp = currStmp; return (currStmp - START_STMP) << TIMESTMP_LEFT //时间戳部分 | datacenterId << DATACENTER_LEFT//数据中心部分 | machineId << MACHINE_LEFT//机器标识部分 | sequence; //序列号部分 }private long getNextMill() { long mill = getNewstmp(); while (mill <= lastStmp) { mill = getNewstmp(); } return mill; }private long getNewstmp() { return System.currentTimeMillis(); } public static void main(String[] args) { //SnowFlakeUtil util=new SnowFlakeUtil(); SnowFlake snowFlake=new SnowFlake(0, 0); for (int i = 0; i < 10; i++) { System.out.println(snowFlake.nextId()); } } }

springboot整合snakeFlake。这里推荐大家一个很好用的工具包hutool
Hutool是一个Java工具包类库,对文件、流、加密解密、转码、正则、线程、XML等JDK方法进行封装,组成各种Util工具类
hutool官网
引入一下依赖
cn.hutool hutool-all 5.2.5

整合之后的SnowFlakeUtil类
@Component public class SnowFlakeUtil { private long workerId=0L; private long datacenterId=1L; private Snowflake snowflake=IdUtil.createSnowflake(workerId, datacenterId); @PostConstruct public void init(){ try{ workerId=NetUtil.ipv4ToLong(NetUtil.getLocalhostStr()); }catch(Exception e){ workerId=NetUtil.getLocalhostStr().hashCode(); } } public synchronized long snowflakeId(long workerId,long datacenterId){ Snowflake snowflake=IdUtil.createSnowflake(workerId, datacenterId); return snowflake.nextId(); } public synchronized long snowflakeId(){ return snowflake.nextId(); } }

    推荐阅读