返回顶部
首页 > 资讯 > 精选 >Netty分布式ByteBuf使用subPage级别内存分配的方法
  • 243
分享到

Netty分布式ByteBuf使用subPage级别内存分配的方法

2023-06-29 17:06:25 243人浏览 独家记忆
摘要

这篇文章主要介绍“Netty分布式ByteBuf使用subPage级别内存分配的方法”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Netty分布式ByteBuf使用subPage级别内存分配的方法”

这篇文章主要介绍“Netty分布式ByteBuf使用subPage级别内存分配的方法”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Netty分布式ByteBuf使用subPage级别内存分配的方法”文章能帮助大家解决问题。

subPage级别内存分配

简单起见, 我们这里仅仅以16字节为例, 讲解其分配逻辑

在分析其逻辑前, 首先看PoolArean的一个属性:

private final PoolSubpage<T>[] tinySubpagePools;

这个属性是一个PoolSubpage的数组, 有点类似于一个subpage的缓存, 我们创建一个subpage之后, 会将创建的subpage与该属性其中每个关联, 下次在分配的时候可以直接通过该属性的元素去找关联的subpage

我们其中是在构造方法中初始化的, 看构造方法中其初始化代码

tinySubpagePools = newSubpagePoolArray(numTinySubpagePools);

这里为numTinySubpagePools为32

跟到newSubpagePoolArray(numTinySubpagePools)方法里:

private PoolSubpage<T>[] newSubpagePoolArray(int size) {    return new PoolSubpage[size];}

这里直接创建了一个PoolSubpage数组, 长度为32

在构造方法中创建完毕之后, 会通过循环为其赋值

for (int i = 0; i < tinySubpagePools.length; i ++) {    tinySubpagePools[i] = newSubpagePoolHead(pageSize);}

我们跟到newSubpagePoolHead中:

private PoolSubpage<T> newSubpagePoolHead(int pageSize) {    PoolSubpage<T> head = new PoolSubpage<T>(pageSize);    head.prev = head;    head.next = head;    return head;}

这里创建了一个PoolSubpage对象head

head.prev = head;head.next = head;

这种写法我们知道Subpage其实也是个双向链表, 这里的将head的上一个节点和下一个节点都设置为自身, 有关PoolSubpage的关联关系, 我们稍后会看到

这样通过循环创建PoolSubpage, 总共会创建出32个subpage, 其中每个subpage实际代表一块内存大小:

Netty分布式ByteBuf使用subPage级别内存分配的方法

5-8-1

这里就有点类之前小节的缓存数组tinySubPageDirectCaches的结构

了解了tinySubpagePools属性, 我们看PoolArean的allocate方法, 也就是缓冲区的入口方法:

private void allocate(PoolThreadCache cache, PooledByteBuf<T> buf, final int reqCapacity) {    //规格化    final int nORMCapacity = normalizeCapacity(reqCapacity);    if (isTinyOrSmall(normCapacity)) {         int tableIdx;        PoolSubpage<T>[] table;        //判断是不是tinty        boolean tiny = isTiny(normCapacity);        if (tiny) { // < 512            //缓存分配            if (cache.allocateTiny(this, buf, reqCapacity, normCapacity)) {                return;            }            //通过tinyIdx拿到tableIdx            tableIdx = tinyIdx(normCapacity);            //subpage的数组            table = tinySubpagePools;        } else {            if (cache.allocateSmall(this, buf, reqCapacity, normCapacity)) {                return;            }            tableIdx = smallIdx(normCapacity);            table = smallSubpagePools;        }        //拿到对应的节点        final PoolSubpage<T> head = table[tableIdx];        synchronized (head) {            final PoolSubpage<T> s = head.next;            //默认情况下, head的next也是自身            if (s != head) {                assert s.doNotDestroy && s.elemSize == normCapacity;                long handle = s.allocate();                assert handle >= 0;                s.chunk.initBufWithSubpage(buf, handle, reqCapacity);                if (tiny) {                    allocationsTiny.increment();                } else {                    allocationSSMall.increment();                }                return;            }        }        allocateNormal(buf, reqCapacity, normCapacity);        return;    }    if (normCapacity <= chunkSize) {        //首先在缓存上进行内存分配        if (cache.allocateNormal(this, buf, reqCapacity, normCapacity)) {            //分配成功, 返回            return;        }        //分配不成功, 做实际的内存分配        allocateNormal(buf, reqCapacity, normCapacity);    } else {        //大于这个值, 就不在缓存上分配        allocateHuge(buf, reqCapacity);    }}

之前我们最这个方法剖析过在page级别相关内存分配逻辑, 这一小节看subpage级别分配的相关逻辑

假设我们分配16字节的缓冲区, isTinyOrSmall(normCapacity)就会返回true, 进入if块

同样if (tiny)这里会返回true, 继续跟到if (tiny)中:

首先会在缓存中分配缓冲区, 如果分配不到, 就开辟一块内存进行内存分配

首先看这一步:

tableIdx = tinyIdx(normCapacity);

这里通过normCapacity拿到tableIdx

我们跟进去:

static int tinyIdx(int normCapacity) {    return normCapacity >>> 4;}

这里将normCapacity除以16, 其实也就是1

我们回到PoolArena的allocate方法继续看:

table = tinySubpagePools

这里将tinySubpagePools赋值到局部变量table中, 继续往下看

 final PoolSubpage<T> head = table[tableIdx] 

这步时通过下标拿到一个PoolSubpage, 因为我们以16字节为例, 所以我们拿到下标为1的PoolSubpage, 对应的内存大小也就是16B

再看 final PoolSubpage<T> s = head.next 这一步, 跟我们刚才了解的的tinySubpagePools属性, 默认情况下head.next也是自身, 所以if (s != head)会返回false, 我们继续往下看:

下面, 会走到allocateNormal(buf, reqCapacity, normCapacity)这个方法:

private synchronized void allocateNormal(PooledByteBuf<T> buf, int reqCapacity, int normCapacity) {    //首先在原来的chunk上进行内存分配(1)    if (q050.allocate(buf, reqCapacity, normCapacity) || q025.allocate(buf, reqCapacity, normCapacity) ||        q000.allocate(buf, reqCapacity, normCapacity) || qInit.allocate(buf, reqCapacity, normCapacity) ||        q075.allocate(buf, reqCapacity, normCapacity)) {        ++allocationsNormal;        return;    }    //创建chunk进行内存分配(2)    PoolChunk<T> c = newChunk(pageSize, maxOrder, pageShifts, chunkSize);    long handle = c.allocate(normCapacity);    ++allocationsNormal;    assert handle > 0;    //初始化byteBuf(3)    c.initBuf(buf, handle, reqCapacity);     qInit.add(c);}

这里的逻辑我们之前的小节已经剖析过, 首先在原来的chunk中分配, 如果分配不成功, 则会创建chunk进行分配

我们看这一步

 long handle = c.allocate(normCapacity) 

跟到allocate(normCapacity)方法中

long allocate(int normCapacity) {    if ((normCapacity & subpageOverflowMask) != 0) {        return allocateRun(normCapacity);    } else {        return allocateSubpage(normCapacity);    }}

上一小节我们分析page级别分配的时候, 剖析的是allocateRun(normCapacity)方法

因为这里我们是以16字节举例, 所以这次我们剖析allocateSubpage(normCapacity)方法, 也就是在subpage级别进行内存分配

private long allocateSubpage(int normCapacity) {    PoolSubpage<T> head = arena.findSubpagePoolHead(normCapacity);    synchronized (head) {        int d = maxOrder;        //表示在第11层分配节点        int id = allocatenode(d);        if (id < 0) {            return id;        }        //获取初始化的subpage        final PoolSubpage<T>[] subpages = this.subpages;        final int pageSize = this.pageSize;        freeBytes -= pageSize;        //表示第几个subpageIdx        int subpageIdx = subpageIdx(id);        PoolSubpage<T> subpage = subpages[subpageIdx];        if (subpage == null) {            //如果subpage为空            subpage = new PoolSubpage<T>(head, this, id, runOffset(id), pageSize, normCapacity);            //则将当前的下标赋值为subpage            subpages[subpageIdx] = subpage;        } else {            subpage.init(head, normCapacity);        }        //取出一个子page        return subpage.allocate();    }}

首先, 通过 PoolSubpage<T> head = arena.findSubpagePoolHead(normCapacity) 这种方式找到head节点, 实际上这里head, 就是我们刚才分析的tinySubpagePools属性的第一个节点, 也就是对应16B的那个节点

 int d = maxOrder 是将11赋值给d, 也就是在内存树的第11层取节点, 这部分上一小节剖析过了, 可以回顾图5-8-5部分

 int id = allocateNode(d) 这里获取的是上一小节我们分析过的, 字节数组memoryMap的下标, 这里指向一个page, 如果第一次分配, 指向的是0-8k的那个page, 上一小节对此进行详细的剖析这里不再赘述

 final PoolSubpage<T>[] subpages = this.subpages 这一步, 是拿到PoolChunk中成员变量subpages的值, 也是个PoolSubpage的数组, 在PoolChunk进行初始化的时候, 也会初始化该数组, 长度为2048

也就是说每个chunk都维护着一个subpage的列表, 如果每一个page级别的内存都需要被切分成子page, 则会将这个这个page放入该列表中, 专门用于分配子page, 所以这个列表中的subpage, 其实就是一个用于切分的page

Netty分布式ByteBuf使用subPage级别内存分配的方法

5-8-2

 int subpageIdx = subpageIdx(id) 这一步是通过id拿到这个PoolSubpage数组的下标, 如果id对应的page是0-8k的节点, 这里拿到的下标就是0

在 if (subpage == null) 中, 因为默认subpages只是创建一个数组, 并没有往数组中赋值, 所以第一次走到这里会返回true, 跟到if块中:

subpage = new PoolSubpage<T>(head, this, id, runOffset(id), pageSize, normCapacity);

这里通过new PoolSubpage创建一个新的subpage之后, 通过 subpages[subpageIdx] = subpage 这种方式将新创建的subpage根据下标赋值到subpages中的元素中

在new PoolSubpage的构造方法中, 传入head, 就是我们刚才提到过的tinySubpagePools属性中的节点, 如果我们分配的16字节的缓冲区, 则这里对应的就是第一个节点

我们跟到PoolSubpage的构造方法中

PoolSubpage(PoolSubpage<T> head, PoolChunk<T> chunk, int memoryMapidx, int runOffset, int pageSize, int elemSize) {    this.chunk = chunk;    this.memoryMapIdx = memoryMapIdx;    this.runOffset = runOffset;    this.pageSize = pageSize;    bitmap = new long[pageSize >>> 10];    init(head, elemSize);}

这里重点关注属性bitmap, 这是一个long类型的数组, 初始大小为8, 这里只是初始化的大小, 真正的大小要根据将page切分多少块而确定

这里将属性进行了赋值, 我们跟到init方法中:

void init(PoolSubpage<T> head, int elemSize) {    doNotDestroy = true;     this.elemSize = elemSize;    if (elemSize != 0) {        maxNumElems = numAvail = pageSize / elemSize;        nextAvail = 0;        bitmapLength = maxNumElems >>> 6;        if ((maxNumElems & 63) != 0) {            bitmapLength ++;        }        for (int i = 0; i < bitmapLength; i ++) {            //bitmap标识哪个子page被分配            //0标识未分配, 1表示已分配            bitmap [i] = 0;        }    }    //加到arena里面    addToPool(head);}

 this.elemSize = elemSize 表示保存当前分配的缓冲区大小, 这里我们以16字节举例, 所以这里是16

 maxNumElems = numAvail = pageSize / elemSize  

这里初始化了两个属性maxNumElems, numAvail, 值都为pageSize / elemSize, 表示一个page大小除以分配的缓冲区大小, 也就是表示当前page被划分了多少分

numAvail则表示剩余可用的块数, 由于第一次分配都是可用的, 所以 numAvail=maxNumElems 

bitmapLength表示bitmap的实际大小, 刚才我们分析过, bitmap初始化的大小为8, 但实际上并不一定需要8个元素, 元素个数要根据page切分的子块而定, 这里的大小是所切分的子块数除以64

再往下看,  if ((maxNumElems & 63) != 0) 判断maxNumElems也就是当前配置所切分的子块是不是64的倍数, 如果不是, 则bitmapLength加1,

最后通过循环, 将其分配的大小中的元素赋值为0

这里详细介绍一下有关bitmap, 这里是个long类型的数组, long数组中的每一个值, 也就是long类型的数字, 其中的每一个比特位, 都标记着page中每一个子块的内存是否已分配, 如果比特位是1, 表示该子块已分配, 如果比特位是0, 表示该子块未分配, 标记顺序是其二进制数从低位到高位进行排列

这里, 我们应该知道为什么bitmap大小要设置为子块数量除以, 64, 因为long类型的数字是64位, 每一个元素能记录64个子块的数量, 这样就可以通过子page个数除以64的方式决定bitmap中元素的数量

如果子块不能整除64, 则通过元素数量+1方式, 除以64之后剩余的子块通过long中比特位由低到高进行排列记录

这里的逻辑结构如下所示:

Netty分布式ByteBuf使用subPage级别内存分配的方法

5-8-3

我们跟到addToPool(head)中

private void addToPool(PoolSubpage<T> head) {    assert prev == null && next == null;    prev = head;    next = head.next;    next.prev = this;    head.next = this;}

这里的head我们刚才讲过, 是Arena中数组tinySubpagePools中的元素, 通过以上逻辑, 就会将新创建的Subpage通过双向链表的方式关联到tinySubpagePools中的元素, 我们以16字节为例, 关联关系如图所示:

Netty分布式ByteBuf使用subPage级别内存分配的方法

5-8-4

这样, 下次如果还需要分配16字节的内存, 就可以通过tinySubpagePools找到其元素关联的subpage进行分配了

我们再回到PoolChunk的allocateSubpage方法中:

private long allocateSubpage(int normCapacity) {    PoolSubpage<T> head = arena.findSubpagePoolHead(normCapacity);    synchronized (head) {        int d = maxOrder;        //表示在第11层分配节点        int id = allocateNode(d);        if (id < 0) {            return id;        }        //获取初始化的subpage        final PoolSubpage<T>[] subpages = this.subpages;        final int pageSize = this.pageSize;        freeBytes -= pageSize;        //表示第几个subpageIdx        int subpageIdx = subpageIdx(id);        PoolSubpage<T> subpage = subpages[subpageIdx];        if (subpage == null) {            //如果subpage为空            subpage = new PoolSubpage<T>(head, this, id, runOffset(id), pageSize, normCapacity);            //则将当前的下标赋值为subpage            subpages[subpageIdx] = subpage;        } else {            subpage.init(head, normCapacity);        }        //取出一个子page        return subpage.allocate();    }}

创建完了一个subpage, 我们就可以通过subpage.allocate()方法进行内存分配了

我们跟到allocate()方法中

long allocate() {     if (elemSize == 0) {        return toHandle(0);    }    if (numAvail == 0 || !doNotDestroy) {        return -1;    }    //取一个bitmap中可用的id(绝对id)    final int bitmapIdx = getNextAvail();    //除以64(bitmap的相对下标)    int q = bitmapIdx >>> 6;    //除以64取余, 其实就是当前绝对id的偏移量    int r = bitmapIdx & 63;    assert (bitmap[q] >>> r & 1) == 0;    //当前位标记为1    bitmap[q] |= 1L << r;    //如果可用的子page为0    //可用的子page-1    if (-- numAvail == 0) {        //则移除相关子page        removeFromPool();    }    //bitmapIdx转换成handler    return toHandle(bitmapIdx);}

这里的逻辑看起来比较复杂, 这里带着大家一点点剖析:

首先看:  

final int bitmapIdx = getNextAvail();

其中bitmapIdx表示从bitmap中找到一个可用的bit位的下标, 注意, 这里是bit的下标, 并不是数组的下标, 我们之前分析过, 因为每一比特位代表一个子块的内存分配情况, 通过这个下标就可以知道那个比特位是未分配状态

我们跟进这个方法:

private int getNextAvail() {    //nextAvail=0    int nextAvail = this.nextAvail;    if (nextAvail >= 0) {        //一个子page被释放之后, 会记录当前子page的bitmapIdx的位置, 下次分配可以直接通过bitmapIdx拿到一个子page        this.nextAvail = -1;        return nextAvail;    }    return findNextAvail();}

这里nextAvail, 表示下一个可用的bitmapIdx, 在释放的时候的会被标记, 标记被释放的子块对应bitmapIdx的下标, 如果<0则代表没有被释放的子块, 则通过findNextAvail方法进行查找

我们继续跟进findNextAvail方法

private int findNextAvail() {    //当前long数组    final long[] bitmap = this.bitmap;    //获取其长度    final int bitmapLength = this.bitmapLength;    for (int i = 0; i < bitmapLength; i ++) {        //第i个        long bits = bitmap[i];        //!=-1 说明64位没有全部占满        if (~bits != 0) {            //找下一个节点            return findNextAvail0(i, bits);        }    }    return -1;}

这里会遍历bitmap中的每一个元素, 如果当前元素中所有的比特位并没有全部标记被使用, 则通过findNextAvail0(i, bits)方法挨个往后找标记未使用的比特位

再继续跟findNextAvail0:

private int findNextAvail0(int i, long bits) {    //多少份    final int maxNumElems = this.maxNumElems;    //乘以64, 代表当前long的第一个下标    final int baseVal = i << 6;    //循环64次(指代当前的下标)    for (int j = 0; j < 64; j ++) {        //第一位为0(如果是2的倍数, 则第一位就是0)        if ((bits & 1) == 0) {            //这里相当于加, 将i*64之后加上j, 获取绝对下标            int val = baseVal | j;            //小于块数(不能越界)            if (val < maxNumElems) {                return val;            } else {                break;            }        }        //当前下标不为0        //右移一位        bits >>>= 1;    }    return -1;}

这里从当前元素的第一个比特位开始找, 直到找到一个标记为0的比特位, 并返回当前比特位的下标, 大概流程如下图所示:

Netty分布式ByteBuf使用subPage级别内存分配的方法

5-8-5

我们回到allocate()方法中

long allocate() {     if (elemSize == 0) {        return toHandle(0);    }    if (numAvail == 0 || !doNotDestroy) {        return -1;    }    //取一个bitmap中可用的id(绝对id)    final int bitmapIdx = getNextAvail();    //除以64(bitmap的相对下标)    int q = bitmapIdx >>> 6;    //除以64取余, 其实就是当前绝对id的偏移量    int r = bitmapIdx & 63;    assert (bitmap[q] >>> r & 1) == 0;    //当前位标记为1    bitmap[q] |= 1L << r;    //如果可用的子page为0    //可用的子page-1    if (-- numAvail == 0) {        //则移除相关子page        removeFromPool();    }    //bitmapIdx转换成handler    return toHandle(bitmapIdx);}

找到可用的bitmapIdx之后, 通过 int q = bitmapIdx >>> 6 获取bitmap中bitmapIdx所属元素的数组下标

 int r = bitmapIdx & 63  表示获取bitmapIdx的位置是从当前元素最低位开始的第几个比特位

 bitmap[q] |= 1L << r 是将bitmap的位置设置为不可用, 也就是比特位设置为1, 表示已占用

然后将可用子配置的数量numAvail减一

如果没有可用子page的数量, 则会将PoolArena中的数组tinySubpagePools所关联的subpage进行移除, 移除之后参考图5-8-1

最后通过toHandle(bitmapIdx)获取当前子块的handle, 上一小节我们知道handle指向的是当前chunk中的唯一的一块内存, 我们跟进toHandle(bitmapIdx)中:

private long toHandle(int bitmapIdx) {    return 0x4000000000000000L | (long) bitmapIdx << 32 | memoryMapIdx;}

 (long) bitmapIdx << 32 是将bitmapIdx右移32位, 而32位正好是一个int的长度, 这样, 通过 (long) bitmapIdx << 32 | memoryMapIdx 计算, 就可以将memoryMapIdx, 也就是page所属的下标的二进制数保存在 (long) bitmapIdx << 32 的低32位中

0x4000000000000000L是一个最高位是1并且所有低位都是0的二进制数, 这样通过按位或的方式可以将 (long) bitmapIdx << 32 | memoryMapIdx 计算出来的结果保存在0x4000000000000000L的所有低位中, 这样, 返回对的数字就可以指向chunk中唯一的一块内存

我们回到PoolArena的allocateNormal方法中:

private synchronized void allocateNormal(PooledByteBuf<T> buf, int reqCapacity, int normCapacity) {    //首先在原来的chunk上进行内存分配(1)    if (q050.allocate(buf, reqCapacity, normCapacity) || q025.allocate(buf, reqCapacity, normCapacity) ||        q000.allocate(buf, reqCapacity, normCapacity) || qInit.allocate(buf, reqCapacity, normCapacity) ||        q075.allocate(buf, reqCapacity, normCapacity)) {        ++allocationsNormal;        return;    }    //创建chunk进行内存分配(2)    PoolChunk<T> c = newChunk(pageSize, maxOrder, pageShifts, chunkSize);    long handle = c.allocate(normCapacity);    ++allocationsNormal;    assert handle > 0;    //初始化byteBuf(3)    c.initBuf(buf, handle, reqCapacity);     qInit.add(c);}

我们分析完了long handle = c.allocate(normCapacity)这步, 这里返回的handle就指向chunk中的某个page中的某个子块所对应的连续内存

最后, 通过iniBuf初始化之后, 将创建的chunk加到ChunkList里面

我们跟到initBuf方法中

void initBuf(PooledByteBuf<T> buf, long handle, int reqCapacity) {    int memoryMapIdx = memoryMapIdx(handle);    //bitmapIdx是后面分配subpage时候使用到的    int bitmapIdx = bitmapIdx(handle);    if (bitmapIdx == 0) {        byte val = value(memoryMapIdx);         assert val == unusable : String.valueOf(val);        //runOffset(memoryMapIdx):偏移量        //runLength(memoryMapIdx):当前节点的长度        buf.init(this, handle, runOffset(memoryMapIdx), reqCapacity, runLength(memoryMapIdx),                  arena.parent.threadCache());    } else {        initBufWithSubpage(buf, handle, bitmapIdx, reqCapacity);    }}

这部分在之前的小节我们剖析过, 相信大家不会陌生, 这里有区别的是 if (bitmapIdx == 0) 的判断, 这里的bitmapIdx不会是0, 这样, 就会走到initBufWithSubpage(buf, handle, bitmapIdx, reqCapacity)方法中

跟到initBufWithSubpage方法:

private void initBufWithSubpage(PooledByteBuf<T> buf, long handle, int bitmapIdx, int reqCapacity) {    assert bitmapIdx != 0;    int memoryMapIdx = memoryMapIdx(handle);    PoolSubpage<T> subpage = subpages[subpageIdx(memoryMapIdx)];    assert subpage.doNotDestroy;    assert reqCapacity <= subpage.elemSize;    buf.init(        this, handle,         runOffset(memoryMapIdx) + (bitmapIdx & 0x3FFFFFFF) * subpage.elemSize, reqCapacity, subpage.elemSize,         arena.parent.threadCache());}

首先拿到memoryMapIdx, 这里会将我们之前计算handle传入, 跟进去:

private static int memoryMapIdx(long handle) {    return (int) handle;}

这里将其强制转化为int类型, 也就是去掉高32位, 这样就得到memoryMapIdx

回到initBufWithSubpage方法中

我们注意在buf调用init方法中的一个参数:  runOffset(memoryMapIdx) + (bitmapIdx & 0x3FFFFFFF) * subpage.elemSize 

这里的偏移量就是, 原来page的偏移量+子块的偏移量

 bitmapIdx & 0x3FFFFFFF 代表当前分配的子page是属于第几个子page

 (bitmapIdx & 0x3FFFFFFF) * subpage.elemSize  表示在当前page的偏移量

这样, 分配的ByteBuf在内存读写的时候, 就会根据偏移量进行读写

最后我们跟到init方法中

void init(PoolChunk<T> chunk, long handle, int offset, int length, int maxLength, PoolThreadCache cache) {    //初始化    assert handle >= 0;    assert chunk != null;    //在哪一块内存上进行分配的    this.chunk = chunk;    //这一块内存上的哪一块连续内存    this.handle = handle;    memory = chunk.memory;    //偏移量    this.offset = offset;    this.length = length;    this.maxLength = maxLength;    tmpNIOBuf = null;    this.cache = cache;}

关于“Netty分布式ByteBuf使用subPage级别内存分配的方法”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识,可以关注编程网精选频道,小编每天都会为大家更新不同的知识点。

--结束END--

本文标题: Netty分布式ByteBuf使用subPage级别内存分配的方法

本文链接: https://lsjlt.com/news/325877.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

猜你喜欢
  • Netty分布式ByteBuf使用subPage级别内存分配的方法
    这篇文章主要介绍“Netty分布式ByteBuf使用subPage级别内存分配的方法”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Netty分布式ByteBuf使用subPage级别内存分配的方法”...
    99+
    2023-06-29
  • Netty分布式ByteBuf使用subPage级别内存分配剖析
    目录subPage级别内存分配我们其中是在构造方法中初始化的, 看构造方法中其初始化代码在构造方法中创建完毕之后, 会通过循环为其赋值这里通过normCapacity拿到tableI...
    99+
    2024-04-02
  • Netty分布式ByteBuf使用page级别的内存分配解析
    目录netty内存分配数据结构我们看PoolArena中有关chunkList的成员变量我们看PoolSubpage的属性我们回到PoolArena的allocate方法我们跟进al...
    99+
    2024-04-02
  • Netty分布式ByteBuf如何使用page级别的内存分配
    这篇文章主要为大家展示了“Netty分布式ByteBuf如何使用page级别的内存分配”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Netty分布式ByteBuf如何使用page级别的内存分配”...
    99+
    2023-06-29
  • Netty分布式ByteBuf怎么使用命中缓存分配
    今天小编给大家分享一下Netty分布式ByteBuf怎么使用命中缓存分配的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。分析先...
    99+
    2023-06-29
  • Netty分布式ByteBuf使用命中缓存的分配解析
    目录分析先关逻辑之前, 首先介绍缓存对象的数据结构我们以tiny类型为例跟到createSubPageCaches方法中回到PoolArena的allocate方法中我们跟到norm...
    99+
    2024-04-02
  • Netty分布式ByteBuf的分类方式源码解析
    目录ByteBuf根据不同的分类方式 会有不同的分类结果1.Pooled和Unpooled2.基于直接内存的ByteBuf和基于堆内存的ByteBuf3.safe和unsafe上一小...
    99+
    2024-04-02
  • Netty分布式ByteBuf使用directArena分配缓冲区过程解析
    目录directArena分配缓冲区回到newDirectBuffer中我们跟到newByteBuf方法中跟到reuse方法中跟到allocate方法中1.首先在缓存上进行分配2.如...
    99+
    2024-04-02
  • Netty分布式ByteBuf使用的回收逻辑剖析
    目录ByteBuf回收这里调用了release0, 跟进去我们首先分析free方法我们跟到cache中回到add方法中我们回到free方法中前文传送门:ByteBuf使用subPag...
    99+
    2024-04-02
  • Netty分布式ByteBuf使用的底层实现方式源码解析
    目录概述AbstractByteBuf属性和构造方法首先看这个类的属性和构造方法我们看几个最简单的方法我们重点关注第二个校验方法ensureWritable(length)我们跟到扩...
    99+
    2024-04-02
  • Netty分布式ByteBuf使用的回收逻辑是什么
    这篇文章主要介绍“Netty分布式ByteBuf使用的回收逻辑是什么”,在日常操作中,相信很多人在Netty分布式ByteBuf使用的回收逻辑是什么问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Netty分布...
    99+
    2023-06-29
  • Netty分布式ByteBuf使用SocketChannel读取数据过程剖析
    目录Server读取数据的流程我们首先看NioEventLoop的processSelectedKey方法这里会走到DefaultChannelConfig的getAllocator...
    99+
    2024-04-02
  • Netty分布式FastThreadLocal的set方法怎么用
    本文小编为大家详细介绍“Netty分布式FastThreadLocal的set方法怎么用”,内容详细,步骤清晰,细节处理妥当,希望这篇“Netty分布式FastThreadLocal的set方法怎么用”文章能帮助大家解决疑惑,下面跟着小编的...
    99+
    2023-06-29
  • Netty分布式NioSocketChannel注册到selector方法的示例分析
    这篇文章给大家分享的是有关Netty分布式NioSocketChannel注册到selector方法的示例分析的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。我们回到最初的NioMessageUnsafe的read...
    99+
    2023-06-29
  • Netty分布式NioEventLoop任务队列执行的方法
    这篇文章主要介绍“Netty分布式NioEventLoop任务队列执行的方法”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Netty分布式NioEventLoop任务队列执行的方法”文章能帮助大家解...
    99+
    2023-06-29
  • java内存分布的实现方法
    本篇内容主要讲解“java内存分布的实现方法”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“java内存分布的实现方法”吧!目录一、堆内内存1 年轻代-Young Generation2 老年代 ...
    99+
    2023-06-20
  • redis分布式共享内存的方法是什么
    Redis分布式共享内存的方法主要有以下几种:1. Redis Cluster:Redis Cluster是Redis官方推出的分布...
    99+
    2023-08-23
    redis
  • Netty分布式FastThreadLocal的set方法实现逻辑剖析
    目录FastThreadLocal的set方法实现线程set对象我们跟到setIndexedVariable中我们跟进removeIndexedVariable方法上一小节我们学习了...
    99+
    2024-04-02
  • Jmerte分布式压测及分布式压测配置的方法
    这篇文章主要介绍“Jmerte分布式压测及分布式压测配置的方法”,在日常操作中,相信很多人在Jmerte分布式压测及分布式压测配置的方法问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Jmerte分布式压测及分...
    99+
    2023-06-30
  • jvm内存分配的方式有哪些
    JVM内存分配的方式有以下几种: 堆(Heap):用于存储对象实例,是JVM中最大的一块内存区域。堆内存的分配和回收是由垃圾收集...
    99+
    2023-10-27
    jvm
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作