温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Golang中的sync.Pool怎么用

发布时间:2023-03-13 16:06:56 来源:亿速云 阅读:98 作者:iii 栏目:开发技术

这篇文章主要讲解了“Golang中的sync.Pool怎么用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Golang中的sync.Pool怎么用”吧!

原理分析

1.1 结构依赖关系图

Golang中的sync.Pool怎么用

下面是相关源代码,不过是已经删减了对本次分析没有用的代码.

type Pool struct {
    // GMP中,每一个P(协程调度器)会有一个数组,数组大小位localSize. 
 local     unsafe.Pointer 
 // p 数组大小.
 localSize uintptr
 New func() any
}

// poolLocal 每个P(协程调度器)的本地pool.
type poolLocal struct {
 poolLocalInternal
    // 保证一个poolLocal占用一个缓存行
 pad [128 - unsafe.Sizeof(poolLocalInternal{})%128]byte
}

type poolLocalInternal struct {
 private any       // Can be used only by the respective P. 16
 shared  poolChain // Local P can pushHead/popHead; any P can popTail. 8
}

type poolChain struct {
 head *poolChainElt
 tail *poolChainElt
}

type poolChainElt struct {
 poolDequeue
 next, prev *poolChainElt
}

type poolDequeue struct {
 // head 高32位,tail低32位.
 headTail uint64
 vals []eface
}

// 存储具体的value. 
type eface struct {
 typ, val unsafe.Pointer
}

1.2 用图让代码说话

Golang中的sync.Pool怎么用

1.3 Put过程分析

Put 过程分析比较重要,因为这里会包含pool所有依赖相关分析.

总的分析学习过程可以分为下面几个步骤:

1.获取P对应的poolLocal

2.val如何进入poolLocal下面的poolDequeue队列中的.

3.如果当前协程获取到当前P对应的poolLocal之后进行put前,协程让出CPU使用权,再次调度过来之后,会发生什么?

4.读写内存优化.

数组直接操作内存,而不经过Golang

充分利用uint64值的特性,将headtail用一个值来进行表示,减少CPU访问内存次数.

获取P对应的poolLocal

sync.Pool.local其实是一个指针,并且通过变量+结构体大小来划分内存空间,从而将这片内存直接划分为数组. Go 在Put之前会先对当前Goroutine绑定到当前P中,然后通过pid获取其在local内存地址中的歧视指针,在获取时是会进行内存分配的. 具体如下:

func (p *Pool) pin() (*poolLocal, int) {
 // 返回运行当前协程的P(协程调度器),并且设置禁止抢占.
 pid := runtime_procPin()
 s := runtime_LoadAcquintptr(&p.localSize) // load-acquire
 l := p.local                              // load-consume
 // pid < 核心数. 默认走该逻辑.
 if uintptr(pid) < s {
  return indexLocal(l, pid), pid
 }
 // 设置的P大于本机CPU核心数.
 return p.pinSlow()
}

// indexLocal 获取当前P的poolLocal指针. 
func indexLocal(l unsafe.Pointer, i int) *poolLocal {
 // l p.local指针开始位置.
 // 我猜测这里如果l为空,编译阶段会进行优化. 
 lp := unsafe.Pointer(uintptr(l) + uintptr(i)*unsafe.Sizeof(poolLocal{}))
 // uintptr真实的指针.
 // unsafe.Pointer Go对指针的封装: 用于指针和结构体互相转化.
 return (*poolLocal)(lp)
}

从上面代码我们可以看到,Go通过runtime_procPin来设置当前Goroutine独占P,并且直接通过头指针+偏移量(数组结构体大小)来进行对内存划分为数组.

Put 进入poolDequeue队列:

Go在Push时,会通过headtail来获取当前队列内元素个数,如果满了,则会重新构建一个环型队列poolChainElt,并且设置为poolChain.head,并且赋值next以及prev.

通过下面代码,我们可以看到,Go通过逻辑运算判断队列是否满的设计时非常巧妙的,如果后续我们去开发组件,也是可以这么进行设计的。

func (c *poolChain) pushHead(val any) {
 d := c.head
    // 初始化. 
 if d == nil {
  // Initialize the chain.
  const initSize = 8 // Must be a power of 2
  d = new(poolChainElt)
  d.vals = make([]eface, initSize)
  c.head = d
  // 将新构建的d赋值给tail.
  storePoolChainElt(&c.tail, d)
 }
 // 入队.
 if d.pushHead(val) {
  return
 }
 // 队列满了.
 newSize := len(d.vals) * 2
 if newSize >= dequeueLimit {
        // 队列大小默认为2的30次方. 
  newSize = dequeueLimit
 }

    // 赋值链表前后节点关系. 
 // prev.
 // d2.prev=d1.
 // d1.next=d2.
 d2 := &poolChainElt{prev: d}
 d2.vals = make([]eface, newSize)
 c.head = d2
 // next .
 storePoolChainElt(&d.next, d2)
 d2.pushHead(val)
}

// 入队poolDequeue
func (d *poolDequeue) pushHead(val any) bool {
 ptrs := atomic.LoadUint64(&d.headTail)
 head, tail := d.unpack(ptrs)
 // head 表示当前有多少元素.
 if (tail+uint32(len(d.vals)))&(1<<dequeueBits-1) == head {
  return false
 }
 // 环型队列. head&uint32(len(d.vals)-1) 表示当前元素落的位置一定在队列上.
 slot := &d.vals[head&uint32(len(d.vals)-1)]

 typ := atomic.LoadPointer(&slot.typ)
 if typ != nil {
  return false
 }

 // The head slot is free, so we own it.
 if val == nil {
  val = dequeueNil(nil)
 }
    // 向slot写入指针类型为*any,并且值为val.
 *(*any)(unsafe.Pointer(slot)) = val
    // headTail高32位++
 atomic.AddUint64(&d.headTail, 1<<dequeueBits)
 return true
}

Get实现逻辑:

其实我们看了Put相关逻辑之后,我们可能很自然的就想到了Get的逻辑,无非就是遍历链表,并且如果队列中最后一个元素不为空,则会将该元素返回,并且将该插槽赋值为空值.

感谢各位的阅读,以上就是“Golang中的sync.Pool怎么用”的内容了,经过本文的学习后,相信大家对Golang中的sync.Pool怎么用这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI