目录前言一、使用带缓冲的通道限制并发数1.1方案详情1.2评估总结2.2评估总结其它前言 在使用协程并发处理某些任务时, 其并发数量往往因为各种因素的限制不能无限的增大. 例如网络请
在使用协程并发处理某些任务时, 其并发数量往往因为各种因素的限制不能无限的增大. 例如网络请求、数据库查询等等。从运行效率角度考虑,在相关服务可以负载的前提下(限制最大并发数),尽可能高的并发。本文就这个问题探寻一下解决方案和实现。共两种思路,一是使用带缓冲的通道实现,二是使用锁实现。
先上代码如下, 逻辑很简单.
package Golimit
type GoLimit struct {
ch chan int
}
func NewGoLimit(max int) *GoLimit {
return &GoLimit{ch: make(chan int, max)}
func (g *GoLimit) Add() {
g.ch <- 1
func (g *GoLimit) Done() {
<-g.ch
按允许最大并发数创建一个带缓冲的通道, 创建协程之前调用Add()往通道里写一个数据, 协程完成是调用Done()方法读取一个数据. 若无法往通道里写数据时, 表示通道已经写满, 也就是目前的协程并发数为允许的最大数量. Add()方法将被阻塞, 也就无法创建新的协程. 直到有协程运行完成, 调用Done()方法读取了通道了一个数据.
以下是使用示例
package main
import (
"golimit"
"log"
"time"
)
func main() {
log.Println("开始测试...")
g := golimit.NewGoLimit(2) //max_num(最大允许并发数)设置为2
for i := 0; i < 10; i++ {
//尝试增加一个协程, 若已达到最大并发数,将阻塞
g.Add()
go func(g *golimit.GoLimit, i int) {
defer g.Done() //一个并发协程已经完成
time.Sleep(time.Second * 2)
log.Println(i, "done")
}(g, i)
}
log.Println("循环结束")
time.Sleep(time.Second * 3)//等待执行完成
log.Println("测试结束")
}
优点:此方案的实现逻辑简单明了,易理解、易维护。若能满足需求,在一般的场景下,此方案为首选。
隐忧:使用通道的缓冲区的大小来表示最大可并发数,在允许并发数较大,如几千几万甚至更大的情况下,通道的性能和内存的负载是否会有问题,我不太清楚,若哪位朋友知道请告知一下。
不足:运行中难以调整最大可并发数。而在某些场景下是有这种需求的,如A服务依赖的B服务有扩容或缩减,但A服务不能停止,需要调整请求B服务接口的最大可并发数。二、使用锁实现协程并发数量限制2.1方案详情
同样先上代码(注:此代码我已经在GitHub上开源https://github.com/zh-five/golimit)
// 协程并发数限制库
package golimit
import (
"sync"
)
type GoLimit struct {
max uint //并发最大数量
count uint //当前已有并发数
isAddLock bool //是否已锁定增加
zeroChan chan interface{} //为0时广播
addLock sync.Mutex //(增加并发数的)锁
dataLock sync.Mutex //(修改数据的)锁
}
func NewGoLimit(max uint) *GoLimit {
return &GoLimit{max: max, count: 0, isAddLock: false, zeroChan: nil}
}
//并发计数加1.若 计数>=max_num, 则阻塞,直到 计数<max_num
func (g *GoLimit) Add() {
g.addLock.Lock()
g.dataLock.Lock()
g.count += 1
if g.count < g.max { //未超并发时解锁,后续可以继续增加
g.addLock.Unlock()
} else { //已到最大并发数, 不解锁并标记. 等数量减少后解锁
g.isAddLock = true
}
g.dataLock.Unlock()
}
//并发计数减1
//若计数<max_num, 可以使原阻塞的Add()快速解除阻塞
func (g *GoLimit) Done() {
g.dataLock.Lock()
g.count -= 1
//解锁
if g.isAddLock == true && g.count < g.max {
g.isAddLock = false
g.addLock.Unlock()
}
//0广播
if g.count == 0 && g.zeroChan != nil {
close(g.zeroChan)
g.zeroChan = nil
}
g.dataLock.Unlock()
}
//更新最大并发计数为, 若是调大, 可以使原阻塞的Add()快速解除阻塞
func (g *GoLimit) SetMax(n uint) {
g.dataLock.Lock()
g.max = n
//解锁
if g.isAddLock == true && g.count < g.max {
g.isAddLock = false
g.addLock.Unlock()
}
//加锁
if g.isAddLock == false && g.count >= g.max {
g.isAddLock = true
g.addLock.Lock()
}
g.dataLock.Unlock()
}
//若当前并发计数为0, 则快速返回; 否则阻塞等待,直到并发计数为0
func (g *GoLimit) WaitZero() {
g.dataLock.Lock()
//无需等待
if g.count == 0 {
g.dataLock.Unlock()
return
}
//无广播通道, 创建一个
if g.zeroChan == nil {
g.zeroChan = make(chan interface{})
}
//复制通道后解锁, 避免从nil读数据
c := g.zeroChan
g.dataLock.Unlock()
<-c
}
//获取并发计数
func (g *GoLimit) Count() uint {
return g.count
}
//获取最大并发计数
func (g *GoLimit) Max() uint {
return g.max
}
总共使用了两把锁,一把是数据锁(dataLock),用来锁定数据,保证数据修改安全,加锁解锁是在修改数据前后进行的;另一把是增加能否增加协程的锁(addLock),增加协程时必须先加锁,加锁成功后修改并发数,若并发数小于最大可并发数,则解锁,否则不解锁,促使后续增加协程的加锁操作阻塞,从而限制协程的并发数。使用示例如下:
package main
import (
"github.com/zh-five/golimit"
"log"
"time"
)
func main() {
log.Println("开始测试...")
g := golimit.NewGoLimit(2) //max_num(最大允许并发数)设置为2
for i := 0; i < 10; i++ {
//并发计数加1.若 计数>=max_num, 则阻塞,直到 计数<max_num
g.Add()
//运行过程中可以随时修改最大可并发数据
//g.SetMax(3)
go func(g *golimit.GoLimit, i int) {
defer g.Done() //并发计数减1
time.Sleep(time.Second * 2)
log.Println(i, "done")
}(g, i)
}
log.Println("循环结束")
g.WaitZero() //阻塞, 直到所有并发都完成
log.Println("测试结束")
}
方案2的GoLimit除了增加了SetMax()方法用于修改最大可并发数。出于好玩和偷懒增加了一个WaitZero()方法(其实外部使用sync.WaitGroup也可以快速实现此功能),用于阻塞等待所有并发协程都执行完成。大约可以用于如下场景:有一大批url需要有限制的并发采集数据,主程序里只需要简单的调用一下WaitZero()方法,就可以阻塞等等所有采集的协程完成。
其实我很想对比测试一下两种方案的性能,特别是最大可并发比较大时。但我一直没有找到一种好的测试方法,若哪个朋友有方法或思路,欢迎交流。
到此这篇关于go语言限制协程并发数的方案详情的文章就介绍到这了,更多相关go限制协程并发数内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!
--结束END--
本文标题: go语言限制协程并发数的方案详情
本文链接: https://lsjlt.com/news/163582.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-04-05
2024-04-05
2024-04-05
2024-04-04
2024-04-05
2024-04-05
2024-04-05
2024-04-05
2024-04-04
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0