Python 官方文档:入门教程 => 点击学习
目录进程间通讯队列Queue管道Pipe进程池Pool在《多进程并发与同步》中介绍了进程创建与信息共享,除此之外python还提供了更方便的进程间通讯方式。 进程间通讯 multip
在《多进程并发与同步》中介绍了进程创建与信息共享,除此之外python还提供了更方便的进程间通讯方式。
multiprocessing中提供了Pipe(一对一)和Queue(多对多)用于进程间通讯。
队列是一个可用于进程间共享的Queue(内部使用pipe与锁),其接口与普通队列类似:
put(obj[, block[, timeout]])
:插入数据到队列(默认阻塞,且没有超时时间);
get([block[, timeout]])
:读取并删除一个元素;
qsize()
:返回一个近似队列长度(因多进程原因,长度会有误差);
empty()/full()
:队列空或慢(因多进程原因,会有误差);
close()
:关闭队列;
当主进程(创建Queue的)关闭队列时,子进程中的队列并没有关闭,所以getElement进程会一直阻塞等待(为保证能正常退出,需要设为后台进程):
def putElement(name, qu: multiprocessing.Queue):
try:
for i in range(10):
qu.put(f"{name}-{i + 1}")
time.sleep(.1)
except ValueError:
print("queue closed")
print(f"{name}: put complete")
def getElement(name, qu: multiprocessing.Queue):
try:
while True:
r = qu.get()
print(f"{name} recv: {r}")
except ValueError:
print("queue closed")
print(f"{name}: get complete")
if __name__ == '__main__':
qu = multiprocessing.Queue(100)
puts = [multiprocessing.Process(target=putElement, args=(f"send{i}", qu)) for i in range(10)]
gets = [multiprocessing.Process(target=getElement, args=(f"recv{i}", qu), daemon=True) for i in range(2)]
list(map(lambda f: f.start(), puts))
list(map(lambda f: f.start(), gets))
for f in puts:
f.join()
print("To close")
qu.close() # 只是main中的close了,其他进程中的并没有
multiprocessing.Pipe([duplex])
返回一个连接对象对(conn1, conn2)
。若duplex为True(默认),创建的是双向管道;否则conn1只能用于接收消息,conn2只能用于发送消息:
进程间的Pipe基于fork机制建立:
def pipeProc(pipe):
outPipe, inPipe = pipe
inPipe.close() # 必须关闭,否则结束时不会收到EOFError异常
try:
while True:
r = outPipe.recv()
print("Recv:", r)
except EOFError:
print("RECV end")
if __name__ == '__main__':
outPipe, inPipe = multiprocessing.Pipe()
sub = multiprocessing.Process(target=pipeProc, args=((outPipe, inPipe),))
sub.start()
outPipe.close() # 必须在进程成功运行后,才可关闭
with inPipe:
for x in range(10):
inPipe.send(x)
time.sleep(.1)
print("send complete")
sub.join()
虽然使用多进程能提高效率,但进程的创建与销毁会消耗较长时间;同时,过多进程会引起频繁的调度,也增加了开销。
进程池中有固定数量的进程:
multiprocessing.Pool([processes[, initializer[, initargs]]])
os.cpu_count()
个),在需要时才会创建;Pool类中主要方法:
apply(func[, args[, kwds]])
:以阻塞方式,从池中获取进程并执行func(*args,**kwargs)
;apply_async(func[, args[, kwds[, callback[, error_callback]]]])
:异步方式(从池中获取一个进程)执行func(*args,**kwargs)
,返回AsyncResult;map(func, iterable[, chunksize])/map_async
:map的并行版本(可同时处理多个任务),异步时返回MapResult;starmap(func, iterable[, chunksize])/starmap_async
:与map的区别是允许传入多个参数;imap(func, iterable[, chunksize])
:map的惰性版本(返回结果是可迭代对象),内存消耗会低些,返回迭代器IMapiterator;imap_unordered(func, iterable[, chunksize])
:imap返回的结果顺序与map顺序是相同的,而此方法返回的顺序是乱序的(不依次等待每个任务完成,先完成的先返回),返回迭代器IMapIterator;close()
:关闭,禁止继续提交任务(已提交任务会继续执行完成);terminate()
:立即终止所有任务;join()
:等待工作进程完成(必须已close或terminate了);def poolWorker():
print(f"worker in process {os.getpid()}")
time.sleep(1)
def poolWorkerOne(name):
print(f"worker one {name} in process {os.getpid()}")
time.sleep(random.random())
return name
def poolWorkerTwo(first, second):
res = first + second
print(f"worker two {res} in process {os.getpid()}")
time.sleep(1./(first+1))
return res
def poolInit():
print("pool init")
if __name__ == '__main__':
workers = multiprocessing.Pool(5, poolInit) # poolInit会被调用5次(线程启动时)
with workers:
for i in range(5):
workers.apply_async(poolWorker)
arg = [(i, i) for i in range(10)]
workers.map_async(poolWorkerOne, arg)
results = workers.starmap_async(poolWorkerTwo, arg) # 每个元素(元组)会被拆分为独立的参数
print("Starmap:", results.get())
results = workers.imap_unordered(poolWorkerOne, arg)
for r in results: # r是乱序的(若使用imap,则与输入arg的顺序相同)
print("Unordered:", r)
# 必须保证workers已close了
workers.join()
到此这篇关于Python进程间通讯与进程池超详细讲解的文章就介绍到这了,更多相关Python进程间通讯内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!
--结束END--
本文标题: Python进程间通讯与进程池超详细讲解
本文链接: https://lsjlt.com/news/175625.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-03-01
2024-03-01
2024-03-01
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
2024-02-29
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0