网站建设 图书,易搜网站建设,白城整站优化,常州中环做网站多少钱一 multiprocessing模块介绍 python中的多线程无法利用多核优势#xff0c;如果想要充分地使用多核CPU的资源#xff08;os.cpu_count()查看#xff09;#xff0c;在python中大部分情况需要使用多进程。Python提供了multiprocessing。 multiprocessing模块用来开启子进…一 multiprocessing模块介绍 python中的多线程无法利用多核优势如果想要充分地使用多核CPU的资源os.cpu_count()查看在python中大部分情况需要使用多进程。Python提供了multiprocessing。 multiprocessing模块用来开启子进程并在子进程中执行我们定制的任务比如函数该模块与多线程模块threading的编程接口类似。 multiprocessing模块的功能众多支持子进程、通信和共享数据、执行不同形式的同步提供了Process、Queue、Pipe、Lock等组件。 需要再次强调的一点是与线程不同进程没有任何共享状态进程修改的数据改动仅限于该进程内。 二 Process类 构造方法 Process([group [, target [, name [, args [, kwargs]]]]]) group: 线程组目前还没有实现库引用中提示必须是None target: 要执行的方法 name: 进程名 args/kwargs: 要传入方法的参数。 实例方法 is_alive()返回进程是否在运行。 join([timeout])阻塞当前上下文环境的进程程直到调用此方法的进程终止或到达指定的timeout可选参数。 start()进程准备就绪等待CPU调度 run()strat()调用run方法如果实例进程时未制定传入target这star执行t默认run()方法。 terminate()不管任务是否完成立即停止工作进程 属性 daemon和线程的setDeamon功能一样 name进程名字。 pid进程号。 三 Process类的使用 创建并开启子进程的两种方式 import time
import random
from multiprocessing import Processdef foo(name):print(%s start %name)time.sleep(random.randrange(1,6))print(%s end %name)p1 Process(targetfoo,args(Tom,)) #必须加 逗号
p2 Process(targetfoo,args(Jerry,))
p3 Process(targetfoo,args(Guido,))if __name__ __main__:p1.start()p2.start()p3.start()print(主线程) 方法一 import time
import random
from multiprocessing import Processclass Foo(Process):def __init__(self,name):super().__init__()self.name namedef run(self):print(%s start %self.name)time.sleep(random.randrange(1,6))print(%s --- end %self.name)p1 Foo(Tom)
p2 Foo(Jerry)
p3 Foo(Guido)if __name__ __main__:p1.start() #start会自动调用runp2.start()p3.start()print(主线程) 方式二 进程之间的内存空间是隔离的 from multiprocessing import Processn 100 #在windows系统中应该把全局变量定义在if __name__ __main__之上就可以了def work():global nn 0print(子进程,n)if __name__ __main__:p Process(targetwork)p.start()print(主进程,n)#结果
主进程 100
子进程 0 View Code Process对象的join方法 import time
import random
from multiprocessing import Processclass Foo(Process):def __init__(self,name):super().__init__()self.name namedef run(self):print(%s start %self.name)time.sleep(random.randrange(1,6))print(%s --- end %self.name)p Foo(Tom)if __name__ __main__:p.start()p.join(0.0001) #等待p停止,等0.0001秒就不再等了print(开始) join主进程等,等待子进程结束 import time
import random
from multiprocessing import Processdef foo(name):print(%s start %name)time.sleep(random.randrange(1,6))print(%s --- end %name)p1 Process(targetfoo,args(Tom,)) #必须加 逗号
p2 Process(targetfoo,args(Jerry,))
p3 Process(targetfoo,args(Guido,))if __name__ __main__:p1.start()p2.start()p3.start()# 疑问:既然join是等待进程结束,那么我像下面这样写,进程不就又变成串行的了吗?# 当然不是了,必须明确p.join()是让谁等# 很明显p.join()是让主线程等待p的结束卡住的是主线程而绝非进程p# 详细解析如下# 进程只要start就会在开始运行了,所以p1-p3.start()时,系统中已经有四个并发的进程了# 而我们p1.join()是在等p1结束,没错p1只要不结束主线程就会一直卡在原地,这也是问题的关键# join是让主线程等,而p1-p3仍然是并发执行的,p1.join的时候,其余p2,p3仍然在运行,等#p1.join结束,可能p2,p3,p4早已经结束了,这样p2.join,p3.join直接通过检测无需等待# 所以3个join花费的总时间仍然是耗费时间最长的那个进程运行的时间
p1.join()p2.join()p3.join()print(主线程)#上述启动进程与join进程可以简写为
p_l [p1,p2,p3]for p in p_l:p.start()for p in p_l:p.join() 有了join程序不就是串行了吗 注意在windows中Process()必须放到# if __name__ __main__:下 Since Windows has no fork, the multiprocessing module starts a new Python process and imports the calling module.
If Process() gets called upon import, then this sets off an infinite succession of new processes (or until your machine runs out of resources).
This is the reason for hiding calls to Process() insideif __name__ __main__
since statements inside this if-statement will not get called upon import.
由于Windows没有fork多处理模块启动一个新的Python进程并导入调用模块。
如果在导入时调用Process那么这将启动无限继承的新进程或直到机器耗尽资源。
这是隐藏对Process内部调用的原使用if __name__ “__main __”这个if语句中的语句将不会在导入时被调用。 解释 四 守护进程 主进程创建守护进程 其一守护进程会在主进程代码执行结束后就终止
其二守护进程内无法再开启子进程,否则抛出异常AssertionError: daemonic processes are not allowed to have children注意进程之间是互相独立的主进程代码运行结束守护进程随即终止 import time
import random
from multiprocessing import Processclass Foo(Process):def __init__(self,name):super().__init__()self.name namedef run(self):print(%s start %self.name)time.sleep(random.randrange(1,6))print(%s --- end %self.name)p Foo(Tom)if __name__ __main__:p.daemon True #一定要在p.start()前设置,设置p为守护进程,禁止p创建子进程,并且父进程代码执行结束,p即终止运行p.start()print(主进程) View Code #主进程代码运行完毕,守护进程就会结束
from multiprocessing import Process
import time
def foo():print(123)time.sleep(1)print(end123)def bar():print(456)time.sleep(3)print(end456)p1Process(targetfoo)
p2Process(targetbar)p1.daemonTrue
p1.start()
p2.start()
print(main-------) #打印该行则主进程代码结束,则守护进程p1应该被终止,可能会有p1任务执行的打印信息123,因为主进程打印main----时,p1也执行了,但是随即被终止 迷惑人的例子 五 进程同步(锁) 进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的, 而共享带来的是竞争竞争带来的结果就是错乱如何控制就是加锁处理 part1多个进程共享同一打印终端 #并发运行,效率高,但竞争同一打印终端,带来了打印错乱
from multiprocessing import Process
import os,time
def work():print(%s is running %os.getpid())time.sleep(2)print(%s is done %os.getpid())if __name__ __main__:for i in range(3):pProcess(targetwork)p.start()#结果
16924 is running
14620 is running
8640 is running
8640 is done
14620 is done
16924 is done 并发运行效率高,但竞争统一打印终端,带来了打印错乱 #由并发变成了串行,牺牲了运行效率,但避免了竞争
from multiprocessing import Process,Lock
import os,time
def work(lock):lock.acquire()print(%s is running %os.getpid())time.sleep(2)print(%s is done %os.getpid())lock.release()
if __name__ __main__:lockLock()for i in range(3):pProcess(targetwork,args(lock,))p.start()#结果
11496 is running
11496 is done
13344 is running
13344 is done
11792 is running
11792 is done 加锁由并发变成了串行牺牲了运行效率但避免了竞争 part2多个进程共享同一文件 文件当数据库模拟抢票 #文件db的内容为{count:1}
#注意一定要用双引号不然json无法识别
from multiprocessing import Process,Lock
import time,json,random
def search():dicjson.load(open(db.txt))print(\033[43m剩余票数%s\033[0m %dic[count])def get():dicjson.load(open(db.txt))time.sleep(0.1) #模拟读数据的网络延迟if dic[count] 0:dic[count]-1time.sleep(0.2) #模拟写数据的网络延迟json.dump(dic,open(db.txt,w))print(\033[43m购票成功\033[0m)def task(lock):search()get()
if __name__ __main__:lockLock()for i in range(100): #模拟并发100个客户端抢票pProcess(targettask,args(lock,))p.start() 并发运行,效率高,但竞争同一文件,数据写入错乱 #文件db的内容为{count:1}
#注意一定要用双引号不然json无法识别
from multiprocessing import Process,Lock
import time,json,random
def search():dicjson.load(open(db.txt))print(\033[43m剩余票数%s\033[0m %dic[count])def get():dicjson.load(open(db.txt))time.sleep(0.1) #模拟读数据的网络延迟if dic[count] 0:dic[count]-1time.sleep(0.2) #模拟写数据的网络延迟json.dump(dic,open(db.txt,w))print(\033[43m购票成功\033[0m)def task(lock):search()lock.acquire()get()lock.release()
if __name__ __main__:lockLock()for i in range(100): #模拟并发100个客户端抢票pProcess(targettask,args(lock,))p.start() 加锁购票行为由并发变成了串行牺牲了运行效率但保证了数据安全 总结 #加锁可以保证多个进程修改同一块数据时同一时间只能有一个任务可以进行修改即串行的修改没错速度是慢了但牺牲了速度却保证了数据安全。
虽然可以用文件共享数据实现进程间通信但问题是
1.效率低共享数据基于文件而文件是硬盘上的数据
2.需要自己加锁处理#因此我们最好找寻一种解决方案能够兼顾1、效率高多个进程共享一块内存的数据2、帮我们处理好锁问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制队列和管道。
1 队列和管道都是将数据存放于内存中
2 队列又是基于管道锁实现的可以让我们从复杂的锁问题中解脱出来
我们应该尽量避免使用共享数据尽可能使用消息传递和队列避免处理复杂的同步和锁问题而且在进程数目增多时往往可以获得更好的可获展性。 六 队列推荐使用 进程彼此之间互相隔离要实现进程间通信IPCmulitiprocessing模块支持两种形式队列和管道这两种方式都是使用消息传递的 创建队列的类底层就是以管道和锁定的方式实现 1 Queue([maxsize]):创建共享的进程队列Queue是多进程安全的队列可以使用Queue实现多进程之间的数据传递。 参数介绍 1 maxsize是队列中允许最大项数省略则无大小限制。 方法介绍 主要方法 1 q.put方法用以插入数据到队列中put方法还有两个可选参数blocked和timeout。如果blocked为True默认值并且timeout为正值该方法会阻塞timeout指定的时间直到该队列有剩余的空间。如果超时会抛出Queue.Full异常。如果blocked为False但该Queue已满会立即抛出Queue.Full异常。2 q.get方法可以从队列读取并且删除一个元素。同样get方法有两个可选参数blocked和timeout。如果blocked为True默认值并且timeout为正值那么在等待时间内没有取到任何元素会抛出Queue.Empty异常。如果blocked为False有两种情况存在如果Queue有一个值可用则立即返回该值否则如果队列为空则立即抛出Queue.Empty异常.3 q.get_nowait():同q.get(False)
4 q.put_nowait():同q.put(False)5 q.empty():调用此方法时q为空则返回True该结果不可靠比如在返回True的过程中如果队列中又加入了项目。6 q.full()调用此方法时q已满则返回True该结果不可靠比如在返回True的过程中如果队列中的项目被取走。7 q.qsize():返回队列中目前项目的正确数量结果也不可靠理由同q.empty()和q.full()一样 其他方法(了解) 1 q.cancel_join_thread():不会在进程退出时自动连接后台线程。可以防止join_thread()方法阻塞2 q.close():关闭队列防止队列中加入更多数据。调用此方法后台线程将继续写入那些已经入队列但尚未写入的数据但将在此方法完成时马上关闭。如果q被垃圾收集将调用此方法。关闭队列不会在队列使用者中产生任何类型的数据结束信号或异常。例如如果某个使用者正在被阻塞在get()操作上关闭生产者中的队列不会导致get()方法返回错误。3 q.join_thread()连接队列的后台线程。此方法用于在调用q.close()方法之后等待所有队列项被消耗。默认情况下此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread方法可以禁止这种行为 View Code 应用 from multiprocessing import Queue
q Queue(3)q.put(1)
q.put(2)
q.put(3)
print(q.full()) #满了print(q.get())
print(q.get())
print(q.get())
print(q.empty()) #空了 View Code 生产者消费者模型 在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。 为什么要使用生产者和消费者模式 在线程世界里生产者就是生产数据的线程消费者就是消费数据的线程。在多线程开发当中如果生产者处理速度很快而消费者处理速度很慢那么生产者就必须等待消费者处理完才能继续生产数据。同样的道理如果消费者的处理能力大于生产者那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。 什么是生产者消费者模式 生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯而通过阻塞队列来进行通讯所以生产者生产完数据之后不用等待消费者处理直接扔给阻塞队列消费者不找生产者要数据而是直接从阻塞队列里取阻塞队列就相当于一个缓冲区平衡了生产者和消费者的处理能力。 基于队列实现生产者消费者模型 import os
import time
import random
from multiprocessing import Process,Queuedef consumer(q):while True:res q.get()time.sleep(random.randint(1,3))print(\033[45m%s 吃 %s\033[0m %(os.getpid(),res))def producer(q):for i in range(10):time.sleep(random.randint(1,3))res 包子%s %iq.put(res)print(\033[42m%s 生产了 %s\033[0m % (os.getpid(), res))if __name__ __main__:q Queue()#生产者们即厨师们p1 Process(targetproducer,args(q,))#消费者们即吃货们c1 Process(targetconsumer,args(q,))#开始p1.start()c1.start()print(主线程) View Code #生产者消费者模型总结#程序中有两类角色一类负责生产数据生产者一类负责处理数据消费者#引入生产者消费者模型为了解决的问题是平衡生产者与消费者之间的速度差#如何实现生产者 -》队列 ——》消费者#生产者消费者模型实现类程序的解耦和 此时的问题是主进程永远不会结束原因是生产者p在生产完后就结束了但是消费者c在取空了q之后则一直处于死循环中且卡在q.get()这一步。 解决方式无非是让生产者在生产完毕后往队列中再发一个结束信号这样消费者在接收到结束信号后就可以break出死循环 import os
import time
import random
from multiprocessing import Process,Queuedef consumer(q):while True:res q.get()if res is None:break #收到结束信号则结束time.sleep(random.randint(1,3))print(\033[45m%s 吃 %s\033[0m %(os.getpid(),res))def producer(q):for i in range(10):time.sleep(random.randint(1,3))res 包子%s %iq.put(res)print(\033[42m%s 生产了 %s\033[0m % (os.getpid(), res))q.put(None) #发送结束信号if __name__ __main__:q Queue()#生产者们即厨师们p1 Process(targetproducer,args(q,))#消费者们即吃货们c1 Process(targetconsumer,args(q,))#开始p1.start()c1.start()print(主线程) 生产者在生产完毕后发送结束信号None 注意结束信号None不一定要由生产者发主进程里同样可以发但主进程需要等生产者结束后才应该发送该信号 import os
import time
import random
from multiprocessing import Process,Queuedef consumer(q):while True:res q.get()if res is None:break #收到结束信号则结束time.sleep(random.randint(1,3))print(\033[45m%s 吃 %s\033[0m %(os.getpid(),res))def producer(q):for i in range(10):time.sleep(random.randint(1,3))res 包子%s %iq.put(res)print(\033[42m%s 生产了 %s\033[0m % (os.getpid(), res))if __name__ __main__:q Queue()#生产者们即厨师们p1 Process(targetproducer,args(q,))#消费者们即吃货们c1 Process(targetconsumer,args(q,))#开始p1.start()c1.start()p1.join()q.put(None) #发送结束信号print(主线程) 主进程在生产者生产完毕后发送结束信号None 但上述解决方式在有多个生产者和多个消费者时我们则需要用一个很low的方式去解决 from multiprocessing import Process,Queue
import time,random,os
def consumer(q):while True:resq.get()if res is None:break #收到结束信号则结束time.sleep(random.randint(1,3))print(\033[45m%s 吃 %s\033[0m %(os.getpid(),res))def producer(name,q):for i in range(2):time.sleep(random.randint(1,3))res%s%s %(name,i)q.put(res)print(\033[44m%s 生产了 %s\033[0m %(os.getpid(),res))if __name__ __main__:qQueue()#生产者们:即厨师们p1Process(targetproducer,args(包子,q))p2Process(targetproducer,args(骨头,q))p3Process(targetproducer,args(泔水,q))#消费者们:即吃货们c1Process(targetconsumer,args(q,))c2Process(targetconsumer,args(q,))#开始p1.start()p2.start()p3.start()c1.start()p1.join() #必须保证生产者全部生产完毕,才应该发送结束信号p2.join()p3.join()q.put(None) #有几个消费者就应该发送几次结束信号Noneq.put(None) #发送结束信号print(主) 有几个消费者就需要发送几次结束信号相当low 其实我们的思路无非是发送结束信号而已有另外一种队列提供了这种机制 #JoinableQueue([maxsize])这就像是一个Queue对象但队列允许项目的使用者通知生成者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。#参数介绍maxsize是队列中允许最大项数省略则无大小限制。 #方法介绍JoinableQueue的实例p除了与Queue对象相同的方法之外还具有q.task_done()使用者使用此方法发出信号表示q.get()的返回项目已经被处理。如果调用此方法的次数大于从队列中删除项目的数量将引发ValueError异常q.join():生产者调用此方法进行阻塞直到队列中所有的项目均被处理。阻塞将持续到队列中的每个项目均调用q.task_done方法为止 import os
import random
import time
from multiprocessing import Process,JoinableQueuedef consumer(q):while True:resq.get()if res is None:break #收到结束信号则结束time.sleep(random.randint(1,3))print(\033[45m%s 吃 %s\033[0m %(os.getpid(),res))q.task_done() #向q.join()发送一次信号证明一个数据已经取走了def producer(name,q):for i in range(3):time.sleep(random.randint(1,3))res%s%s %(name,i)q.put(res)print(\033[44m%s 生产了 %s\033[0m %(os.getpid(),res))q.join()if __name__ __main__:qJoinableQueue()#生产者们:即厨师们p1Process(targetproducer,args(包子,q))p2Process(targetproducer,args(骨头,q))p3Process(targetproducer,args(泔水,q))#消费者们:即吃货们c1Process(targetconsumer,args(q,))c2Process(targetconsumer,args(q,))c1.daemon Truec2.daemon True#开始p_l [p1,p2,p3,c1,c2]for p in p_l:p.start()p1.join() #必须保证生产者全部生产完毕,才应该发送结束信号p2.join()p3.join()print(主)# 主进程等---p1,p2 p3等----c1,c2# p1,p2,p3结束了,证明c1,c2肯定全都收完了p1,p2,p3发到队列的数据# 因而c1,c2也没有存在的价值了,应该随着主进程的结束而结束,所以设置成守护进程 View Code 七 数据共享 展望未来基于消息传递的并发编程是大势所趋 即便是使用线程推荐做法也是将程序设计为大量独立的线程集合 通过消息队列交换数据。这样极大地减少了对使用锁定和其他同步手段的需求还可以扩展到分布式系统中 进程间通信应该尽量避免使用本节所讲的共享数据的方式 进程间数据是独立的可以借助于队列或管道实现通信二者都是基于消息传递的虽然进程间数据独立但可以通过Manager实现数据共享事实上Manager的功能远不止于此A manager object returned by Manager() controls a server process which holds Python objects and allows other processes to manipulate them using proxies.A manager returned by Manager() will support types list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value and Array. For example, from multiprocessing import Manager,Process,Lockdef work(d,lock):with lock: #不加锁而操作共享的数据,肯定会出现数据错乱d[count]-1if __name__ __main__:lockLock()with Manager() as m:dicm.dict({count:100})p_l[]for i in range(100):pProcess(targetwork,args(dic,lock))p_l.append(p)p.start()for p in p_l:p.join()print(dic) from multiprocessing import Manager,Process,Lockdef work(d,lock):with lock: #不加锁而操作共享的数据,肯定会出现数据错乱d[count]-1if __name__ __main__:lockLock()with Manager() as m:dicm.dict({count:100})p_l[]for i in range(100):pProcess(targetwork,args(dic,lock))p_l.append(p)p.start()for p in p_l:p.join()print(dic) 进程之间操作共享数据 转载于:https://www.cnblogs.com/zhaochangbo/p/7834343.html