当前位置: 首页 > news >正文

上海做高端网站制国内永久免费crm系统网站推荐

上海做高端网站制,国内永久免费crm系统网站推荐,wordpress 评论跳转,黑龙江网站建设seo优化一 multiprocessing模块介绍python中的多线程无法利用多核优势#xff0c;如果想要充分地使用多核CPU的资源(os.cpu_count()查看)#xff0c;在python中大部分情况需要使用多进程。Python提供了multiprocessing。multiprocessing模块用来开启子进程#xff0c;并在子进程中执…一 multiprocessing模块介绍python中的多线程无法利用多核优势如果想要充分地使用多核CPU的资源(os.cpu_count()查看)在python中大部分情况需要使用多进程。Python提供了multiprocessing。multiprocessing模块用来开启子进程并在子进程中执行我们定制的任务(比如函数)该模块与多线程模块threading的编程接口类似。multiprocessing模块的功能众多支持子进程、通信和共享数据、执行不同形式的同步提供了Process、Queue、Pipe、Lock等组件。需要再次强调的一点是与线程不同进程没有任何共享状态进程修改的数据改动仅限于该进程内。二 Process类的介绍创建进程的类Process([group [, target [, name [, args [, kwargs]]]]])由该类实例化得到的对象表示一个子进程中的任务(尚未启动)强调1. 需要使用关键字的方式来指定参数2. args指定的为传给target函数的位置参数是一个元组形式必须有逗号参数介绍1 group参数未使用值始终为None23 target表示调用对象即子进程要执行的任务45 args表示调用对象的位置参数元组args(1,2,egon,)67 kwargs表示调用对象的字典,kwargs{name:egon,age:18}89 name为子进程的名称方法介绍1 p.start()启动进程并调用该子进程中的p.run()2 p.run():进程启动时运行的方法正是它去调用target指定的函数我们自定义类的类中一定要实现该方法34 p.terminate():强制终止进程p不会进行任何清理操作如果p创建了子进程该子进程就成了僵尸进程使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放进而导致死锁5 p.is_alive():如果p仍然运行返回True67 p.join([timeout]):主线程等待p终止(强调是主线程处于等的状态而p是处于运行的状态)。timeout是可选的超时时间需要强调的是p.join只能join住start开启的进程而不能join住run开启的进程属性介绍1 p.daemon默认值为False如果设为True代表p为后台运行的守护进程当p的父进程终止时p也随之终止并且设定为True后p不能创建自己的新进程必须在p.start()之前设置23 p.name:进程的名称45 p.pid进程的pid67 p.exitcode:进程在运行时为None、如果为–N表示被信号N结束(了解即可)89 p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性这类连接只有在具有相同的身份验证键时才能成功(了解即可)三 Process类的使用注意在windows中Process()必须放到# if __name__ __main__:下详细解释创建并开启子进程的两种方式方法一方法二进程直接的内存空间是隔离的View Code练习1把上周所学的socket通信变成并发的形式server端多个client端这么实现有没有问题Process对象的join方法join主进程等等待子进程结束有了join程序不就是串行了吗Process对象的其他方法或属性(了解)terminate与is_alivename与pid僵尸进程与孤儿进程(了解)View Code四 守护进程主进程创建守护进程其一守护进程会在主进程代码执行结束后就终止其二守护进程内无法再开启子进程,否则抛出异常AssertionError: daemonic processes are not allowed to have children注意进程之间是互相独立的主进程代码运行结束守护进程随即终止View Code迷惑人的例子五 进程同步(锁)进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的,而共享带来的是竞争竞争带来的结果就是错乱如何控制就是加锁处理part1多个进程共享同一打印终端并发运行,效率高,但竞争同一打印终端,带来了打印错乱加锁由并发变成了串行,牺牲了运行效率,但避免了竞争part2多个进程共享同一文件文件当数据库模拟抢票并发运行效率高但竞争写同一文件数据写入错乱加锁购票行为由并发变成了串行牺牲了运行效率但保证了数据安全总结#加锁可以保证多个进程修改同一块数据时同一时间只能有一个任务可以进行修改即串行的修改没错速度是慢了但牺牲了速度却保证了数据安全。虽然可以用文件共享数据实现进程间通信但问题是1.效率低(共享数据基于文件而文件是硬盘上的数据)2.需要自己加锁处理#因此我们最好找寻一种解决方案能够兼顾1、效率高(多个进程共享一块内存的数据)2、帮我们处理好锁问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制队列和管道。1队列和管道都是将数据存放于内存中2 队列又是基于(管道锁)实现的可以让我们从复杂的锁问题中解脱出来我们应该尽量避免使用共享数据尽可能使用消息传递和队列避免处理复杂的同步和锁问题而且在进程数目增多时往往可以获得更好的可获展性。六 队列(推荐使用)进程彼此之间互相隔离要实现进程间通信(IPC)multiprocessing模块支持两种形式队列和管道这两种方式都是使用消息传递的创建队列的类(底层就是以管道和锁定的方式实现)1 Queue([maxsize]):创建共享的进程队列Queue是多进程安全的队列可以使用Queue实现多进程之间的数据传递。参数介绍1 maxsize是队列中允许最大项数省略则无大小限制。方法介绍主要方法1 q.put方法用以插入数据到队列中put方法还有两个可选参数blocked和timeout。如果blocked为True(默认值)并且timeout为正值该方法会阻塞timeout指定的时间直到该队列有剩余的空间。如果超时会抛出Queue.Full异常。如果blocked为False但该Queue已满会立即抛出Queue.Full异常。2 q.get方法可以从队列读取并且删除一个元素。同样get方法有两个可选参数blocked和timeout。如果blocked为True(默认值)并且timeout为正值那么在等待时间内没有取到任何元素会抛出Queue.Empty异常。如果blocked为False有两种情况存在如果Queue有一个值可用则立即返回该值否则如果队列为空则立即抛出Queue.Empty异常.34 q.get_nowait():同q.get(False)5 q.put_nowait():同q.put(False)67 q.empty():调用此方法时q为空则返回True该结果不可靠比如在返回True的过程中如果队列中又加入了项目。8 q.full()调用此方法时q已满则返回True该结果不可靠比如在返回True的过程中如果队列中的项目被取走。9 q.qsize():返回队列中目前项目的正确数量结果也不可靠理由同q.empty()和q.full()一样其他方法(了解)1 q.cancel_join_thread():不会在进程退出时自动连接后台线程。可以防止join_thread()方法阻塞2 q.close():关闭队列防止队列中加入更多数据。调用此方法后台线程将继续写入那些已经入队列但尚未写入的数据但将在此方法完成时马上关闭。如果q被垃圾收集将调用此方法。关闭队列不会在队列使用者中产生任何类型的数据结束信号或异常。例如如果某个使用者正在被阻塞在get()操作上关闭生产者中的队列不会导致get()方法返回错误。3 q.join_thread()连接队列的后台线程。此方法用于在调用q.close()方法之后等待所有队列项被消耗。默认情况下此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread方法可以禁止这种行为应用View Code生产者消费者模型在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。为什么要使用生产者和消费者模式在线程世界里生产者就是生产数据的线程消费者就是消费数据的线程。在多线程开发当中如果生产者处理速度很快而消费者处理速度很慢那么生产者就必须等待消费者处理完才能继续生产数据。同样的道理如果消费者的处理能力大于生产者那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。什么是生产者消费者模式生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯而通过阻塞队列来进行通讯所以生产者生产完数据之后不用等待消费者处理直接扔给阻塞队列消费者不找生产者要数据而是直接从阻塞队列里取阻塞队列就相当于一个缓冲区平衡了生产者和消费者的处理能力。基于队列实现生产者消费者模型View Code#生产者消费者模型总结#程序中有两类角色一类负责生产数据(生产者)一类负责处理数据(消费者)#引入生产者消费者模型为了解决的问题是平衡生产者与消费者之间的速度差#如何实现生产者-》队列——》消费者#生产者消费者模型实现类程序的解耦和此时的问题是主进程永远不会结束原因是生产者p在生产完后就结束了但是消费者c在取空了q之后则一直处于死循环中且卡在q.get()这一步。解决方式无非是让生产者在生产完毕后往队列中再发一个结束信号这样消费者在接收到结束信号后就可以break出死循环生产者在生产完毕后发送结束信号None注意结束信号None不一定要由生产者发主进程里同样可以发但主进程需要等生产者结束后才应该发送该信号主进程在生产者生产完毕后发送结束信号None但上述解决方式在有多个生产者和多个消费者时我们则需要用一个很low的方式去解决有几个消费者就需要发送几次结束信号相当low其实我们的思路无非是发送结束信号而已有另外一种队列提供了这种机制#JoinableQueue([maxsize])这就像是一个Queue对象但队列允许项目的使用者通知生成者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。#参数介绍maxsize是队列中允许最大项数省略则无大小限制。#方法介绍JoinableQueue的实例p除了与Queue对象相同的方法之外还具有q.task_done()使用者使用此方法发出信号表示q.get()的返回项目已经被处理。如果调用此方法的次数大于从队列中删除项目的数量将引发ValueError异常q.join():生产者调用此方法进行阻塞直到队列中所有的项目均被处理。阻塞将持续到队列中的每个项目均调用q.task_done()方法为止View Code七 管道进程间通信(IPC)方式二管道(不推荐使用了解即可)介绍基于管道实现进程间通信(与队列的方式是类似的队列就是管道加锁实现的)注意生产者和消费者都没有使用管道的某个端点就应该将其关闭如在生产者中关闭管道的右端在消费者中关闭管道的左端。如果忘记执行这些步骤程序可能再消费者中的recv()操作上挂起。管道是由操作系统进行引用计数的,必须在所有进程中关闭管道后才能生产EOFError异常。因此在生产者中关闭管道不会有任何效果付费消费者中也关闭了相同的管道端点。管道可以用于双向通信利用通常在客户端/服务器中使用的请求响应模型或远程过程调用就可以使用管道编写与进程交互的程序八 共享数据展望未来基于消息传递的并发编程是大势所趋即便是使用线程推荐做法也是将程序设计为大量独立的线程集合通过消息队列交换数据。这样极大地减少了对使用锁定和其他同步手段的需求还可以扩展到分布式系统中进程间通信应该尽量避免使用本节所讲的共享数据的方式进程间数据是独立的可以借助于队列或管道实现通信二者都是基于消息传递的虽然进程间数据独立但可以通过Manager实现数据共享事实上Manager的功能远不止于此A manager object returned by Manager() controls a server process which holds Python objectsandallows other processes to manipulate them using proxies.A manager returned by Manager() will support types list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Valueand Array. For example,进程之间操作共享的数据九 信号量(了解)信号量Semahpore(同线程一样)十 事件(了解)Event(同线程一样)十一 进程池在利用Python进行系统管理的时候特别是同时操作多个文件目录或者远程控制多台主机并行操作可以节约大量的时间。多进程是实现并发的手段之一需要注意的问题是很明显需要并发执行的任务通常要远大于核数一个操作系统不可能无限开启进程通常有几个核就开几个进程进程开启过多效率反而会下降(开启进程是需要占用系统资源的而且开启多余核数目的进程也无法做到并行)例如当被操作对象数目不大时可以直接利用multiprocessing中的Process动态成生多个进程十几个还好但如果是上百个上千个。。。手动的去限制进程数量却又太过繁琐此时可以发挥进程池的功效。我们就可以通过维护一个进程池来控制进程数目比如httpd的进程模式规定最小进程数和最大进程数...ps对于远程过程调用的高级应用程序而言应该使用进程池Pool可以提供指定数量的进程供用户调用当有新的请求提交到pool中时如果池还没有满那么就会创建一个新的进程用来执行该请求但如果池中的进程数已经达到规定最大值那么该请求就会等待直到池中有进程结束就重用进程池中的进程。创建进程池的类如果指定numprocess为3则进程池会从无到有创建三个进程然后自始至终使用这三个进程去执行所有任务不会开启其他进程1 Pool([numprocess [,initializer [, initargs]]]):创建进程池参数介绍1 numprocess:要创建的进程数如果省略将默认使用cpu_count()的值2 initializer是每个工作进程启动时要执行的可调用对象默认为None3 initargs是要传给initializer的参数组方法介绍主要方法1 p.apply(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。需要强调的是此操作并不会在所有池工作进程中并执行func函数。如果要通过不同参数并发地执行func函数必须从不同线程调用p.apply()函数或者使用p.apply_async()2 p.apply_async(func [, args [, kwargs]]):在一个池工作进程中执行func(*args,**kwargs),然后返回结果。此方法的结果是AsyncResult类的实例callback是可调用对象接收输入参数。当func的结果变为可用时将理解传递给callback。callback禁止执行任何阻塞操作否则将接收其他异步操作中的结果。34 p.close():关闭进程池防止进一步操作。如果所有操作持续挂起它们将在工作进程终止前完成5 P.jion():等待所有工作进程退出。此方法只能在close()或teminate()之后调用其他方法(了解部分)方法apply_async()和map_async()的返回值是AsyncResul的实例obj。实例具有以下方法obj.get():返回结果如果有必要则等待结果到达。timeout是可选的。如果在指定时间内还没有到达将引发一场。如果远程操作中引发了异常它将在调用此方法时再次被引发。obj.ready():如果调用完成返回Trueobj.successful():如果调用完成且没有引发异常返回True如果在结果就绪之前调用此方法引发异常obj.wait([timeout]):等待结果变为可用。obj.terminate()立即终止所有工作进程同时不执行任何清理或结束任何挂起工作。如果p被垃圾回收将自动调用此函数View Code应用from multiprocessing importPoolimportos,timedefwork(n):print(%s run %os.getpid())time.sleep(3)return n**2if __name__ __main__:pPool(3) #进程池中从无到有创建三个进程,以后一直是这三个进程在执行任务res_l[]for i in range(10):resp.apply(work,args(i,)) #同步调用直到本次任务执行完毕拿到res等待任务work执行的过程中可能有阻塞也可能没有阻塞但不管该任务是否存在阻塞同步调用都会在原地等着只是等的过程中若是任务发生了阻塞就会被夺走cpu的执行权限res_l.append(res)print(res_l)同步调用applyfrom multiprocessing importPoolimportos,timedefwork(n):print(%s run %os.getpid())time.sleep(3)return n**2if __name__ __main__:pPool(3) #进程池中从无到有创建三个进程,以后一直是这三个进程在执行任务res_l[]for i in range(10):resp.apply_async(work,args(i,)) #同步运行,阻塞、直到本次任务执行完毕拿到resres_l.append(res)#异步apply_async用法如果使用异步提交的任务主进程需要使用jion等待进程池内任务都处理完然后可以用get收集结果否则主进程结束进程池可能还没来得及执行也就跟着一起结束了p.close()p.join()for res inres_l:print(res.get()) #使用get来获取apply_aync的结果,如果是apply,则没有get方法,因为apply是同步执行,立刻获取结果,也根本无需get异步调用apply_async#一使用进程池(异步调用,apply_async)#coding: utf-8from multiprocessing importProcess,Poolimporttimedeffunc(msg):print( msg:, msg)time.sleep(1)returnmsgif __name__ __main__:pool Pool(processes 3)res_l[]for i in range(10):msg hello %d %(i)respool.apply_async(func, (msg, )) #维持执行的进程总数为processes当一个进程执行完毕后会添加新的进程进去res_l.append(res)print() #没有后面的join或get则程序整体结束进程池中的任务还没来得及全部执行完也都跟着主进程一起结束了pool.close()#关闭进程池防止进一步操作。如果所有操作持续挂起它们将在工作进程终止前完成pool.join() #调用join之前先调用close函数否则会出错。执行完close后不会有新的进程加入到pool,join函数等待所有子进程结束print(res_l) #看到的是对象组成的列表,而非最终的结果,但这一步是在join后执行的,证明结果已经计算完毕,剩下的事情就是调用每个对象下的get方法去获取结果for i inres_l:print(i.get()) #使用get来获取apply_aync的结果,如果是apply,则没有get方法,因为apply是同步执行,立刻获取结果,也根本无需get#二使用进程池(同步调用,apply)#coding: utf-8from multiprocessing importProcess,Poolimporttimedeffunc(msg):print( msg:, msg)time.sleep(0.1)returnmsgif __name__ __main__:pool Pool(processes 3)res_l[]for i in range(10):msg hello %d %(i)respool.apply(func, (msg, )) #维持执行的进程总数为processes当一个进程执行完毕后会添加新的进程进去res_l.append(res) #同步执行即执行完一个拿到结果再去执行另外一个print()pool.close()pool.join()#调用join之前先调用close函数否则会出错。执行完close后不会有新的进程加入到pool,join函数等待所有子进程结束print(res_l) #看到的就是最终的结果组成的列表for i in res_l: #apply是同步的所以直接得到结果没有get()方法print(i)详解apply_async与apply练习2使用进程池维护固定数目的进程(重写练习1)#Pool内的进程数默认是cpu核数假设为4(查看方法os.cpu_count())#开启6个客户端会发现2个客户端处于等待状态#在每个进程内查看pid会发现pid使用为4个即多个客户端公用4个进程from socket import *from multiprocessing importPoolimportosserversocket(AF_INET,SOCK_STREAM)server.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)server.bind((127.0.0.1,8080))server.listen(5)deftalk(conn,client_addr):print(进程pid: %s %os.getpid())whileTrue:try:msgconn.recv(1024)if not msg:breakconn.send(msg.upper())exceptException:breakif __name__ __main__:pPool()whileTrue:conn,client_addrserver.accept()p.apply_async(talk,args(conn,client_addr))#p.apply(talk,args(conn,client_addr)) #同步的话则同一时间只有一个客户端能访问server端from socket import *clientsocket(AF_INET,SOCK_STREAM)client.connect((127.0.0.1,8080))whileTrue:msginput(:).strip()if not msg:continueclient.send(msg.encode(utf-8))msgclient.recv(1024)print(msg.decode(utf-8))客户端发现并发开启多个客户端服务端同一时间只有3个不同的pid干掉一个客户端另外一个客户端才会进来被3个进程之一处理回掉函数需要回调函数的场景进程池中任何一个任务一旦处理完了就立即告知主进程我好了额你可以处理我的结果了。主进程则调用一个函数去处理该结果该函数即回调函数我们可以把耗时间(阻塞)的任务放到进程池中然后指定回调函数(主进程负责执行)这样主进程在执行回调函数时就省去了I/O的过程直接拿到的是任务的结果。from multiprocessing importPoolimportrequestsimportjsonimportosdefget_page(url):print( get %s %(os.getpid(),url))responerequests.get(url)if respone.status_code 200:return {url:url,text:respone.text}defpasrse_page(res):print( parse %s %(os.getpid(),res[url]))parse_resurl: size:[%s]\n %(res[url],len(res[text]))with open(db.txt,a) as f:f.write(parse_res)if __name__ __main__:urls[https://www.baidu.com,https://www.python.org,https://www.openstack.org,https://help.github.com/,http://www.sina.com.cn/]pPool(3)res_l[]for url inurls:resp.apply_async(get_page,args(url,),callbackpasrse_page)res_l.append(res)p.close()p.join()print([res.get() for res in res_l]) #拿到的是get_page的结果,其实完全没必要拿该结果,该结果已经传给回调函数处理了打印结果: get https://www.baidu.com get https://www.python.org get https://www.openstack.org get https://help.github.com/ parse https://www.baidu.com get http://www.sina.com.cn/ parse https://www.python.org parse https://help.github.com/ parse http://www.sina.com.cn/ parse https://www.openstack.org[{url: https://www.baidu.com, text: \r\n...,...}]View Codefrom multiprocessing importPoolimporttime,randomimportrequestsimportredefget_page(url,pattern):responserequests.get(url)if response.status_code 200:return(response.text,pattern)defparse_page(info):page_content,patterninforesre.findall(pattern,page_content)for item inres:dic{index:item[0],title:item[1],actor:item[2].strip()[3:],time:item[3][5:],score:item[4]item[5]}print(dic)if __name__ __main__:pattern1re.compile(r.*?board-index.*?(\d).(.*?).(.*?).(.*?).(.*?)url_dic{http://maoyan.com/board/7:pattern1,}pPool()res_l[]for url,pattern inurl_dic.items():resp.apply_async(get_page,args(url,pattern),callbackparse_page)res_l.append(res)for i inres_l:i.get()#resrequests.get(http://maoyan.com/board/7)#print(re.findall(pattern,res.text))爬虫案例如果在主进程中等待进程池中所有任务都执行完毕后再统一处理结果则无需回调函数from multiprocessing importPoolimporttime,random,osdefwork(n):time.sleep(1)return n**2if __name__ __main__:pPool()res_l[]for i in range(10):resp.apply_async(work,args(i,))res_l.append(res)p.close()p.join()#等待进程池中所有进程执行完毕nums[]for res inres_l:nums.append(res.get())#拿到所有结果print(nums) #主进程拿到所有的处理结果,可以在主进程中进行统一进行处理View Code
http://wiki.neutronadmin.com/news/138406/

相关文章:

  • 网站颜色搭配网站做外贸网站好的公司
  • 网站开发的结论正规制作网站公司
  • 网页设计模板html代码网站seo资讯
  • 东莞网站seo公司机械外贸网站建设
  • 广州网站开发创意设计公司免费医疗网站模板
  • asp做网站技术怎样识别不出来是wordpress
  • 沈阳做网站价格网站平台建设什么意思
  • 装修网站cms长沙互联网推广公司
  • 企业标准网站模板wordpress主题背景图
  • 企业开展网站建设WordPress勾选评论
  • 装修第三方平台网站建设张雪峰不建议报的计算机
  • 网站域名哪些后缀更好做网站月收入
  • 电子商务网站订单功能用seo对网站做分析
  • 淘客软件自动做网站微信h5用什么软件制作
  • 爱南宁app下载官网中小学一键优化软件
  • 网站建设与管理是什么vue本地访问服务器跨域
  • 建设厅网站如何查询企业信息网国家免费技能培训有哪些
  • xx旅行社网站建设方案 企网站技术解决方案为申请虚拟主机开发公司个人工作总结
  • 建设一个网站引言优化大师最新版本
  • 南昌门户网站wordpress菜单项目边距和填充
  • 沈阳网站定制开发centos 7.2 wordpress
  • asp.net网站备份做购物商城网站
  • 咸阳网站开发公司地址量品定制
  • 沈阳网站提升排名平台建站
  • 网站开发盈利wordpress 最好的编辑器
  • cad做彩图那个网站应用好用织梦cms零基础做网站
  • dedecms做手机网站莱芜网站建设公众号建设
  • 上海平台网站建设费用免费设计logo图标生成器
  • 中国石油大学网页设计与网站建设塑胶包装东莞网站建设
  • 南京网站建设公司哪家好简易动漫网站模板