博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
进击的Python【第十章】:Python的高级应用(多进程,进程间通信,协程与异步,牛逼的IO多路复用)...
阅读量:6827 次
发布时间:2019-06-26

本文共 13736 字,大约阅读时间需要 45 分钟。

Python的socket高级应用(多进程,协程与异步)

一、多进程multiprocessing

 is a package that supports spawning processes using an API similar to the  module. The  package offers both local and remote concurrency, effectively side-stepping the  by using subprocesses instead of threads. Due to this, the  module allows the programmer to fully leverage multiple processors on a given machine. It runs on both Unix and Windows.

多进程是一个支持使用类似于线程模块的API来支持生成进程的包。多进程包提供本地和远程并发性,通过使用子进程代替线程,有效地避免了全局解释器锁。由于这个原因,多进程模块允许程序员在给定的机器上充分利用多个处理器。它在Unix和Windows上运行。

一个简单的使用栗子:

from multiprocessing import Processimport timedef f(name):    time.sleep(2)    print('hello', name) if __name__ == '__main__':    p = Process(target=f, args=('bob',))    p.start()    p.join()

上面是用多进程执行了一遍函数,效果和单进程并没什么不同,都是等待了2s,下面我们看看执行多次

from multiprocessing import Processimport timedef f(name):    time.sleep(2)    print('hello', name) if __name__ == '__main__':    for i in range(10):        p = Process(target=f, args=('bob',))        p.start()        p.join()

结果显示执行了10次函数等待之间依旧2s,如果是单线程可想而知就是2*10s了。

为了展示父进程与子进程之间的关系,下面的栗子可以直观看到:

from multiprocessing import Processimport os def info(title):    print(title)    print('module name:', __name__)    print('parent process:', os.getppid())    print('process id:', os.getpid())    print("\n\n") def f(name):    info('\033[31;1mfunction f\033[0m')    print('hello', name) if __name__ == '__main__':    info('\033[32;1mmain process line\033[0m')    p = Process(target=f, args=('bob',))    p.start()    p.join()

 

二、进程间通信

不同进程间内存是不共享的,要想实现两个进程间的数据交换,可以用以下方法:

Queues

使用方法跟threading里的queue差不多

from multiprocessing import Process, Queue def f(q):    q.put([42, None, 'hello']) if __name__ == '__main__':    q = Queue()    p = Process(target=f, args=(q,))    p.start()    print(q.get())    # prints "[42, None, 'hello']"    p.join()

这里注意,看似好像主进程与子进程共用一个queue,然而并不是,其实是子进程clone了一个queue,有的骚年就说了,那不就是俩queue了,怎么同步俩queue的数据啊,实际是用pickle进行序列化,一个queue先序列化后,给另一个queue反序列化进行数据传递。

 

Pipes

顾名思义,管道,其实就是像一根电话线,一人拿这头,一人拿另一头,互相通信

from multiprocessing import Process, Pipe def f(conn):    conn.send([42, None, 'hello'])    conn.close() if __name__ == '__main__':    parent_conn, child_conn = Pipe()    p = Process(target=f, args=(child_conn,))    p.start()    print(parent_conn.recv())   # prints "[42, None, 'hello']"    p.join()

 

Managers

queue和pipes只是数据的传递,不是真正的数据共享,manager就厉害了,能实现真正的数据共享

A manager object returned by Manager() controls a server process which holds Python objects and allows other processes to manipulate them using proxies.

A manager returned by Manager() will support types , , , , , , , , , , ,  and . For example,

from multiprocessing import Process, Manager def f(d, l):    d[1] = '1'    d['2'] = 2    d[0.25] = None    l.append(1)    print(l) if __name__ == '__main__':    with Manager() as manager:        d = manager.dict()         l = manager.list(range(5))        p_list = []        for i in range(10):            p = Process(target=f, args=(d, l))            p.start()            p_list.append(p)        for res in p_list:            res.join()         print(d)        print(l)

 

进程同步

进程其实也有锁,他这个锁其实是屏幕锁,就是输出锁,多个进程输出内容时,有可能会打印乱,这个锁就是为了解决这个问题。

from multiprocessing import Process, Lock def f(l, i):    l.acquire()    try:        print('hello world', i)    finally:        l.release() if __name__ == '__main__':    lock = Lock()     for num in range(10):        Process(target=f, args=(lock, num)).start()

  

三、协程

协程在手,说走就走,咳咳。好了,这个协程就厉害了,先了解概念。

协程,又称微线程,纤程。英文名Coroutine。一句话说明什么是线程:协程是一种用户态的轻量级线程

协程拥有自己的寄存器上下文和栈。协程调度切换时,将寄存器上下文和栈保存到其他地方,在切回来的时候,恢复先前保存的寄存器上下文和栈。因此:

协程能保留上一次调用时的状态(即所有局部状态的一个特定组合),每次过程重入时,就相当于进入上一次调用的状态,换种说法:进入上一次离开时所处逻辑流的位置。

 

协程的好处:

  • 无需线程上下文切换的开销
  • 无需原子操作锁定及同步的开销
  • "原子操作(atomic operation)是不需要synchronized",所谓原子操作是指不会被线程调度机制打断的操作;这种操作一旦开始,就一直运行到结束,中间不会有任何 context switch (切换到另一个线程)。原子操作可以是一个步骤,也可以是多个操作步骤,但是其顺序是不可以被打乱,或者切割掉只执行部分。视作整体是原子性的核心。
  • 方便切换控制流,简化编程模型
  • 高并发+高扩展性+低成本:一个CPU支持上万的协程都不是问题。所以很适合用于高并发处理。

缺点:

  • 无法利用多核资源:协程的本质是个单线程,它不能同时将 单个CPU 的多个核用上,协程需要和进程配合才能运行在多CPU上.当然我们日常所编写的绝大部分应用都没有这个必要,除非是cpu密集型应用。
  • 进行阻塞(Blocking)操作(如IO时)会阻塞掉整个程序

使用yield实现协程操作例子:

import timeimport queuedef consumer(name):    print("--->starting eating baozi...")    while True:        new_baozi = yield        print("[%s] is eating baozi %s" % (name,new_baozi))        #time.sleep(1) def producer():     r = con.__next__() # 一开始带yield的函数实例化时只是变成生成器,并不执行,用__next__来执行下一步    r = con2.__next__()    n = 0    while n < 5:        n +=1        con.send(n)        con2.send(n)        print("\033[32;1m[producer]\033[0m is making baozi %s" %n )  if __name__ == '__main__':    con = consumer("c1")    con2 = consumer("c2")    p = producer()

有没有很快~~其实上面的栗子不算是真正的协程,嘿嘿,那什么才算标准的协程呢?只要符合下面四条,才可以成为协程:

  1. 必须在只有一个单线程里实现并发
  2. 修改共享数据不需加锁
  3. 用户程序里自己保存多个控制流的上下文栈
  4. 一个协程遇到IO操作自动切换到其它协程

 那么问题来了,上面的栗子为啥不属于协程嘞,关键就在于第四条,如果我把consumer的sleep打开,速度会马上变慢,因为每次消费都要等待IO。这样cpu的利用率就大大降低了。那么这个问题如何解决?请各位看官继续往下看:

 

Greenlet

greenlet是一个用C实现的协程模块,相比与python自带的yield,它可以使你在任意函数之间随意切换,而不需把这个函数先声明为generator

from greenlet import greenlet  def test1():    print(12)    gr2.switch()    print(34)    gr2.switch()  def test2():    print(56)    gr1.switch()    print(78)  gr1 = greenlet(test1)gr2 = greenlet(test2)gr1.switch()

感觉确实用着比generator还简单了呢,然而还是那个问题,就是遇到IO并没有自动切换啊。。。。

Gevent 

Gevent 是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。 Greenlet全部运行在主程序操作系统进程的内部,但它们被协作式地调度。

import gevent def func1():    print('\033[31;1mA在跟B搞...\033[0m')    gevent.sleep(2)    print('\033[31;1mA又回去继续跟B搞...\033[0m') def func2():    print('\033[32;1mA切换到了跟C搞...\033[0m')    gevent.sleep(1)    print('\033[32;1mA搞完了B,回来继续跟C搞...\033[0m')  gevent.joinall([    gevent.spawn(func1),    gevent.spawn(func2),])

遇到IO完美切换,完美~~

 

同步与异步的性能区别

import gevent def task(pid):    """    Some non-deterministic task    """    gevent.sleep(0.5)    print('Task %s done' % pid) def synchronous():    for i in range(1,10):        task(i) def asynchronous():    threads = [gevent.spawn(task, i) for i in range(10)]    gevent.joinall(threads) print('Synchronous:')synchronous() print('Asynchronous:')asynchronous()

上面程序的重要部分是将task函数封装到Greenlet内部线程的gevent.spawn。 初始化的greenlet列表存放在数组threads中,此数组被传给gevent.joinall 函数,后者阻塞当前流程,并执行所有给定的greenlet。执行流程只会在 所有greenlet执行完后才会继续向下走。

 

遇到IO阻塞时会自动切换任务

来个实际爬页面的小栗子:

from gevent import monkeyimport geventfrom  urllib.request import urlopen monkey.patch_all()def f(url):    print('GET: %s' % url)    resp = urlopen(url)    data = resp.read()    print('%d bytes received from %s.' % (len(data), url)) gevent.joinall([        gevent.spawn(f, 'https://www.python.org/'),        gevent.spawn(f, 'https://www.yahoo.com/'),        gevent.spawn(f, 'https://github.com/'),])

这里有个小重点,在默认情况下,gevent并不能识别出urllib的IO操作,导致协程没起到异步作用。这里需要一个小补丁,就是monkey模块的patch_all(),他会把urllib中的IO操作进行标记,使gevent能识别,这样就好用了。

 

通过gevent实现单线程下的多socket并发

server端:

import sysimport socketimport timeimport gevent from gevent import socket,monkeymonkey.patch_all()  def server(port):    s = socket.socket()    s.bind(('0.0.0.0', port))    s.listen(500)    while True:        cli, addr = s.accept()        gevent.spawn(handle_request, cli)   def handle_request(conn):    try:        while True:            data = conn.recv(1024)            print("recv:", data)            conn.send(data)            if not data:                conn.shutdown(socket.SHUT_WR)     except Exception as  ex:        print(ex)    finally:        conn.close()if __name__ == '__main__':    server(8001)

客户端:

import socket HOST = 'localhost'    # The remote hostPORT = 8001           # The same port as used by the servers = socket.socket(socket.AF_INET, socket.SOCK_STREAM)s.connect((HOST, PORT))while True:    msg = bytes(input(">>:"),encoding="utf8")    s.sendall(msg)    data = s.recv(1024)    #print(data)     print('Received', repr(data))s.close()

模拟100个client同时访问:

import socketimport threadingdef sock_conn():    client = socket.socket()    client.connect(("localhost",8001))    count = 0    while True:        #msg = input(">>:").strip()        #if len(msg) == 0:continue        client.send( ("hello %s" %count).encode("utf-8"))        data = client.recv(1024)        print("[%s]recv from server:" % threading.get_ident(),data.decode()) #结果        count +=1    client.close()for i in range(100):    t = threading.Thread(target=sock_conn)    t.start()

 

四、IO多路复用介绍及select 多并发socket 实例

首先列一下,sellect、poll、epoll三者的区别 

select 
select最早于1983年出现在4.2BSD中,它通过一个select()系统调用来监视多个文件描述符的数组,当select()返回后,该数组中就绪的文件描述符便会被内核修改标志位,使得进程可以获得这些文件描述符从而进行后续的读写操作。

select目前几乎在所有的平台上支持,其良好跨平台支持也是它的一个优点,事实上从现在看来,这也是它所剩不多的优点之一。

select的一个缺点在于单个进程能够监视的文件描述符的数量存在最大限制,在Linux上一般为1024,不过可以通过修改宏定义甚至重新编译内核的方式提升这一限制。

另外,select()所维护的存储大量文件描述符的数据结构,随着文件描述符数量的增大,其复制的开销也线性增长。同时,由于网络响应时间的延迟使得大量TCP连接处于非活跃状态,但调用select()会对所有socket进行一次线性扫描,所以这也浪费了一定的开销。

poll 

poll在1986年诞生于System V Release 3,它和select在本质上没有多大差别,但是poll没有最大文件描述符数量的限制。

poll和select同样存在一个缺点就是,包含大量文件描述符的数组被整体复制于用户态和内核的地址空间之间,而不论这些文件描述符是否就绪,它的开销随着文件描述符数量的增加而线性增大。

另外,select()和poll()将就绪的文件描述符告诉进程后,如果进程没有对其进行IO操作,那么下次调用select()和poll()的时候将再次报告这些文件描述符,所以它们一般不会丢失就绪的消息,这种方式称为水平触发(Level Triggered)。

epoll 

直到Linux2.6才出现了由内核直接支持的实现方法,那就是epoll,它几乎具备了之前所说的一切优点,被公认为Linux2.6下性能最好的多路I/O就绪通知方法。

epoll可以同时支持水平触发和边缘触发(Edge Triggered,只告诉进程哪些文件描述符刚刚变为就绪状态,它只说一遍,如果我们没有采取行动,那么它将不会再次告知,这种方式称为边缘触发),理论上边缘触发的性能要更高一些,但是代码实现相当复杂。

epoll同样只告知那些就绪的文件描述符,而且当我们调用epoll_wait()获得就绪文件描述符时,返回的不是实际的描述符,而是一个代表就绪描述符数量的值,你只需要去epoll指定的一个数组中依次取得相应数量的文件描述符即可,这里也使用了内存映射(mmap)技术,这样便彻底省掉了这些文件描述符在系统调用时复制的开销。

另一个本质的改进在于epoll采用基于事件的就绪通知方式。在select/poll中,进程只有在调用一定的方法后,内核才对所有监视的文件描述符进行扫描,而epoll事先通过epoll_ctl()来注册一个文件描述符,一旦基于某个文件描述符就绪时,内核会采用类似callback的回调机制,迅速激活这个文件描述符,当进程调用epoll_wait()时便得到通知。

 

select 多并发socket 实例

select socket server:

#_*_coding:utf-8_*___author__ = 'Alex Li'import selectimport socketimport sysimport queueserver = socket.socket()server.setblocking(0)server_addr = ('localhost',10000)print('starting up on %s port %s' % server_addr)server.bind(server_addr)server.listen(5)inputs = [server, ] #自己也要监测呀,因为server本身也是个fdoutputs = []message_queues = {}while True:    print("waiting for next event...")    readable, writeable, exeptional = select.select(inputs,outputs,inputs) #如果没有任何fd就绪,那程序就会一直阻塞在这里    for s in readable: #每个s就是一个socket        if s is server: #别忘记,上面我们server自己也当做一个fd放在了inputs列表里,传给了select,如果这个s是server,代表server这个fd就绪了,            #就是有活动了, 什么情况下它才有活动? 当然 是有新连接进来的时候 呀            #新连接进来了,接受这个连接            conn, client_addr = s.accept()            print("new connection from",client_addr)            conn.setblocking(0)            inputs.append(conn) #为了不阻塞整个程序,我们不会立刻在这里开始接收客户端发来的数据, 把它放到inputs里, 下一次loop时,这个新连接            #就会被交给select去监听,如果这个连接的客户端发来了数据 ,那这个连接的fd在server端就会变成就续的,select就会把这个连接返回,返回到            #readable 列表里,然后你就可以loop readable列表,取出这个连接,开始接收数据了, 下面就是这么干 的            message_queues[conn] = queue.Queue() #接收到客户端的数据后,不立刻返回 ,暂存在队列里,以后发送        else: #s不是server的话,那就只能是一个 与客户端建立的连接的fd了            #客户端的数据过来了,在这接收            data = s.recv(1024)            if data:                print("收到来自[%s]的数据:" % s.getpeername()[0], data)                message_queues[s].put(data) #收到的数据先放到queue里,一会返回给客户端                if s not  in outputs:                    outputs.append(s) #为了不影响处理与其它客户端的连接 , 这里不立刻返回数据给客户端            else:#如果收不到data代表什么呢? 代表客户端断开了呀                print("客户端断开了",s)                if s in outputs:                    outputs.remove(s) #清理已断开的连接                inputs.remove(s) #清理已断开的连接                del message_queues[s] ##清理已断开的连接    for s in writeable:        try :            next_msg = message_queues[s].get_nowait()        except queue.Empty:            print("client [%s]" %s.getpeername()[0], "queue is empty..")            outputs.remove(s)        else:            print("sending msg to [%s]"%s.getpeername()[0], next_msg)            s.send(next_msg.upper())    for s in exeptional:        print("handling exception for ",s.getpeername())        inputs.remove(s)        if s in outputs:            outputs.remove(s)        s.close()        del message_queues[s]select socket server

 

select socket client:

#_*_coding:utf-8_*___author__ = 'Alex Li'import socketimport sysmessages = [ b'This is the message. ',             b'It will be sent ',             b'in parts.',             ]server_address = ('localhost', 10000)# Create a TCP/IP socketsocks = [ socket.socket(socket.AF_INET, socket.SOCK_STREAM),          socket.socket(socket.AF_INET, socket.SOCK_STREAM),          ]# Connect the socket to the port where the server is listeningprint('connecting to %s port %s' % server_address)for s in socks:    s.connect(server_address)for message in messages:    # Send messages on both sockets    for s in socks:        print('%s: sending "%s"' % (s.getsockname(), message) )        s.send(message)    # Read responses on both sockets    for s in socks:        data = s.recv(1024)        print( '%s: received "%s"' % (s.getsockname(), data) )        if not data:            print(sys.stderr, 'closing socket', s.getsockname() )select socket client

selectors模块

用Python提供的模块写出更简单高效的服务端:

import selectorsimport socket sel = selectors.DefaultSelector() def accept(sock, mask):    conn, addr = sock.accept()  # Should be ready    print('accepted', conn, 'from', addr)    conn.setblocking(False)    sel.register(conn, selectors.EVENT_READ, read) def read(conn, mask):    data = conn.recv(1000)  # Should be ready    if data:        print('echoing', repr(data), 'to', conn)        conn.send(data)  # Hope it won't block    else:        print('closing', conn)        sel.unregister(conn)        conn.close() sock = socket.socket()sock.bind(('localhost', 10000))sock.listen(100)sock.setblocking(False)sel.register(sock, selectors.EVENT_READ, accept) while True:    events = sel.select()    for key, mask in events:        callback = key.data        callback(key.fileobj, mask)

  

 

转载于:https://www.cnblogs.com/yunweiqiang/p/5958893.html

你可能感兴趣的文章
C#3.0实现变异赋值(Mutantic Assignment)
查看>>
MySql的一些基本使用及操作命令 (待更新)
查看>>
题目4:棋盘寻宝扩展
查看>>
[ASP.NET MVC 小牛之路]14 - Unobtrusive Ajax
查看>>
引爆你的集合灵感 [C#, LINQ]
查看>>
可以把Windows xp模仿Vista界面工具。
查看>>
对一些面试题的回答
查看>>
c# enum用法
查看>>
Struts2 中action之间的跳转(分享)
查看>>
HDU4707:Pet(DFS)
查看>>
html标签页图标
查看>>
C# list 新用法
查看>>
Android 获取控件相对于屏幕位置
查看>>
UITableViewAutomaticDimension
查看>>
常用的python模块
查看>>
程序源代码行数分析统计器
查看>>
DNGuard Enterprise v2.80 released
查看>>
[超强]废旧硬盘改造成扬声器!!
查看>>
WPP
查看>>
C# GetSchema Get List of Table 获取数据库中所有的表名以及表中的纪录条数的方法
查看>>