蒋振飞的博客 - Python系统编程 (全)   
正在加载蒋振飞的博客...
V3.0
蒋振飞的博客

Python系统编程 (全)

发布时间: 2018年06月18日 发布人: 蒋振飞 热度: 479 ℃ 评论数: 0

进程

1.进程  
    简单的说就是实现唱歌跳舞同时进行,那么就需要一个新的方法,叫做:多任务

2.多任务的概念
    ①简单地说,就是操作系统可以同时运行多个任务
    ②并行执行多任务只能在多核CPU上实现,但是,由于任务数量远远多于CPU的核心数量,所以,操作系统也会自动把很多任务轮流调度到每个核心上执行
    ③就是说当cpu核心数量大于任务数量就是并行,反过来,就是并发
    ④依照的规则有时间片轮转,优先级调度

3.进程的创建-fork
    ①程序:编写完毕的代码,在没有运行的时候,称之为程序
    ②进程:正在运行着的代码,还有需要运行的环境等
    ③fork( ):
    Python的os模块封装了常见的系统调用,其中就包括fork

import os

# 注意,fork函数,只在Unix/Linux/Mac上运行,windows不可以

pid = os.fork()

    if pid == 0:
        print('哈哈1')

    else:
      print('哈哈2')

# 程序执行到os.fork()时,操作系统会创建一个新的进程(子进程),然后复制父进程的所有信息到子进程中
# 然后父进程和子进程都会从fork()函数中得到一个返回值,在子进程中这个值一定是0,而父进程中是子进程的 id号
# 普通的函数调用,调用一次,返回一次,但是fork()调用一次,返回两次,因为操作系统自动把当前进程(称为父进程)复制了一份(称为子进程),然后,分别在父进程和子进程内返回
# getpid()是获取当前进程(主进程或子进程)的id、getppid()获取父进程的id

4.多进程修改全局变量
    多进程中,每个进程中所有数据(包括全局变量)都各有拥有一份,互不影响,所以在修改全局变量的时候,两个变量相互独立

5.多次fork问题
    下次遇到多进程就画图,再如:

os.fork()
os.fork()
os.fork()      # 就变成了8个进程

    在while True中,如果有os.fork(),程序一定崩,这就相当于fork炸弹,死循环创建进程

6.multiprocessing模块
    ①multiprocessing模块提供了一个Process类来代表一个进程对象
    ②跨平台的操作,fork只在linux下才有效,所以平时应该使用process,它是一个类
    程序如下:             

from multiprocessing import Process
import time

def test():
    while True:
        print("---test---")
        time.sleep(1)
        
P = Process(target=test)

P.start()  # 让这个进程开始执行test函数里的代码

while True:
    print("---main---")
    time.sleep(1)

说明:
# 创建子进程时,只需要传入一个执行函数和函数的参数,创建一个Process实例,用start()方法启动
# 这样创建进程比fork()还要简单
# join()方法可以等待子进程结束后再继续往下运行,通常用于进程间的同步,这就与fork不同,需要等子进程结束,主进程才可以结束

7.Process语法结构

Process([group [, target [, name [,  args [, kwargs]]]]])

    ①target:表示这个进程实例所调用对象;
    ②args:表示调用对象的位置参数元组;
    ③kwargs:表示调用对象的关键字参数字典;
    ④name:为当前进程实例的别名;
    ⑤group:大多数情况下用不到;

8.Process类常用方法
    ①is_alive():判断进程实例是否还在执行;
    ②join([timeout]):是否等待进程实例执行结束,或等待多少秒;
    ③start():启动进程实例(创建子进程);
    ④run():如果没有给定target参数,对这个对象调用start()方法时,就将执行对象中 的run()方法;
    ⑤terminate():不管任务是否完成,立即终止;

9.Process类常用属性
    ①name:当前进程实例别名,默认为Process-N,N为从1开始递增的整数;
    ②pid:当前进程实例的PID值
    ③进程的创建-Process子类:
        创建新的进程还能够使用类的方式,可以自定义一个类,继承Process类,每次实例化这个类的时候,就等同于实例化一个进程对象
        如果想知道程序的运行时间,可以用开始和结束的time.time()两个时间差,就代表运行时间

10.进程池pool
    ①当需要创建的子进程数量不多时,可以直接利用multiprocessing中的Process动态成生多个进程
    ②但如果是上百甚至上千个目标,手动的去创建进程的工作量巨大,此时就可以用到multiprocessing模块提供的Pool方法      

P0 = Pool(3) # 定义一个进程池,最大进程数3 
for i in range(0,10):

    # Pool.apply_async(要调用的目标,(传递给目标的参数元组,))(非堵塞式)
    # Pool.apply(worker,(i,)) (堵塞式),主进程卡在这里,需要等子进程完成才能添加
    # 每次循环将会用空闲出来的子进程去调用目标
    
    P0.apply_async(worker,(i,)) # work是一个函数
    P0.close() # 关闭进程池,关闭后po不再接收新的请求
    P0.join() # 等待po中所有子进程执行完成,必须放在close语句之后

11.多种创建进程的方式比较
    os.fork()中,子进程和父进程可以都执行,而且父进程可以不必等待子进程结束

p = process(target=xxx)
p.start()
# 子进程和父进程都可执行
pool = Pool(3)
pool.apply_async(xxx)
# 主进程一般用来等待,真正的任务都在子进程中执行

12.进程间通信-Queue
    ①Process之间有时需要通信,操作系统提供了很多机制来实现进程间的通信。
    ②Queue的使用:
        可以使用multiprocessing模块的Queue实现多进程之间的数据传递,Queue本身是一个消息列队程序
        队列:先进先出
        栈:先进后出
        初始化Queue()对象时(例如:q=Queue()),若括号中没有指定最大可接收的消息数量,或数量为负值,那么就代表可接受的消息数量没有上限(直到内存的尽头)

from multiprocessing import Queue

q = Queue(3) # 初始化一个Queue对象,最多可接收三条put消息

try:
    q.put_nowait("消息4")

except:
    print("消息列队已满,现有消息数量:%s"%q.qsize())

        Queue.qsize():返回当前队列包含的消息数量;
        Queue.empty():如果队列为空,返回True,反之False;
        Queue.full():如果队列满了,返回True,反之False;
        Queue.get([block[, timeout]]):获取队列中的一条消息,然后将其从列队中移除,block默认值为True
        Queue.get_nowait():相当Queue.get(False);应该把它放在try里面
        Queue.put(item,[block[, timeout]]):将item消息写入队列,block默认值为True
    ③进程池中的Queue:
        如果要使用Pool创建进程,就需要使用multiprocessing.Manager()中的Queue(),而不是multiprocessing.Queue()

13.孤儿进程和僵尸进程
    ①孤儿进程:是指父进程结束,但子进程还未结束,通常的情况下父进程可以清除子进程 的垃圾,表示子进程没人收尸了
    ②僵尸进程:是指子进程结束了,父进程还未结束
    ③一般在操作系统中,0号进程负责切换任务,1号进程负责生子进程,并负责打理孤儿进程

线程

1.多线程threading
    python的thread模块是比较底层的模块,python的threading模块是对thread做了一些包装的,可以更加方便的被使用

2.进程和线程的关系
    ①线程是进程里面一种真正执行代码的东西,类似进程里面的箭头
    ②进程是资源分配的单位,线程是cpu调度的单位
    ③进程,能够完成多任务,比如 在一台电脑上能够同时运行多个QQ
    ④线程,能够完成多任务,比如 一个QQ中的多个聊天窗口
    ⑤定义的不同:
        进程是系统进行资源分配和调度的一个独立单位.
        线程是进程的一个实体,是CPU调度和分派的基本单位,它是比进程更小的能独立运行的基本单位
        线程自己基本上不拥有系统资源,只拥有一点在运行中必不可少的资源(如程序计数器,一组寄存器和栈), 但是它可与同属一个进程的其他的线程共享进程所拥有的全部资源
    ⑥区别:
        一个程序至少有一个进程,一个进程至少有一个线程
        线程的划分尺度小于进程(资源比进程少),使得多线程程序的并发性高
        进程在执行过程中拥有独立的内存单元,而多个线程共享内存,从而极大地提高了程序的运行效率
        线程不能够独立执行,必须依存在进程中
    ⑦优缺点:
        线程和进程在使用上各有优缺点:线程执行开销小,但不利于资源的管理和保护;而进程正相反

3.多线程执行

import threading
import time

def saySorry():

    print("Python才是最好的语言")

    time.sleep(1)

if __name__ == "__main__":

    for i in range(5):

    t = threading.Thread(target=saySorry)

    t.start() # 启动线程,即让线程开始执行

说明:
# 可以明显看出使用了多线程并发的操作,花费时间要短很多
# 创建好的线程,需要调用start()方法来启动
# 主线程会等待所有的子线程结束后才结束

4.线程执行代码的封装
    ①通过使用threading模块能完成多任务的程序开发,为了让每个线程的封装性更完美,所以使用threading模块时,往往会定义一个新的子类class,只要继承threading.Thread就可以了,然后重写 run方法
    ②python的threading.Thread类有一个run方法,用于定义线程的功能函数,可以在自己的线程类中覆盖该方法。而创建自己的线程实例后,通过Thread类的start方法,可以启动该线程,交给python 虚拟机进行调度,当该线程获得执行的机会时,就会调用run方法执行线程
    ③多线程程序的执行顺序与多进程类似,都是不确定的

5.总结
    ①每个线程一定会有一个名字,尽管上面的例子中没有指定线程对象的name,但是python会自动为线程指定一个名字。
    ②当线程的run()方法结束时该线程完成。
    ③无法控制线程调度程序,但可以通过别的方式来影响线程调度的方式

6.多线程-共享全局变量
    ①在一个进程内的所有线程共享全局变量,能够在不适用其他方式的前提下完成多线程之间的数据共享(这点要比多进程要好)
    ②缺点就是,线程是对全局变量随意遂改可能造成多线程之间对全局变量的混乱(即线程非安全),在线程中,不能同时对全局变量进行修改,解决办法是轮流让线程进行修改

7.同步
    ①多线程开发可能遇到的问题
    ②假设两个线程t1和t2都要对num=0进行增1运算,t1和t2都各对num修改10次, num的最终的结果应该为20。但是由于是多线程访问,答案可能不一样,所以在修改时, 就要让其修改完再轮到下一个线程来修改
    ③什么是同步:
        同步就是协同步调,按预定的先后次序进行运行。如:你说完,我再说,"同"字从字面上 容易理解为一起动作其实不是,"同"字应是指协同、协助、互相配合
    ④解决问题的思路:
        系统调用t1,然后获取到num的值为0,此时上一把锁,即不允许其他现在操作num
        对num的值进行+1解锁,此时num的值为1,其他的线程就可以使用num了,而且是 num的值不是0而是1
        同理其他线程在对num进行修改时,都要先上锁,处理完后再解锁,在上锁的整个过程 中不允许其他线程访问,就保证了数据的正确性

8.互斥锁
    ①当多个线程几乎同时修改某一个共享数据的时候,需要进行同步控制
    ②某个线程要更改共享数据时,先将其锁定,此时资源的状态为锁定,其他线程不能更改;直到该线程释放资源,将资源的状态变成非锁定,其他的线程才能再次锁定该资源。互斥锁保证了每次 只有一个线程进行写入操作,从而保证了多线程情况下数据的正确性
    ③threading模块中定义了Lock类,可以方便的处理锁定:

# 创建锁
mutex = threading.Lock()

# 锁定
mutex.acquire([blocking])
 
# 释放
mutex.release()

    ④如果设定blocking为True,则当前线程会堵塞,直到获取到这个锁为止(如果没有指定,那么默认为True)如果设定blocking为False,则当前线程不会堵塞
    ⑤上锁解锁过程:
        每次只有一个线程可以获得锁。如果此时另一个线程试图获得这个锁,该线程就会变为 “blocked” 状态,称为“阻塞”,直到拥有锁的线程调用锁的release()方法释放锁之后,锁进 入 “unlocked”状态。
        线程调度程序从处于同步阻塞状态的线程中选择一个来获得锁,并使得该线程进入运行( running)状态。
    ⑥总结:
        锁的好处:
            确保了某段关键代码只能由一个线程从头到尾完整地执行
        锁的坏处:
            阻止了多线程并发执行,包含锁的某段代码实际上只能以单线程模式执行,效率就大大地下降了
            由于可以存在多个锁,不同的线程持有不同的锁,并试图获取对方持有的锁时, 可能会造成死锁

9.多线程-非共享数据
    ①对于全局变量,在多线程中要格外小心,否则容易造成数据错乱的情况发生
    ②在多线程开发中,全局变量是多个线程都共享的数据,而局部变量等是各自线程的,是非共享的

10.死锁
    ①举个例子:就好比是现实社会中,男女双方都在等待对方先道歉
    ②在线程间共享多个资源的时候,如果两个线程分别占有一部分资源并且同时等待对方的资源,就会造成死锁
    ③避免死锁:

# 程序设计时要尽量避免(银行家算法)
# 添加超时时间等
if mutex.acquire(2):

11.同步应用
    可以使用互斥锁完成多个任务,有序的进程工作,这就是线程的同步

12.生产者与消费者模式
    ①Python的Queue模块中提供了同步的、线程安全的队列类,包括FIFO(先入先出)队列 Queue,LIFO(后入先出)队列LifoQueue,和优先级队列PriorityQueue
    ②这些队列都实现了锁原语(可以理解为原子操作,即要么不做,要么就做完),能够在多线程中直接使用
    ③可以使用队列来实现线程间的同步
    ④Queue的说明:
        对于Queue,在多线程通信之间扮演重要的角色
        添加数据到队列中,使用put()方法
        从队列中取数据,使用get()方法
        判断队列中是否还有数据,使用qsize()方法
        队列就是用来给生产者和消费者解耦的

13.ThreadLocal
    在多线程环境下,每个线程都有自己的数据。一个线程使用自己的局部变量比使用全局变量好,因为局部变量只有线程自己能看见,不会影响其他线程,而全局变量的修改必须加锁一个thread.local()变量虽然是全局变量,但每个线程都只能读写自己线程的独立副本,互不干扰。thread.local()解决了参数在一个线程中各个函数之间互相传递的问题

14.异步
    ①同步调用就是你喊你朋友吃饭,你朋友在忙,你就一直在那等,等你朋友忙完了,你们一起去
    ②异步调用就是你喊你朋友吃饭,你朋友说知道了,待会忙完去找你 ,你就去做别的了

pool.apply_async(func=test,callback=test2) # callback是回调

          进程整理代码

 1. getpid()、getppid()

import os

rpid = os.fork()

if rpid<0:
    print("fork调用失败")
    
elif rpid == 0:
    print("我是子进程(%s),我的父进程是(%s)"%(os.getpid(),os.getppid()))
    x+=1
    
else:
    print("我是父进程(%s),我的子进程是(%s)"%(os.getpid(),rpid))
print("父子进程都可以执行这里的代码")

2.多进程修改全局变量

import os
import time

num = 0
# 注意,fork函数,只在Unix/Linux/Mac上运行,windows不可以
pid = os.fork()

if pid == 0:
    num+=1
    print('哈哈1---num=%d'%num)
    
else:
    time.sleep(1)
    num+=1
    print('哈哈2---num=%d'%num)

3.进程的创建-Process子类       

from multiprocessing import Process
import time
import os

# 继承Process类
class Process_Class(Process):

    # 因为Process类本身也有__init__方法,这个子类相当于重写了这个方法,
    # 但这样就会带来一个问题,我们并没有完全的初始化一个Process类,所以就不能使用从这个类继承的一些方法和属性,
    # 最好的方法就是将继承类本身传递给Process.__init__方法,完成这些初始化操作
    def __init__(self,interval):

         Process.__init__(self)
         self.interval = interval 

    # 重写了Process类的run()方法
    def run(self):

        print("子进程(%s) 开始执行,父进程为(%s)"%(os.getpid(),os.getppid()))

        t_start = time.time()
        time.sleep(self.interval)
        t_stop = time.time()
        print("(%s)执行结束,耗时%0.2f秒"%(os.getpid(),t_stop-t_start))

 if __name__=="__main__":

    t_start = time.time()
    print("当前程序进程(%s)"%os.getpid())        
    p1 = Process_Class(2)
    # 对一个不包含target属性的Process类执行start()方法,就会运行这个类中的run()方法,所以这里会执行p1.run()
    p1.start()
    p1.join()
    t_stop = time.time()
    print("(%s)执行结束,耗时%0.2f"%(os.getpid(),t_stop-t_start))

4.进程池pool

from multiprocessing import Pool
import os,time,random

def worker(msg):

    t_start = time.time()

    print("%s开始执行,进程号为%d"%(msg,os.getpid()))
    # random.random()随机生成0~1之间的浮点数
    time.sleep(random.random()*2) 
    
    t_stop = time.time()

    print(msg,"执行完毕,耗时%0.2f"%(t_stop-t_start))

       
po=Pool(3) # 定义一个进程池,最大进程数3

for i in range(0,10):

    # Pool.apply_async(要调用的目标,(传递给目标的参数元祖,))
    # 每次循环将会用空闲出来的子进程去调用目标

    po.apply_async(worker,(i,))

print("----start----")
po.close() # 关闭进程池,关闭后po不再接收新的请求

po.join() # 等待po中所有子进程执行完成,必须放在close语句之后

print("-----end-----")

5.进程Queue的读写

from multiprocessing import Process, Queue
import os, time, random

# 写数据进程执行的代码:
def write(q):

    for value in ['A', 'B', 'C']:
        print 'Put %s to queue...' % value
                q.put(value)

        time.sleep(random.random())

# 读数据进程执行的代码:
def read(q):

    while True:
        if not q.empty():
            value = q.get(True)
            print 'Get %s from queue.' % value
            time.sleep(random.random())

        else:
            break

if __name__=='__main__':

    # 父进程创建Queue,并传给各个子进程:
    q = Queue()

    pw = Process(target=write, args=(q,))
    pr = Process(target=read, args=(q,))

    # 启动子进程pw,写入:
    pw.start()    
    # 等待pw结束:
    pw.join()

    # 启动子进程pr,读取:
    pr.start()
    pr.join()

    # pr进程里是死循环,无法等待其结束,只能强行终止:

    print '' "
    print '所有数据都写入并且读完'

线程整理代码

1.多线程

import threading
from time import sleep,ctime

def sing():

    for i in range(3):

        print("正在唱歌...%d"%i) 

        sleep(1)

def dance():

    for i in range(3):

        print("正在跳舞...%d"%i)

        sleep(1)

if __name__ == '__main__':

    print('---开始---:%s'%ctime())

    t1 = threading.Thread(target=sing)
    t2 = threading.Thread(target=dance)

    t1.start()
    t2.start()

    # sleep(5) # 屏蔽此行代码,试试看,程序是否会立马结束?

    print('---结束---:%s'%ctime())

2.多线程-共享全局变量       

from threading import Thread
import time

g_num = 100

def work1():

    global g_num
    
    for i in range(3):
        g_num += 1
        print("----in work1, g_num is %d---"%g_num)

def work2():
    global g_num
    print("----in work2, g_num is %d---"%g_num)


print("---线程创建之前g_num is %d---"%g_num)

t1 = Thread(target=work1)
t1.start()

# 延时一会,保证t1线程中的事情做完

time.sleep(1)

t2 = Thread(target=work2)
t2.start()

3.死锁   

import threading
import time

class MyThread1(threading.Thread):

    def run(self):

        if mutexA.acquire():
            print(self.name+'----do1---up----')
            time.sleep(1)

        if mutexB.acquire():
            print(self.name+'----do1---down----')
            mutexB.release()

        mutexA.release()


class MyThread2(threading.Thread):

    def run(self):

        if mutexB.acquire():
            print(self.name+'----do2---up----')
            time.sleep(1)

        if mutexA.acquire():
            print(self.name+'----do2---down----')
            mutexA.release()

        mutexB.release()

    
mutexA = threading.Lock()
mutexB = threading.Lock()

if __name__ == '__main__':

    t1 = MyThread1()
    t2 = MyThread2()

    t1.start()
    t2.start()

4.生产者和消费者模式     

import threading
import time

# python2中
from Queue import Queue

# python3中
# from queue import Queue

class Producer(threading.Thread):

    def run(self):
        global queue
        count = 0

        while True:
        
            if queue.qsize() < 1000:
            
                for i in range(100):
                    count = count +1
                    msg = '生成产品'+str(count)
                    queue.put(msg)
                    print(msg)

            time.sleep(0.5)


class Consumer(threading.Thread):

    def run(self):

        global queue

        while True:
        
            if queue.qsize() > 100:

                for i in range(3):
                    msg = self.name + '消费了'+queue.get()
                    print(msg)
                    time.sleep(1)


if __name__ == '__main__':
    queue = Queue()
    
    for i in range(500):
        queue.put('初始产品'+str(i))

打赏 蒋振飞

取消

感谢您的支持,我会继续努力的!

扫码支持
一分也是爱     一块不嫌多

点击 支付宝 或 微信 打赏蒋振飞

打开支付宝扫一扫,即可进行扫码打赏哦

评论列表