深入理解并发 / 并行,阻塞 / 非阻塞,同步 / 异步

tkgee19py 7年前
   <h2>1. 阻塞,非阻塞</h2>    <p>首先,阻塞这个词来自操作系统的线程/进程的状态模型中,如下图:</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/4d18b08837d7b92e56e2a2814ae57f7a.jpg"></p>    <p>一个线程/进程经历的5个状态,创建,就绪,运行,阻塞,终止。各个状态的转换条件如上图,其中有个阻塞状态,就是说当线程中调用某个函数,需要IO请求,或者暂时得不到竞争资源的,操作系统会把该线程阻塞起来,避免浪费CPU资源,等到得到了资源,再变成就绪状态,等待CPU调度运行。</p>    <p>阻塞调用是指调用结果返回之前,调用者会进入阻塞状态等待。只有在得到结果之后才会返回。</p>    <p>非阻塞调用是指在不能立刻得到结果之前,该函数不会阻塞当前线程,而会立刻返回。</p>    <p>阻塞调用:比如 socket 的 recv(),调用这个函数的线程如果没有数据返回,它会一直阻塞着,也就是 recv() 后面的代码都不会执行了,程序就停在 recv() 这里等待,所以一般把 recv() 放在单独的线程里调用。</p>    <p>非阻塞调用:比如非阻塞socket 的 send(),调用这个函数,它只是把待发送的数据复制到TCP输出缓冲区中,就立刻返回了,线程并不会阻塞,数据有没有发出去 send() 是不知道的,不会等待它发出去才返回的。</p>    <p>拓展</p>    <p>如果线程始终阻塞着,永远得不到资源,于是就发生了死锁。</p>    <p>比如A线程要X,Y资源才能继续运行,B线程也要X,Y资源才能运行,但X,Y同时只能给一个线程用(即互斥条件)用的时候其他线程又不能抢夺。</p>    <p>A 有 X,等待 Y。</p>    <p>B 有 Y,等待 X。</p>    <p>于是A,B发生了循环等待,造成死锁。给用户的感觉就是程序卡着不动了。</p>    <p>在写代码的时候要特别注意共享资源的使用,用信号量控制好,避免造成死锁。死锁的解除有个著名的银行家算法</p>    <p>阻塞和挂起:阻塞是被动的,比如抢不到资源。挂起是主动的,线程自己调用 suspend() 把自己退出运行态了,某些时候调用 resume() 又恢复运行。</p>    <p>线程执行完就会被销毁,如果不想线程被频繁的创建,销毁,怎么办?可以给线程里面写个死循环,或者让线程有任务的时候执行,没任务的时候挂起,就像iOS中的 runloop 机制一样。线程就不会随便的终止了。</p>    <h2>2. 同步,异步</h2>    <p>同步:在发出一个同步调用时,在没有得到结果之前,该调用就不返回。</p>    <p>异步:在发出一个异步调用后,调用者不会立刻得到结果,该调用就返回了。</p>    <p>同步例子</p>    <pre>  int n = func();  next();  // func() 的结果没有返回,next() 就不会执行,直到 func() 运行完。</pre>    <p>异步例子</p>    <pre>  func(callback);  next();  ...    void callback(int n)     // func 结果回调  {    int k = n;  }  // func() 执行后,还没得出结果就立即返回,然后执行 next() 了  // 等到结果出来,func() 回调 callback() 通知调用者结果。</pre>    <p>同步的定义看起来跟阻塞很像,但是同步跟阻塞是两个概念,同步调用的时候,线程不一定阻塞,调用虽然没返回,但它还是在运行状态中的,CPU很可能还在执行这段代码,而阻塞的话,它就肯定不在CPU中跑这个代码了。这就是同步和阻塞的区别。同步是肯定可以在,阻塞是肯定不在。</p>    <p>异步和非阻塞的定义比较像,两者的区别是异步是说调用的时候结果不会马上返回,线程可能被阻塞起来,也可能不阻塞,两者没关系。非阻塞是说调用的时候,线程肯定不会进入阻塞状态。</p>    <p>上面两组概念,就有4种组合。</p>    <p>同步阻塞调用:得不到结果不返回,线程进入阻塞态等待。</p>    <p>同步非阻塞调用:得不到结果不返回,线程不阻塞一直在CPU运行。</p>    <p>异步阻塞调用:去到别的线程,让别的线程阻塞起来等待结果,自己不阻塞。</p>    <p>异步非阻塞调用:去到别的线程,别的线程一直在运行,直到得出结果。</p>    <h2>3. 并发,并行</h2>    <p>先从定义说起,定义经过我通俗化了,原定义有点难理解。</p>    <p>并发是指一个时间段内,有几个程序都在同一个CPU上运行,但任意一个时刻点上只有一个程序在处理机上运行。</p>    <p>并行是指一个时间段内,有几个程序都在几个CPU上运行,任意一个时刻点上,有多个程序在同时运行,并且多道程序之间互不干扰。 两者区别如下图</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/955d9360fb78760d20c08e06b295f702.jpg"></p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/019e314b0abc60625b329f6c4bb4516e.jpg"></p>    <p>并行是多个程序在多个CPU上同时运行,任意一个时刻可以有很多个程序同时运行,互不干扰。</p>    <p>并发是多个程序在一个CPU上运行,CPU在多个程序之间快速切换,微观上不是同时运行,任意一个时刻只有一个程序在运行,但宏观上看起来就像多个程序同时运行一样,因为CPU切换速度非常快,时间片是64ms(每64ms切换一次,不同的操作系统有不同的时间),人类的反应速度是100ms,你还没反应过来,CPU已经切换了好几个程序了。</p>    <p>举个例子吧,并行就是,多个人,有人在扫地,有人在做饭,有人在洗衣服,扫地,做饭,洗衣服都是同时进行的。</p>    <p>并发就是,有一个人,这个人一会儿扫地,一会儿做饭,一会儿洗衣服,他在这3件事中来回做,同一时刻只做一件事,不是同时做的,但最后3件事都可以做完。</p>    <p>时间片大小的选取</p>    <p>时间片取的小,假设是20ms,切换耗时假设是 10ms。</p>    <p>那么用户感觉不到多个程序之间会卡,响应很快,因为切换太快了,但是CPU的利用率就低了,20 / (20 + 10) = 66% 只有这么多,33%都浪费了。</p>    <p>时间片取的大,假设是200ms,切换耗时是 10ms</p>    <p>那么用户会觉得程序卡,响应慢,因为要200ms后才轮到我的程序运行,但是CPU利用率就高了,200 / (200 + 10) = 95% 有这么多被利用的。</p>    <p>所以时间片取太大或者太小都不好,一般在 10 - 100 ms 之间。</p>    <p>CPU调度策略</p>    <p>在并发运行中,CPU需要在多个程序之间来回切换,那么如何切换就有一些策略</p>    <p>3.1 先来先服务 - 时间片轮转调度</p>    <p>这个很简单,就是谁先来,就给谁分配时间片运行,缺点是有些紧急的任务要很久才能得到运行。</p>    <p>3.2 优先级调度</p>    <p>每个线程有一个优先级,CPU每次去拿优先级高的运行,优先级低的等等,为了避免等太久,每等一定时间,就给线程提高一个优先级</p>    <p>3.3 最短作业优先</p>    <p>把线程任务量排序,每次拿处理时间短的线程运行,就像我去银行办业务一样,我的事情很快就处理完了,所以让我插队先办完,后面时间长的人先等等,时间长的人就很难得到响应了。</p>    <p>3.4 最高响应比优先</p>    <p>用线程的等待时间除以服务时间,得到响应比,响应比小的优先运行。这样不会造成某些任务一直得不到响应。</p>    <p>3.5 多级反馈队列调度</p>    <p>有多个优先级不同的队列,每个队列里面有多个等待线程。</p>    <p>CPU每次从优先级高的遍历到低的,取队首的线程运行,运行完了放回队尾,优先级越高,时间片越短,即响应越快,时间片就不是固定的了。</p>    <p>队列内部还是用先来先服务的策略。</p>    <p> </p>    <p>来自:http://blog.csdn.net/sinat_35512245/article/details/53836580</p>    <p> </p>