当前位置: 移动技术网 > IT编程>脚本编程>Go语言 > golang高并发模型

golang高并发模型

2020年03月21日  | 移动技术网IT编程  | 我要评论
github上看到的一篇关于golang高并发性的文章,觉得写的非常好 github 地址 https://github.com/rubyhan1314/Golang 100 Days 一、并发性Concurrency 1.1 多任务 怎么来理解多任务呢?其实就是指我们的操作系统可以同时执行多个任务 ...

github上看到的一篇关于golang高并发性的文章,觉得写的非常好

github 地址 https://github.com/rubyhan1314/golang-100-days

一、并发性concurrency

1.1 多任务

怎么来理解多任务呢?其实就是指我们的操作系统可以同时执行多个任务。举个例子,你一边听音乐,一边刷微博,一边聊qq,一边用markdown写作业,这就是多任务,至少同时有4个任务正在运行。还有很多任务悄悄地在后台同时运行着,只是界面上没有显示而已。

1.2 什么是并发

go是并发语言,而不是并行语言。在讨论如何在go中进行并发处理之前,我们首先必须了解什么是并发,以及它与并行性有什么不同。(go is a concurrent language and not a parallel one. )

并发性concurrency是同时处理许多事情的能力。

举个例子,假设一个人在晨跑。在晨跑时,他的鞋带松了。现在这个人停止跑步,系鞋带,然后又开始跑步。这是一个典型的并发性示例。这个人能够同时处理跑步和系鞋带,这是一个人能够同时处理很多事情。

什么是并行性parallelism,它与并发concurrency有什么不同? 并行就是同时做很多事情。这听起来可能与并发类似,但实际上是不同的。

让我们用同样的慢跑例子更好地理解它。在这种情况下,我们假设这个人正在慢跑,并且使用它的手机听音乐。在这种情况下,一个人一边慢跑一边听音乐,那就是他同时在做很多事情。这就是所谓的并行性(parallelism)。

并发性和并行性——一种技术上的观点。 假设我们正在编写一个web浏览器。web浏览器有各种组件。其中两个是web页面呈现区域和下载文件从internet下载的下载器。假设我们以这样的方式构建了浏览器的代码,这样每个组件都可以独立地执行。当这个浏览器运行在单个核处理器中时,处理器将在浏览器的两个组件之间进行上下文切换。它可能会下载一个文件一段时间,然后它可能会切换到呈现用户请求的网页的html。这就是所谓的并发性。并发进程从不同的时间点开始,它们的执行周期重叠。在这种情况下,下载和呈现从不同的时间点开始,它们的执行重叠。

假设同一浏览器运行在多核处理器上。在这种情况下,文件下载组件和html呈现组件可能同时在不同的内核中运行。这就是所谓的并行性。

wx20190730-100944

并行性parallelism不会总是导致更快的执行时间。这是因为并行运行的组件可能需要相互通信。例如,在我们的浏览器中,当文件下载完成时,应该将其传递给用户,比如使用弹出窗口。这种通信发生在负责下载的组件和负责呈现用户界面的组件之间。这种通信开销在并发concurrent 系统中很低。当组件在多个内核中并行concurrent 运行时,这种通信开销很高。因此,并行程序并不总是导致更快的执行时间!

1.3 进程、线程、协程

进程(process),线程(thread),协程(coroutine,也叫轻量级线程)

进程
进程是一个程序在一个数据集中的一次动态执行过程,可以简单理解为“正在执行的程序”,它是cpu资源分配和调度的独立单位。
进程一般由程序、数据集、进程控制块三部分组成。我们编写的程序用来描述进程要完成哪些功能以及如何完成;数据集则是程序在执行过程中所需要使用的资源;进程控制块用来记录进程的外部特征,描述进程的执行变化过程,系统可以利用它来控制和管理进程,它是系统感知进程存在的唯一标志。 进程的局限是创建、撤销和切换的开销比较大。

线程
线程是在进程之后发展出来的概念。 线程也叫轻量级进程,它是一个基本的cpu执行单元,也是程序执行过程中的最小单元,由线程id、程序计数器、寄存器集合和堆栈共同组成。一个进程可以包含多个线程。
线程的优点是减小了程序并发执行时的开销,提高了操作系统的并发性能,缺点是线程没有自己的系统资源,只拥有在运行时必不可少的资源,但同一进程的各线程可以共享进程所拥有的系统资源,如果把进程比作一个车间,那么线程就好比是车间里面的工人。不过对于某些独占性资源存在锁机制,处理不当可能会产生“死锁”。

协程
协程是一种用户态的轻量级线程,又称微线程,英文名coroutine,协程的调度完全由用户控制。人们通常将协程和子程序(函数)比较着理解。
子程序调用总是一个入口,一次返回,一旦退出即完成了子程序的执行。

与传统的系统级线程和进程相比,协程的最大优势在于其"轻量级",可以轻松创建上百万个而不会导致系统资源衰竭,而线程和进程通常最多也不能超过1万的。这也是协程也叫轻量级线程的原因。

协程与多线程相比,其优势体现在:协程的执行效率极高。因为子程序切换不是线程切换,而是由程序自身控制,因此,没有线程切换的开销,和多线程比,线程数量越多,协程的性能优势就越明显。

go语言对于并发的实现是靠协程,goroutine

二、go语言的并发模型

go 语言相比java等一个很大的优势就是可以方便地编写并发程序。go 语言内置了 goroutine 机制,使用goroutine可以快速地开发并发程序, 更好的利用多核处理器资源。接下来我们来了解一下go语言的并发原理。

2.1 线程模型

在现代操作系统中,线程是处理器调度和分配的基本单位,进程则作为资源拥有的基本单位。每个进程是由私有的虚拟地址空间、代码、数据和其它各种系统资源组成。线程是进程内部的一个执行单元。 每一个进程至少有一个主执行线程,它无需由用户去主动创建,是由系统自动创建的。 用户根据需要在应用程序中创建其它线程,多个线程并发地运行于同一个进程中。

我们先从线程讲起,无论语言层面何种并发模型,到了操作系统层面,一定是以线程的形态存在的。而操作系统根据资源访问权限的不同,体系架构可分为用户空间和内核空间;内核空间主要操作访问cpu资源、i/o资源、内存资源等硬件资源,为上层应用程序提供最基本的基础资源,用户空间呢就是上层应用程序的固定活动空间,用户空间不可以直接访问资源,必须通过“系统调用”、“库函数”或“shell脚本”来调用内核空间提供的资源。

我们现在的计算机语言,可以狭义的认为是一种“软件”,它们中所谓的“线程”,往往是用户态的线程,和操作系统本身内核态的线程(简称kse),还是有区别的。

go并发编程模型在底层是由操作系统所提供的线程库支撑的,因此还是得从线程实现模型说起。

线程可以视为进程中的控制流。一个进程至少会包含一个线程,因为其中至少会有一个控制流持续运行。因而,一个进程的第一个线程会随着这个进程的启动而创建,这个线程称为该进程的主线程。当然,一个进程也可以包含多个线程。这些线程都是由当前进程中已存在的线程创建出来的,创建的方法就是调用系统调用,更确切地说是调用
pthread create函数。拥有多个线程的进程可以并发执行多个任务,并且即使某个或某些任务被阻塞,也不会影响其他任务正常执行,这可以大大改善程序的响应时间和吞吐量。另一方面,线程不可能独立于进程存在。它的生命周期不可能逾越其所属进程的生命周期。

线程的实现模型主要有3个,分别是:用户级线程模型、内核级线程模型和两级线程模型。它们之间最大的差异就在于线程与内核调度实体( kernel scheduling entity,简称kse)之间的对应关系上。顾名思义,内核调度实体就是可以被内核的调度器调度的对象。在很多文献和书中,它也称为内核级线程,是操作系统内核的最小调度单元。

2.1.1 内核级线程模型

用户线程与kse是1对1关系(1:1)。大部分编程语言的线程库(如linux的pthread,java的java.lang.thread,c++11的std::thread等等)都是对操作系统的线程(内核级线程)的一层封装,创建出来的每个线程与一个不同的kse静态关联,因此其调度完全由os调度器来做。这种方式实现简单,直接借助os提供的线程能力,并且不同用户线程之间一般也不会相互影响。但其创建,销毁以及多个线程之间的上下文切换等操作都是直接由os层面亲自来做,在需要使用大量线程的场景下对os的性能影响会很大。

每个线程由内核调度器独立的调度,所以如果一个线程阻塞则不影响其他的线程。

优点:在多核处理器的硬件的支持下,内核空间线程模型支持了真正的并行,当一个线程被阻塞后,允许另一个线程继续执行,所以并发能力较强。

缺点:每创建一个用户级线程都需要创建一个内核级线程与其对应,这样创建线程的开销比较大,会影响到应用程序的性能。

2.1.2 用户级线程模型

用户线程与kse是多对1关系(m:1),这种线程的创建,销毁以及多个线程之间的协调等操作都是由用户自己实现的线程库来负责,对os内核透明,一个进程中所有创建的线程都与同一个kse在运行时动态关联。现在有许多语言实现的 协程 基本上都属于这种方式。这种实现方式相比内核级线程可以做的很轻量级,对系统资源的消耗会小很多,因此可以创建的数量与上下文切换所花费的代价也会小得多。但该模型有个致命的缺点,如果我们在某个用户线程上调用阻塞式系统调用(如用阻塞方式read网络io),那么一旦kse因阻塞被内核调度出cpu的话,剩下的所有对应的用户线程全都会变为阻塞状态(整个进程挂起)。
所以这些语言的协程库会把自己一些阻塞的操作重新封装为完全的非阻塞形式,然后在以前要阻塞的点上,主动让出自己,并通过某种方式通知或唤醒其他待执行的用户线程在该kse上运行,从而避免了内核调度器由于kse阻塞而做上下文切换,这样整个进程也不会被阻塞了。

优点: 这种模型的好处是线程上下文切换都发生在用户空间,避免的模态切换(mode switch),从而对于性能有积极的影响。

缺点:所有的线程基于一个内核调度实体即内核线程,这意味着只有一个处理器可以被利用,在多处理器环境下这是不能够被接受的,本质上,用户线程只解决了并发问题,但是没有解决并行问题。如果线程因为 i/o 操作陷入了内核态,内核态线程阻塞等待 i/o 数据,则所有的线程都将会被阻塞,用户空间也可以使用非阻塞而 i/o,但是不能避免性能及复杂度问题。

2.1.3 两级线程模型

用户线程与kse是多对多关系(m:n),这种实现综合了前两种模型的优点,为一个进程中创建多个kse,并且线程可以与不同的kse在运行时进行动态关联,当某个kse由于其上工作的线程的阻塞操作被内核调度出cpu时,当前与其关联的其余用户线程可以重新与其他kse建立关联关系。当然这种动态关联机制的实现很复杂,也需要用户自己去实现,这算是它的一个缺点吧。go语言中的并发就是使用的这种实现方式,go为了实现该模型自己实现了一个运行时调度器来负责go中的"线程"与kse的动态关联。此模型有时也被称为 混合型线程模型即用户调度器实现用户线程到kse的“调度”,内核调度器实现kse到cpu上的调度

2.2 go并发调度: g-p-m模型

在操作系统提供的内核线程之上,go搭建了一个特有的两级线程模型。goroutine机制实现了m : n的线程模型,goroutine机制是协程(coroutine)的一种实现,golang内置的调度器,可以让多核cpu中每个cpu执行一个协程。

2.2.1 调度器是如何工作的

有了上面的认识,我们可以开始真正的介绍go的并发机制了,先用一段代码展示一下在go语言中新建一个“线程”(go语言中称为goroutine)的样子:

// 用go关键字加上一个函数(这里用了匿名函数)
// 调用就做到了在一个新的“线程”并发执行任务
go func() { 
    // do something in one new goroutine
}()

功能上等价于java8的代码:

new java.lang.thread(() -> { 
    // do something in one new thread
}).start();

理解goroutine机制的原理,关键是理解go语言scheduler的实现。

go语言中支撑整个scheduler实现的主要有4个重要结构,分别是m、g、p、sched, 前三个定义在runtime.h中,sched定义在proc.c中。

  • sched结构就是调度器,它维护有存储m和g的队列以及调度器的一些状态信息等。
  • m结构是machine,系统线程,它由操作系统管理的,goroutine就是跑在m之上的;m是一个很大的结构,里面维护小对象内存cache(mcache)、当前执行的goroutine、随机数发生器等等非常多的信息。
  • p结构是processor,处理器,它的主要用途就是用来执行goroutine的,它维护了一个goroutine队列,即runqueue。processor是让我们从n:1调度到m:n调度的重要部分。
  • g是goroutine实现的核心结构,它包含了栈,指令指针,以及其他对调度goroutine很重要的信息,例如其阻塞的channel。

processor的数量是在启动时被设置为环境变量gomaxprocs的值,或者通过运行时调用函数gomaxprocs()进行设置。processor数量固定意味着任意时刻只有gomaxprocs个线程在运行go代码。

我们分别用三角形,矩形和圆形表示machine processor和goroutine。

在单核处理器的场景下,所有goroutine运行在同一个m系统线程中,每一个m系统线程维护一个processor,任何时刻,一个processor中只有一个goroutine,其他goroutine在runqueue中等待。一个goroutine运行完自己的时间片后,让出上下文,回到runqueue中。 多核处理器的场景下,为了运行goroutines,每个m系统线程会持有一个processor。

在正常情况下,scheduler会按照上面的流程进行调度,但是线程会发生阻塞等情况,看一下goroutine对线程阻塞等的处理。

2.2.2 线程阻塞

当正在运行的goroutine阻塞的时候,例如进行系统调用,会再创建一个系统线程(m1),当前的m线程放弃了它的processor,p转到新的线程中去运行。

2.2.3 runqueue执行完成

当其中一个processor的runqueue为空,没有goroutine可以调度。它会从另外一个上下文偷取一半的goroutine。

其图中的g,p和m都是go语言运行时系统(其中包括内存分配器,并发调度器,垃圾收集器等组件,可以想象为java中的jvm)抽象出来概念和数据结构对象:
g:goroutine的简称,上面用go关键字加函数调用的代码就是创建了一个g对象,是对一个要并发执行的任务的封装,也可以称作用户态线程。属于用户级资源,对os透明,具备轻量级,可以大量创建,上下文切换成本低等特点。
m:machine的简称,在linux平台上是用clone系统调用创建的,其与用linux pthread库创建出来的线程本质上是一样的,都是利用系统调用创建出来的os线程实体。m的作用就是执行g中包装的并发任务。go运行时系统中的调度器的主要职责就是将g公平合理的安排到多个m上去执行。其属于os资源,可创建的数量上也受限了os,通常情况下g的数量都多于活跃的m的。
p:processor的简称,逻辑处理器,主要作用是管理g对象(每个p都有一个g队列),并为g在m上的运行提供本地化资源。

从两级线程模型来看,似乎并不需要p的参与,有g和m就可以了,那为什么要加入p这个东东呢?
其实go语言运行时系统早期(go1.0)的实现中并没有p的概念,go中的调度器直接将g分配到合适的m上运行。但这样带来了很多问题,例如,不同的g在不同的m上并发运行时可能都需向系统申请资源(如堆内存),由于资源是全局的,将会由于资源竞争造成很多系统性能损耗,为了解决类似的问题,后面的go(go1.1)运行时系统加入了p,让p去管理g对象,m要想运行g必须先与一个p绑定,然后才能运行该p管理的g。这样带来的好处是,我们可以在p对象中预先申请一些系统资源(本地资源),g需要的时候先向自己的本地p申请(无需锁保护),如果不够用或没有再向全局申请,而且从全局拿的时候会多拿一部分,以供后面高效的使用。就像现在我们去政府办事情一样,先去本地政府看能搞定不,如果搞不定再去中央,从而提供办事效率。
而且由于p解耦了g和m对象,这样即使m由于被其上正在运行的g阻塞住,其余与该m关联的g也可以随着p一起迁移到别的活跃的m上继续运行,从而让g总能及时找到m并运行自己,从而提高系统的并发能力。
go运行时系统通过构造g-p-m对象模型实现了一套用户态的并发调度系统,可以自己管理和调度自己的并发任务,所以可以说go语言原生支持并发自己实现的调度器负责将并发任务分配到不同的内核线程上运行,然后内核调度器接管内核线程在cpu上的执行与调度。

可以看到go的并发用起来非常简单,用了一个语法糖将内部复杂的实现结结实实的包装了起来。其内部可以用下面这张图来概述:

写在最后,go运行时完整的调度系统是很复杂,很难用一篇文章描述的清楚,这里只能从宏观上介绍一下,让大家有个整体的认识。

// goroutine1
func task1() {
    go task2()
    go task3()
}

假如我们有一个g(goroutine1)已经通过p被安排到了一个m上正在执行,在goroutine1执行的过程中我们又创建两个g,这两个g会被马上放入与goroutine1相同的p的本地g任务队列中,排队等待与该p绑定的m的执行,这是最基本的结构,很好理解。 关键问题是:
a.如何在一个多核心系统上尽量合理分配g到多个m上运行,充分利用多核,提高并发能力呢?
如果我们在一个goroutine中通过go关键字创建了大量g,这些g虽然暂时会被放在同一个队列, 但如果这时还有空闲p(系统内p的数量默认等于系统cpu核心数),go运行时系统始终能保证至少有一个(通常也只有一个)活跃的m与空闲p绑定去各种g队列去寻找可运行的g任务,该种m称为自旋的m。一般寻找顺序为:自己绑定的p的队列,全局队列,然后其他p队列。如果自己p队列找到就拿出来开始运行,否则去全局队列看看,由于全局队列需要锁保护,如果里面有很多任务,会转移一批到本地p队列中,避免每次都去竞争锁。如果全局队列还是没有,就要开始玩狠的了,直接从其他p队列偷任务了(偷一半任务回来)。这样就保证了在还有可运行的g任务的情况下,总有与cpu核心数相等的m+p组合 在执行g任务或在执行g的路上(寻找g任务)。
b. 如果某个m在执行g的过程中被g中的系统调用阻塞了,怎么办?
在这种情况下,这个m将会被内核调度器调度出cpu并处于阻塞状态,与该m关联的其他g就没有办法继续执行了,但go运行时系统的一个监控线程(sysmon线程)能探测到这样的m,并把与该m绑定的p剥离,寻找其他空闲或新建m接管该p,然后继续运行其中的g,大致过程如下图所示。然后等到该m从阻塞状态恢复,需要重新找一个空闲p来继续执行原来的g,如果这时系统正好没有空闲的p,就把原来的g放到全局队列当中,等待其他m+p组合发掘并执行。

c. 如果某一个g在m运行时间过长,有没有办法做抢占式调度,让该m上的其他g获得一定的运行时间,以保证调度系统的公平性?
我们知道linux的内核调度器主要是基于时间片和优先级做调度的。对于相同优先级的线程,内核调度器会尽量保证每个线程都能获得一定的执行时间。为了防止有些线程"饿死"的情况,内核调度器会发起抢占式调度将长期运行的线程中断并让出cpu资源,让其他线程获得执行机会。当然在go的运行时调度器中也有类似的抢占机制,但并不能保证抢占能成功,因为go运行时系统并没有内核调度器的中断能力,它只能通过向运行时间过长的g中设置抢占flag的方法温柔的让运行的g自己主动让出m的执行权。
说到这里就不得不提一下goroutine在运行过程中可以动态扩展自己线程栈的能力,可以从初始的2kb大小扩展到最大1g(64bit系统上),因此在每次调用函数之前需要先计算该函数调用需要的栈空间大小,然后按需扩展(超过最大值将导致运行时异常)。go抢占式调度的机制就是利用在判断要不要扩栈的时候顺便查看以下自己的抢占flag,决定是否继续执行,还是让出自己。
运行时系统的监控线程会计时并设置抢占flag到运行时间过长的g,然后g在有函数调用的时候会检查该抢占flag,如果已设置就将自己放入全局队列,这样该m上关联的其他g就有机会执行了。但如果正在执行的g是个很耗时的操作且没有任何函数调用(如只是for循环中的计算操作),即使抢占flag已经被设置,该g还是将一直霸占着当前m直到执行完自己的任务。

如您对本文有疑问或者有任何想说的,请点击进行留言回复,万千网友为您解惑!

相关文章:

验证码:
移动技术网