服务器虚拟化概述,服务器虚拟化概述

Technorati 标签:
云计算,虚拟化

Technorati 标签:
云计算,虚拟化

正文基于网上的材料整理而成。

正文基于网上的资料整理而成。

第一章 服务器虚拟化概述

第一章 服务器虚拟化概述

1.1 为何要求服务器虚拟化

假如物理机上只安插一种工作,资源利用率太低,不便于节省开支。假诺说生产区域要求选择物理机来保险平稳,对于开发测试区使用虚拟机不但可以节约有限的物理机资源,还是能迅猛上线。

1.1 为何需求服务器虚拟化

假定物理机上只安插一种业务,资源利用率太低,不便利节约本钱。如若说生产区域需求使用物理机来保险安居,对于开发测试区使用虚拟机不但可以省去有限的物理机资源,仍可以急速上线。

1.2 虚拟化发展历史

  • 提议概念:1959年四月提议,在列国音讯处理大会上登载的《大型高速统计机中的时间共享》杂文中提议
  • 开发技术:20世纪60年间开端,IBM操作系统虚拟化技术应用在了大型机和袖珍机上
  • 蓬勃发展:20世纪90年代,VMware公司率先得以已毕了X86架构上的虚拟化,于1999年生产了x86平台上的率先款虚拟化商业软件VMware
    workstation。
  • 群雄逐鹿:越多的厂商插手了虚拟化技术的行伍

第二章 服务器虚拟化

服务器虚拟化主要有三种办法:

  • 硬件虚拟化:通过Hypervisor层虚拟出硬件系统环境,将硬件系统CPU发出的下令经过处理后传到大体CPU上。

硬件虚拟化的关键在于Hypervisor层。

所谓Hypervisor层就是在物理服务器和操作系统中间运行的软件层,可以对模拟硬件系统,将次第对这些硬件系统CPU发送的指令经过处理未来,加以虚拟传到物理CPU上。同时它能够协调访问服务器上的情理设备和虚拟机,也叫虚拟机监视器(VMM
)。

  • 容器:只是虚拟化出利用运行时的环境,是比较轻量的虚拟化,层次比较浅。

1.2 虚拟化发展历史

  • 提议概念:1959年一月提议,在国际消息处理大会上刊登的《大型高速统计机中的时间共享》随想中提出
  • 开发技术:20世纪60年代早先,IBM操作系统虚拟化技术使用在了大型机和微型机上
  • 蓬勃发展:20世纪90年份,VMware公司率先落到实处了X86架构上的虚拟化,于1999年出产了x86平台上的首先款虚拟化商业软件VMware
    workstation。
  • 群雄逐鹿:越来越多的厂商投入了虚拟化技术的武装力量

第二章 服务器虚拟化

服务器虚拟化主要有三种办法:

  • 硬件虚拟化:通过Hypervisor层虚拟出硬件系统环境,将硬件系统CPU发出的命令经过处理后传到大体CPU上。

硬件虚拟化的关键在于Hypervisor层。

所谓Hypervisor层就是在大体服务器和操作系统中间运行的软件层,可以对模拟硬件系统,将先后对那一个硬件系统CPU发送的授命经过处理未来,加以虚拟传到物理CPU上。同时它可以协调访问服务器上的情理设备和虚拟机,也叫虚拟机监视器(VMM
)。

  • 容器:只是虚拟化出利用运行时的环境,是相比轻量的虚拟化,层次相比较浅。

2.1 服务器虚拟化架构

  • 裸金属架构:Hypervisor层直接运行在硬件系统上。典型例证是KVM。KVM其实就是Linux内核提供的虚拟化架构,可将根本直接担任Hypervisor,KVM一般需要处理器本身支持虚拟化扩张技术,如IntelVT等。KVM使用内核模块kvm.ko来兑现主旨虚拟化作用,可是只提供了CPU和内存的虚拟化,必须结合QEMU才能组成完整的虚拟化技术。

图片 1

  • 宿主架构:典型的就是QEMU,它可以因此二进制转换到模拟CPU,使Guest
    OS认为自己再与硬件打交道。
    图片 2

2.1 服务器虚拟化架构

  • 裸金属架构:Hypervisor层直接运行在硬件系统上。典型例子是KVM。KVM其实就是Linux内核提供的虚拟化架构,可将根本直接担任Hypervisor,KVM一般须求处理器本身协理虚拟化扩充技术,如速龙VT等。KVM使用内核模块kvm.ko来兑现要旨虚拟化功效,但是只提供了CPU和内存的虚拟化,必须结合QEMU才能构成完整的虚拟化技术。

图片 3

  • 宿主架构:典型的就是QEMU,它可以由此二进制转换到模拟CPU,使Guest
    OS认为自己再与硬件打交道。
    图片 4

2.2 CPU虚拟化

进度的实践有三种景况

  • 内核态:紧要用以硬件访问,修改紧要参数,
  • 用户态:用户运行应用程序。

二种处境的权柄不同,对硬件的造访必须在内核态,能够保障系统的可相信性,只给采取人士开放用户态,不会对OS的运转带来大的熏陶。避免系统被人为攻击。

OS内核数据和代码区应该与用户区完全隔绝,也就是说程序可以见到的地址都是用户态地址,当程序执行系统调用的时候,进程会切入内核态举办基础访问,此时页表也必要切换来内核态的页表,带来的题材是性质相比差。因为页表在内存中,切换会带来性能的降落。

于是近日主流的OS的做法是将根本代码和数据区放到用户进度虚拟地址控制器的高位区,32bit系统放到3~4G,windows默许占用2~4G区,64bit系统也坐落高位。那样带来的功利是,进度空间的内核区也被映射到大体内存区,进度的切换不会促成TLB中往日缓存的指向内核区页表失效,保险了性能。

实在进度是不可能访问内核区,因为强行访问的话,页表条目有权限位(进度如今权限保存在寄存器的CPL字段,为Ring3,而根本页表的权位为Ring0,所以CPU会禁止访问。)

总括一下就是x86 架构提供八个特权级别给操作系统和应用程序来访问硬件。
Ring 是指 CPU 的运转级别,Ring 0是最高级别,Ring1次之,Ring2更次之……

  • 根本须求一贯访问硬件和内存,因而它的代码必要周转在最高运行级别
    Ring0上,那样它可以选拔特权指令比如控制中断、修改页表、访问设备等等。
  • 应用程序的代码运行在低于运行级别上Ring3上,怎样要拜访磁盘,那就需求实践系统调用,此时CPU的周转级别会暴发从ring3到ring0的切换,并跳转到系统调用对应的基石代码地点执行,那样基本就为您成功了装备访问,落成未来再从ring0再次回到ring3。其一历程也称成效户态和内核态的切换。

图片 5

对于非虚拟化操作系统而言,应用程序和种类发出的常备指令都运作在用户级别指令中,只有特权指令运行在主题级别中,那样操作系统与使用解耦合。

那么,虚拟化在那里就碰着了一个难题,因为物理机OS是干活在 Ring0
的,虚拟机的操作系统就不可以也在 Ring0
了,所以有些特权指令是尚未履行权限的

CPU虚拟化的章程就是

  • 特权解除:让Guest
    OS运行在用户级别,让hypervisor运行在着力级别,那样就免去了Guest
    OS的特权级别。
  • 深陷模拟:运作在Guest
    OS的平日指令像过去相同运行,当运行到特权指令时,会爆发格外并被hypervisor捕获。
    图片 6

那么困难在于:

  • 哪些模拟x86敬爱形式
  • 怎么着阻止并举行虚拟机的Ring0指令。
    缓解格局如下

2.2 CPU虚拟化

进度的进行有二种情形

  • 内核态:首要用来硬件访问,修改首要参数,
  • 用户态:用户运行应用程序。

二种情况的权能分化,对硬件的拜会必须在内核态,可以保障系统的可信性,只给使用职员开放用户态,不会对OS的运行带来大的震慑。幸免系统被人工攻击。

OS内核数据和代码区应该与用户区完全切断,也就是说程序能够看来的地点都是用户态地址,当程序执行系统调用的时候,进程会切入内核态举行基础访问,那儿页表也急需切换来内核态的页表,带来的问题是性质比较差。因为页表在内存中,切换会带来性能的低落。

因而近年来主流的OS的做法是将基本代码和数据区放到用户进程虚拟地址控制器的高位区,32bit系统放到3~4G,windows默许占用2~4G区,64bit系统也位于高位。那样拉动的裨益是,进程空间的内核区也被映射到大体内存区,进度的切换不会招致TLB中从前缓存的针对性内核区页表失效,有限支持了性能。

实则进度是不可以访问内核区,因为强行访问的话,页表条目有权限位(进程近日权限保存在寄存器的CPL字段,为Ring3,而根本页表的权力为Ring0,所以CPU会禁止访问。)

小结一下就是x86 架构提供多个特权级别给操作系统和应用程序来拜会硬件。
Ring 是指 CPU 的运行级别,Ring 0是最高级别,Ring1次之,Ring2更次之……

  • 基本要求直接访问硬件和内存,由此它的代码须求周转在最高运行级别
    Ring0上,那样它可以动用特权指令比如控制中断、修改页表、访问设备等等。
  • 应用程序的代码运行在低于运行级别上Ring3上,怎样要拜访磁盘,这就须要执行系统调用,此时CPU的运行级别会生出从ring3到ring0的切换,并跳转到系统调用对应的基础代码地方执行,那样基本就为您做到了设施访问,完结以后再从ring0重返ring3。本条进度也称功用户态和内核态的切换。

图片 7

对此非虚拟化操作系统而言,应用程序和连串发出的平凡指令都运行在用户级别指令中,唯有特权指令运行在焦点级别中,那样操作系统与应用解耦合。

那就是说,虚拟化在那里就遇到了一个难题,因为物理机OS是干活在 Ring0
的,虚拟机的操作系统就不可能也在 Ring0
了,所以有的特权指令是尚未履行权限的

CPU虚拟化的章程就是

  • 特权解除:让Guest
    OS运行在用户级别,让hypervisor运行在着力级别,那样就废除了Guest
    OS的特权级别。
  • 深陷模拟:运作在Guest
    OS的日常指令像过去相同运行,当运行到特权指令时,会爆发分外并被hypervisor捕获。
    图片 8

那么困难在于:

  • 哪些模拟x86珍视格局
  • 怎么样阻止并进行虚拟机的Ring0指令。
    化解措施如下
2.2.1 CPU虚拟化技术解决方法
  • 全虚拟化:客户操作系统运行在 Ring
    1,它在履行特权指令时,会接触万分,然后
    hypervisor捕获那一个尤其,在老大里面做翻译,最后回来到客户操作系统内,客户操作系统认为自己的特权指令工作正常,继续运行。所以也叫二进制翻译技术(Binary
    Translate)。
    唯独那么些特性损耗万分的大,简单的一条指令现在却要透过复杂的万分处理进度
    图片 9

    • 亮点:不用修改GuestOS内核可以从来运用
    • 症结:在VMM捕获特权指令和翻译进程会导致性能的暴跌。
      图片 10
      从上图能够看出,当虚拟机中的应用要运行在内核态的时候,会通过Hypervisor层的效仿,通过二进制翻译技术,将指令替换为别的的吩咐。
  • 半虚拟化:修改操作系统内核,替换掉不可能虚拟化的指令,通过一级调用(hypercall)直接和底部的虚拟化层hypervisor来电视发表,
    争执于完全虚拟化性能更高,因为省去了翻译的进度。但是急需对Guest
    OS举办修改,应用场景不多。
    图片 11
  • 硬件接济虚拟化: 二〇〇五年后,CPU厂商AMD 和 英特尔 初始帮助虚拟化了。
    Intel 引入了 速龙-VT (Virtualization Technology)技术
    主要的完成格局是增多了一个VMX
    non-root操作格局,运行VM时,客户机OS运行在non-root方式,如故有Ring0~ring3等级别
    当运行特权指令时仍然暴发中断的时候,通过VM_EXIT就可以切换来root情势,拦截VM对虚拟硬件的访问。执行达成,通过VM_ENTRY回到non-root即可。
    图片 12
    那种技术主要代表为intel VT-X,英特尔的英特尔-V
    图片 13

全虚拟化

半虚拟化

硬件辅助虚拟化

实现技术

BT和直接执行

Hypercall

客户操作系统修改/兼容性

无需修改客户操作系统,最佳兼容性

客户操作系统需要修改来支持hypercall,因此它不能运行在物理硬件本身或其他的hypervisor上,兼容性差,不支持Windows

性能

好。半虚拟化下CPU性能开销几乎为0,虚机的性能接近于物理机。

应用厂商

VMware Workstation/QEMU/Virtual PC

Xen

KVM 是基于CPU
赞助的全虚拟化方案,它须求CPU虚拟化特性的支撑。
总结:
图片 14

2.2.1 CPU虚拟化技术解决办法
  • 全虚拟化:客户操作系统运行在 Ring
    1,它在实施特权指令时,会接触非凡,然后
    hypervisor捕获那一个那几个,在丰裕里面做翻译,最终回来到客户操作系统内,客户操作系统认为自己的特权指令工作正常化,继续运行。所以也叫二进制翻译技术(Binary
    Translate)。
    可是那么些特性损耗格外的大,简单的一条指令现在却要由此复杂的百般处理进程
    图片 15

    • 优点:不用修改GuestOS内核能够直接行使
    • 缺点:在VMM捕获特权指令和翻译进度会招致性能的狂跌。
      图片 16
      从上图可以观看,当虚拟机中的应用要运行在内核态的时候,会透过Hypervisor层的模拟,通过二进制翻译技术,将指令替换为任何的通令。
  • 半虚拟化:修改操作系统内核,替换掉不可能虚拟化的下令,通过一流调用(hypercall)直接和尾部的虚拟化层hypervisor来杂志发表,
    相对于完全虚拟化性能更高,因为省去了翻译的经过。然则需求对Guest
    OS举行改动,应用场景不多。
    图片 17
  • 硬件辅助虚拟化: 二〇〇五年后,CPU厂商AMD 和 速龙 早先协助虚拟化了。
    英特尔 引入了 英特尔-VT (Virtualization Technology)技术
    重点的完成格局是扩张了一个VMX
    non-root操作格局,运行VM时,客户机OS运行在non-root方式,依旧有Ring0~ring3等级别
    当运行特权指令时抑或暴发中断的时候,通过VM_EXIT就可以切换来root方式,拦截VM对虚拟硬件的走访。执行完成,通过VM_ENTRY回到non-root即可。
    图片 18
    那种技术首要代表为intel VT-X,英特尔的英特尔-V
    图片 19

全虚拟化

半虚拟化

硬件辅助虚拟化

实现技术

BT和直接执行

Hypercall

客户操作系统修改/兼容性

无需修改客户操作系统,最佳兼容性

客户操作系统需要修改来支持hypercall,因此它不能运行在物理硬件本身或其他的hypervisor上,兼容性差,不支持Windows

性能

好。半虚拟化下CPU性能开销几乎为0,虚机的性能接近于物理机。

应用厂商

VMware Workstation/QEMU/Virtual PC

Xen

KVM 是基于CPU
赞助的全虚拟化方案,它须要CPU虚拟化特性的帮衬。
总结:
图片 20

2.3 内存虚拟化原理

内存虚拟化指的是共享物理系统内存,动态分配给虚拟机。虚拟机的内存虚拟化很象虚拟内存方式

虚拟内存是电脑种类内存管理的一种技术,目的是让应用程序认为它抱有屡次三番的可用的内存(一个总是完整的地方空间)。其实就是操作系统将内存资源的虚拟化,屏蔽了内存调用的底细,对应用程序而言,不必要关爱内存访问的底细,可以把内存当作线性的内存池。

x86 CPU 都囊括了一个号称内存管理的模块MMU(Memory Management Unit)和
TLB(Translation Lookaside Buffer),通过MMU和TLB来优化虚拟内存的性能。

OS将内存按照4KB为单位举办分页,形成虚拟地址和物理地址的映射表。设若OS在物理机上运行,只要OS提供这几个页表,MMU会在访存时自动做虚拟地址(Virtual
address, VA)到大体地址(Physical address, PA)的转折。

但是一旦虚拟机上运行OS,Guest
OS经过地点转化到的“物理地址”实际上是QEMU的逻辑地址,因而还索要采纳软件将其转化为实际物理内存地址

对此OS运行在大体机上的场所

图片 21

设若经过访问内存的时候,发现映射表中还不曾物理内存举办相应。如下图

图片 22

那会儿MMU向CPU发出缺页中断,操作系统会依照页表中的外存地址,在外存中找到所缺的一页,将其调入内存。同时更新页表的映照关系。下两次访问的时候可以间接命中物理内存。

图片 23

对此OS在虚拟机中的景况,进程就要复杂很多。

对于虚拟机内的经过的变换,须求展开两次改换。也就是说首先将利用的逻辑地址转换为虚拟机的情理地址,而那实际上是QEMU进度的逻辑地址,所以要映射到骨子里内存的大体地址还亟需做三回转换。

图片 24

  • VA:应用的虚拟地址
  • PA:虚拟机物理地址,也是QEMU进度的逻辑地址
  • MA:物理机的大体地址

可知,KVM
为了在一台机器上运行多少个虚拟机,需求扩充一个新的内存虚拟化层,也就是说,必须虚拟
MMU 来支持客户OS,完毕 VA -> PA -> MA 的翻译。

客户操作系统继续控制虚拟地址到客户内存物理地址的映射 (VA ->
PA),不过客户操作系统无法一直访问实际机器内存,因而VMM
须求承受映射客户物理内存到实际机器内存 (PA -> MA)。

图片 25

VMM 内存虚拟化的兑现形式:

  • 软件格局:通过软件完结内存地址的翻译,比如 Shadow page table
    (影子页表)技术
  • 硬件完毕:基于 CPU 的帮带虚拟化功效,比如 AMD 的 NPT 和 AMD 的 EPT
    技术

2.3 内存虚拟化原理

内存虚拟化指的是共享物理系统内存,动态分配给虚拟机。虚拟机的内存虚拟化很象虚拟内存方式

虚拟内存是电脑连串内存管理的一种技术,目标是让应用程序认为它具备接二连三的可用的内存(一个连续完整的地点空间)。其实就是操作系统将内存资源的虚拟化,屏蔽了内存调用的细节,对应用程序而言,不必要关切内存访问的底细,可以把内存当作线性的内存池。

x86 CPU 都席卷了一个誉为内存管理的模块MMU(Memory Management Unit)和
TLB(Translation Lookaside Buffer),通过MMU和TLB来优化虚拟内存的性质。

OS将内存根据4KB为单位展开分页,形成虚拟地址和情理地址的映射表。设若OS在物理机上运行,只要OS提供那一个页表,MMU会在访存时自动做虚拟地址(Virtual
address, VA)到大体地址(Physical address, PA)的中转。

而是只要虚拟机上运行OS,Guest
OS经过地点转化到的“物理地址”实际上是QEMU的逻辑地址,因而还索要利用软件将其转会为实际物理内存地址

对此OS运行在情理机上的情况

图片 26

借使经过访问内存的时候,发现映射表中还并未物理内存进行对应。如下图

图片 27

那会儿MMU向CPU发出缺页中断,操作系统会按照页表中的外存地址,在外存中找到所缺的一页,将其调入内存。同时更新页表的映射关系。下几次访问的时候可以直接命中物理内存。

图片 28

对此OS在虚拟机中的情况,进程就要复杂很多。

对于虚拟机内的进度的变换,要求展开两次更换。也就是说首先将利用的逻辑地址转换为虚拟机的大体地址,而这实际是QEMU进度的逻辑地址,所以要映射到实在内存的物理地址还索要做四次转换。

图片 29

  • VA:应用的虚拟地址
  • PA:虚拟机物理地址,也是QEMU进程的逻辑地址
  • MA:物理机的大体地址

可知,KVM
为了在一台机械上运行六个虚拟机,须要追加一个新的内存虚拟化层,也就是说,必须虚拟
MMU 来协理客户OS,完毕 VA -> PA -> MA 的翻译。

客户操作系统继续控制虚拟地址到客户内存物理地址的映射 (VA ->
PA),然而客户操作系统无法一贯访问实际机器内存,由此VMM
须要担当映射客户物理内存到实际机器内存 (PA -> MA)。

图片 30

VMM 内存虚拟化的已毕方式:

  • 软件方式:通过软件落成内存地址的翻译,比如 Shadow page table
    (影子页表)技术
  • 硬件达成:基于 CPU 的助手虚拟化作用,比如 英特尔 的 NPT 和 英特尔 的 EPT
    技术
2.3.1 软件形式

阴影页表(SPT,shadow page
table):Hypervisor为虚拟机尊崇了一个虚拟机的虚拟地址到宿主机大体地址照耀的的页表。也就是说,在本来的两层地址层次基础上加了一层伪物理地址层次,通过那张表可以将客户机虚拟地址宿主机物理地址里头开展映射。

客户OS成立之后,Hypervisor创造其对应影子页表。刚起初影子页表是空的,此时任何客户OS的访存操作都会生出缺页中断,然后Hypervisor捕获缺页非常

图片 31

由此一次地址映射转换得到虚拟机虚拟地址物理机物理地址的映射关系,写入影子页表,逐步做到有着虚拟地址到宿主机机器地址的照射。
图片 32

代价是亟需保证虚拟机的页表和宿主机的黑影页表的同台。

2.3.1 软件方式

黑影页表(SPT,shadow page
table):Hypervisor为虚拟机保安了一个虚拟机的虚拟地址到宿主机物理地址炫耀的的页表。也就是说,在原来的两层地址层次基础上加了一层伪物理地址层次,通过那张表可以将客户机虚拟地址宿主机物理地址时期展开映射。

客户OS成立之后,Hypervisor创造其对应影子页表。刚开始影子页表是空的,此时其余客户OS的访存操作都会爆发缺页中断,然后Hypervisor捕获缺页分外

图片 33

通过两次地址映射转换得到虚拟机虚拟地址物理机物理地址的映射关系,写入阴影页表,逐步做到有着虚拟地址到宿主机机器地址的照射。
图片 34

代价是亟待保持虚拟机的页表和宿主机的黑影页表的联手。

2.3.2 通过INTEL EPT技术来兑现

KVM 中,虚机的情理内存即为 qemu-kvm 进度所占有的内存空间。KVM 使用
CPU 援助的内存虚拟化格局。在 速龙 和 AMD平台,其内存虚拟化的得以完成方式分别为:

  • 英特尔 平台上的 NPT (Nested Page Tables) 技术
  • 英特尔 平台上的 EPT (Extended Page Tables)技术
    EPT 和 NPT接纳类似的法则,都是作为 CPU
    中新的一层,通过硬件用来将客户机的物理地址翻译为主机的物理地址。也就是说Guest
    OS完毕虚拟机虚拟地址–>虚拟机物理地址第一层转化,硬件同时做到虚拟机物理地址到物理机物理地址那第二层转化。第二层转换对Guest
    OS来说是晶莹剔透的,Guest
    OS访问内存时和在物理机运行时是同等的。那种措施又称之为内存扶助虚拟化。

据此内存辅助虚拟化就是直接用硬件来兑现虚拟机的情理地址到宿主机的物理地址的一步到位映射。VMM不用再保留一份
SPT (Shadow Page
Table),通过EPT技术,不再须求联合八个页表,虚拟机内部的切换也不须求qemu进度切换,所急需的是只是一遍页表查找,而且是经过硬件来完毕的,性能损耗低。

流程如下:

  • VM中的应用发现页没有分片,MMU发起中断,从虚拟机的情理地址(QEMU的逻辑地址)中分配一页,然后更新页表。
    图片 35
  • 此时虚拟机页的情理地址还没对应物理内存的地址,所以触发了qemu进度在宿主机的page
    fault。宿主机内核分配内存页,并更新页表。
    图片 36
  • 下次造访就能够借助EPT来拓展,只要求查一次表即可。

图片 37

总结:
图片 38

2.3.2 通过INTEL EPT技术来兑现

KVM 中,虚机的物理内存即为 qemu-kvm 进度所占据的内存空间。KVM 使用
CPU 协助的内存虚拟化格局。在 Intel 和 英特尔平台,其内存虚拟化的落成格局分别为:

  • AMD 平台上的 NPT (Nested Page Tables) 技术
  • 速龙 平台上的 EPT (Extended Page Tables)技术
    EPT 和 NPT选拔类似的法则,都是用作 CPU
    中新的一层,通过硬件用来将客户机的物理地址翻译为主机的大体地址。也就是说Guest
    OS落成虚拟机虚拟地址–>虚拟机物理地址第一层转化,硬件同时完成虚拟机物理地址到物理机物理地址那第二层转化。第二层转换对Guest
    OS来说是透明的,Guest
    OS访问内存时和在物理机运行时是平等的。那种措施又叫做内存协理虚拟化。

由此内存帮忙虚拟化就是一直用硬件来贯彻虚拟机的大体地址到宿主机的大体地址的一步到位映射。VMM不用再保留一份
SPT (Shadow Page
Table),通过EPT技术,不再须求共同三个页表,虚拟机内部的切换也不须要qemu进度切换,所急需的是只是一回页表查找,而且是透过硬件来形成的,性能损耗低。

流程如下:

  • VM中的应用发现页没有分片,MMU发起中断,从虚拟机的物理地址(QEMU的逻辑地址)中分配一页,然后更新页表。
    图片 39
  • 此时虚拟机页的情理地址还没对应物理内存的地址,所以触发了qemu进度在宿主机的page
    fault。宿主机内核分配内存页,并创新页表。
    图片 40
  • 下次拜会就足以借助EPT来展开,只需求查一次表即可。

图片 41

总结:
图片 42

2.4 KVM其他内存管理技术

2.4 KVM其余内存管理技术

2.4.1 KSM (Kernel SamePage Merging 或者 Kernel Shared Memory)

KSM 是基本中的守护进度(称为
ksmd),它会定期举办页面扫描,将副本页面举行统一,然后释放多余的页面。KVM使用KSM来减弱多个一般的虚拟机的内存占用,提升内存的选拔效用,在虚拟机使用同样镜像和操作系统时,效果更是肯定。不过会扩大水源开发,所以为了升高成效,可以将此特性关闭。

2.4.1 KSM (Kernel SamePage Merging 或者 Kernel Shared Memory)

KSM 是根本中的守护进度(称为
ksmd),它会定期开展页面扫描,将副本页面举行联合,然后释放多余的页面。KVM使用KSM来压缩四个一般的虚拟机的内存占用,进步内存的施用频率,在虚拟机使用同一镜像和操作系统时,效果更为明确。不过会追加基础开发,所以为了提高功用,能够将此特性关闭。

2.4.2 KVM Huge Page Backed Memory (巨页内存技术)

英特尔 的 x86 CPU 平日接纳4Kb内存页,当是经过安插,也可以运用巨页(huge
page): (4MB on x86_32, 2MB on x86_64 and x86_32
PAE)使用巨页,KVM的虚拟机的页表将应用更少的内存,并且将拉长CPU的效用。最高情状下,可以增强20%的频率!

2.4.2 KVM Huge Page Backed Memory (巨页内存技术)

速龙 的 x86 CPU 平日选取4Kb内存页,当是经过安插,也可以运用巨页(huge
page): (4MB on x86_32, 2MB on x86_64 and x86_32
PAE)使用巨页,KVM的虚拟机的页表将选拔更少的内存,并且将加强CPU的功能。最高景况下,可以提升20%的频率!

2.5 IO虚拟化

  • 上行下效(完全虚拟):使用 QEMU 纯软件的不二法门来效仿 I/O
    设备。使用一个Service VM来模拟真实硬件,性能很差。
    客户机的设备驱动程序发起 I/O
    请求操作请求,KVM会捕获此IO请求,然后放到IO共享页,同时用户空间的QEMU进度,QEMU模拟出本次IO操作,同样置于共享页中并同时KVM举行结果的取回。

注意:当客户机通过DMA (Direct Memory Access)访问大块I/O时,QEMU
模拟程序将不会把结果放进共享页中,而是通过内存映射的办法将结果平昔写到客户机的内存中,然后文告KVM模块告诉客户机DMA操作已经做到。

图片 43

  • 半虚拟化: KVM/QEMU就选用那种情势,它在 Guest OS 内核中设置前端驱动
    (Front-end driver)和在 QEMU
    中已毕后端驱动(Back-end)的法子。前后端驱动通过 vring
    (完成虚拟队列的环形缓冲区)直接通讯,那就绕过了经过 KVM
    内核模块的历程,进步了IO性能,相对于完全虚拟的方式,
    省去了纯模仿格局下的不得了捕获环节,Guest OS 能够和 QEMU 的 I/O
    模块直接通讯。

图片 44

  • IO-through:直接把机物理设备分配给虚拟机,不过须要硬件具备IO透传技术;,AMD定义的 I/O 虚拟化技术成为 VT-d,英特尔 的名为 英特尔-V。
    KVM 协助客户机以垄断格局访问这些宿主机的 PCI/PCI-E
    设备。通过硬件支撑的 VT-d
    技术将设备分给客户机后,在客户机看来,设备是物理上接连在PCI或者PCI-E总线上的
    差点所有的 PCI 和 PCI-E
    设备都协理直接分配,除了显卡以外(显卡的特殊性在那里)。PCI
    Pass-through 需要硬件平台 速龙 VT-d 或者 英特尔 IOMMU
    的援助。这一个特色必须在 BIOS 中被启用
    图片 45

    • 好处:缩短了 VM-Exit 陷入到 Hypervisor
      的进度,极大地升高了性能,可以达标大约和原生系统一样的特性。而且VT-d
      制服了 virtio 包容性不佳和 CPU 使用频率较高的题目。
    • 相差:独占设备的话,不可以兑现设备的共享,用度拉长。
    • 相差的化解方案:(1)在一台物理宿主机上,仅少数 I/O
      如网络性能须求较高的客户机使用
      VT-d间接分配设备,其他的利用纯模仿或者 virtio
      已落得多个客户机共享同一个配备的目标(2)对于网络I/O的解决办法,可以挑选 SR-IOV
      是一个网卡发生六个单身的虚拟网卡,将种种虚拟网卡分配个一个客户机使用。

总结
图片 46

2.5 IO虚拟化

  • 模仿(完全虚拟):使用 QEMU 纯软件的法子来效仿 I/O
    设备。使用一个Service VM来模拟真实硬件,性能很差。
    客户机的设备驱动程序发起 I/O
    请求操作请求,KVM会捕获此IO请求,然后放到IO共享页,同时用户空间的QEMU进度,QEMU模拟出这一次IO操作,同样置于共享页中并还要KVM进行结果的取回。

注意:当客户机通过DMA (Direct Memory Access)访问大块I/O时,QEMU
模拟程序将不会把结果放进共享页中,而是通过内存映射的法门将结果一贯写到客户机的内存中,然后布告KVM模块告诉客户机DMA操作已经完毕。

图片 47

  • 半虚拟化: KVM/QEMU就应用那种格局,它在 Guest OS 内核中设置前端驱动
    (Front-end driver)和在 QEMU
    中完结后端驱动(Back-end)的主意。前后端驱动通过 vring
    (达成虚拟队列的环形缓冲区)直接通讯,那就绕过了经过 KVM
    内核模块的长河,进步了IO性能,相对于完全虚拟的方式,
    省去了纯模仿情势下的那些捕获环节,Guest OS 可以和 QEMU 的 I/O
    模块直接通信。

图片 48

  • IO-through:直接把机物理设备分配给虚拟机,不过须要硬件具备IO透传技术;,速龙定义的 I/O 虚拟化技术变为 VT-d,英特尔 的号称 英特尔-V。
    KVM 支持客户机以垄断格局访问这几个宿主机的 PCI/PCI-E
    设备。通过硬件支撑的 VT-d
    技术将设备分给客户机后,在客户机看来,设备是物理上接连在PCI或者PCI-E总线上的
    差一些所有的 PCI 和 PCI-E
    设备都帮忙直接分配,除了显卡以外(显卡的特殊性在此处)。PCI
    Pass-through 必要硬件平台 英特尔 VT-d 或者 AMD IOMMU
    的帮忙。这一个特征必须在 BIOS 中被启用
    图片 49

    • 便宜:裁减了 VM-Exit 陷入到 Hypervisor
      的经过,极大地进步了性能,可以达标大致和原生系统一样的属性。而且VT-d
      制服了 virtio 包容性不佳和 CPU 使用频率较高的题材。
    • 相差:独占设备的话,无法兑现设备的共享,花费增进。
    • 不足的化解方案:(1)在一台物理宿主机上,仅少数 I/O
      如网络性能须求较高的客户机使用
      VT-d间接分配设备,其他的采纳纯模仿或者 virtio
      已高达两个客户机共享同一个设备的目标(2)对于网络I/O的解决办法,能够选拔 SR-IOV
      是一个网卡爆发八个单身的杜撰网卡,将各样虚拟网卡分配个一个客户机使用。

总结
图片 50

2.6 网卡虚拟化

VM发出的流量一般有二种

  • 到物理机外部的设备,
  • 到当地物理服务器上的虚拟机。

故而大家必要确保分裂虚拟机流量的相互隔离,同时又要考虑情理设备内虚拟机的互联互通。

化解措施:
对于对物理机外部的流量,给每个VM分配一个专用通道,共享物理网卡资源。
关键有如下两种形式:

  • Bridge桥接形式:把物理主机上的网卡当调换机,然后虚拟出一个Bridge来接收发往物理机的包。
    图片 51
  • isolation mode:仅guest OS之间通讯;不与外部网络和宿主机通讯。
    图片 52
  • routed mode:与外表主机通讯,通过静态路由使得各Guest OS
    的流量需通过物理网卡
    图片 53
  • nat:地址转换;在虚拟网卡和情理网卡之间建立一个nat转载服务器;对数据包举行源地址转换。
    图片 54

对内部流量:

  • 在hypervisor上树立virtual
    switch,不过会消耗CPU资源,而且存在较大安全隐患。(intel的VT-c用VMDq技术使网卡芯片处理部分vswitch的办事,同时用vFW来保证平安)
  • 可以先让流量出服务器通过安全设备区域开展多少清洗以后再回来。主流格局接纳硬件SR-IOV对VM流量进行识别和处理

总结

图片 55

2.6 网卡虚拟化

VM发出的流量一般有两种

  • 到物理机外部的设施,
  • 到当地物理服务器上的虚拟机。

为此大家必要确保差距虚拟机流量的相互隔离,同时又要考虑情理设备内虚拟机的互联互通。

解决方法:
对于对物理机外部的流量,给每个VM分配一个专用通道,共享物理网卡资源。
第一有如下二种形式:

  • Bridge桥接方式:把物理主机上的网卡当沟通机,然后虚拟出一个Bridge来接收发往物理机的包。
    图片 56
  • isolation mode:仅guest OS之间通讯;不与表面网络和宿主机通讯。
    图片 57
  • routed mode:与表面主机通信,通过静态路由使得各Guest OS
    的流量需通过物理网卡
    图片 58
  • nat:地址转换;在虚拟网卡和物理网卡之间确立一个nat转发服务器;对数码包举办源地址转换。
    图片 59

对其中流量:

  • 在hypervisor上确立virtual
    switch,可是会损耗CPU资源,而且存在较大安全隐患。(intel的VT-c用VMDq技术使网卡芯片处理部分vswitch的劳作,同时用vFW来保证平安)
  • 能够先让流量出服务器通过安全设备区域展开数量清洗未来再回到。主流格局选择硬件SR-IOV对VM流量进行鉴别和拍卖

总结

图片 60

2.7 Hypervisor层的虚拟化落成

操作系统是用户和物理机的接口,也是利用和情理硬件的接口。大旨功用在于义务调度和硬件抽象。

分裂操作系统的最大不一致在于内核。

单内核、混合内核、微内核、外内核的界别
图片 61

  • 单内核:内核所有的功效代码全部都运行在同一个基本空间内,优点是性质性能很高,缺点是布置性复杂,稳定性不够好;
  • 微内核:类似C/S服务形式,唯有最基础的代码会运行于内核空间,其他的都运作于用户空间,优点是平静高,缺点性能较低;
  • 掺杂内核:性能与安宁的折衷产物,完全由设计者进行用户自定义;
  • 外内核:比微内核越发极端,连硬件抽象工作都付出用户空间,内核只须求确保应用程序访问硬件资源时,硬件是悠闲的

图片 62

2.7 Hypervisor层的虚拟化完结

操作系统是用户和物理机的接口,也是行使和物理硬件的接口。焦点职能在于义务调度和硬件抽象。

不等操作系统的最大不一致在于内核。

单内核、混合内核、微内核、外内核的分别
图片 63

  • 单内核:内核所有的效果代码全体都运作在同一个基础空间内,优点是性质性能很高,缺点是安插复杂,稳定性不够好;
  • 微内核:类似C/S服务形式,唯有最基础的代码会运作于内核空间,其余的都运行于用户空间,优点是稳定高,缺点性能较低;
  • 错落内核:性能与安定的低头产物,完全由设计者举行用户自定义;
  • 外内核:比微内核越发极端,连硬件抽象工作都交给用户空间,内核只必要有限支持应用程序访问硬件资源时,硬件是悠闲的

图片 64

2.7.1 主流的Hypervisor总结

Hypervisor的类别

KVM

Xen

Hyper-v

ESX/ESXi

内核类型

Linux

Linux(修改)&Nemesis

Windows&Hyper-V

Linux&VMernel

内核

单核

外内核

外内核

混合内核

I/O虚拟化方式

类Service VM Model

Service VM Model

Service VM Model

Monolithic Model

特点

集成在Linux内核中

有被KVM取代之势,性能低于KVM

捆绑Windows Server

技术积累深厚,Vmkernel是核心竞争力

2.7.1 主流的Hypervisor总结

Hypervisor的类别

KVM

Xen

Hyper-v

ESX/ESXi

内核类型

Linux

Linux(修改)&Nemesis

Windows&Hyper-V

Linux&VMernel

内核

单核

外内核

外内核

混合内核

I/O虚拟化方式

类Service VM Model

Service VM Model

Service VM Model

Monolithic Model

特点

集成在Linux内核中

有被KVM取代之势,性能低于KVM

捆绑Windows Server

技术积累深厚,Vmkernel是核心竞争力

相关文章