分类 Paas 下的文章

背景和需求

公司目前使用PC办公。部分PC已经超过了使用年限,故障率很高,维护的压力较大。公司搬迁到新的工作办公室,老旧的PC机箱既占用空间,又办公室的风格很不搭配。公司决定建设桌面云系统替代PC办公。


目前市场上的桌面云系统主要分为三类:

1)拥有独立桌面协议的厂家,如 Citrix、VMware、微软、华为等。这些厂家的特点是有自己的桌面协议,以软件的形式销售桌面虚拟化系统,解决方案比较开放。桌面云方案可以允许用户选择不同的硬件基础设施,虚拟化系统,以及云终端。


2)基于开源协议优化的桌面虚拟化厂家,如深信服、锐捷等。这些厂家的特点是使用开源的KVM虚拟化系统和SPICE协议,对虚拟化系统和SPICE协议做了一些增强。通常提供从硬件基础设施、桌面虚拟化软件、云终端的整套解决方案。


3)专注于桌面虚拟化管理的桌面虚拟化厂家,如杰云科技、朵拉云等。这些厂家的特点是支持多种桌面虚拟化系统和桌面协议,可以选用商用的虚拟化平台。


作为中小企业,第一类产品授权费用较高,实施比较复杂,并且配套的云终端的成本较高。第二类产品解决方案相对封闭,如果不选择厂家的服务器硬件,难免出现各种兼容性问题。并且一旦更换桌面云方案,云终端基本上就无法使用了。


综合考虑,我们选择了朵拉云的Deskpool桌面虚拟化系统构建桌面云方案。Deskpool支持主流的商业虚拟化平台(Hyper-V、VMware、XenServer、Proxmox),企业的IT人员可以重分利用自己在虚拟化平台上的经验,公司在部署桌面云之前,已尽有VMware vSphere和Hyper-V的维护经验。由于采用的是商业的虚拟化平台,因此服务器硬件可以灵活选择。不必从桌面云厂家采购服务器。另外朵拉云的云终端是通用的云终端,支持多种桌面协议(ICA/HDX、PCoIP、RDP、HDP、SPICE等),避免了由于桌面云方案变更导致云终端需要报废的风险。朵拉云的桌面云方案如下图:


 


 




 


虚拟化系统我们选择 Windows Server 2012R2。服务器硬件选择了Dell R740服务器。

 


容量规划


 


公司的办公PC的配置要求为: i3处理器、4GB内存、500GB硬盘。主要运行Office、浏览器、QQ等常见的应用软件。


折算成桌面云,每个云桌面的配置如下,合计50个桌面。 考虑到服务器的存储成本较高,每个用户规划了50GB系统盘,100GB数据盘。如果用户有更大的存储需求,可以后期增配NAS。


推荐场景


规格(链接克隆方式)


数量


OA办公


VCPU=2    MEM=4G  系统母盘=30G,系统差分盘=50G,系统盘IOPS=25,数据盘=100G,磁盘IOPS=5


50


根据上述配置,计算的服务器配置如下:


CPU:Xeon银牌 4214R 2.4Ghz * 2


内存:256GB(32GB DDR4 * 8)


系统盘:240G SSD * 1 [Intel S4510]


SSD:480GB * 2 [Intel S4510]


硬盘:4TB * 4


电源:双电源


在此说明一下服务器配置计算的原则。


按照每个用户配置0.9个逻辑处理器计算,50个用户需要48个逻辑处理器,配置银牌4214R*2,提供24个物理核心,48个逻辑处理器,满足需求。

内存按照每用户4GB,需要200GB,考虑配置32G内存8条。

240G的SSD用作系统盘。

2个480G SSD与4个4TB SATA构成分层存储,采用Mirror模式,提供大约8TB的有效存储空间。分层存储是利用Windows Server 2012R2的Storage Space特性实现的。该特性可以混合使用SSD和HDD,提供分层存储的能力。热点数据保存在SSD。从而实现HDD的容量,和接近SSD的IO性能。

 


该配置的Dell R740的成本大约40000元。


 


项目的配置清单如下:(不包含网络设备)


类别 型号 规格 数量

服务器 Dell R740 Dell R740

CPU:Xeon 银牌 4214R 2.4Ghz x 2

内存:256GB(32GB DDR4 * 8)

系统盘:240G SSD * 1 [Intel S3510/S3520]

SSD:480GB * 2 [Intel S4510 或者Dell 企业级固态盘] 

硬盘:4TB * 4

电源:双电源

网卡:GE*4 1台

虚拟化 Windows Server 2012R2 中文 标准版 1套

桌面虚拟化 Deskpool 桌面虚拟化管理系统,支持模板、桌面池、用户和连接管理。永久授权,含一年支持和服务 1套

桌面操作系统 Windows 7 中文 专业版 50套

云终端 JC10 50台

 


部署准备


硬件:


1、Dell R740 服务器


2、50台JC10终端


软件:


1、下载 Deskpool 桌面虚拟化系统。


https://doracloud.cn/downloads/showdownload.php?id=7


网络:


1、要求网络启用DHCP,并且预留2个静态IP,分别预留给 物理服务器和 Deskpool 管理系统。


 


部署过程


1、安装Windows Server 2012R2 标准版,选择带GUI界面的安装。 




2、安装Hyper-V 角色,并创建虚拟交换机。虚拟交换机命名为 vswitch1




3、配置Windows 分层存储。


具体的配置文档,可以参见 分层存储部署指导。  使用Mirror 模式。


https://wenku.baidu.com/view/6d8aa5c0312b3169a451a4f9.html


4、执行Deskpool 安装程序


5、完成Deskpool初始化向导。


6、在线下载模板库。 


Deskpool V3.3 版本提供了在线模板库的功能,大大简化了模板的准备过程。


 


7、创建桌面池。


8、创建用户。


9、配置云终端的桌面连接。 


 


 


如果需要测试 JC10 ARM云终端,可以找厂家借机测试承担往返运费即可。也可以去朵拉云官网联系销售热线。


朵拉云官网地址:https://www.doracloud.cn/

————————————————


                            版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

                        

原文链接:https://blog.csdn.net/yangtzi/article/details/80814900


什么是PXVDI?

PXVDI是一款基于Proxmox VE为底层的可商用的免费云桌面套件。对熟悉PVE的人来说,这点非常的点赞。首先是PVE是免费的,其次PVE的免费云桌面方案也极为少数。



根据官方提出的价格清单,免费版和商业版在功能上主要的区别是2点。

  1. 是否有支持。免费版没有技术支持,适合有技术人员的公司。

  2. 是否支持horizon。RDP协议在基本的云桌面环境中已经很好了。

如果我们进行要进行基本的云桌面,普通办公这种,节省物理PC成本或者不进行PC升级,就可以使用免费版的方案。

这套方案企业只需要提供硬件成本,0软件成本。如果再利用旧的PC改造成瘦客户端,那么瘦客户端也不用采购了!如果企业正在使用Proxmox VE做私有云,那么即可0成本实现桌面虚拟化。

PXVDI的架构


从官方的文档来,PXVDI只需要PVE和瘦客户端就行了,不需要其他的组件。这样维护挺简单的,想当年笔者搞VMware和Citrix的时候很简单,各种服务,安装也很复杂。

欢迎加入PXVDI QQ交流群921147126

教程开始

1. 安装PVE

使用最新的PVE8.1版本,好像最低要求7.4以上。这点略过吧?

2. 下载模版

官方提供了一个试用模版,虽然是商业版试用的,但是免费版也可以拿来用。

如果PVE联网的话,可以直接执行下面的命令,

cd /var/lib/vz/dump/ wget foxi.buduanwang.vip/pan

这段代码的意思就是进入PVE那个备份文件的目录,然后直接下载虚拟机模版,虚拟机模版是直链可以直接下载。


编辑

我x,这个下载速度真的恐怖。

3. 安装模版

下载好了,在页面上,点击“local”,然后再右边的备份点开,可以看到这个备份。


然后单击还原。还原的时候,一定要选择存储和唯一。


编辑

然后最后单击还原就行了。

这是还原之后的虚拟机,虚拟机的默认的账号是Administrator,密码是P@SSw0rd。


编辑

4. 创建用户并且授权

在pveshell里执行下面这个命令,创建一个PxvdiUsers的角色。

pveum role add PxvdiUsers --privs "VM.Audit VM.Console VM.Monitor VM.PowerMgmt VM.Monitor"

然后打开web,添加一个名为user1用户,领域选择PVE。


编辑

接着打开虚拟机,给虚拟机分配用户权限。


编辑

这样就配置好了虚拟机的权限。

5. 启动瘦客户端

官方提供了瘦客户端的ISO,下载地址如下

foxi.buduanwang.vip/pan

这个ISO不支持N卡,如果是N卡客户,最好使用核显启动,或者用虚拟机测试。推荐使用intel核显机器,比如j1800。n5105之类的。

刻盘建议使用rufus使用dd模式进行刻盘。不要使用软碟通,可能会无法启动。

ISO启动之后,会自动打开软件。如下图


编辑

6. 配置客户端

6.1 配置服务器地址

瘦客户端需要配置才能使用,点开设置,在服务器地址中输入PVE的ip或者域名。默认的pve端口是8006。


编辑

然后点击保存。

6.2 配置连接配置

需要在高级设置里配置freerdp的参数。连接方式选择freerdp,编解码改成h264:420模式。


编辑

网关设置里关闭ad模式。ad模式是为域准备的,启用ad模式之后,会将登录账号密码传递给虚拟机,如果虚拟机和pve都没有加域的话,就会无法连接,因此需要关闭ad模式。


编辑

设置好了点保存

7. 使用账号密码登录

账号为user1@pve,这个账号的意思是user1,领域为pve。密码是刚才创建的密码


编辑

登录之后就可以看到虚拟机,


编辑

点击虚拟机图标就可以启动,点击那个五角星,可以配置虚拟机为自动登录虚拟机,这样可以在软件登录之后,就启动这个虚拟机。

连接之后,会出现登录页面。因为不是ad模式,所以会出现2次登录。输入密码P@SSw0rd就可以登录


编辑

8. 将系统写入到硬盘

ISO启动后,如果重启会还原,因此需要安装到硬盘才能保存数据。

如果连接到虚拟机,可以点击右下角-断开连接退出桌面。


编辑

然后在页面上,按alt+f4退出软件,这个软件有守护进程,需要alt f4 3次才会完全退出。

退出之后,在页面上任意地方右击,点击打开终端。


编辑

使用命令lsblk查看当前的硬盘,我这个sda就是我的硬盘。一定要看清楚是哪个硬盘。


编辑

执行命令

pxvdi-install /dev/sda

即可安装到硬盘,这是开始安装的页面


编辑

安装速度,和U盘的速度和磁盘写入的速度有关,emmc这种写入会很慢,耐心等待。

当出现success的时候,就是安装成功了。可以重启进入到


编辑

9. 批量部署

将提供的模版安装好需要的软件,然后点击转换成模版。


编辑

然后点击克隆,比如你要创建30个虚拟机,就克隆30次好了。


编辑

随后再安装第4步,创建30个用户,再分配权限就好了。





既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上软件测试知识点,真正体系化!


由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新


需要这份系统化的资料的朋友,可以戳这里获取


运维工程师—李晨星





文章目录

一、虚拟化

1. 什么是虚拟化

2. 虚拟化软件的差别

二、XenServer服务器虚拟化平台

1. 首先从Xen开始说起

2. XenServer介绍

3. Xen与XenServer的区别

4. XenServer主机系统要求

三、XenServer 安装步骤

1. 版本选择

2. 主机系统要求

3. 新建虚拟机

4. XenServer引导安装

5. 管理XenServer的方式

三、客户端管理软件—XenCenter汉化版的安装

四、配置XenServer的YUM源

五、XenServer安装Centos8 虚拟机

1. 安装规划

2. 安装步骤规划

3. 创建ISO镜像库

3.1 创建windows共享的ISO库

4. 新建虚拟机,按步骤配置

5. VM虚拟机创建完成

6. 使用Xshell连上Centos8-node1虚拟机,进行基本的设置与生成快照

7. 利用快照文件快速的添加新的VM

8. 安装 XenServer Tools

六、VM虚拟机的复制、导入导出

七、虚拟机模板创建与使用

八、管理和配置存储

1. 本地存储

1.1 如果虚拟机的内存不够了,可以在存储中添加新的硬盘

1.2 磁盘的分离与连接

2. 配置网络存储

2.1 下载starwind工具

2.2 创建管理控制台

2.3 回到XenCenter上创建存储库

3. NFS 存储

1. 搭建nfs服务器

2. 创建存储库并应用

九、管理和配置网络

1. 准备网络环境

1. 外部网络

2. 单服务器专用网络

3. 绑定网络

4. 跨服务器专用网络

5. SR-IOV网络

十、管理许可证

1. 免费许可证现在已经无法激活

十、资源池管理

1. 创建资源池

十一、使用XenConvert把实体计算机转为虚拟机

十二、XenServer的高可用和负载均衡

高可用性

负载均衡

十三、配置VM保护策略和 vApp

1. 配置VM保护策略

2. vApp

十四、XenServer的更新

十五、XenServer的管理命令

一、虚拟化

1. 什么是虚拟化

虚拟化,是指通过虚拟化技术模拟计算机的硬件,虚拟为多台逻辑计算机。在一台计算机上同时运行多个逻辑计算机,每个逻辑计算机可运行不同的操作系统,并且应用程序都可以在相互独立的空间内运行而互不影响,从而显著提高计算机的工作效率。

虚拟化使用软件的方法重新定义划分IT资源,可以实现IT资源的动态分配、灵活调度、跨域共享,提高IT资源利用率,使IT资源能够真正成为社会基础设施,服务于各行各业中灵活多变的应用需求。

2. 虚拟化软件的差别

Linux虚拟化软件:


qemu:软件纯模拟全虚拟化软件,特别慢!AIX,兼容性好!

Xen:性能特别好,需要使用专门修改之后的内核,兼容性差!

KVM:虚拟机,它有硬件支持CPU,基于Linux内核,而且不需要使用专门的内核!性能较好,兼容较好

VMware:图形界面,虚拟机管理管理软件,同时可运行多个操作系统在主系统的平台上,可以进行虚拟的分区、配置而不影响真实硬盘的数据,可通过网卡将虚拟机连为局域网,极其方便。

virtual box:号称最强的免费虚拟机软件,Oracle已收购,非常小。使用上和VMware差不多,有点耗CPU。

二、XenServer服务器虚拟化平台

1. 首先从Xen开始说起

Xen体系的架构




Xen 的 VMM ( Xen Hypervisor ) 位于操作系统和硬件之间,负责为上层运行的操作系统内核提供虚拟化的硬件资源,负责管理和分配这些资源,并确保上层虚拟机(称为域 Domain)之间的相互隔离。Xen采用混合模式,因而设定了一个特权域用以辅助Xen管理其他的域,并提供虚拟的资源服务,该特权域称为Domain0,而其余的域则称为Domain U。


其中最特殊的domain被称为Domain 0或VM 0,这是一个控制Domain,简称为Dom0,如上图左侧。

Domain 0除去包含了对应系统设备的所有驱动程序外,还有用来管理基于Xen系统的一个控制栈及多种系统服务。

通过Domain 0分解,可以将某些Domain 0中的服务及设备驱动拆出来,放在某专有虚拟机中运行,这需要一些特殊配置。

因此Xen就包含了三个部分:


Xen Hypervisor:

直接运行于硬件之上是Xen客户操作系统与硬件资源之间的访问接口。直接在硬件上运行,负责管理CPU、内存和中断。它是引导装载程序退出后运行的第一个程序。管理程序本身不处理I/O功能,如网络和存储。

Domain 0:

别名Dom0,这是一个特殊的虚拟机,运行在Xen管理程序之上,具有直接访问硬件和管理其他客户操作系统的特权的客户操作系统。没有Dom0,Xen hypervisor就不能使用。

Domain U:

运行在Xen管理程序之上的普通客户操作系统或业务操作系统,不能直接访问硬件资源(如:内存,硬盘等),但可以独立并行的存在多个。

Xen还提供了图形化管理工具XenCenter来管理资源。通过XenCenter 可以完成所有的配置操作,在实施中大部分配置操作都会通过该管理工具实现。


2. XenServer介绍

XenServer是一个由 Citrix 发起和管理的完整服务器虚拟化开源平台项目。

已同时针对 Windows 和 Linux 虚拟服务器进行了优化。

直接在服务器硬件上运行而不需要底层操作系统,因而是一种高效且可扩展的系统。

该项目开发的开源软件实现了虚拟化的多种功能,允许在硬件设备上安全地运行多个操作系统和应用程序,完成硬件整合和自动化。

工作方式是从物理机中提取元素(例如硬盘驱动器、资源和端口),然后将其分配给物理机上运行的虚拟机

VM 的运行方式与物理机十分相似,并且包含自己的虚拟(基于软件)CPU、RAM、硬盘和网络接口卡 (NIC)。

将静态、复杂的IT环境转变为更加动态、易于管理的虚拟数据中心,有效地降低IT资源成本,提供的先进管理功能,实现虚拟数据中心的集成和自动化,简化服务器和应用程序的管理。

XenServer的优点:


使用 XenServer 时,可以通过以下方式降低成本:

将多个 VM 合并到物理服务器上;

减少需要管理的单独磁盘映像的数量;

允许与现有网络和存储基础结构方便地集成。

使用 XenServer 时,可以通过以下方式提高灵活性。

允许使用 XenMotion 在 XenServer 主机之间实时迁移 VM,在确保零停机时间的情况下安排维护工作。

使用高可用×××配置相应策略(当一个 XenServer 主机发生故障时在另一个主机上重新启动 VM),从而提高 VM 的可用性,将一个 VM 映像用于一系列的部署基础结构中,从而提高 VM 映像的可移植性

XenServer体系的架构:


Citrix官网




Xen hypervisor直接运行在物理硬件上,负责处理CPU、内存、定时器和中断等相关任务。系统在完成引导加载程序后,Xen hypervisor首先启动。

XenServer 包含:


Xen 虚拟机管理程序:

此虚拟机管理程序是软件的基础抽象层。此虚拟机管理程序负责底层任务,


例如 CPU 调度,并且负责常驻 VM 的内存隔离。此虚拟机管理程序从 VM 的硬件提取。此虚拟机管


理程序无法识别网络连接、外部存储设备、视频等。


控制域:

也称作“Domain0”或“dom0”,控制域是一个安全的特权 Linux VM(基于 CentOS


v5.10 发行版),运行 XenServer 管理 toolstack。除了提供 XenServer 管理功能之外,控制域还


运行驱动程序堆栈,提供对物理设备的用户创建虚拟机 (VM) 访问。


管理 toolstack:

也称作 xapi,该软件 toolstack 可以控制 VM 生命周期操作、主机和 VM 网络连


接、VM 存储、用户身份验证,并允许管理 XenServer 资源池。xapi 提供公开记录的 XenAPI 管理接口,以供管理 VM 和资源池的所有工具使用。


VM 虚拟机

用于将受欢迎操作系统安装为 VM。也就是Xen当中的Domain U。


3. Xen与XenServer的区别

图中绿色框起来的部分就是Xen,红色框起来的部分就是XenServer

Xen就好比是汽车的发动机,而XenServer就是在Xen这台发动机的基础之上,给它安装上别的汽车零件,组装成一台可以在路上跑的汽车。



4. XenServer主机系统要求

XenServer的硬件兼容性列表_官网文档


XenServer 需要至少两台单独的 x86 物理计算机:一台作为 XenServer 主机,另一台运行 XenCenter 应用程序。

XenServer 主机计算机专用于运行托管 VM 的 XenServer,而不用于运行其他应用程序。

不支持直接在 XenServer 主机上(即,安装在 dom0 控制域中)安装任何第三方软件,但作为 增补包提供并且由 Citrix 明确认可的除外。

运行 XenCenter 的计算机可以是满足硬件要求的任何通用 Windows 计算机,也可用于运行其 他应用程序。

三、XenServer 安装步骤

官方文档


1. 版本选择

XenServer7.6发布于2018年9月5日,XenServer提供免费的开源版本;同时也保持了两个商用版本 Standard 和 Enterprise。

Standard Edition 是入门级商用产品,如果希望使用强大的高性能虚拟化平台,但不需要 Enterprise Edition 提供的高级功能,而同时仍希望获得全面的 Citrix 支持和维护保障,本版本提供的一系列功能可以满足此类客户的需求。

Enterprise Edition 是全功能高级版本,已针对服务器、桌面和云工作负载进行了优化。

这里暂时安装免费版


XenServer7.6官方安装文档-PDF


enServer 7.6免费版镜像下载地址;下载之前需要先注册一个Citrix账号


2. 主机系统要求

一个或多个64位x86 CPU,主频不低于1.5GHz,支持Intel VT或AMD-V

最低2GB内存

最低磁盘空间46GB

100Mbit/s或更快的网卡

测试环境下没有多余的服务器,所以XenServer的安装将会部署到VMware虚拟机中。


3. 新建虚拟机





因为没有Xen的选项,选择ESXI就可以了











磁盘容量建议给大一些200G+





4. XenServer引导安装

F2可以选择高级安装。正常情况下不需要用到高级安装,直接回车跳转到下一步


选择US→OK



继续点击OK



选择 Accept EULA



选定磁盘用于虚拟机存储,空格键选定磁盘及Enable thin provisioning后 OK继续



选择Local Media



选择 Skip verification , 跳过安装介质的检测


输入XenServer的root登陆密码


这里网络环境是桥接;所以直接选择默认;

如果定义管理网络IP地址,需要选择手动配置IP,输入IP、 掩码、 网关;

如果环境有多张网卡,则在此页面前有一个选择一个网卡作为管理网口的选项



配置主机名和DNS



选择 Asia(亚洲)

选择Shanghai 上海


选择Manual timeenty(手动输入时间)

也可以选择NTP时间同步,我们可以使用阿里云的NTP服务器地址 ntp1.aliyun.com



开始安装,点击Install XenServer——回车



安装过程中…



取消安装附加包


出现下面窗口,填入当前的正确日期时间



点击OK后自动重启



重启中



XenServer 7.6 启动完成,完成安装



XenServer 7.6 的界面管理翻译




5. 管理XenServer的方式

》XenServer 命令行界面 (CLI)


可以使用基于 Linux 的 xe 命令来管理 XenServer


也可以使用Xshell连接XenServer的命令行


》基于 Windows 的图形用户界面—XenCenter




三、客户端管理软件—XenCenter汉化版的安装

浏览器访问IP地址 http://10.0.0.72

点击XenCenter installer,下载XenCenter安装包,这里不推荐下载,可下载中文版

Xencenter7.6的汉化版 网盘提取码: t4ht

XenCenter官方下载链接





连接虚拟机



四、配置XenServer的YUM源

vi /etc/yum.repos.d/CentOS-Base.repo

# CentOS-Base.repo

#

# The mirror system uses the connecting IP address of the client and the

# update status of each mirror to pick mirrors that are updated to and

# geographically close to the client. You should use this for CentOS updates

# unless you are manually picking other mirrors.

#

# If the mirrorlist= does not work for you, as a fall back you can try the 

# remarked out baseurl= line instead.

#

#

 

[base]

name=CentOS-$releasever - Base

#mirrorlist=http://mirrorlist.centos.org/?release=$releasever&arch=$basearch&repo=os&infra=$infra

baseurl=http://mirror.centos.org/centos/7/os/$basearch/

gpgcheck=1

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7

 

#released updates 

[updates]

name=CentOS-$releasever - Updates

#mirrorlist=http://mirrorlist.centos.org/?release=$releasever&arch=$basearch&repo=updates&infra=$infra

baseurl=http://mirror.centos.org/centos/7/updates/$basearch/

gpgcheck=1

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7

 

#additional packages that may be useful

[extras]

name=CentOS-$releasever - Extras

#mirrorlist=http://mirrorlist.centos.org/?release=$releasever&arch=$basearch&repo=extras&infra=$infra

baseurl=http://mirror.centos.org/centos/7/extras/$basearch/

gpgcheck=1

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7

 

#additional packages that extend functionality of existing packages

[centosplus]

name=CentOS-$releasever - Plus

#mirrorlist=http://mirrorlist.centos.org/?release=$releasever&arch=$basearch&repo=centosplus&infra=$infra

baseurl=http://mirror.centos.org/centos/7/centosplus/$basearch/

gpgcheck=1

enabled=1

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7


=====================================================

yum  repolist all



1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

五、XenServer安装Centos8 虚拟机

1. 安装规划

\* 使用XenCenter创建Centos8虚拟机,安装Centos8系统,生成快照,并通过快照安装Centos8虚拟机

\* 下载Centos8安装的ISO文件

\* 使用本地的ISO作为储存库(SR),将Centos8的ISO文件上传到SR

\* 新建虚拟机并安装Centos8系统

\* 给虚拟机作初始化配置并生成快照

\* 根据快照快速安装Centos8虚拟机

\* 安装过程程需要使用到Xshell和Xftp工具,需要提前安装好


1

2

3

4

5

6

7

8

CentOS8镜像下载地址


2. 安装步骤规划

\* 使用Xshell连接XenServer服务器

\* 创建ISO库和本地存储库,并将centos8的ISO文件上传到SR

\* 打开Xftp,将Centos8的ISO文件上传至/boot-iso目录下

\* 进入XenCenter,连接上XenServer后刷新一下,选中新增加的boot-iso,选择Storage选项卡,点击Rescan,发现centos8的ISO文件


1

2

3

4

5

在虚拟环境中安装虚拟机需要用到ISO包,且虚拟机创建后需要一定空间来存储。这就分别需要用到ISO库和本地存储库


3. 创建ISO镜像库

XenServer 定义了一个名为存储库(SR) 的容器来描述存储虚拟磁盘映像 (VDI) 的特定存储目标。VDI是包含虚拟磁盘内容的磁盘抽象。


#新建iso存放目录

[root@XenServer7 ~]# mkdir  /boot-iso/


#xe命令创建sr存储库

[root@XenServer7 ~]# xe sr-create name-label=boot-iso type=iso device-config:location=/boot-iso device-config:legacy_mode=true content-type=iso


[root@XenServer7 ~]# cd /boot-iso/


1

2

3

4

5

6

7

8

使用传输工具将镜像传送到/boot-iso/目录下




3.1 创建windows共享的ISO库









在XenCenter上添加SR库






添加成功



4. 新建虚拟机,按步骤配置

\* 选择安装的操作系统

\* 给vm取一个名字

\* 选择iso镜像

\* Home Server设置

\* CPU和内存设置

\* GPU设置

\* 存储设置

\* 网路设置

\* 完成


1

2

3

4

5

6

7

8

9

10













5. VM虚拟机创建完成

CentOS8的部署过程链接



6. 使用Xshell连上Centos8-node1虚拟机,进行基本的设置与生成快照




7. 利用快照文件快速的添加新的VM

\* 选中快照右键选择“New VM from Snapshot”

\* 参照前面新建VM过程,一直Next至完成,内存和磁盘大小最好保持不变


1

2

3



8. 安装 XenServer Tools

创建新的虚拟机开机后,在常规的虚拟化状态里会显示未安装XenServer Tools

这个XenServer Tools可以起到一个虚拟机的优化的作用,如果不安装,虚拟机的优化会受到很大的影响不仅仅windows可以按照XenServer Tools,在Linux上也可以安装。


点击框中的提示





XenCenter管理工具会自动将“XenServer Tools”光盘映像插入到该虚拟机的光驱中,接下来就是SSH方式登录到该虚拟机,执行剩余的安装步骤。

操作步骤如下:


[root@centos7-node1 ~]# cd /mnt/

[root@centos7-node1 mnt]# mkdir xenserver-tools

[root@centos7-node1 mnt]# mount /dev/cdrom /mnt/xenserver-tools/

mount: /dev/sr0 写保护,将以只读方式挂载

[root@centos7-node1 mnt]# cd xenserver-tools/Linux/

[root@centos7-node1 Linux]# ./install.sh 

Detected `CentOS Linux release 7.6.1810 (Core) ' (centos version 7).


The following changes will be made to this Virtual Machine:

  \* update arp_notify sysctl.

  \* packages to be installed/upgraded:

    - xe-guest-utilities-7.10.0-1.x86_64.rpm

    - xe-guest-utilities-xenstore-7.10.0-1.x86_64.rpm


Continue? [y/n] y



准备中...                          ################################# [100%]

正在升级/安装...

   1:xe-guest-utilities-xenstore-7.10.################################# [ 50%]

   2:xe-guest-utilities-7.10.0-1      ################################# [100%]


You should now reboot this Virtual Machine.

[root@centos7-node1 Linux]# 

[root@centos7-node1 Linux]# reboot #需要重启



1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26


记得拍摄快照



六、VM虚拟机的复制、导入导出

复制


用于生产使用,建议进行完整复制

用于测试使用,建议进行快速克隆





将每台虚拟机的存储名称都修改一下



导出


可以把虚拟机拷贝成文件,然后拷贝到别处,在另外一台虚拟机上把它导入进去。



导入



可以使用不同的虚拟化平台的虚拟机可以互相使用



七、虚拟机模板创建与使用

创建模板




使用模板



创建完成


八、管理和配置存储

1. 本地存储

1.1 如果虚拟机的内存不够了,可以在存储中添加新的硬盘


··


fdisk /dev/xvdb 创建分区

mkfs.ext3 /dev/xvdb  格式化分区

mount /dev/xvdb /mnt/  挂载分区


[root@centos7-node1 ~]# df -h

/dev/xvdb                4.8G   11M  4.6G    1% /mnt


1

2

3

4

5

6

7

1.2 磁盘的分离与连接

需要提前卸载掉磁盘后再进行分离



2. 配置网络存储

2.1 下载starwind工具

starwind安装手册

starwind下载地址



这里是免费版本,选择第二项

选择第一项Starwind

“Browse”: 选择下载的license文件,文件名称扩展名为".swk"



安装完成后启动管理控制台


2.2 创建管理控制台



2.3 回到XenCenter上创建存储库



3. NFS 存储

1. 搭建nfs服务器

nfs搭建步骤


#下载软件

yum install -y nfs-utils rpcbind


#启动rpcbind服务查看rpc服务注册信息

systemctl start rpcbind.service 

rpcinfo -p


#启动nfs服务并查看注册信息

systemctl restart nfs

rpcinfo -p


#添加nfs配置文件

vim /etc/exports

#share /data

/data        10.0.0.22/24(rw)


#创建共享的目录并修改权限

mkdir /data

chown  nfsnobody.nfsnobody /data

systemctl reload nfs


#检查 挂载

showmount -e

 mount -t nfs 10.0.0.81:/data /mnt



1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25






网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。


需要这份系统化的资料的朋友,可以戳这里获取


一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!


ZG4ubmV0L3FxXzM3MjQyNTIw,size_16,color_FFFFFF,t_70)


3. NFS 存储

1. 搭建nfs服务器

nfs搭建步骤


#下载软件

yum install -y nfs-utils rpcbind


#启动rpcbind服务查看rpc服务注册信息

systemctl start rpcbind.service 

rpcinfo -p


#启动nfs服务并查看注册信息

systemctl restart nfs

rpcinfo -p


#添加nfs配置文件

vim /etc/exports

#share /data

/data        10.0.0.22/24(rw)


#创建共享的目录并修改权限

mkdir /data

chown  nfsnobody.nfsnobody /data

systemctl reload nfs


#检查 挂载

showmount -e

 mount -t nfs 10.0.0.81:/data /mnt



1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25



[外链图片转存中…(img-dDSeSgr3-1715892377652)]

[外链图片转存中…(img-fitBOFQJ-1715892377653)]


网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。


需要这份系统化的资料的朋友,可以戳这里获取


一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

————————————————


                            版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

                        

原文链接:https://blog.csdn.net/2401_84715583/article/details/138986440


【前言】

虚拟机下的软路由、NAS玩了几个月了,当初选择虚拟系统真是纠结得很,觉得哪个都好哪个都有问题。试来试去,发现已经把ESXi、PVE、unRaid这三大虚拟系统(unRaid有点冤)都折腾了几遍了。

这里罗列记录一下,也许也可以帮你少纠结一点。

我会粗略描述一些操作步骤,旨在体现操作复杂度等,可能无法当做完整教程。有需要了解详细步骤的同学可以参看其它大神的文章。

【概述】

ESXi,是VMWare vSphere Hypervisor套件之下重要组件。前身是ESX,依赖Linux源码,后来抛弃Linux源码做成了ESXi。整个产品商用气息浓重,界面清晰易用,但硬件兼容性较差(主要面向服务器),没什么扩展性(毕竟不是linux)。

PVE,全称Proxmox Virtual Environment,是基于Debian的Linux系统,虚拟机内核为KVM。硬件兼容性优秀。界面功能不强,很多操作要靠命令行,但扩展能力几乎是无限的。

unRaid,其实是个NAS系统,是基于Slackware的Linux系统,虚拟机内核也是KVM。磁盘阵列管理非常有特色,灵活性很高。同时还有很不错的插件、Docker和虚拟机支持。

【系统安装】

ESXi,官网获取iso镜像,做成启动盘来安装。

iso引导界面。整个安装过程界面都很简陋。

有磁盘选择和密码设定等简单环节。

安装成功后重启进入系统,会看到管理地址的提示。

此时可以按f2进入这个系统设定菜单。主要是用来解决网络设定等问题。

PVE,同样是官网获取iso镜像,做成启动盘来安装。

iso引导界面

有磁盘、密码、网络等设定过程。

同样,安装重启后即可看到管理地址。也可以此时登陆控制台进行高级操作。

unRaid,比较特别,需要准备一个U盘,制作启动U盘。可以从官网的下载制作工具(exe)来制作。也可以直接下载系统的zip包,如果要用开(po)心(jie)版,也只能下载zip包。

如果是zip包,需要解压到U盘,修改卷标为UNRAID,执行make_bootable.bat。

插上U盘,设置好引导,启动后直接进入系统。可以看到后台管理地址,也可以登陆控制台。

【系统资源占用】

以下测试数据来自于我笔记本的Win10下的VMWare虚拟机,仅供参考。

ESXi 7.0b,安装iso大小351M,系统占用130G硬盘,待机内存1.1G,待机CPU约1-6%,系统启动时间61秒。
你没看错,系统占用130G磁盘!如果你是128G的ssd,可用空间直接就没有了!其实罪魁祸首是ESXi 7.0版本安装系统会默认分配120G的虚拟闪存(安装系统启动前,可以用shift+o,加上autoPartitionOSDataSize=...来改变默认大小,单位MB)。另外,ESXi 6.7安装之后默认占用磁盘空间约10G。

PVE 6.2-4,安装iso大小862M,系统占用6G以上硬盘,待机内存900M,待机CPU约1%,系统启动时间20秒。
安装系统时,磁盘空间会动态分配,除了交换分区等,主要两个分区是:系统分区和LVM分区,后者提供给虚拟机磁盘使用。不知道具体什么分配算法,实测得到:
16G硬盘安装PVE,交换分区1.9G、系统3.6G(1.8G已用)、LVM 6G。
128G硬盘安装PVE,交换分区4G、系统31G(1.8G已用)、LVM 74G。

unRaid 6.8.3,zip包213M,系统必须放入U盘(所需空间不足300M),占用23G硬盘空间,待机内存不足200M,待机CPU约1-3%,系统启动时间59秒。
23G硬盘空间中,启动Docker会默认创建20G的镜像文件。不用Docker可以手动删除镜像,也可以自定义镜像大小,还可以采用文件夹的方式而不是固定大小的镜像。

【创建/编辑虚拟机】

ESXi,创建/编辑虚拟机,比较简单易懂

创建按钮,你应该一眼就能找到了。

创建(1/2)前面的指引步骤,降低了新手理解难度。

创建(2/2)后面也有详细参数的设定。

编辑虚拟机跟创建时的详细参数差不多,每一项都比较好理解,多数可以进一步展开。

PVE,创建/编辑虚拟机,功能也比较全

创建按钮,你能想到藏在右上角吗?

创建也是多步骤指引,但是设计细节还是略不友好(步骤太多、有几个步骤不能默认)。

编辑虚拟机变成了截然不同的界面

unRaid,需要先设定并启用阵列后才能使用虚拟机。(阵列相关后面再讲)

虚拟机放在靠后的菜单里面了(毕竟主要是做NAS的)

创建的系统选择倒是挺直观的

创建/编辑界面完全一样,可设定参数比较有局限

创建/编辑可以切换为xml形式,看起来比较高级,但每次用界面编辑都会导致xml修改丢失。。。

【硬盘直通】

三个虚拟系统的虚拟硬盘性能都不怎么样。具体虚拟磁盘的性能问题可以见我另一篇分享(zhuanlan.zhihu.com/p/27)。如果真的需要高性能磁盘,最好还是做硬盘直通。

ESXi,需要命令行操作找到硬盘并挂载(RDM),然后在界面添加此磁盘。

首先要先开启SSH(最好在完成操作后再关上)

SSH下找到硬盘并执行命令挂载为vmdk文件

虚拟机中添加刚才的vmdk磁盘(ESXi 6.7以上理论上可以直接添加裸盘,但有额外要求)

PVE,只需要命令行操作

SSH下找到硬盘并直接添加给虚拟机

unRaid,先用命令行找到磁盘名,然后界面添加

类似pve,用SSH查到硬盘名

添加Manual类型硬盘,并指定前面找到的硬盘全路径

【PCI硬件直通】

网卡、声卡、sata控制器等都可以用PCI直通的方式供虚拟机使用(显卡相关后面详述),性能会好过模拟设备。使用硬件直通,需要CPU有Vt-d功能,并在bios中开启,且要求不可以使用动态内存。

还有一种叫SR-IOV直通的,能力更强一些,但要求较高,我还没成功过,就不聊了。

ESXi,直接界面操作

在硬件列表中切换需要直通的设备为活动状态。7.0以后,直通切换无需重启系统。

添加新PCI设备、选择需要的设备。

PVE,先修改系统配置打开直通功能,然后就可以直接界面操作了

引导配置加上一段,执行update-grub更新

模块配置确保包含这些模块,然后重启

此后,就可以随时添加任意一个PCI设备了

unRaid,6.9.2之后可以在系统工具中屏蔽要直通的设备,然后在虚拟机配置中勾选要直通的设备即可。(6.9.1以及之前需要安装VFIO-PCI Config插件)

在Tools/System Devices中选择要直通的硬件,打勾、保存、重启。(有一些情况会失败,甚至无法开机,好在你可以拔掉U盘在另一台电脑上修复一下U盘上的配置文件)

在虚拟机配置中会出现新的可直通设备,勾选即可直通。

【显卡直通】

显卡本来也是PCI硬件之一,但是会有诸多原因导致它的直通不会那么容易。

ESXi,基本操作还是PCI硬件直通的操作,但可能遇到了以下诸多的限制:

  • 核显直通后在Win10下驱动错误,代码43(据说其它系统可以直通,但不能显示)

  • 想直通独显,需要在bios屏蔽核显,否则可能无法启动或蓝屏(有的主板没这个限制)

  • NVIDIA显卡直通需要配置hypervisor.cpuid.v0 = FALSE,否则驱动错误,代码43

  • ESXi7.0以后切换显卡直通不需要重启,但是已经直通显卡再重启会导致直通失败,手动切换两次可恢复。这个BUG导致直通显卡的虚拟机是无法开机自动启动的。

PVE,除一般PCI硬件直通的步骤外还需要一些配置,具体操作因为pve版本不同、硬件不同等差别很大。几乎没有限制,技术够牛(改bios、改源码……),基本能直通成功。这里只按照我遇到的简单情况说明下(PVE 6.4-4、Q87主板、NVIDIA显卡)。

在/etc/modprobe.d/pve-blacklist.conf添加这些驱动黑名单,随后重启。

虚拟机的硬件配置中,机器(machine)设置为q35。

添加PCI设备,需要勾选“高级”,随后勾选主GPU、PCI-Express

unRaid,系统帮忙解决了很多直通问题,仅在虚拟机中设置即可,连硬件的屏蔽都省了。

直接把默认的VNC虚拟显卡改成想要直通的显卡即可。也可以添加多个显卡。声卡一样。

虚拟光驱

虚拟光驱最大的作用是加载iso光盘镜像,用于安装系统。少数人还需要把真的光驱给虚拟机用,用来读取/刻录光盘。

ESXi,支持主机设备和ISO镜像,主机设备还能选具体哪一个设备

PVE,也支持主机设备和ISO,但是主机设备下面没有具体设备选择

unRaid,直接被简化成了安装ISO,不支持主机设备

【自动开机、关机】

有时候虚拟系统主机会需要重启或是意外断电等情况,此时我们需要某些虚拟机会在系统启动后按顺序自动启动。

ESXi,一次性整体设置自动启动的开关、顺序、延迟时间等。

PVE,需要在每一个虚拟机里面设置自动启动的开关和顺序。

unRaid,每个虚拟机可以开关自动启动,启动顺序就是但是不能调整顺序和间隔时间。

【网络管理】

ESXi,有众多的网络配置功能,完全可以自己组建各式各样的复杂虚拟网络拓扑结构。不过家用的话,基本用不上,甚至你可能都不需要碰到这个界面。

PVE,网络管理简单一些,功能也没那么强,但家用足够了。

unRaid,几乎只有网卡设置,不过一般用途倒是够了。只是每次修改网络配置必须先停掉阵列(所有虚拟机、Docker都要关闭)。

【稳定性】

单说长时间运行的话,三者没发现什么区别,都很稳定。但如果你跟我一样喜欢“瞎折腾”,那就很容易出事了。

所以ESXi是最稳的,界面清晰、扩展性不强,所以也不太会出故障。PVE、unRaid折腾多了都很危险。尤其是unRaid,似乎虚拟机部分还没那么成熟,花样越多坑越多,而且很多设定(比如网络、直通)必须通过重启或关闭磁盘阵列(所有Docker、虚拟机都要关闭)来生效。

【CPU性能】

ESXI使用自己的VMware内核,CPU优化相当好,损耗趋近于0%。

PVE与unRaid接近(都是KVM),损耗大约是4-10%的样子。

详细的对比我就不展示了,受影响因素太多,我也没搞清楚,容易误导大家。总的来说三者差距不会很大,如果你的CPU性能本身有一定过剩,就不用特别纠结这点点损耗了。

【授权】

ESXi,安装即可试用60天。官网可以免费注册,会有功能限制,但个人足够用了。
最便宜的1年期授权大概是1700人民币以上。
网上可以搜注册码。

PVE,算是免费吧。不注册会每次登陆有个提示框,且不能更新官方稳定源。
最便宜的1年期授权是85欧元。
可以通过修改代码屏蔽提示,还可以添加免费更新源来更新。

unRaid,针对U盘注册,不注册几乎等于不能用。可以免费注册30天试用版。
6块硬盘的永久授权是59美元,允许一年换一块U盘(毕竟是U盘杀手)。
网上有开(po)心(jie)版。

【Docker】

如果你没玩过Docker,强烈建议你入坑~ 比虚拟机更轻便、灵活。很多好用的Linux软件都会有Docker的版本,很好地解决了兼容性等问题。

ESXi,不支持Docker,估计未来也不会支持,毕竟不是Linux。你只能先装个linux虚拟系统,再用docker。

PVE,本身不直接支持Docker,但是可以自己安装相关软件。

unRaid,可以运行Docker,还有方便的界面支持。但是虚拟缓存有点麻烦(内存不足时才用),算是瑕疵。

【温度显示】

如果不是用过这几个虚拟系统,我还真想象不到温度显示也会是一个需要考虑的问题。

ESXi,需要主板支持IPMI,基本只有服务器才行了。否则,就完全看不到温度。

PVE,需要安装软件和手改界面代码。不同机器情况还不一样,要解决得有点编程基础。

unRaid,默认只显示硬盘温度。需要安装温度显示插件来显示CPU、主板温度。

【特别的磁盘阵列】

这是unRaid独有的,也是它最初的主要卖点。它不同于真正的raid阵列,是一种灵活的文件级磁盘空间组织方式。

使用中体会到的几个优点:

  • 硬盘数量可以随时增加(减少也能,但会麻烦点)。

  • 每一块盘上面都是独立的文件系统(阵列只剩一块盘,也能读出部分数据)。

  • 结合共享目录做设定,可以指定不同目录的不同阵列分配方案。

但这个文件系统的性能不是太好,连续满负荷读写会突然性能下降,即使有ssd缓存也不行。不知道是BUG还是某些机制决定了这样的特性。

【总结特点】

ESXi,注重企业支持,界面简单易用,自身功能较强,对硬件要求较高,扩展性较低。
适合初学者、不想太折腾的、有服务器主板的(例如Gen8这种家用服务器)。迷茫的时候,优选ESXi吧。

PVE,兼容性最好,扩展性好,界面友善度欠佳,需要一定Linux基础。
适合低端机型、懂Linux的、爱折腾的。PVE玩得溜了之后,看其它的系统都像是弟弟。(可惜我玩不溜)

unRaid,Docker、磁盘阵列、显卡直通、虚拟U盘等都是亮点。必须U盘引导有点麻烦(廉价U盘7x24工作,心还是很慌)。特色功能多,出新快,因此问题也多。
适合直接做NAS、玩PT,尤其适合做家庭影视库、HTPC,玩一拖二也是个不错的选择。比较有可玩性,又不会难度特别高。


引言

由于公司的VPS上的ESXI(5.5)版本太低,漏洞跟筛子一样(存在大量隐患),领导说不行升级吧~(真是没事干啊~),拿着Esxi的授权给他们打电话说升级费用,然后给领导递交了一个折扣报价~(服务器按内核xCPUxEsxi主机数收钱),他默默的放下手里的茶杯,说让我找个代替方案吧。所以引出本文对比。

ESXi与Proxmox VE:两款领先的虚拟化平台深度比较

功能比

Esxi

虚拟机管理:提供高级虚拟机管理功能,包括vMotion(实时迁移虚拟机)、DRS(分布式资源调度)等。

高可用性:支持HA(高可用性)集群,可以在物理主机故障时自动重启虚拟机。

网络与安全:内置了先进的网络和安全功能,如vShield和NSX。

备份与恢复:通过VMware的备份和恢复解决方案(如vSphere Data Protection)支持虚拟机备份。

Proxmox VE

虚拟机与容器:支持KVM虚拟化技术用于虚拟机,以及LXC容器技术。

集群管理:支持集群功能,可以实现虚拟机的故障转移和高可用性。

备份与恢复:提供了基于ZFS的内置快照和备份功能。

网络:提供了基于Linux的灵活网络配置选项(比如deban或者ubuntu防火墙)。

2. 性能比较

ESXi

性能优化:ESXi是专门为虚拟化设计的操作系统,因此具有出色的性能优化。

资源调度:通过DRS和vMotion等功能,可以更有效地管理和调度资源。

Proxmox VE

KVM性能:KVM作为成熟的开源虚拟化技术,在性能上也表现出色。

资源限制:允许用户对虚拟机进行详细的资源限制和配额设置。并且支持超开(比如2核改成4核)

3. 易用性比较

ESXi

Web界面:vSphere Client提供了直观易用的Web界面。

整合:与VMware的其他产品(如vCenter)紧密集成,提供统一的管理体验。

Proxmox VE

Web界面:提供了直观、用户友好的Web界面,易于上手。

灵活性:由于其基于Linux和开源的特性,Proxmox VE提供了更高的灵活性和定制性。

4.系统大小比较

ESXi

Esxi8.0:8G大小(不包含厂商定制版)。

整合:大多数服务器驱动,如HP/Dell等服务器驱动。

ESXi与Proxmox VE:两款领先的虚拟化平台深度比较

Proxmox VE

PVE8.2:1.3G大小

整合:Proxmox VE需要自己装PC上的驱动(比如NVIDIA驱动)

5. 成本与许可

ESXi

商业产品:需要购买许可证,成本可能较高(CPUx主机x内核=费用)。

附加服务:可能需要购买额外的VMware服务或产品来支持特定的功能或集成。

ESXi与Proxmox VE:两款领先的虚拟化平台深度比较

Proxmox VE

开源:免费使用,但可能需要额外的硬件或软件来支持某些高级功能(一般用不到)。

社区支持:通过活跃的社区获得支持和帮助( 说白了看技术了)。

ESXi与Proxmox VE:两款领先的虚拟化平台深度比较

6. 生态系统与支持

ESXi

广泛支持:得到了众多硬件厂商和ISV(独立软件供应商)的广泛支持。

专业支持:VMware提供专业的技术支持和咨询服务,提供迁移方案。

Proxmox VE

开源社区:拥有一个活跃的开源社区,提供支持和文档(问题较多,比如驱动)。

合作伙伴:与一些硬件厂商和ISV有合作关系,提供集成的解决方案。

总结

ESXi和Proxmox VE都是功能强大的虚拟化平台,但它们在某些方面存在差异。

ESXi是一个商业产品,提供了强大的功能和广泛的生态系统支持,但成本可能较高。

Proxmox VE是一个开源的、基于Linux的虚拟化平台,提供了高度的灵活性和定制性,并且成本较低。

根据您的具体需求和预算,选择最适合您的虚拟化平台至关重要。

补充1:如果从Esxi迁移到PVE,好多要改的,但是~如果原生系统,比如Ubuntu或者deban,能不折腾就别折腾,下一步我会补充PVE安装和Esxi迁移

补充2:如果服务器性能过剩,可以做虚拟化,如果性能一般,还是用原生系统比较好。