proxmox ve还是vm好,vmware许可证密钥
确实VMware在虚拟化市场占有率非常高,技术也非常成熟,用户使用起来很方便,但是如果你是一个精明的老板,其实你真的有更好的选择,那就是:
ProxmoxVE (简称 PVE)
随着自己对ProxmoxVE慢慢熟悉,发现这个产品真的太好用了,可以作为替换VMware的最佳选择。如果你有VMware虚拟化的需求,但是又苦于没足够的预算购买VMware的商业授权,使用盗版授权又怕被DELL公司告侵权,那么你真的可以考虑一下使用ProxmoxVE(简称PVE)这个产品。
确实VMware在虚拟化市场占有率非常高,技术也非常成熟,用户使用起来很方便,但是如果你是一个精明的老板,其实你真的有更好的选择,那就是:
ProxmoxVE (简称 PVE)
proxmoxVE是一款类似于红帽redHAt的开源虚拟化产品,很多人说用在生产系统的产品用开源产品不稳定,这其实是一个认识误区,红帽系统redhat也是开源产品,是不是非得购买红帽正版才能使用呢,不是的,你可以直接使用红帽的开源版本centos,内核和使用是一模一样的。当然你可以花钱买,但是真正购买的其实就是一个虚幻中的稳定和安全。因为真正的使用过程中,你去联系红帽的售后解决你的实际使用问题,你会发现干脆自己在网上查找一下来得快。
话说回来,ProxmoxVE也提供商业版技术支持,收费情况如下:
可以看到,ProxmoxVE和红帽redhat一样,客户也可以购买subscription(订阅) ,最高级别服务的订阅是每年796欧元/CPU,大概每年6000元/CPU (基于2019年2月的汇率),如果是10台服务器每台服务器2颗物理CPU,那么每年的订阅服务费是12万,5年下来,价格和VMware差不多 。
ProxmoxVE替代VMware的可行性,现在从产品成熟度、稳定性、技术支持、产品功能特性、产品性能、用户体验等几个方面进行阐述。
产品成熟度:
ProxmoxVE已经有超过13000的订阅用户,所以稳定性和安全性都是经过了市场验证的。可以想到,订阅用户是13000,像我们这种抠门的老鸟使用非订阅的数量那肯定是远远不止13000个用户。
产品稳定性:
从我自己的使用经验和同道同行使用的情况上看,没有因为产品自身问题缺陷造成系统运行不稳定的情况出现。一名同道早在2013年开始在生产系统使用ProxmoxVE,到现在为止6年时间系统一直运行稳定,没有一例故障是由于ProxmoxVE自身产品的bug导致的。因此ProxmoxVE的稳定性是毋庸置疑的。如果担心这方面的问题,在真正使用的时候,可以使用前一个版本的系统,比如最新的版本现在是5.3,可以使用5.2的,但是我个人还是强烈建议使用5.3版本,这个版本对ceph存储的支持更加友好,对各类存储的管理达到了炉火纯青、方便至极的程度。
技术支持:
可以参考使用红帽系统的经验来看技术支持的问题,在产品的使用过程中,如果要寻求商业版的技术支持,可以参考上面的subsciption(订阅)的收费档次,根据自己的实际情况进行订阅,如果自己的技术力量比较弱或者没有技术能力,可以购买最高级别的“PREMIUM”订阅,大概每年6000元/CPU ,如果是有自己的技术力量,可以购买后面每年有10次技术支持的“标准”订阅,或者每年3次技术支持的“BASIC”订阅,如果是“社区”订阅,不提供技术支持,这个级别的订阅只是提供商业版本的软件源。
另外,如果购买商业版的订阅,有一个问题是技术支持中心在中国区的响应速度和质量问题。由于这个产品在中国的使用范围不是特别广泛,可以预想技术支持在中国区可能达不到你的预期。商业版软件的技术支持一直以来都是为国人所诟病,还是直接找到自己放心的这一方面的IT专家进行支持比较靠谱,最好是在同一个城市的,在特殊情况下能够现场支持。因为这个产品是开源软件,即使是商业版的订阅,他们卖的也是服务,而不是产品,因此这一块需要好好考虑,自己花钱购买的服务是不是能够达到自己的预期是不是能够满足自己的需求。
产品功能特性:
ProxmoxVE的产品功能和特性描述如下:
ProxmoxVE
基本OS:Debian GNU / Linux执照:AGPL,v3虚拟机管理程序:kvm容器虚拟化:Linux容器(LXC)架构:x86_64安装:Bare-metall ISO安装程序最大RAM和CPU专业版主机:12TB RAM和768逻辑CPU特征
集群:是高可用HA:是存储:LVM,LVM-thin,iSCSI /内核,iSCSI / libiscsi,Ceph / RBD,CephFS,Sheepdog,ZFS over iSCSI,ZFS(本地),目录,NFS,CIFS,GlusterFS网络:桥接网络,OpenvSwitch客户机:已知Linux,Windows,其他操作系统可以工作并受社区支持内存合并/共享:支持,KSM防火墙:内置,群集范围,IPv4和IPv6超融合基础设施(HCI):支持管理
用户管理界面GUI:功能齐全的管理界面命令行CLI:支持API:支持(REST)监控:支持用户管理:LDAP,AD,双因素身份验证许可管理:支持第三方工具:支持VM生命周期
备份/还原:支持迁移:支持实时迁移:支持,可互换的CPU存储实时迁移:支持快照:支持模板和克隆:支持复制:支持导入导出:支持虚拟CPU超量使用:支持V2V:支持P2V:支持支持和定价
免费软件:支持,AGPL,v3许可证费用:无技术支持:商业,订阅培训:支持错误追踪系统:支持代码库:公众(Git)论坛:公共社区论坛,免费访问文档:参考文献,Wiki
可以看到,ProxmoxVE虚拟机是使用kvm,容器使用LXC,特别指出的是,它集成了类似容器应用市场的功能,应用市场中包含各类常见的应用软件容器,比如mariadb、web应用、redis等等,你不需要单独创建linux虚拟机,然后在虚拟机上安装这些web、mariadb、redis应用,你只需要根据你的需求,直接的ProxmoxVE的web管理界面的Template模板中点击“下载”,就可以直接从应用市场下载对应的容器进行使用。这个容器的使用可以完全按照虚拟机来使用,有独立的主机名、IP地址、存储空间、CPU、内存等等。但是注意,这些容器虚拟机LXC是debian操作系统。
支持的CPU数量核数最多支持768核,这一点需要注意,官网对物理服务器的限制是设定在32台物理主机每个集群,因此,如果是超过200个虚拟机的应用场景,建议通过建立多个集群这个简单的办法解决,如果非要统一集中在一个集群管理,那就只能选择openstack了。
ProxmoxVE支持现在市面上所有主流存储协议,支持LVM,LVM-thin,iSCSI /内核,iSCSI / libiscsi,Ceph / RBD,CephFS,Sheepdog,ZFS over iSCSI,ZFS(本地),目录,NFS,CIFS,GlusterFS 。特别指出的是,最佳实践是使用ceph分布式存储,通过ceph可以实现虚拟机HA功能,虚拟机动态迁移等高级特性。同时,ceph存储的安装和管理也完全被ProxmoxVE融合进来了,可以直接通过ProxmoxVE的web管理界面对ceph进行监控和管理,比如查看ceph存储集群的状态,增加删除OSD盘,增加删除mon,查看ceph集群日志等等。
产品性能:
Proxmox的产品性能非常优秀,如果从虚拟化产品本身的性能来说,我认为比VMware要好。VMware出于商业收费和license的考虑,将很多功能给拆分,安装完ESXI后只能使用最基本的功能,如果要使用一些高级功能,必须安装vcenter,所以VMware软件也免不了做的稍显复杂,各类安装包,各类license,各类授权。ProxmoxVE就不存在这个问题,一切以实用高效为目标,你所需要安装的就是一个ISO镜像,安装完成后,所有基本功能、高级功能都能够实现,所有集群的物理节点都是平等的,通过每个物理节点都能管理整个集群。因此ProxmoxVE能够最大化的提高硬件的使用效率。
做一个简单的场景描述比较,VMware和PVE相比较,使用同等的功能特性的情况下,VMware需要安装ESXI,vcenter,其中vcenter需要占用比较多的资源,可以是物理机也可以是虚拟机,如果是虚拟机,生产环境下,还要考虑vcenter自身的冗余问题,而PVE就不存在这个问题,所有物理机只需要安装一个ISO镜像。
安装过程PVE只需要10多分钟一个节点,VMware安装ESXI节点时间和PVE差不多(稍多一些),之后的vcenter安装和配置还需要单独做。
有些人会说应该主要看虚拟机的性能。PVE使用的是kvm ,和openstack体系的虚拟化是一样的,VMware的虚拟机和kvm的性能比较也不是我们这个层次的人要争论的,让各大厂商去争吧,在我看来,旗鼓相当吧。
用户体验:
VMware的支持者会认为VMware的用户体验在虚拟化产品市场是最好的,只能说他肯定没有用过PVE ,如果使用过的话,他就不会这么说了。
PVE的安装体验比VMware还好,VMware产品的使用,主要是有太多的安装包,还有激活和license,这些都限制了用户体验。PVE的安装速度和便捷性也要比VMware要好,我前面说过,一个PVE节点只需要10分钟左右,并且安装完成之后所有功能都可以实现;VMware却不行,需要安装其他功能节点才能实现。
特别指出的是,在存储的支持使用方面,PVE已经做到了傻瓜式操作,不管是lvm的使用、ceph分布式存储的使用、ZFS的使用等等,都可以直接在前台web界面进行添加删除等管理操作,特别是对ceph存储的集成管理,真的是特别的方便。VMeare在存储管理这一块却做不到如PVE这般的方便和简洁。
网络的管理方面,PVE和VMware都很方便,倒没有谁优谁劣的问题。
虚拟机模板,VMware需要安装Vcenter之后才能使用,PVE不存在这个问题,只要安装了PVE就能使用。
虚拟机备份,PVE可以实现定期自动备份,也可以手动备份,其中自动备份可以非常灵活的设置备份周期、时间、备份的目标存储、备份的带宽限制等等。VMware需要借助Vcenter或者在虚拟机内安装插件来实现自动备份。另外,PVE可以实现虚拟机的实时备份,这个功能也是非常有用。
虚拟机HA,PVE在使用共享存储或者分布式存储ceph的情况下可以使用虚拟机的HA功能,这一点和VMware一样,使用方便性也是一样。
总之一句话,直接针对VMware,PVE简直就是虚拟化市场的大杀器,我原来希望通过openstack对VMware的替代,后面才发现PVE才是VMware最好的开源替代产品。
proxmox可以导入vmware虚拟机吗
Proxmox是一个非常优秀的开源虚拟化环境,集诸多优点于一身:开源免费,稳定可靠,架构简洁,安装方便,支持集群,KVM,LXC,NFS,iSCSI,Ceph,GlusterFS,DRBD,RestfulAPI,LDAP,CA,同时内嵌防火墙和IPS....绝对是不露声色,能力超高那种角色。但是,要在自己的生产环境里把这玩艺跑起来,还有一个问题要解决,那就是怎么把现有服务器迁移上去。我所要完成的第一个任务是把一套vmware 4.0上的虚拟机全部迁到Proxmox上去。
非常悲催,Proxmox官方没有一个像vmware converter那样的迁移工具。迁移全靠自己手动撸。
根据wiki的推荐,最后使用Clonezilla完成了迁移任务。Clonezilla迁移虚拟机的基本步骤在proxmox的wiki页面上有,我就不多说了。今天要说的是一些wiki页面上没有的东西。
折腾一:windows 2000 server
这个,也说不好是Proxmox的错,还是微软的错。总之,在Proxmox上,windows 2000系统只能用ACPI uniprocessor核心,如果用了ACPI multiprocessor,就很容易出现各种抽风现象,例如CPU 100%,系统时钟速度变快100倍等等。所以,windows 2000系统迁移到Proxmox后,尽快改成ACPI uniprocessor。
折腾二:windows 2000 server
没错,还是windows 2000有关的。windows 2000默认没有Intel E1000网卡驱动,所以,迁移到Proxmox后,最好调整下虚拟机的配置,把网卡改成Realtek RTL8139,不然网络不通哦。
折腾三:使用了动态磁盘的windows虚拟机。
windows磁盘管理器里面可以查看所有磁盘设备的类型,一般情况下就是“基本”,这种可以很方便地迁移到Proxmox。二般情况下会显示“动态”,这种就得恭喜你了。直接迁移过去,windows根本认不出动态磁盘。可以在迁移前,先用TestDisk把动态磁盘的类型从动态变成基本,然后再迁移。当然,改之前一定要做好备份,留好退路....我虽然改了十几次都没错,但这毕竟是有风险的操作。
什么是VMware替代解决方案?
在国内虚拟化市场,VMware 几乎等同于虚拟化,占据着绝对的垄断地位。但随着中美贸易摩擦与全面脱钩的风险越来越大,特别是今年出现的 VMware 对俄停服事件,更是加剧了国内对包括 VMware 等 IT 基础设施安全的担忧,采用国产方案替换 VMware 受到了越来愈多的关注,并且已出现各行业领域用户从 VMware 迁移转型的实际案例。
如何实现现有 VMware 环境进行替换
无论采用哪种技术路线、哪种方案和产品对现有 VMware 环境进行替换,都不能 100% 保证在功能特性和使用体验方面的完全一致。因此,最终的替换决策必然是在认真评估后做出的主动调整:放弃部分非核心、不必要的功能,或通过应用层、架构层的改造以达到同样的效果。
1、聚焦替换 vSphere 并兼顾存储
虚拟化基础设施的核心是 Hypervisor 和存储。
首先,从 Hypervisor 技术和产品角度考虑:有可能用于填补 vSphere 空白的国内虚拟化产品都是基于 KVM 进行的开发。
再考虑虚拟化环境中使用的存储:在国内用户的 vSphere 部署中,大部分采用了集中式 SAN 存储与之配合。那么,替换 vSphere 的方案,也必须包含对集中式 SAN 存储部分的考虑。
2、置换为超融合 HCI
在虚拟化和存储的改造过程中,有些用户也有可能将“虚拟机与外置存储分离部署”的方式替换为更加简单、弹性敏捷的超融合(HCI)方式。
3、转向整体私有云方案
国内的整体私有云解决方案大部分以 OpenStack 为基本技术栈进行开发。OpenStack 基于大量开源项目组成,并经过各个厂商的商业开发,形成了多种商用云方案。OpenStack 全面的云方案可以同时管理 IaaS 层的资源池(服务器、存储和网络),将不再需要分别从计算、存储或网络的角度考虑对 VMware 的替换路线图,而是从整体“私有云”维度进行重建。
4、依托公有云技术栈的专属云
专属云(Dedicated Cloud)是以公有云为基础,面向特定行业、特殊需求的云客户,提供全栈资源池的专属解决方案。专属云客户可以选择在公有云上独占机架、服务器和网络,通过基础设施隔离获得资源的专属使用权和安全性,但专属云的建设和运维仍交由公有云提供商承担。专属云打消了国内用户对公有云资源共享模式带来的安全合规、数据私密性等一系列顾虑,也在规模化部署、快速交付和集中运维方面享有了公有云深厚技术底蕴带来的福利。国内的主要公有云服务商都可以提供专属云服务,通常面向规模较大的国企、央企、集团公司、金融等行业。
由于专属云所依赖的公有云技术在管理平面的开销较大,起步即要求几十个节点(管理节点的要求)。这导致专属云的首次投入占比大,而且普通用户往往不具备运维这种规模的云平台的能力。除了大型客户以外,其他客户很难承受其巨大的投入和运维压力。
完整版可参考知乎专栏文章:生产级 VMware 虚拟化方案替换路线与评估
文章评论