使用社交账号登录
在虚拟化领域,常见方案主要分为 Type-1(裸金属架构) 和 Type-2(宿主机架构)。以下是几种主流虚拟化方案的对比:
| 方案 | 类型 | 适用场景 | 优点 | 缺点 |
|---|---|---|---|---|
| Proxmox VE(PVE) | Type-1 | 中小企业、免费解决方案 | 开源免费、基于Debian、支持LXC容器与KVM虚拟机、Web界面友好 | 学习曲线稍陡,对硬件兼容性有一定要求 |
| VMware ESXi | Type-1 | 行业龙头、企业级生产环境 | 行业标准、性能极高、稳定性极强、生态完善 | 免费版限制多,硬件兼容性(HCL)极其挑剔 |
| Hyper-V | Type-1 | Windows生态环境 | 与Windows Server集成度高、性能优异 | 依赖Windows环境,管理界面相对单一 |
| Docker / Podman | 容器化 | 微服务、应用部署 | 轻量级、启动极快、资源占用极低 | 隔离性弱于虚拟机,不适合运行完整操作系统 |
| Virtual Box / VMware Workstation | Type-2 | Windows系统下的开发测试 | 安装简单、支持多种桌面系统 | 性能损耗大,依赖宿主操作系统,不适合生产环境 |
至于为什么选,我想大家的想法都是不谋而合吧,毕竟谁不愿意免费白嫖呢,还是开源的😄。 PVE的架构相当灵活,它支持LXC 容器用来跑轻量级业务,也可以使用KVM开辟一个全新隔离的环境 。VMware ESXi固然是行业标杆,但是免费版使用起来限制 诸多,而PVE则填补了VMware免费版的许多不足。
PVE下载地址: https://www.proxmox.com/en/downloads/proxmox-virtual-environment/iso

我这里选择的版本是VE 9.1
制作启动盘请选择一个空的U盘或者没有任何重要数据的U盘,启动盘烧录时会把U盘数据格式化,⚠️注意备份重要数据‼️ 下载烧录工具: https://etcher.balena.io/#download-etcher (你也可以用其他工具,比如 Ventoy、大白菜,只是我个人觉得balena Etcher相比其他同类工具要简洁好用)
下载完成后打开应该如图所示:

选择下载好的PVE镜像文件 -> 选择目标磁盘 -> 开始烧录~
就是这么简单,等待烧录完成后启动盘就制作好了。
把制作好的启动盘插入 需要部署PVE系统的服务器,然后开机按F12(具体主板进入BIOS的方式可能不同,建议操作前请确认主板型号以及进入BIOS的方式)。
我的已经是安装完成了,启动盘设置为第一顺位后面的引导安装都比较简单,安装提示输入对应主机 / IP信息即可



安装完成后,在浏览器输入:https://<你的PVE主机IP>:8006
默认用户名:root
密码:你在安装PVE时设置的密码

安装完成后,先通过 https://PVE-IP:8006 登录 Web 控制台。建议第一天就把下面几件事做完,后续会省很多排障时间。
很多人安装完第一步就创建虚拟机,结果后面出现下载慢、更新失败、证书报错。正确顺序是先把源和系统状态整理好。
如果你不是企业订阅版,需要先关闭 pve-enterprise,否则更新时会报 401。
你可以按自己网络情况选择官方源或国内镜像源。这里给一组通用示例(以当前发行版名称为准):
再添加 PVE 无订阅源:
最后执行更新:
这是纯界面体验优化,不影响功能。若你不介意弹窗,可以跳过。
不建议“直接禁用 root 然后不留后路”。更稳妥的做法:
sudo)编辑 /etc/ssh/sshd_config(建议至少包含以下项):
应用配置:
虚拟化平台对时间漂移比较敏感,证书、集群、日志都会受影响。
建议按“先桥接可用,再做 VLAN 隔离”的顺序推进,避免一上来就把管理网络配乱。
先做一个最小网络规划(按你的实际网段替换):
| 角色 | 示例网段 | 用途 | 可否出公网 |
|---|---|---|---|
| 管理网(PVE) | 192.168.10.0/24 | 管理节点、Web 控制台、SSH | 建议受限放行 |
| 业务网(VM/LXC) | 192.168.20.0/24 | 业务服务对内互通 | 视业务决定 |
| 存储网(可选) | 192.168.30.0/24 | NFS/Ceph/备份流量 | 通常不出公网 |
最常见架构是:
eno1:物理网卡vmbr0:管理网桥(PVE 主机 IP 在 vmbr0 上)vmbr0/etc/network/interfaces 示例(带注释,复制后按你的环境替换):
应用网络配置(远程操作请先确认带外管理可用):
如果交换机端口已配置 Trunk,可在 vmbr0 开启 VLAN 感知:
之后在虚拟机网卡里直接指定 VLAN Tag(如 10/20/30)即可实现业务隔离。
常见错配排查:
eno1/enpXsY),导致网桥拉不起来到这里再开始“造资源”,顺序建议:模板 → LXC/VM → 存储 → 硬件直通

先准备一个干净系统,装好基础组件后做模板,可以把后续交付速度提升一个数量级。
典型流程:
适合场景:
建议:
nesting 仅在确有需求时使用适合场景:
建议:
host(同构节点场景)VirtIO SCSIVirtIO (paravirtualized)常见分层思路:
local-lvm:跑 VM/LXC 磁盘(高性能)local:ISO、备份、模板实操建议:
当业务需要接近裸金属性能时,再考虑 PCI Passthrough。
典型使用场景:
Intel VT-x + Intel VT-dSVM + AMD-Vi/IOMMUCSM(若你的环境支持纯 UEFI,通常更省事)编辑 /etc/default/grub:
更新引导并重启:
看到 IOMMU enabled、DMAR 相关输出通常表示已启用。
查看 PCI 设备与分组:
先查设备 ID(示例):
假设目标设备 ID 为 10de:1eb8,10de:10f8,写入:
重启后确认设备已由 vfio-pci 接管:
如果看到 Kernel driver in use: vfio-pci 即表示绑定成功。
在 VM 配置中添加 PCI 设备,常见建议:
All FunctionsPrimary GPU(取决于系统与驱动)q35 机型兼容性通常更好若直通后宿主机异常或设备不可用,可按以下方式回退:
建议先在测试节点完成“启用 → 直通 → 回退”全流程演练,再上生产。
安装完成后如上图所示,系统会给出图形化访问地址(`https://IP地址:8006`)。后续的主要操作都在这个 Web 控制台中完成。到这里,PVE 系统已经安装完成,下面进入初始化与资源规划。sed -i 's/^deb/# deb/g' /etc/apt/sources.list.d/pve-enterprise.list
cat > /etc/apt/sources.list <<'EOF'
deb https://mirrors.ustc.edu.cn/debian/ bookworm main contrib non-free non-free-firmware
deb https://mirrors.ustc.edu.cn/debian/ bookworm-updates main contrib non-free non-free-firmware
deb https://mirrors.ustc.edu.cn/debian-security bookworm-security main contrib non-free non-free-firmware
EOF
cat > /etc/apt/sources.list.d/pve-no-subscription.list <<'EOF'
deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription
EOF
apt update && apt full-upgrade -y
reboot
cp /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js{,.bak}
sed -Ezi.bak "s/(Ext.Msg.show\\(\\{\\s+title: gettext\\('No valid sub)/void\\(\\{ \\/\\/\\1/g" /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js
systemctl restart pveproxy
adduser adminops
usermod -aG sudo adminops
PermitRootLogin prohibit-password
PasswordAuthentication no # 关闭ssh密码认证
PubkeyAuthentication yes # 开启ssh密钥登录
systemctl restart ssh
timedatectl set-timezone Asia/Shanghai
timedatectl status
hostnamectl status
auto lo
iface lo inet loopback
# 物理网卡不直接配 IP,交给网桥 vmbr0 使用
iface eno1 inet manual
# 管理网桥:PVE 管理 IP 建议配在这里
auto vmbr0
iface vmbr0 inet static
address 192.168.10.10/24 # 按你的管理网段修改(示例:10.0.0.10/24)
gateway 192.168.10.1 # 按你的网关修改(示例:10.0.0.1)
bridge-ports eno1 # 按你的物理网卡名修改(可能是 enp3s0 / eno2)
bridge-stp off # 家用/中小场景通常关闭 STP;复杂二层网络可按需开启
bridge-fd 0 # 转发延迟,保持默认 0
ifreload -a
auto vmbr0
iface vmbr0 inet static
address 192.168.10.10/24
gateway 192.168.10.1
bridge-ports eno1
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes # 开启 VLAN 感知(前提:交换机端口允许对应 VLAN)
# bridge-vids 10 20 30 # 可选:限制只允许通过的 VLAN
# Intel 平台(任选其一,不要混用)
GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on iommu=pt"
# AMD 平台(任选其一,不要混用)
GRUB_CMDLINE_LINUX_DEFAULT="quiet amd_iommu=on iommu=pt"
update-grub
reboot
dmesg | grep -E "DMAR|IOMMU"
lspci -nn
find /sys/kernel/iommu_groups/ -type l
lspci -nn | grep -Ei "vga|3d|nvidia|amd|ethernet|sas"
echo "options vfio-pci ids=10de:1eb8,10de:10f8" > /etc/modprobe.d/vfio.conf
echo -e "vfio\nvfio_iommu_type1\nvfio_pci\nvfio_virqfd" > /etc/modules-load.d/vfio.conf
update-initramfs -u -k all
reboot
lspci -nnk -d 10de:1eb8
rm -f /etc/modprobe.d/vfio.conf /etc/modules-load.d/vfio.conf
update-initramfs -u -k all
reboot