Proxmox VE — различия между версиями
Материал из pNp Wiki
Suser (обсуждение | вклад) |
Suser (обсуждение | вклад) |
||
(не показано 14 промежуточных версий этого же участника) | |||
Строка 5: | Строка 5: | ||
* - расширенный раздел (sda5) делаем около 24гб и разбиваем как lvm | * - расширенный раздел (sda5) делаем около 24гб и разбиваем как lvm | ||
* - создаем группу pve | * - создаем группу pve | ||
− | * - в ней тома root - 8ГБ | + | * - в ней тома root - 8ГБ (точка монтирования /root) |
− | * - том swap - 16ГБ | + | * - том swap - 16ГБ |
− | * - всё оставшиеся в data | + | * - всё оставшиеся в data (точка монтирования /var/lib/vz) |
# Устанавливаем систему из ролей выбираем только ssh-server# | # Устанавливаем систему из ролей выбираем только ssh-server# | ||
# Настраиваем сеть | # Настраиваем сеть | ||
− | * aptitude install bridge-utils ifenslave vlan htop | + | * Устанавливаем утилиты для создания мостов, vlan и тд: |
− | * nano /etc/network/interfaces | + | aptitude install bridge-utils ifenslave vlan htop |
+ | * Создаем мост для работы ВМ: | ||
+ | nano /etc/network/interfaces | ||
auto lo | auto lo | ||
iface lo inet loopback | iface lo inet loopback | ||
− | + | ||
auto bond0 | auto bond0 | ||
iface bond0 inet manual | iface bond0 inet manual | ||
Строка 22: | Строка 24: | ||
bond_updelay 200 | bond_updelay 200 | ||
slaves eth0 eth1 | slaves eth0 eth1 | ||
− | + | ||
auto vmbr0 | auto vmbr0 | ||
iface vmbr0 inet static | iface vmbr0 inet static | ||
Строка 32: | Строка 34: | ||
bridge_stp off | bridge_stp off | ||
bridge_fd 0 | bridge_fd 0 | ||
+ | * Добавляем репозиторий Proxmox | ||
+ | wget -O- "http://download.proxmox.com/debian/key.asc" | apt-key add - | ||
+ | echo "deb http://download.proxmox.com/debian wheezy pve-no-subscription" >> /etc/apt/sources.list.d/pve.list | ||
+ | |||
+ | * Устанавливаем PVE ядро | ||
+ | aptitude update && aptitude safe-upgrade | ||
+ | aptitude install pve-firmware pve-kernel-2.6.32-34-pve | ||
+ | |||
+ | * Удаляем старое ядро от Дебиана | ||
+ | aptitude remove linux-image-amd64 linux-image-3.2.0-4-amd64 | ||
+ | |||
+ | * Перезагружаем ОС и запускаем её с новым ядром | ||
+ | shutdown -r now | ||
+ | |||
+ | * Изменяем файл hosts | ||
+ | nano /etc/hosts | ||
+ | '''192.168.0.1 proxmox.ipnp.su proxmox''' pvelocalhost | ||
+ | |||
+ | * Устанавливаем пакеты Proxmox | ||
+ | aptitude install proxmox-ve-2.6.32 ntp ssh lvm2 postfix ksm-control-daemon vzprocps open-iscsi bootlogd | ||
+ | |||
+ | * Заходим в админку https://192.168.0.2:8006 под root. | ||
+ | |||
+ | ==Настройка кластера== | ||
+ | * Следущие условия требуются для создания кластера: | ||
+ | # Нужно иметь не менее двух узлов с установленным Proxmox VE | ||
+ | # Все узлы кластера должны находиться в одной подсети! | ||
+ | # Виртуалки могут находится только на узле где создается кластер | ||
+ | * Создаем на первом сервере (node1 (192.168.0.2) кластер | ||
+ | pvecm create '''clustername''' | ||
+ | |||
+ | * Проверяем состояние | ||
+ | pvecm status | ||
+ | |||
+ | * Добавляем второй сервер (node2 (192.168.0.3)в кластер: | ||
+ | pvecm add 192.168.0.2 | ||
+ | * Проверяем егл статус | ||
+ | pvecm status | ||
+ | |||
+ | * Посмотреть cписок узлов можно командой | ||
+ | pvecm nodes | ||
+ | |||
+ | Node Sts Inc Joined Name | ||
+ | 1 M 228 2014-04-16 21:43:36 node1 | ||
+ | 2 M 4 2014-04-16 21:36:59 node2 | ||
+ | |||
==Прочее== | ==Прочее== | ||
===VNC=== | ===VNC=== | ||
Строка 60: | Строка 108: | ||
nano /etc/pve/qemu-server/100.conf | nano /etc/pve/qemu-server/100.conf | ||
usb0: host=2-1.1 | usb0: host=2-1.1 | ||
+ | |||
+ | ===Virtio драйверы для windows=== | ||
+ | https://alt.fedoraproject.org/pub/alt/virtio-win/latest/images/bin/ | ||
+ | |||
+ | ==Подготовка шаблонов== | ||
+ | ===Debian 11=== | ||
+ | Включаем старое имнование интерфейсов | ||
+ | nano /etc/default/grub | ||
+ | Меняем строку в GRUB_CMDLINE_LINUX | ||
+ | GRUB_CMDLINE_LINUX="net.ifnames=0 biosdevname=0" | ||
+ | Обновляем загрущик | ||
+ | grub-mkconfig -o /boot/grub/grub.cfg | ||
+ | |||
+ | ==Полезные ссылки== | ||
+ | http://pve.proxmox.com/wiki/Proxmox_VE_2.0_Cluster |
Текущая версия на 17:16, 29 октября 2021
Proxmox VE
Содержание
Установка поверх Debain
- * Устанавливаем систему и выбираем ручную разбивку:
- - первичным разделом делаем /boot на 512
- - расширенный раздел (sda5) делаем около 24гб и разбиваем как lvm
- - создаем группу pve
- - в ней тома root - 8ГБ (точка монтирования /root)
- - том swap - 16ГБ
- - всё оставшиеся в data (точка монтирования /var/lib/vz)
- Устанавливаем систему из ролей выбираем только ssh-server#
- Настраиваем сеть
- Устанавливаем утилиты для создания мостов, vlan и тд:
aptitude install bridge-utils ifenslave vlan htop
- Создаем мост для работы ВМ:
nano /etc/network/interfaces auto lo iface lo inet loopback auto bond0 iface bond0 inet manual bond_mode 802.3ad bond_miimon 100 bond_downdelay 200 bond_updelay 200 slaves eth0 eth1 auto vmbr0 iface vmbr0 inet static address 192.168.0.2 netmask 255.255.255.0 gateway 192.168.0.1 dns-nameservers 192.168.0.1 bridge_ports bond0 bridge_stp off bridge_fd 0
- Добавляем репозиторий Proxmox
wget -O- "http://download.proxmox.com/debian/key.asc" | apt-key add - echo "deb http://download.proxmox.com/debian wheezy pve-no-subscription" >> /etc/apt/sources.list.d/pve.list
- Устанавливаем PVE ядро
aptitude update && aptitude safe-upgrade aptitude install pve-firmware pve-kernel-2.6.32-34-pve
- Удаляем старое ядро от Дебиана
aptitude remove linux-image-amd64 linux-image-3.2.0-4-amd64
- Перезагружаем ОС и запускаем её с новым ядром
shutdown -r now
- Изменяем файл hosts
nano /etc/hosts 192.168.0.1 proxmox.ipnp.su proxmox pvelocalhost
- Устанавливаем пакеты Proxmox
aptitude install proxmox-ve-2.6.32 ntp ssh lvm2 postfix ksm-control-daemon vzprocps open-iscsi bootlogd
- Заходим в админку https://192.168.0.2:8006 под root.
Настройка кластера
- Следущие условия требуются для создания кластера:
- Нужно иметь не менее двух узлов с установленным Proxmox VE
- Все узлы кластера должны находиться в одной подсети!
- Виртуалки могут находится только на узле где создается кластер
- Создаем на первом сервере (node1 (192.168.0.2) кластер
pvecm create clustername
- Проверяем состояние
pvecm status
- Добавляем второй сервер (node2 (192.168.0.3)в кластер:
pvecm add 192.168.0.2
- Проверяем егл статус
pvecm status
- Посмотреть cписок узлов можно командой
pvecm nodes
Node Sts Inc Joined Name 1 M 228 2014-04-16 21:43:36 node1 2 M 4 2014-04-16 21:36:59 node2
Прочее
VNC
nano /etc/pve/local/qemu-server/{id}.conf например: (nano /etc/pve/local/qemu-server/100.conf)
args: -vnc 0.0.0.0:100
Подключаться нужно будет на порт 6000.
Проброс usb
- Смотрим какое устройство надо пробрасывать:
lsusb Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub Bus 002 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub Bus 001 Device 002: ID 8087:0024 Intel Corp. Integrated Rate Matching Hub Bus 002 Device 002: ID 8087:0024 Intel Corp. Integrated Rate Matching Hub Bus 001 Device 003: ID 0557:2221 ATEN International Co., Ltd Winbond Hermon Bus 002 Device 003: ID 0529:0001 Aladdin Knowledge Systems HASP v0.06
lsusb -t /: Bus 02.Port 1: Dev 1, Class=root_hub, Driver=ehci_hcd/2p, 480M |__ Port 1: Dev 2, If 0, Class=hub, Driver=hub/6p, 480M |__ Port 1: Dev 3, If 0, Class=vend., Driver=usbfs, 1.5M /: Bus 01.Port 1: Dev 1, Class=root_hub, Driver=ehci_hcd/2p, 480M |__ Port 1: Dev 2, If 0, Class=hub, Driver=hub/6p, 480M |__ Port 2: Dev 3, If 0, Class=HID, Driver=usbhid, 12M |__ Port 2: Dev 3, If 1, Class=HID, Driver=usbhid, 12M
- Прописываем в конфиг строку (у нас будет вирт машина с номером 100)
nano /etc/pve/qemu-server/100.conf usb0: host=2-1.1
Virtio драйверы для windows
https://alt.fedoraproject.org/pub/alt/virtio-win/latest/images/bin/
Подготовка шаблонов
Debian 11
Включаем старое имнование интерфейсов
nano /etc/default/grub
Меняем строку в GRUB_CMDLINE_LINUX
GRUB_CMDLINE_LINUX="net.ifnames=0 biosdevname=0"
Обновляем загрущик
grub-mkconfig -o /boot/grub/grub.cfg