Proxmox
Proxmox: USB Passthrough an LXC Container |(UZB-1 Z-Wave USB Stick)
https://coldcorner.de/2018/07/12/proxmox-usb-passthrough-fuer-lxc-container-z-wave-uzb1/
Proxmox can’t stop VM – How we fix it!
https://bobcares.com/blog/proxmox-cant-stop-vm/
Nach der Migration von einer Windows Server 2012 und 2016 VM mit dem neuen Proxmox Migration Tool
https://forum.proxmox.com/threads/inaccessible-boot-device-nach-migration.144817/
Windows VirtIO Drivers
https://pve.proxmox.com/wiki/Windows_VirtIO_Drivers
Downloading the Wizard in the VM
https://fedorapeople.org/groups/virt/virtio-win/direct-downloads/archive-virtio/virtio-win-0.1.285-1/
Dann hast du an einem Punkt etwas vergessen. 1. Bootdisk detach und Attach als SATA 2. zweite Disk (dummydisk) als SCSI anhängen 3. Im Windows Virtio Tools installieren (zweite Disk muss in der Datenträgerverwaltung auftauchen) 4. Windows Herunterfahren 5. Dummydisk löschen 6. Bootdisk detach und attach als SCSI Fertig
5 Möglichkeiten, Proxmox zu verbessern (Neue Installationsänderungen)
https://www.youtube.com/watch?v=DlWXQrIhYQk
https://www.youtube.com/watch?v=2RjsxpwMJ-k&t=140s
Installing VirtIO (or any driver) from Windows Recovery
https://hull.au/blog/install-virtio-drivers-from-windows-recovery/
Enter Windows Recovery - add disk driver
Reset the VM a few times while at the Windows loading screen and it’ll dump you into the recovery environment. From here you can perform an advanced repair and summon a command prompt. It typically takes 2 failed boots to trigger recovery. Mount an ISO Containing Drivers
In this example, I’ve neglected to install the VirtIO SCSI driver so I’ll mount the VirtIO ISO for Windows. You can grab it from here Screenshot of CD-ROM config with VirtIO ISO mounted
Switch to your disc in the Command Prompt using its drive letter (usually D:) Screenshot showing the directory listing of the VirtIO driver disc Load the SCSI Driver
Find the driver you wish to load. (vioscsi.inf in my case) Screenshot showing the folder containing the VirtIO SCSI driver
Drive D:
D:\> cd vioscsi\2k19\amd64\
Load the driver by running drvload vioscsi.inf Screenshot demonstrating drvload
D:\vioscsi\2k19\amd64\> drvload vioscsi.inf
List Disks
Use diskpart to list your disks to confirm they’re now visible Screenshot of diskpart showing the results of a successful list disk operation
D:\vioscsi\2k19\amd64\> diskpart
DISKPART> list disk
Use list volume to see what drive letter your Windows drive got assigned Screenshot of diskpart showing the results of a successful list volume operation
DISKPART> list volume
My Windows partition was now visible on drive letter E: Screenshot showing the contents of my Windows partition
Add the Driver to Windows
Use dism to insert the driver into your Windows install
dism /Image:E:\ /Add-Driver:D:\vioscsi\2k19\amd64\vioscsi.inf
Screenshot of dism adding the vioscsi driver to Windows Success!
Reboot into Windows and enjoy your new SCSI driver. Screenshot of device manager showing the VirtIO SCSI controller
Proxmox Helper Menue
To install ProxMenux, simply run the following command in your Proxmox server terminal:
bash -c "$(wget -qLO - https://raw.githubusercontent.com/MacRimi/ProxMenux/main/install_proxmenux.sh)"
SDN Software Defined Network
https://pve.proxmox.com/pve-docs/chapter-pvesdn.html
A Beginner's Guide to Software Defined Networking (SDN) inside Proxmox - Part 1
https://bennetgallein.de/blog/proxmoxve-sdn-beginners-guide
A Beginner's Guide to Software Defined Networking (SDN) inside Proxmox - Part 2
https://bennetgallein.de/blog/a-beginners-guide-to-software-defined-networking-sdn-inside-proxmox-part-2
SDN Core
Since Proxmox VE 8.1 the core Software-Defined Network (SDN) packages are installed by default.
If you upgrade from an older version, you need to install the libpve-network-perl package on every node:
apt update apt install libpve-network-perl
DHCP IPAM
The DHCP integration into the built-in PVE IP Address Management stack currently uses dnsmasq for giving out DHCP leases. This is currently opt-in.
To use that feature you need to install the dnsmasq package on every node:
apt update apt install dnsmasq # disable default instance systemctl disable --now dnsmasq
FRRouting
The Proxmox VE SDN stack uses the FRRouting project for advanced setups. This is currently opt-in.
To use the SDN routing integration you need to install the frr-pythontools package on all nodes:
apt update apt install frr-pythontools
Then enable the frr service on all nodes:
systemctl enable frr.service
Proxmox Backup
https://www.thomas-krenn.com/de/wiki/Proxmox_Backup_Server_No_Subscription_Update_Repository
Proxmox Backup Server No Subscription Update Repository Hauptseite > Virtualisierung > Proxmox > Proxmox Backupserver
Der Proxmox-Backup-Server bietet für Produktiv-Systeme Subscriptions an, mit denen man getestete Updates sowieso Support bei Proxmox erhält. Für bestimmte Test-Systeme möchte man ggf. keine Subscription kaufen. Die Thomas-Krenn.AG empfiehlt für Produktiv-Systeme den Einsatz von Proxmox Backup Server Subscriptions. Proxmox Backup Server Subscriptions sind die einzige Möglichkeit die ständige Weiterentwicklung von Proxmox VE und Proxmox PBS zu finanzieren und zu fördern. Möchte man trotzdem ein No-Subscription Repository verwenden tritt folgender Fehler nach der Default-Installation auf wenn man via
apt update && apt dist-upgrade
ein Upgrade des PBS starten möchte.
E: Failed to fetch https://enterprise.proxmox.com/debian/pbs/dists/buster/InRelease 401 Unauthorized [IP: 212.224.xxx.xxx 443] E: The repository 'https://enterprise.proxmox.com/debian/pbs buster InRelease' is not signed.
Um auf das pbs-no-subscription Repository wechseln zu können, muss man die Repository-Datei editieren:
nano /etc/apt/sources.list.d/pbs-enterprise.list
und folgenden Inhalt in die Datei kopieren / bzw. die folgenden Änderungen vornehmen. Hier wurde das Enterprise Repository auskommentiert und das no-subscription Repository hinzugefügt (http beachten, beim no-subscription Repo wird im Gegensatz zum Enterprise-Repository kein https eingesetzt)
# deb https://enterprise.proxmox.com/debian/pbs buster pbs-enterprise deb http://download.proxmox.com/debian/pbs buster pbs-no-subscription
Danach funktioniert der Update Vorgang auch ohne Subscription.
Einrichtung von Proxmox Backup Server
Einrichtung auf Proxmox Server
https://www.youtube.com/watch?v=Lp53qCYBeq8
https://www.youtube.com/watch?v=wv9v9HMZJNY
Einrichtung auf QNAP
https://it-beratung-koch.de/kb/proxmox-proxmox-backup-server-pbs-auf-qnap-installieren/
Proxmox Helper Scripts
Real-time monitoring for Proxmox
https://github.com/rcourtman/Pulse
PBS-Backup Helper
bash -c „$(curl -fsSL https://raw.githubusercontent.com/community-scripts/ProxmoxVE/main/tools/pve/post-pbs-install.sh)“
QNAP NAS Einbinden
Proxmox Backup Server auf QNAP-NAS installieren und Konfigurieren
https://www.youtube.com/watch?v=zCYsC8qtw-k
NFS Einbinden:
PBS→ Shell
cd /mnt/ ls mkdir -p Backups ls → Backups anzeigen nano /etc/fstab → folgendes einfügen
10.10.10.50:/PBS-Backup /mnt/Backups nfs defaults 0 0
STRG-O → speichern STRG-X → exit
mount -a
eventl. systemctls daemon-reload
kontrolle mit df -h
→ Datastore hinzufügen
Name: NAS-Backup Datastore Type: Local Backing Path: /mnt/Backups
Festplatte ersetzen
https://kayomo.de/blog/zfs-festplatte-ersetzen-unter-proxmox/
Defekte Festplatte im ZFS Pool identifzieren
Die Ersetzung von Festplatten in einem ZFS-Verbund ist grundsätzlich sehr einfach, wenn man weiß, wie es geht.
Durch die Eingabe von
ls -alh /dev/disk/by-id/
kann man sich einen Status über alle Block Devices verschaffen, da wir später die Id der Festplatten kennen müssen. Das sieht dann zum Beispiel so aus (Hinweis, das ist NACH dem Ersetzen auf dem Server):
root@pve01:~# ls -alh /dev/disk/by-id/ total 0 drwxr-xr-x 2 root root 580 Feb 7 19:41 . drwxr-xr-x 8 root root 160 Feb 7 19:41 .. lrwxrwxrwx 1 root root 9 Feb 7 19:41 ata-Samsung_SSD_870_EVO_1TB_S6P5NL0T907058N -> ../../sda lrwxrwxrwx 1 root root 10 Feb 7 19:41 ata-Samsung_SSD_870_EVO_1TB_S6P5NL0T907058N-part1 -> ../../sda1 lrwxrwxrwx 1 root root 10 Feb 7 19:41 ata-Samsung_SSD_870_EVO_1TB_S6P5NL0T907058N-part9 -> ../../sda9 lrwxrwxrwx 1 root root 9 Feb 7 19:41 ata-Samsung_SSD_870_EVO_1TB_S6P5NL0T910187F -> ../../sdb lrwxrwxrwx 1 root root 10 Feb 7 19:41 ata-Samsung_SSD_870_EVO_1TB_S6P5NL0T910187F-part1 -> ../../sdb1 lrwxrwxrwx 1 root root 10 Feb 7 19:41 ata-Samsung_SSD_870_EVO_1TB_S6P5NL0T910187F-part9 -> ../../sdb9
Die Ids wären in diesem Fall ata-Samsung_SSD_870_EVO_1TB_S6P5NL0T907058N und ata-Samsung_SSD_870_EVO_1TB_S6P5NL0T910187F.
Defekte Festplatte im ZFS Pool ersetzen
Dazu den Server herunterfahren, eine Festplatte ausbauen und hoffen, dass es die richtige war. Der Proxmox Server bootet auch, da sich das Betriebssystem auf der separaten M.2 befindet. Nachdem der Server wieder hochgefahren ist, sieht das ungefähr wie folgt aus:
root@pve01:~# zpool status
pool: tank
config:
NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
2526873008305822243 UNAVAIL 0 0 0 was /dev/disk/by-id/ata-CT1000MX500SSD1_2240E674CA8F-part1
ata-CT1000MX500SSD1_2240E674DF77 ONLINE 0 0 0
errors: No known data errors
Wenn die defekte Festplatte identifiziert und physisch ersetzt wurde, erfolgt die Aufnahme der neuen Platte und die Ersetzung der alten Platte im ZFS-Pool mit
zpool replace -f <pool> <old device> <new device>
In unserem Fall mit
zpool replace -f tank ata-CT1000MX500SSD1_2240E674CA8F ata-Samsung_SSD_870_EVO_1TB_S6P5NL0T907058N
Die neue Platte wird daraufhin resilvered. Resilvering bezeichnet den Vorgang des Übertragens von Daten von einem Datenspeichergerät auf ein anderes Gerät. Konkret bedeutet das, dass wir die Daten auf der guten alten Festplatte auf die neue gespiegelt haben und diese wieder fehlerfrei im Mirror zur Verfügung stehen.
root@pve01:~# zpool status
pool: tank
state: ONLINE
scan: resilvered 230G in 00:11:04 with 0 errors on Tue Feb 7 18:47:30 2023
config:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-Samsung_SSD_870_EVO_1TB_S6P5NL0T907058N ONLINE 0 0 0
ata-CT1000MX500SSD1_2240E674DF77 ONLINE 0 0 0
errors: No known data errors
Die Dauer des Vorgangs ist abhängig von der Größe der vorhandenen Daten. In diesem Fall hat der Übertragungsvorgang 11 Minuten gedauert.
Für die zweite alte Festplatte wird der Vorgang analog wiederholt. Wir übertragen dabei die Daten von der guten neuen Festplatte auf eine leere gute neue Festplatte. Im Ergebnis sieht das dann so aus:
root@pve01:~# zpool status
pool: tank
state: ONLINE
scan: resilvered 230G in 00:08:35 with 0 errors on Tue Feb 7 19:04:30 2023
config:
NAME STATE READ WRITE CKSUM
tank ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-Samsung_SSD_870_EVO_1TB_S6P5NL0T907058N ONLINE 0 0 0
ata-Samsung_SSD_870_EVO_1TB_S6P5NL0T910187F ONLINE 0 0 0
errors: No known data errors
