Proxmox (GPUパススルー) 導入

Windows10 サポート終了(2025/10/14)が1年後ということで、Windows11も触っとかな~と思い、Synology NAS (DS1621+)のVMでWindows11を動かしてみたが、もっさりしててなんだかなーだった。AMD Ryzen 4-core 2.2GHz、64GBメモリ上で、4コア・16GBメモリをくべたのだが・・・

一方で、日常生活のWindows10マシンは、お試しソフトやら、Hyper-V、VMware workstation、VirtualBoxでいろいろ遊んだりして、なんかぐちゃぐちゃになってきた。 このままWindows11にアプデするのはアレなのでクリーンインストールしたい。 日常生活とは別に遊ぶ?マシン環境を別途設けたくなった次第。

Proxmoxは、以前、ラズベリーパイ4 (8GB)のRaspberry Pi OS上に入れてみたことがあったが、遅すぎて遊ぶ気が起きなかった。
最近買った中古ミニPC(Intel Core i5-2.3GHz(10500T)、32GBメモリに増設)では、Proxmox上のWindows11が結構まともに動いた。おー。
ほんなら?!ということで、GPUパススルーありのProxmox環境を新たに構築し、PCゲームやら、画像生成AI系とか、自宅オンプレ仮想マシン上で遊べるようにしようと思った次第。


目次
Proxmoxとは

にわか素人があれこれ語るとボロがでそうなのでw、さらっとだけ。

Proxmoxは、オープンソースの仮想化プラットフォームだそうです。debianベースでKVMを使用した仮想マシンとLXCを使用したLinuxコンテナを一つのWeb管理画面から行えることが特徴とされています。

有料サブスクリプションに加入すると安定した(無料版に比べよりテストした)パッケージリポジトリのProxmox Enterprise Repositoryにアクセスでき、技術サポートを受けることができるようですが、無料版リポジトリでみんなガンガン使ってます。 いちお、Proxmoxの中の人は、本番環境(prod環境)には有料リポジトリをと思っているようで、無料リポジトリだとWeb管理画面に警告は出ますがうざくはないです。

Proxmoxをインストールした複数台のマシンで、クラスタやHA(High Availability)システムを組むこともできるようです。

VMware ESXi Hypervisor (無償版 VMware ESXi) が提供終了(2024/2)となった今、個人で手軽に遊べる仮想化プラットフォームとしてはProxmox一択でしょう。


PC購入

GPU(グラフィックボード)ありのPCを買うということで、新品のBTO、自作PCとかも考えましたが、リースアップの中古のゲーミングPCをQualitで調達。同等品の新品は20万円超えるし、同店ではセール期間外の中古で12万円ぐらいなので、9月の期末セールでお得に買えたのではないだろうか。
ヤフオクやメルカリで、ジャンクぎりぎりみたいなのを買って修理するのも楽しいのかもしれませんが、それはまた別の機会に。

PCスペック

メーカHP
型番Elite Tower 800 G9 (2022年頃購入とのこと)
CPUCore i7-2.1GHz (12700)
(12世代。12コア 20スレッド)
(Perfomance-core 8+Efficient-core 4)
チップセットインテル Q670
メモリ16GB (DDR5 4800MHz 8GB×2)(4スロット)
ストレージ256GB M.2 NVMe
グラフィックNVIDIA GeForce RTX 3070
(DisplayPort×3、HDMI×1)
光学ドライブDVD-R/RW
インタフェース前面:USB Type-C×1、USB 3.2×3、USB 2.0×1
背面:USB 3.2×3、USB 2.0×3、RJ45(1GBイーサネット)、CPU内蔵グラフィックス DisplayPort×2、HDMI×1、VGA(Flex IO v2増設済)×1
PCIeスロットPCIe 4.0 x16 ×1スロット(グラボが使用済)、PCIe 3.0 x16(x4動作)×1スロット、PCIe 3.0 x1×2スロット(うち1スロットは、グラボの下にもぐってる)、M.2 PCIe 3×1(2230 for WiFi/Bluetooth)
内蔵ストレージスロット3.5インチ×2、2.5インチスリムベイ×2(うち、1つをDVDドライブで使用済)
ストレージポートSATA3×4(うち、1つはDVDドライブが使用済)、M.2 PCIe NVMe(PCIe4 x4)(2280)×2(うち、1つを使用済)
その他内蔵スピーカあり、SDカードスロットなし、USB日本語キーボード、USB有線マウス
OSWindows10 Pro 64bit (Win11ダウングレード)
商品ランクC (並品)
価格81,180円(税込)
(期間限定セール価格に、10%割引クーポン適用)

会社でHPのデスクトップを支給されても、蓋開けて中見たことなかったが、改めて見ると、マザボの電源に24ピンコネクタを挿すところがなく、白い6ピンと白いちっちゃい6ピンがそれにあたるらしい。別途、CPU補助電源の白い6ピン。
SATAドライブ電源は電源ユニットからではなく、マザボから生えてる。謎・・・


別途購入品

空いてる穴は埋めたく性分で、いろいろ買いすぎたw
3.5inch HDDはTrueNAS ScaleでRAID1にするつもり。 メモリは、32GB×4枚で128GBにしてみたが、4スロット全部挿したら、4800MHz動作せず、3600MHz動作になってしまった(涙)
ま、スリムベイ用のSSDとケース、WiFiカード・アンテナ、増設シリアルポートは、あきらかに余計ですな。
あと埋めるとしたら、PCIe 3.0 x1接続のイーサネットボードぐらいか。他には、補助電源なしグラボ追加できるかもだが、PCIe 3.0 x16接続ではなく、x4接続になるしね。
HP純正パーツで、PS/2ポート×2+COMポート用のポートがある(PCIeスロットは消費しない)があるが、PS/2のキーボード・マウスは我が家でも流石に使用終了予定なので。

3.5インチベイの下は、高さの余裕がないので、SATAケーブルはコネクタが小さいもの・ケーブルの長さが短めのものがよい。 また、グラボがすぐそばまで来ているので、SATAケーブルやSATA電源ケーブルは、L字型コネクタが必須。 ただし、スリムベイのDVDドライブやSSDのSATAケーブルやSATA電源ケーブルは、L字型だとうまくささらないので、そっちはストレート型コネクタのもので。

メモリCrucial PRO DDR5-5600 32GB×4枚
(DDR5-4800より安かったので)
Amazon47,538円
M.2 NVMeHP FX700 4TB SSD NVMe2.0 M.2 Type 2280 PCIe Gen4×4
(最大読込:7200MB/s (R:7200MB/s、W:6200MB/s) ×2枚
Amazon79,960円
M.2 NVMeヒートシンクオウルテック アルミ製両面ヒートシンク OWL-SSDHS04PS
(2枚目のNVMeスロットはNVMeがマザボの外にハミ出し、NVMeがPCケースから浮いている状況になって、なんかの拍子にNVMeをボキッと折ってしまいそうなのでつけた)
Amazon968円
3.5inch HDDWestern Digital WD Red Plus 8TB CMR ×2個Amazon57,760円
SATAケーブル (HDD用)アイネックス シリアルATAケーブル L型コネクタ 20cm SAT-3002LBL ×2本Amazon1,152円
HP HDD固定用ネジiJungYee HDD固定ネジ 5 本セット ×2Amazon1,980円
2.5inch SSDCrucial SSD 2000GB MX500 CT2000MX500SSD1/JPAmazon24,727円
スリムベイケースステートドライブブラケット アルミ合金Amazon1,150円
ステイHP EliteDesk 800 G2等 ウルトラスリムドライブ取り付けステイヤフオク648円
(送料込)
SATAケーブル (SSD用)手元に余ってたもの
SATA電源分岐ケーブルDeear SATA電源(15ピン)×2分岐ケーブル 15ピンオスー15ピン2メス 20cm長さ 2個セット L字型Amazon680円
スリムベイ用SATA電源変換ケーブルXiatiaosann SATA 15ピン オス - SATA 6ピン メス 30cm 4本セットAmazon659円
WiFiカードIntel WiFi 6E Intel AX210NGWAmazon2,889円
WiFiアンテナ(背面外出し用)QAREQU NGFF M.2 ネットワーク 6dBi WiFi 4G アンテナ RP-SMA MHF4 ピグテール ケーブル 2本セットAmazon989円
WiFiアンテナ(前面用)WiFi 無線LAN用 PCBアンテナ 5DBi 2.4G/5G デュアルバンド MHF4 2本セットAmazon870円
増設シリアルポートHP 3TK82AAAmazon6,575円
追加グラフィックボードAMD Radeon RX550 GDDR5 4GB DP (AMD Lexa GPU) (補助電源不要)
(CPU-ZとかでDELL製と表示されるので、DELLのPCに入ってたやつくさい)
Rakuten5,500円
別途購入品小計234,036円
本体購入額含め合計315,216円

プリインの256GB NVMeのWindows10は、Windows11にバージョンアップ後、Macrium Reflect Home(30日間無償トライアルライセンス)で、4TB NVMeにクローン(256GB→512GBパーテションに伸長)し、差し替えた。残り3TB強はProxmox用にする。4TBのまっさらのNVMeと合わせて7TB強あれば、どんなに無駄に?VM作りまくっても大丈夫だろう。

目次に戻る


Proxmoxのインストール

  1. Proxmox VE (Virtual Environment) ver.8.2のISOインストラーをダウンロードして、RufusやRaspberry Pi Imagerなどを使用して、USBメモリに焼く
  2. ProxmoxのインストーラがNVMeドライブ全体を潰してしまう(インストーラの使い方が悪いだけかも)ので、同容量のNVMeのインストール先選択を間違わないよう、Windows11をクローンしたNVMeは抜いて、まっさらのNVMeのみにする
  3. 1.のUSBメモリをPC本体に挿し、CPU内蔵グラフィックのポートにモニタをつなぐ
  4. HPのPC起動後、ESCキー連打でBIOS(UEFI)画面に入り、F9キー押下でBoot選択画面に入り、USBメモリから起動する。
  5. 画面の案内に沿って、Proxmoxをインストール
  6. インストール後、再起動され、モニタ画面に、設定用にアクセスすべきURL (https://192.168.xx.xx:8006/)が表示されるので、別PCのブラウザでアクセスし、ユーザ root、インストール中に設定したパスワードでログイン
  7. 一旦、Proxmoxをシャットダウン
  8. USBメモリは抜き、Windows11をクローンしたNVMeを挿し、PCを起動
  9. BIOS(UEFI)のブート優先順位の設定では、Proxmoxが入っているNVMeドライブを優先にする。
    ProxmoxとWindows11のブート切り替えは、Proxmox側NVMeのGRUBから、「UEFI Firmware Settings」を選択し、BIOS(UEFI)画面→F9キー押下でBoot選択画面→Windows Managerを選択することにした。
    最近のGRUBは、Windowsドライブ・パーテションの自動検知はデフォルトオフになっていて、パーテション破壊リスク回避や、Secure Boot回避手段となることを避けているようだ。os-proberインストールしたり、/etc/default/grub.d/proxmox-ve.cfg で、 GRUB_DISABLE_OS_PROBER=falseしたり、なんなりいろいろしてみたが、うまくWindows11を起動できなかったのであきらめた。
  10. Proxmoxを起動し、6. 同様に別PCのブラウザでアクセスし、ユーザ root、インストール中に設定したパスワードでログイン
  11. 有償リポジトリから無償リポジトリに変更。ブラウザ画面上のshellから、apt update、apt dist-upgrade
  12. ブラウザ画面上のshellから、ユーザ追加 adduser
  13. ブラウザ画面上のshellから、apt install sudo
  14. /etc/group を編集し、追加したユーザをsudoグループに追加
  15. 追加したユーザでSSHで入れ、sudoできることを確認
  16. (任意) ジョブ結果などを通知するメール設定を行う。
    ブラウザ画面のData Center→Notification→追加→SMTP にて
    サーバ:smtp.gmail.com、暗号化:STARTTLS、ユーザ名はGmailのアカウント、パスワードはGoogleアカウントから発行。(「Googleアカウント」をググって、セキュリティ→2段階認証プロセス→アプリパスワード から生成)
  17. (任意) VMのイメージバックアップやVMインストール時のISOイメージ格納用に、別マシンのNAS等をNFSマウントする設定を行う。
    ブラウザ画面のData Center→Storage→追加→NFS にて設定。
    「内容」は、VZDumpバックアップファイル、ディスクイメージ、ISOイメージを選択。
    Proxmoxホスト側に、/mnt 以下にマウントされる
  18. (任意) Proxmox管理画面にCPU温度を表示させる
    やり方は複数あるようです。

インストール後のProxmoxのバージョン等:

目次に戻る


ProxmoxのGPUパススルーの設定

参考:

手順:

  1. PCのBIOS(UEFI)画面でIntel VT-dを有効化しておく
  2. ブラウザ画面(Proxmoxのマネージャ画面)上のshell、または、SSHログインしてのsudo配下で以下のコマンド操作を行う
  3. /etc/default/grub を編集し変更
    編集前:
    GRUB_CMDLINE_LINUX_DEFAULT="quiet"
    編集後(Intel CPUの場合):
    GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on iommu=pt video=efifb:off"
  4. update-grub
    してから、Proxmoxを再起動
  5. dmesg | grep -e DMAR -e IOMMU
    すると
    [    0.145975] DMAR: IOMMU enabled
    となっていることを確認できる。
  6. /etc/modules を編集し追記
    追記内容:
    vfio
    vfio_iommu_type1
    vfio_pci
    vfio_virqfd
    
  7. /etc/modprobe.d/blacklist.conf を作成し、下記を記載
    記載内容:
    blacklist pcspkr
    blacklist radeon
    blacklist nvidia
    blacklist nvidiafb
    blacklist nouveau
    blacklist amdgpu
    blacklist vfio
    
  8. /etc/modprobe.d/kvm.conf を作成し、下記を記載
    記載内容:
    options kvm ignore_msrs=1
    
  9. update-initramfs -u -k all
  10. Proxmoxを再起動

目次に戻る


Windows11(24H2)のインストール(GPUパススルーあり)

参考:

手順:

  1. Proxmox管理画面右上の「Create VM」
  2. VM IDは他と被らないようにお好みで入力。名前はお好みで入力。「次へ」
  3. MicrosoftからダウンロードしたWindows11 ISOイメージをProxmoxにアップロードしたISOイメージを指定、ゲストOSの種別は「Microsoft Windows」、バージョンは「11/2022/2025」、VirtIOのWindowsドライバをダウンロードしProxmoxにアップロードしたISOイメージを追加。「次へ」
  4. 「Qemuエージェント」にチェックを入れる、BIOSが「OVMF(UEFI)」となっていることを確認、EFIストレージ、TPMストレージを指定。「次へ」
  5. 「バス/デバイス」をSCSIからSATAに変更、キャッシュを「Write through」に変更(お好みで)、「中止」(Discard)にチェックを入れる。ディスクサイズはとりあえず「256GB」に。「次へ」
  6. 「種別」を「host」(リストが長いので入力すると絞り込まれる)、コアはとりあえず「4」。「次へ」
  7. メモリ容量はとりあえず「16384」(16GB)(お好みで)。
    GPU等PCIデバイスのパススルーするならば、「Ballooningデバイス」のチェックを外すこと必須。
    「Ballooningデバイス」のチェックが入っていると、ゲストOS側のメモリ実使用量にホスト側のメモリ容量に抑えられて節約になるらしいが、ゲスト側の動作が少し遅くなるらしい(お好みで)。
    「次へ」
  8. ネットワークインタフェースは、ひとまず「VirtIO」から「Intel E1000」に変更。VirtIOドライバインストール後に戻す。「次へ」
  9. 表示内容を確認して「完了」。
  10. NVIDIAのドライバインストールがうまくいかない場合があるので、シェルから、下記の編集をしたほうがよいようだが、しなくてもうまくいった。逆に、この編集をすると、Windows11 24H2では、BIOS画面永久ループに陥った謎
    /etc/pve/qemu-server/1199.conf (1199はVMのID)
    編集前:
    cpu: host
    編集後:
    cpu: host,hv_vendor_id=whatever,kvm=off
  11. 当該のVMの「コンソール」から「Start Now」(または右上の「開始」
  12. Proxmox VMのBIOS(UEFI)スプラッシュ画面
  13. Windows11のインストールディスクの起動にあたり、なにかキーを押下
  14. Windows11 セットアップ画面になったので、ここからは粛々と進める。
  15. Windows11のインストールが進行中。
  16. 再起動し、インストール継続。何度か再起動する。
  17. Windows11のセットアップ画面。ここからは基本的に粛々と進める。
  18. コンピュータ名を入力後、再起動した後、Windows Updateが走る。時間が長い。何度か再起動する。
  19. Windows11懸案?のMicrosoftオンラインアカウントと紐づけたくない件は、サインインに「no@thankyou.com」を入力し、パスワードは適当に入力、「問題が発生しました」画面になるが「次へ」すれば、ローカルアカウントが作成できる。




  20. こんにちは
  21. 固まったかに見えることがありますが、じっと待つ。
  22. Windows11 デスクトップ画面に来た。
  23. 後々のために、スタートボタン→設定→システム→リモートデスクトップ からリモートデスクトップを有効にしておく。
  24. Dドライブの virtio-win-gt-x64 、virtio-win-guest-tools をダブルクリックしてインストールする。
  25. Windows11をシャットダウンする。
  26. Proxmox管理画面から、ハードウェア→ネットデバイス から、Intel E1000をVirtIOに変更し、「OK」
  27. 当該のVMの「コンソール」から「Start Now」(または右上の「開始」から)、Windows11を起動。ログインし、スタートボタンを右クリックして、デバイスマネージャを起動。
    ネットワークアダプタが「Red Hat VirtIO Ethernet Adapter」になっていることを確認。
    リモートデスクトップ接続でログインできることを確認。


  28. Windows11をシャットダウンする。
  29. Proxmox管理画面から、ハードウェア→追加→PCIデバイス
    Rawデバイスを選択して、デバイス一覧からグラボを選択。
    「プライマリGPU」「全機能」「PCI-Express」にチェックを入れ、「追加」
  30. 合わせて、CD/DVDドライブのISOイメージを削除
  31. リモートデスクトップ接続以外に、グラボの出力ポートにモニタをつないで使うなら、USBキーボードやマウスをパススルーしとく。
  32. 当該のVMの「コンソール」から「Start Now」(または右上の「開始」)
  33. 「サーバーへの接続に失敗しました」となるが、これは想定通り。
    グラボの出力ポートにモニタをつないで見ると、ProxmoxのBIOS(UEFI)スプラッシュ画面が出力されている。
  34. 以降、リモートデスクトップ接続、または、グラボの出力ポートにつないだモニタ&パススルーしたUSBキーボード・マウスで操作する。
    しばらくすると、グラボのドライバが自動的に適用されているのがわかる。 自動適用されなければ、NVIDIAのWebサイトからドライバをダウンロードしてインストールする。
    タスクマネージャ上も、GPUが見えている。
  35. 継続的に使用するなら、Windows11のプロダクトキーを調達し、設定。

  36. 備考:

目次に戻る


ベンチマーク

下記、2種類について、ベンチマークを取る。

ベンチマークツールは下記を使用。時間の関係上、それぞれ1回のみ測定。

ベンチマーク結果の数値は下表のとおり。以下、軽い考察。

マシンCinebench R23CrystaldiskMarkFF XV ベンチ
マルチコアシングルコア
1Proxmoxを介さないベアメタルなWindows11
(グラボあり)
メモリ128GB、12コア 20スレッド15,7521,80017,560
非常に快適
2Proxmoxを介したWindows11
(グラボあり(GPUパススルー))
メモリ32GB、4コア 4スレッド6,3821,58715,030
非常に快適
3メモリ32GB、6コア 6スレッド8,6681,73016,781
非常に快適
4メモリ32GB、8コア 8スレッド9,8491,69916,891
非常に快適
5メモリ96GB、12コア 12スレッド10.6391,68815,851
非常に快適

目次に戻る


TrueNAS Scaleのインストール

参考:

  1. Download TrueNAS SCALEからISOイメージをダウンロードする。
    メアド登録かGoogleアカウント連携を求めているが、「No Thank you, I have already signed up.」をクリックすればバイパスできる。
    今回は、STABLE版の24.04.2.3をダウンロード。

  2. TrueNAS SCALEの最小推奨構成を参考に、VM作成する。
    bootドライブ以外のストレージ領域用には、SATAコントローラごとパススルーしたほうがよいのかもだが、 独立したSATAコントローラを今回持ってないので、HDD 2台をパススルーすることにする。

  3. VM作成
  4. HDDをパススルーするための設定
    1. apt install lshw
    2. lshw -class disk -class storage
    3. 出力内容のうち、/dev/sda、/dev/sdb、/dev/sdc の serialの値をコピペでメモる
    4. lsblk |awk 'NR==1{print $0" DEVICE-ID(S)"}NR>1{dev=$1;printf $0" ";system("find /dev/disk/by-id -lname \"*"dev"\" -printf \" %p\"");print "";}'|grep -v -E 'part|lvm'
    5. 出力内容のうち、/dev/disk/by-id/ata-ほげほげ の「ata-ほげほげ」の値をsda、sdb、sdc それぞれコピペでメモる
    6.  qm set VM_ID -scsi1 /dev/disk/by-id/ata-ほげほげ-その1
       qm set VM_ID -scsi2 /dev/disk/by-id/ata-ほげほげ-その2
    7. VMの「ハードウェア」の一覧に、scsi1とscsi2ができたことを確認する
  5. VMを起動し、Proxmoxの管理画面のコンソールを開き、画面案内にしたがって設定する。なお、今回、swap partitionは作成しない(「No swap」)を選択。EFI bootには「YES」を選択。(「NO」だとエラッた)
  6. 「3 Reboot System」を選択
  7. GRUB画面になる。ほっといてもタイムアウトして、TrueNAS Scaleの起動が始まる。
  8. Console setupの画面になる。表示されているURLにブラウザでアクセスする
  9. 静的IPアドレスの設定は、画面左のNetworkから。
  10. ストレージディスクの設定は画面左の「Storage」から「Create Pool」する。
  11. ユーザ作成は、画面左の「Credentials」→「Local Users」→「Add」
  12. ファイル共有は、画面左の「Datasets」→「Add Dataset」
  13. SMBのWorkgroup名の設定は、画面左の「Share」→「Windows(SMB)Shares」の縦3つ・・・の「Config Service」から。
  14. 設定後のTrueNASのダッシュボード画面

目次に戻る


Mac OSのインストール

参考:

インストール
  1. このインストールスクリプトを使う初回のみの操作。
    以降、MacOSのVMを追加作成する場合は、再操作不要
    1. Proxmox管理画面のシェルから下記を実行
      /bin/bash -c "$(curl -fsSL https://install.osx-proxmox.com)"
    2. ホスト側のProxmoxの /etc/default/grub を結構いじるようなので、気になるところは、要修正。
      GRUB_TIMEOUTを「0」にされてて、ハマった・・・
    3. Proxmox自体を再起動
  2. Proxmox管理画面のシェルから下記を実行
    osx-setup
  3. 「6. macos Ventura - 13」を選択
  4. 画面の案内に従って、VM作成
  5. Proxmox管理画面にて、指定したVM_IDを選択し、コンソールから起動する。
  6. 「1. VENTURA」を選択(「1」を入力)
  7. マウスで「Disk Utility」をクリックし、「Continue」をクリック
  8. 左上の「Apple Inc. VirtIO Block Media」を選択して、右上の「Erase」をクリック。「Name」に「MacOS」などと入力し、「Erase」をクリック。
  9. 「Erase」処理が終わったので、「Done」をクリック
  10. 左上の赤丸をクリックして、ウィンドウを閉じる。
  11. 「Reinstall macOS Ventura」をクリックし、「Continue」をクリック
  12. 「Continue」をクリック
  13. 「Agree」をクリック。(ポップアップ画面で再確認求められるので「Agree」をクリック
  14. 先ほどEraseしたパーテションにつけた名前の「MacOS」をクリックし、「Continue」をクリック
  15. 2時間17分かかると言っているが、実際、10~20分ぐらい。
  16. VMが再起動するので、「2. macOS Installer」を選択 (「2」を入力)。
  17. 今度は、29分と言っているが、実際、5~10分ぐらい。
  18. VMが再起動するので、「2. macOS Installer」を選択 (「2」を入力)。
  19. 今度は、所要時間は表示されないが、実際、数分ぐらい。
  20. VMが再起動するので、「2. MacOS」(先ほどEraseしたパーテションにつけた名前の「MacOS」)を選択 (「2」を入力)
  21. 今度は、所要時間は表示されないが、実際、数分ぐらい。
  22. VMが再起動するので、「2. MacOS」(先ほどEraseしたパーテションにつけた名前の「MacOS」)を選択 (「2」を入力)
  23. VMが再起動すると、MacOSのインストール画面。
    以降、画面の案内に従って、MacOSのインストールを進める。
    Apple IDとの紐づけは行わず、「Set Up Later」を選択のこと。
  24. インストール完了。
  25. シリアルNo.のランダム化、起動ディスクなどの変更。
    1. 画面左上のりんごマークの右の「Finder」から「Settings...」を開き、「Hard disk」にチェックを入れる
    2. 画面の右上に、HDDが表示されるので、「EFI-PX-HACK」をクリックして開く。
    3. 「Util」フォルダの下の「python」のpkgをクリックしてインストールする。
    4. 下のフォルダに戻り、「install-EFI-for-Native-...OFF.pkg」をクリックして、インストールする
    5. 画面右に新しいHDD「EFI」ができているので、クリックして開いて確認する。
    6. HDD「EFI-PX-HACK」のフォルダ「Utils」→「GenSMBIOS」→「GenSMBIOS.command」をクリック。
    7. まず「MacSerial」をインストールするために、「1」→「Enter」。
      インストールが終わると下の画面に戻り、「MacSerial」のバージョンが表示される。
    8. 「3. Generate SMBIOS」を選択 (「3」「Enter」)
      「iMacPro1,1」(1ピリオド1ではなく、1カンマ1)と入力
    9. 一つ上のフォルダに戻り、フォルダ「ProperTree」を開き、「ProperTree.command」をクリック
    10. HDD「EFI」の フォルダ「EFI」→「OC」を開き、「config.plit」を画面下のDockのPythonマーク(ロケットマーク)にドラッグ&ドロップする
    11. 「Root」を右クリックし、「Collapse All」を右クリック
      「Root」→「PlatformInfo」→「Generic」を開く
    12. 生成された「Serial」の値を「SystemSerialNumber」、「Board Serial」を「MLB」、「SmUUID」を「SystemUUID」、「Apple ROM」を「ROM」にコピペする。
      画面上部の「File」→「Save (Cmd + S)」
      「ProperTree.command」のターミナルを閉じる
      「GenSMBIOS.command」のターミナルを閉じる
    13. ドライブ「EFI-PX-HACK」の中のファイルを、「Documents」配下に新規作成したフォルダ「EFI-PX-HACK」にコピーしておく。
    14. 画面左上のリンゴマークから「Shut Down」

  26. Proxmox管理画面の当該VMの「ハードウェア」から「ide0」と「ide2」を「デタッチ」する
  27. 言語設定などの変更。
    左上のアップルアイコン→More Info→General→Language&Region にて、「Prefered Languages」の「English (US)」を選択して「-」をクリック
  28. 再起動を促されるので、「Restart Now」をクリック
  29. ログイン画面になるので、MacOSインストール中に設定したローカルアカウントのパスワードを入力してログイン
  30. 画面共有の設定。VNCなどで接続できるようになる。
    左上のアップルアイコン→「システム設定」→「一般」→「共有」にて、「画面共有」をオンに。
    画面描画などがもっさりなのが、RealVNCでアクセスすると少し解消するらしい。
  31. マウスホイールの上下の向きをWindowsと同じにする。
    左上のアップルアイコン→「システム設定」→「マウス」→「ナチュラルなスクロール」をオフにする
    画面描画などがもっさりなのが、RealVNCでアクセスするとほんの少しまともになる。
  32. タイムゾーンがおかしい。
    左上のアップルアイコン→「システム設定」→「一般」→「日付と時刻」ではどうにも変更できないようなので、ターミナルからコマンドで変更
    sudo systemsetup -settimezones Asia/Tokyo
    なんかエラーが出るが、「システム設定」→「一般」→「日付と時刻」を見ると反映されている。

  33. その他の初期設定:

    参考:Proxmox VEにmacOS(BigSur)のインストールとmacVMの初期設定

  34. やはり、噂通り、画面描画が全般的に遅く、もっさりしてる。
    グラフィックアクセラレーションがないからか。
    Mac OSかつ、BootloaderのOpenCoreがサポートするグラボは限られてるしな…
    参考:

目次に戻る


Docker/Portainer環境構築

Proxmox 公式によると、Proxmox上でDockerを使いたい場合は、Docker専用のVMを作ってそこでDockerを動かすのが推奨だそうな。
LXCはOSのコンテナ化、Dockerはアプリケーションのコンテナ化。
VM上でDockerを動かしたほうがコンテナ化の範囲(isolation)の考え方に沿うし、VMのライブマイグレーションとか、バックアップとかのメリットも活かせるかららしい。

推奨以外の方法としては、LXCコンテナ上でなんらかのLinux OSを動かして、その中でDockerを動かすことがあるようだ。
なんらかのLinux OSをVM上で動かしてDockerを載せるよりは、LXCコンテナ上でなんらかのLinux OSを動かしてDockerを載せたほうが性能は出るはずらしい。

今回は、LXCコンテナとしてubuntuを動かし、その中でDockerやPortainerを動かしてみる。
インストールはサボって、Proxmox VE Helper-Scriptsのお世話になることにした。

参考:

  1. Proxmox VE Helper-Scriptsにアクセスし、「docker」で検索
  2. 表示内容に従い、Proxmox管理画面のシェルから
    bash -c "$(wget -qLO - https://github.com/tteck/Proxmox/raw/main/ct/docker.sh)"
    
  3. 画面指示に従って操作していく。

    「Advanced」選択

    こだわりはないが、軟弱に? ubuntuを選択

    権限は、「Unprivileged」が望ましいが、NFSマウントするには「Privileged」の必要があるらしい。

    ディスク容量、CPUコア数、メモリ容量はお好みで。

    IPアドレスは固定しとく。

    情弱なので、IPv6は無効化で。

    何かの時のために、いちお、Verboseモードで。

    はい、お願いします!

    複数LVMがあるので、インストール先を選ばされた。

    Portainerを追加する。

    Docker Composeも追加する。

    インストール完了。

  4. LXCコンテナのコンソール(シェル)で操作を続ける。

    root、途中で設定したパスワードでログイン

    お約束をやっとく。

  5. Docker LXC (Promox VE Helper-Scripts)に従い、コマンド入力
    bash -c "$(wget -qLO - https://github.com/tteck/Proxmox/raw/main/ct/docker.sh)"
    

    画面の指示に従って操作。

  6. Portainerの画面にアクセスする。
    httpsのポート番号は、Docker LXC (Promox VE Helper-Scripts)に記載の通り、9443。
    (httpのポート番号は、9000ではなく8000で設定されているが、「Not found」と表示される)
    初回はコケる?ので、LXCコンテナを再起動する。

    確かに再起動したことを確認して、改めてPortainerの画面を開くとおなじみの初回ログイン画面。

    パスワードを設定したら開けた。

  7. Helper-ScriptでLXCコンテナ作成時、rootのSSHは不許可にしたので、作成したLXCコンテナ(Ubuntu)にSSH & sudo できるようにしとく。
    adduser hoge
    
    /etc/groupのsudoグループに作成したユーザを追記しとく。

  8. dockerの基本動作確認。

    hellow world を試す。
    LXCコンテナにsshして、

    root@dockerpve:/# docker pull hello-world
    Using default tag: latest
    latest: Pulling from library/hello-world
    c1ec31eb5944: Pull complete
    Digest: sha256:d211f485f2dd1dee407a80973c8f129f00d54604d2c90732e8e320e5038a0348
    Status: Downloaded newer image for hello-world:latest
    docker.io/library/hello-world:latest
    root@dockerpve:/# docker run hello-world
    
    Hello from Docker!
    This message shows that your installation appears to be working correctly.
    
    To generate this message, Docker took the following steps:
     1. The Docker client contacted the Docker daemon.
     2. The Docker daemon pulled the "hello-world" image from the Docker Hub.
        (amd64)
     3. The Docker daemon created a new container from that image which runs the
        executable that produces the output you are currently reading.
     4. The Docker daemon streamed that output to the Docker client, which sent it
        to your terminal.
    
    To try something more ambitious, you can run an Ubuntu container with:
     $ docker run -it ubuntu bash
    
    Share images, automate workflows, and more with a free Docker ID:
     https://hub.docker.com/
    
    For more examples and ideas, visit:
     https://docs.docker.com/get-started/
    
    root@dockerpve:/#
    
  9. docker-composeのテストとして、Logitech Media ServerのDockerを動かしてみる。

  10. 音楽ファイルとプレイリストのファイルをTrueNASに作成する。

    TrueNAS上のUIDとGIDを確認し、docker内に当該ユーザを作成。パスワードはTrueNAS上の当該ユーザのパスワードと揃えておく。

  11. TrueNAS上のファイルをdockerでマウントする。
    apt install nfs-common
    
    /etc/fstab に下記を追記
    192.168.xxx.xxx:/mnt/WD_RED_PLUS_8TB_RAID1/data /mnt/truenas nfs vers=4,user,atime,auto,retrans=2,rw,dev,exec 0 0
    
    mount実行
    mount /mnt/truenas
    

  12. docker内にディレクトリ /docker/lms および /docker/lms/config を作成し、docker-compose.yml として下記を入力。
    version: '3'
    services:
      lms:
        container_name: lms
        hostname: lms_proxmox_docker
        image: lmscommunity/logitechmediaserver:stable
        volumes:
          - /docker/lms/config:/config:rw
          - /mnt/truenas/music:/music:ro
          - /mnt/truenas/playlist:/playlist:rw
          - /etc/localtime:/etc/localtime:ro
          - /etc/timezone:/etc/timezone:ro
        ports:
          - 9000:9000/tcp
          - 9090:9090/tcp
          - 3483:3483/tcp
          - 3483:3483/udp
        environment:
          - PGID=3000
          - PUID=3000
        restart: always
    
    docker-composeを入れたはずだが見当たらないので、手動で入れる。
    curl -SL https://github.com/docker/compose/releases/download/v2.30.3/docker-compose-linux-x86_64 -o /usr/local/bin/docker-compose
    
    起動。
    docker-compose up -d
    
    Portainer画面上で「lms」が動作していることを確認

    http://IPアドレス:9000/ で見慣れたLMSの画面の表示を確認

    LMSの設定→Manage Pluginsにらじるこプラグインのレポジトリを追加して、

    http://t-yoshi.github.io/RadiRuKo-Plugin/repo.xml
    
    Windows版SqueezePlayに、当該LMSのIPアドレスを設定。

    聞けた。

  13. 追々、メジャーな?dokcerコンテナを試してみます。

目次に戻る


Ubuntu 24.04 LTS インストール

参考:

目次に戻る


xpenologyのインストール

xpenologyは、NASのSynologyOS(DMS=DiskStation Manager)をSynologyのハードウェア以外でも起動可能とするBootloaderなどのソリューションとのことです。
Synology製ではなく、第三者によるオープンソースで、こゆことって、若干グレーなのかも。

我が家のメインのNASはSynology DS1621+ですが、稼働状態のNAS以外に、SynologyのOS上でなにか試して確認できる環境として、Proxmox上にxpenology環境を構築しときました。

  1. xpenologyで使用するHDDのストレージ領域として、ホスト側のSSDをLVM-thinドライブとして利用することにしました。パーテションを切ってない生ドライブ状態です。
  2. シェルからの操作
    # fdisk -l
    ・・・
    Disk /dev/sda: 1.82 TiB, 2000398934016 bytes, 3907029168 sectors
    Disk model: CT2000MX500SSD1 
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    
    
    Disk /dev/sdb: 7.28 TiB, 8001563222016 bytes, 15628053168 sectors
    ・・・
    
    2TBの生ドライブが/dev/sdaであることがわかる。
    /dev/sdaを1パーテションのみ作成するため、下記。
    # sgdisk -n 1 /dev/sda
    ・・・
    Disk /dev/sda: 1.82 TiB, 2000398934016 bytes, 3907029168 sectors
    Disk model: CT2000MX500SSD1 
    Units: sectors of 1 * 512 = 512 bytes
    Sector size (logical/physical): 512 bytes / 4096 bytes
    I/O size (minimum/optimal): 4096 bytes / 4096 bytes
    Disklabel type: gpt
    Disk identifier: BA2B78D6-B8B7-4BB2-A5D9-AD4A48E2F382
    
    Device     Start        End    Sectors  Size Type
    /dev/sda1   2048 3907029134 3907027087  1.8T Linux filesystem
    
    
    Disk /dev/sdb: 7.28 TiB, 8001563222016 bytes, 15628053168 sectors
    ・・・
    
    1パーテションで2TB(実質1.8TB)のLinux filesystemができた。
  3. ディスク→LVM-Thin→「作成:Thinpool」から、ターゲットを選択
    適当な名前をつけて「OK」すると、pool作成が始まる。
    出来上がり。
  4. 以降の参考:
  5. VM作成
    1. bootloaderとしてArcのimgファイルをダウンロード。zip解凍し、ISOイメージとしてProxmoxにアップロードする
    2. OSイメージの選択:「Do not use any media」(メディアを使用しない)
    3. Qemu agent:有効
    4. ストレージ:デフォルトの「scsi0」をゴミ箱アイコンから削除
      (別途、Arcのイメージをシェル操作でインポートする)
    5. コア数:2 (お好みで)
    6. CPU Type:デフォルトのx86-62-v2-AES
    7. メモリ:8192 (8GB) (お好みで)
    8. VM設定の最終確認
    9. シェル操作でArcのイメージをインポート
      # qm importdisk <VM_ID> /var/lib/vz/template/iso/arc.img local-lvm
      ・・・
      transferred 1020.0 MiB of 1.0 GiB (99.61%)
      transferred 1.0 GiB of 1.0 GiB (100.00%)
      transferred 1.0 GiB of 1.0 GiB (100.00%)
      Successfully imported disk as 'unused0:local-lvm:vm-<VM_ID>-disk-0'
      
    10. インポートしたイメージが未使用のディスク扱いになっているので、
      SATA0に変更する。キャッシュモードは、Proxmox 公式wiki Performance Tweaksを参考に「Writethrough」(お好みで)
    11. xpenologyが内蔵するHDDの設定
      TrueNASの時と同じようにSATAディスクドライブをまるっとパススルーこともできるが、今回構築するxpenology環境はあくまで検証環境だし、生ドライブがもう余ってないので、内蔵SSDのLVM-Thinから、4本分のHDDを作成する。
      (稼働しているSynology NASはドライブ6本でRAIDタイプがSHR2なので、それに近しい環境を構築してみた)
  6. VM起動
    1. 最初、4本+ブートローダイメージの合計5本のドライブのいずれから起動するかの設定がなされていないためか、PXE bootの永久ループになってしまった。
      ProxmoxのBIOS(OVMF)画面をEscキーで抜け、1024MB(1GB)のブートローダイメージを起動して、ブートローダarcを起動
    2. 次回シャットダウン時にこの設定をすれば良い。
    3. 「Choose Model」から、Synologyのモデルを選択する。
      稼働機と同じ「DS1621+」を選択
    4. SynologyのOS(DSM)バージョンはとりあえず、最新のもの(稼働機と同じもの)を選択
      ダウンロードが進み、再起動される
    5. 再起動後画面。ここからは、画面に表示されている http://192.168.xxx.xxx:5000/にブラウザアクセスして設定を続ける
  7. Synolodgy DSMの設定
    1. 設定開始画面。ここから画面案内に従って、粛々と設定を進める。
    2. 作成した4本のドライブが使用されることを確認できる。
    3. DSMをダウンロード・インストールが進む
    4. お約束の10分待ちタイム
    5. 裏では10分かからず再起動が終わってるので、ブラウザをリロードすると、間もなく、とのこと。
    6. やっとこ、ようこそ。
    7. 画面の案内に従って、粛々と設定を進める。
    8. ストレージプールとボリュームの作成
    9. 稼働機と同じ「SHR2」を選択
    10. ストレージプール完成
    11. DSMの操作で、ユーザ作成、SMB設定、固定IP化などを行う
    12. 【任意】SSHアクセスの有効化
    13. 【任意】qemu-guest-agentのパッケージのインストール

      sudo sed -i 's/package/root/g' /var/packages/qemu-ga/conf/privilege
      
      してから「実行」ボタン押下。

目次に戻る


Raspberry Pi OSのインストール

たまにどんなもんだっけと見たくなるので、いちおう入れとく。

  1. Raspberry Pi Desktop for PC and Macから、OS ISOイメージをダウンロード
  2. ISOイメージをProxmoxにアップロード
  3. VM作成。特に考慮すべき点なし。お好みで。
    今回は、ディスクをSATA、128GB、CPU 2コア、メモリ 8GBとしてみた。
  4. VM起動し、画面に従って、Raspberry Pi OSをインストールしていく。
  5. Raspberry Pi OS 初回起動。
    画面の案内に従って、国、タイムゾーン、ユーザアカウントなどを設定していく。
  6. ターミナルを開いて、お約束のコマンド。
    sudo apt update
    sudo apt upgrade -y
    sudo apt install qemu-guest-agent
    
  7. 画面左上のラズパイアイコンから、ログアウト→Shutdown
  8. Proxmox管理画面にて、CD/DVDドライブの削除、「QEMU Guest Agent」を有効化。
  9. VM起動。
    画面左上のラズパイアイコンから、設定→Raspberry Piの設定→システム→ホスト名 にて、「Change Hostname」から、ホスト名を付ける。
    続いて、インタフェースから、SSHをオンにする。
    画面右上の「↑↓」アイコンを右クリックし、「Wireless & Wired Network Settings」。ネットワークインタフェース「eth0」を選択し、静的IPアドレスを設定する。
    Raspberry Pi OSを再起動。
  10. SSHでログインし、sudoできることを確認。
  11. リモートデスクトップ接続の有効化。
    ターミナルを開いて、お約束のコマンド。
    sudo apt install xrdp
    
    リモートデスクトップ接続できることを確認
  12. おまけ:リモートデスクトップ接続で音声を出す
    参考:

    1. /etc/apt/sources.list の次の1行のコメントアウトを外す
      #deb-src http://deb.debian.org/debian bullseye main contrib non-free
      
    2. コマンド操作
      sudo apt update
      cd ~
      mkdir pulsetest
      cd pulsetest
      sudo apt build-dep pulseaudio
      apt source pulseaudio
      cd pulseaudio-14.2
      sudo ./configure
      
      sudo apt install libpulse-dev
      cd ~/pulsetest
      git clone https://github.com/neutrinolabs/pulseaudio-module-xrdp.git
      cd pulseaudio-module-xrdp
      sudo ./bootstrap
      sudo ./configure PULSE_DIR=/home/ユーザ名/pulsetest/pulseaudio-14.2
      sudo make
      sudo make install
      
      systemctl --user restart pulseaudio.service
      
    3. 動画再生はカクカクしますが、音声は割とちゃんと聞こえます。

目次に戻る


Amazon Linux 2023のインストール

AWS無償枠を使い切ってしまったので、ひとまずローカルで試せるようにと。

参考

  1. OSイメージのダウンロード

    OSイメージダウンロードサイトのフォルダ「kvm」から、拡張子「.qcow2」のファイルをダウンロードして、Proxmoxのどこかになんらかの方法でコピる。

    もしくは、Proxmoxのシェルで、wgetでOSイメージファイルをダウンロードする。

  2. VM作成。今回はProxmoxのシェルで作成してみた。
    qm create 2023 \
    --name "AmazonLinux2023" \
    --memory 4096 \
    --machine q35,viommu=intel \
    --cores 2 \
    --cpu host \
    --net0 virtio,bridge=vmbr0 \
    --boot c \
    --bootdisk scsi0 \
    --scsihw virtio-scsi-pci \
    --serial0 socket \
    --vga serial0
    
  3. OSイメージをVMにimportする
    qm importdisk 2023 /mnt/hogehoge/al2023-kvm-2023.6.20241010.0-kernel-6.1-x86_64.xfs.gpt.qcow2 local-lvm
    
  4. Proxmox管理画面から、当該VMの「未使用のデイスク0」を「sata0」に変更。
  5. 「CloudInitデバイス」を「ide2」として追加。
  6. Cloud-Initを設定。入力後、念の為「イメージ再作成」を押下。
  7. ブート順を設定。
  8. VM起動。リターンキー押下でログインプロンプトが現れるので、ログイン。
  9. SSHログインするとこんな感じ。
  10. Amazon Linux 2023で最初にやっとくべきこと。
    1. タイムゾーンをUTCから変更。
      sudo timedatectl set-timezone Asia/Tokyo
      
    2. ホスト名の変更
      sudo hostnamectl set-hostname hogehoge
      
    3. システムのアップデート
      sudo dnf -y update
      
      新しいrelease versionがあるよということなので、アップグレードする。
      sudo dnf upgrade --releasever=2023.6.20241028
      sudo reboot
      sudo dnf upgrade --releasever=2023.6.20241031
      sudo reboot
      

目次に戻る


Proxmox VE Helper-Scripts

Proxmox VE Helper-Scripts (GitHub)

いろいろ、シェルからコマンド一発で入れられるらしい。
今回は、Netdataを入れてみた。

目次に戻る


Proxmox Backup Serverのインストール

Synology NASのVMとして、Proxmox Backup Server(PBS)をインストールしてみる。

参考

  1. Proxmox Downloadsから、Proxmox Backup ServerのISOイメージをダウンロードする。
  2. Synology NASの管理画面から、「Virtual Machine Manager」→「仮想マシン」→「作成」

    OSの種類は「Linux」

    仮想マシンの設定はこんな感じ。ディスク容量は、バックアップスペースは別途で考えれば良い。

  3. Synology NASの管理画面から、「Virtual Machine Manager」→「仮想マシン」→「電源オン」→「接続」

  4. 「Install Proxmox Backup Server (Graphical)」を選択。

    画面指示に従ってインストールしていく。

    インストール後、再起動がかかる

    GRUB画面経由でPBSが起動する。

    VMのコンソールは下記で止まっているように見えるが、起動は完了している。

  5. ブラウザで、https://設定したIPアドレス:8007/ にアクセスする。
    ユーザ root、設定したパスワードでログインする。

    お約束の警告が出るが気にしない。

  6. メール通知の設定をしとく。
    PBSの管理画面から、「Notification」→「追加」→「SMTP」
    サーバ:smtp.gmail.com、暗号化:STARTTLS、ユーザ名はGmailのアカウント、パスワードはGoogleアカウントから発行。(「Googleアカウント」をググって、セキュリティ→2段階認証プロセス→アプリパスワード から生成)

  7. バックアップデータの格納先は、synology内でNFSマウントして使用するので、PBSの管理画面のシェルから下記を実行し、マウントポイントを作成。
    実際のNFSマウントは後ほど。
    mkdir /mnt/synology
    chown backup:backup /mnt/synology
    chmod 755 /mnt/synology
    
  8. Proxmox VE Helper-Scriptsの「Proxmox Backup Server Post Install」を、PBSの管理画面のシェルから走らせておく。
    bash -c "$(wget -qLO - https://github.com/tteck/Proxmox/raw/main/misc/post-pbs-install.sh)"
    
    画面表示に従って操作していく。
    今回、'pbstest'リポジトリは追加しない(「no」を選択)とした。

    固まったかのように見えるが、しばらくじっと待つ。

    PBSの再起動を促されるので従う。

  9. Synology NASの管理画面から、バックアップデータの格納先フォルダを「pbs」として作成し、PBSのIPアドレスからNFSマウントできるように許可権限を与えておく。
    Squash:は「マッピングなし」、「マウントしたサブフォルダへのアクセスを許可する」にチェックを入れておく。
    今回は、Proxmox Virutal Environment(PVE)用にNFSエクスポートしているフォルダの中に「pbs」フォルダを作成した。
    PBSの管理画面のシェルから、下記コマンドを投入。(192.168.xxx.xxx は、Synology NASのIPアドレス)
    echo "192.168.xxx.xxx:/volume1/pve2/pbs /mnt/synology nfs vers=4,nouser,atime,auto,retrans=2,rw,dev,exec 0 0" >> /etc/fstab
    mount -a
    systemctl daemon-reload
    chmod 755 /mnt/synology
    chmod 
    

    マウント状況を確認しておく。

  10. PBSの管理画面→「アクセス制御」→「ユーザ管理」→「追加」、ユーザ「backup」を作成。

    PBSの管理画面→「アクセス制御」→「アクセス権限」→「追加」→「ユーザのアクセス権限」で、ユーザ「backup」に「ロール」「DataStoreAdmin」を与える。パスはひとまず「/」としておく。

  11. PBSの管理画面の「データストア追加」から、NFSマウントしたフォルダを設定する。

    PBS管理画面の「データストア」から、追加したフォルダが正常に見えることを確認する。

    Synologyのシェル上からは、当該フォルダのオーナは、PBS側のユーザ「backup」のユーザID、グループIDの「34」になっている。

  12. この後、PBSのログイン画面で「レルム」が「Proxmox Backup authentcation server」になっていることがある。

    「レルム」を「Linux PAM standard authentcation」に変更しないと、パスワード不一致でエラーになるので、要注意。

  13. Proxmox Vitural Environment(PVE)にProxmox Backup Serverを登録する。

    PVEの管理画面→「データセンター」→「ストレージ」→「追加」→「Proxmox Backup Server」

    「サーバ」:PBSのIPアドレス
    「ユーザ名」:PBSに作成したユーザ名+「@pbs」
    「パスワード」:PBSに作成した、上記ユーザ名のパスワード
    「Datastore」:PBSに作成したデータストアの名称
    「フィンガープリント」:PBSの管理画面→「ダッシュボード」→「フィンガープリントの表示」の内容をコピペ

  14. バックアップジョブを設定する。

    PVEの管理画面の「データセンター」→「バックアップ」→「追加」

    何世代のバックアップを残しておくかは「Retention」から設定

    各VM、LXCコンテナのディスクのうち、バックアップに含めないものは、各VMのハードウェアの設定で、各ハードディスクの「編集」から「バックアップ」のチェックボックスを外しておく。

  15. 念の為、PBSを再起動しておく。

    PBSの管理画面→「管理」→「再起動」

  16. PBSにqemu-gesut-agentをインストールし、PBSを再起動しておくと、Synology NASのVirtual Machine管理画面にPBSのIPアドレスが表示されるようになどして便利。
    apt isntall qemu-guest-agent
    

  17. 試しに、PBSのバックアップの即時実行をしてみる。

    PVEの管理画面に、適当なジョブを仮作成する。
    PVEの管理画面→「バックアップ」→ジョブを選択→「直ちに実行」

    SynologyのVirtual Machine Manager上、CPU使用率は全体の25%程度。

    PBS管理画面上は、CPU使用率がほぼ上限張り付き。

    PVE側はCPU負荷はさほどかかってないように見えるが、CPU性能のおかげかもしれない。

  18. PBSをやや非力なSynology NASのVMで動かしているせいもあるが、PBSを使わずに、単純にPVE上でNFSマウント先にバックアップ取るほうが処理時間がはるかに短い。
    一方、PBSを使うことのメリットのひとつとして、リストアはVM丸ごとではなく、VM内のファイル単位でのリストア(正確にはダウンロード)できることがある。

目次に戻る


Android x86のインストール

参考:

  1. Android-x86 Run Android on your PCからISOイメージをダウンロード。
    Android OS Ver.は「9」。x86版ビルド済で配布されているものの中では一般的。
    少しでもバージョンの高いものというと、Bliss OS for PCでは、Bliss OS 15がAndroid OS Ver.「12」らしい。(Beta版ではAndroid 13もあるようだ)

  2. Proxmox管理画面からISOイメージをアップロード

  3. VM作成

  4. Proxmox管理画面から、当該VMを起動

    「Installation - Install Android-x86 harddisk」を選択

  5. 「Create / Modify partitions」を選択

    「No」のまま

    「New」を選択。続いて、「Primary」、Sizeはデフォルトの作成したディスクの最大容量のまま、「Bootable」、「Write」を選択。

    パーティション作成確認画面で「yes」を入力

    「Quit」を選択して抜ける。

  6. インストール先パーテションの選択。「OK」

    「ext4」を選択。

    フォーマット確認。「Yes」

    GRUBのインストールは「Yes」

    /systemをread-writeにするかの選択。「Yes」にしとく。

    インストール完了。「Reboot」を選択

  7. GRUB画面。一番上の「Android-x86 9.0-r2」を選択するか、放置しとけばタイムアウトして自動的に選択される。

    Android起動中。

    見慣れたAndroidの初回起動画面。ここからは画面指示に従って操作していく。

    すべてのWifiネットワークを表示し、「VirtWifi」を選択。

    ひとまず、「後で行う」を選択。

    ホームアプリの選択。「Quickstep」を「常時」で選択。

  8. Android 起動完了!

    Androidの設定アプリから「システム」を表示するとこんな感じ。

  9. 「Google Play」からアプリインストール。

    今回は「X (旧 Twitter)」アプリをインストールしてみた。

    とりあえず、動いた。

  10. シャットダウンは、Proxmoxのコンソールから「CTRL+ALT+DEL」を送信し、Android側の電源操作メニューを出して「電源を切る」

  11. ネットワーク経由のADB設定の仕方とかは、 「Installing Android-x86 on Proxmox and Proxying to BurpSuite」の後半にあり。

目次に戻る


Bliss OS (Android x86派生)のインストール

Proxmox上へのAndroid x86のインストール(Android OS Ver.9)では、使いたいアプリが全く動かなかったので、Android OS Ver.が高いBliss OSを試してみる。

参考:

  1. Bliss OS for PCから、SourceForge経由でISOイメージをダウンロード。

    バージョン選択に迷う。
    Proxmox: Running Bliss OS(2024/6/28)ではBliss OS 16、上記YouTube(2024/2/22)ではBlioss OS 14。VM設定内容、インストール手順にはほぼ差がないように見える。
    間をとって、Bliss OS 15(Android 12L)で試してみる。

    Bliss OS Ver.Android OS Ver.Anroid OS提供開始日Android OSサポート終了見込
    Bliss OS Ver.14 (stable)Android 112020/9/82025年秋頃?
    Bliss OS Ver.15 (stable)Android 12L2022/3/72027年春頃?
    Bliss OS Ver.16 (beta)Android 132022/8/152027年秋頃?
  2. Proxmox管理画面からISOイメージをアップロード

  3. VM作成

  4. Proxmox管理画面のシェルから、下記コマンド操作で、グラフィックライブラリを追加しておく。
    apt install libgl1 libegl1
    
  5. Proxmox管理画面から、当該VMを起動

    「BlissOS-15.9.2 2024-10-12 Installation」を選択

  6. 「Create/Modify partitions」を選択

    「No, continue to cfdisk」を選択

    「gpt」を選択

    「New」を選択

    「Partition size」が「128G」となっているのを「1G」に入力し直し、エンター。

    「Type」を選択

    「EFI System」を選択

    下矢印キーで次の行に行き、「New」を選択

    「Partition size」はそのまま、エンター

    「Write」を選択

    「yes」と入力し、エンター

    「Quit」を選択

    「sda1」を選択した状態で「OK」(エンター)

    「fat32 (CAREFUL)」を選択

    「ESP」のまま、エンター

    「Yes」を選択

    下矢印キーで「sda2」を選択した状態で「OK」(エンター)

    「ext4」を選択

    「BlissOS」のまま、エンター

    「Yes」を選択

    「Yes」を選択

    「Grub2 EFI Bootloader」を選択

    「Reboot」を選択

  7. Grub画面は放置でタイムアウト。

    BlissOS起動中

    画面中央下部の鍵マークのあたりから、画面を上スワイプ。

    ホームアプリの選択で「Taskbar for Bliss OS」を選択し、「Always」を選択

    「GRANT PERMISSION」を選択

    「Taskbar」を選択

    トグルを右へ

    OS起動完了。

  8. OSシャットダウンは、画面右上のバッテリーマークアイコン→電源アイコン

    「Power off」を選択

  9. Proxmox管理画面の当該VM→「ハードウェア」→「ide2」(ISOイメージ)を削除

  10. Proxmox管理画面から、当該VMを起動

    画面左下のアイコンをクリックし、「Settings」をクリック

    「Finish setting up」をクリック。画面指示に従って、操作・設定。

  11. 画面左下のアイコンをクリックし、「Settings」をクリック→「System」→「Langueages & input」→「Langueages」→「Add a language」
    「日本語」を追加し、ドラッグ&ドロップで「日本語」を一番上にする。」

  12. 「タブレット情報」をクリックすると、Androidバージョンなどを確認できる。

  13. 「Google Play」から「X (旧Twitter)」アプリをインストールし、「開く」(起動)
    とりあえず動いた。

目次に戻る