分类 操作系统 下的文章

起因是换了电脑之后懒得重装系统,但是为了装新驱动而不得不对系统进行了一个新的更。然而用了一两年之后,重新打开DiskGenius的时候才发现盘上有两个Recovery分区,估计巨硬是在安装程序里,从我原有系统盘的末尾切了1个G出来,又做了一个Recovery分区。然而咱们消费级电脑并没有那么高的可用性要求,不需要一个系统配一个Recovery分区,所以打算把分区表更新下,删掉新加的Recovery,让所有现存Windows系统共用一个Recovery分区。

大体流程参考这篇回答,简单来说原理就是分区备份还原,然后用reagentc命令将Windows配置为用我们设置的新Recovery分区:

  1. 给两个Recovery分区分配盘符;
  2. 如果需要,用dism备份和还原分区数据(比如说要删除的Recovery版本更新,想保留);
  3. reagentc /disable
  4. 删除不要的Recovery分区;
  5. reagentc /setreimage /path Z:\Recovery\WindowsRE配置WindowsRE,假设Recovery挂载到Z盘;
  6. reagentc /enable

这个时候理论上已经完成了WindowsRE分区的更换,用reagentc /info可以看到,Recovery分区已经被更换为了目标分区。但是如果直接用diskpart或者DiskGenius一类的工具卸载Recovery分区的话,会发现这么一个问题:要么卸载成功,但是重新用reagentc /info看WindowsRE配置又变回了Disabled,要么就卸载失败,任务管理器里还能看到盘符,或者重启之后分区又重新自动挂载上了。

然而天无绝人之路。在网上一顿乱翻,发现也有人有这个疑惑,一看原来Windows还有一个命令可以删除盘符:

mountvol Z: /d

经过测试,使用这个指令卸载盘符可以保证reagentc配置不变、消除盘符的同时,再重启后也没有自动挂载的现象复发了,可以认为达到了与Windows安装时自己配置相同的效果。

日々编译,日々编译,烦たま死,この天天让我编译の世界早晚爆破する,この

今天的节目内容是编译Android-x86,文档给的还是比较全的,主要解决某些不存在的代码的问题。

apt update
apt -y install git gcc curl make repo libxml2-utils flex m4
apt -y install openjdk-8-jdk lib32stdc++6 libelf-dev mtools
apt -y install libssl-dev python-enum34 python-mako syslinux-utils 
apt -y install pkg-config gettext bzip2 unzip bc kmod dosfstools genisoimage

export REPO_URL='https://mirrors.tuna.tsinghua.edu.cn/git/git-repo'

cd
mkdir android-x86
cd android-x86
repo init -u git://git.osdn.net/gitroot/android-x86/manifest -b q-x86
#出现各种报错就换 mirrors.tuna.tsinghua.edu.cn/git/AOSP
find . -type f -name '*.xml' -print0 | xargs -0 sed -i -e 's#android.googlesource.com#mirrors.ustc.edu.cn/aosp#g'
sed -i -e 's#git://git.osdn.net#https://scm.osdn.net#g' .repo/manifests.git/config
find . -type f -name '*.xml' -print0 | xargs -0 sed -i -e 's#clone-depth=".*?"##g'
repo sync --no-tags --no-clone-bundle

# 你们aosp真的不考虑跟着升级一下编译器吗
cd prebuilts/gcc/linux-x86/host/x86_64-linux-glibc2.11-4.6
git fetch aosp 2078a6bf9e5479104cfe2cbf54e9602672bd89f7
git checkout 2078a6bf9e5479104cfe2cbf54e9602672bd89f7
cd ../../../../..

source build/envsetup.sh
lunch android_x86_64-userdebug
m -j16 iso_img

编译中会遇到两个问题,一个是依赖项目的-Werror,按照编译器提示加一个[[fallthrough]];然后继续编译就行;第二个参照https://stackoverflow.com/questions/67557000/depmod-is-not-allowed-to-be-used ,修改build/soong/ui/build/paths/config.go,添加"depmod": Allowed,即可。解决这两个问题后应该就能正常完成镜像的生成了。

libvirt是红帽家写的一套虚拟化软件管理工具。

现在市面上有着大量的虚拟化软件,大至ESXi、Proxmox,小如LXC、QEMU,但这些工具提供了各自不同的接口,出现混用的情况将会十分麻烦。俗话说的好,没有什么是计算机工程无法解决的,如果有,那就加一个抽象层。而libvirt则提供了一个统一的接口,允许以相同的格式在不同底层平台上创建对应的虚拟实例,而这也可以说是红帽家OpenStack允许在混合云环境上搭建虚拟化平台的技术支柱之一。

既然libvirt叫做而不是工具,那么意味着其使用方法更多地是在代码中调用,而非作为一套命令行工具由人工手动操作。然而咱作为普通用户,没有数据中心那个经济实力,一套OpenStack开下来很有可能一半内存就没了(单机内存占用8G起步),因而只能试着用用底层工具来自行创建和使用虚拟机了。

接下来将使用同样是libvirt包提供的virsh及其衍生工具virt-install来创建虚拟机。

首先是安装软件包:

sudo dnf install -y qemu-kvm libvirt virt-install

如果机器配置了图形界面的话,可以安装virt-viewer包,执行virt-install时可以直接给出窗口展示虚拟机的图形界面。由于我这里服务器没配图形界面,后面就都是用的vnc了。

由于virt-installqemu的命令风格非常相似,因而可以参考我之前介绍qemu的文章,这里直接贴命令行了:

virt-install \
--virt-type=kvm \
--name win10 \
--ram 8192 \
--vcpus=4 \
--os-variant=win10 \
--boot cdrom \
--disk <Windows_ISOFILE>,device=cdrom,bus=sata,readonly=on \
--disk <VirtIO_ISOFILE>,device=cdrom,bus=sata,readonly=on \
--graphics vnc \
--disk path=<PATH_TO_STORE_IMAGE>,size=100,bus=virtio,format=qcow2

接下来是通过vnc远程连接虚拟机图形界面的流程。由于偷懒,这里选择不用安装客户端的novnc:

dnf install -y novnc

默认的vnc端口是5900,我们需要配置novnc连接到该端口,然后再从新端口提供novnc解析后的vnc客户端服务:

novnc_proxy --vnc localhost:5900 --listen 8443

这里选择了8443端口提供novnc服务,在浏览器中输入ip-端口组合即可通过浏览器访问虚拟机的vnc界面了。不过我这挺怪的,novnc的某些资源加载的时候会随机报404,只有反复刷新,等所有资源都被缓存好之后才能正常使用= =

给巨硬一点小小的FA♂国震撼

起因是发现UUP dump上竟然可以打包aarch64的镜像包,于是准备捞一份10和一份11下来做纪念。结果捞下来以后就想着,下都下好了,不跑起来用用真是怠慢了它们。转念一想,VMware、VirtualBox、Hyper-V这种虚拟机都是同架构下做虚拟化的,性能好是好,但是不支持跨指令集,只好借助开源而万能的QEMU了。

在QEMU上运行Windows ARM版本与实体机器上的流程基本一致:加载固件、启动安装盘、补驱动和安装使用。相比于实体机按个开机键就能够自动加载BIOS,在QEMU中需要手动指定二进制文件作为BIOS。由于ARM处于百花齐放的状态,不能保证像x86一样有统一的Legacy启动模式,因而往往采取新兴而统一的UEFI来引导系统。

一 系统固件准备

系统固件可以认为是一段可以执行的机器码,与硬件环境有强相关性,负责初始化各类硬件设备,以及告诉操作系统如何使用这些设备。我们一般能接触到的UEFI固件通常是TianoCore的EDK,这是一个由Intel主导的社区实现的开源版本,因而不少人选择基于这个EFI固件魔改代码来支持不同平台,今天的主角QEMU正是其中的目标平台之一。Linaro作为ARM产业链中的中性组织,提供了ARM平台下编译好的参考二进制固件(https://releases.linaro.org/components/kernel/uefi-linaro/)。

但是在经过尝试发现,用linaro提供的固件引导Windows无法正常启动,因而在后续流程中,本文只得改用别人魔改的固件。虽说不要轻易采用来路不明的二进制程序,但在眼下并不良好的环境(指代码和文档稀缺),加之学习为主的目的,只得暂且捏着鼻子先用着了。

别人提供的二进制固件可以在GitHub上下载:https://github.com/raspiduino/waq/releases ,里面的vm.7z中解压出来的QEMU_EFI.imgQEMU_VARS.img两个文件就是所需要的UEFI固件。

二 虚拟机配置与启动

QEMU是个定制化程度较高的虚拟机软件,因而默认配置提供的是一个光秃秃的机器,可以认为是只有处理器和内存,完全满足不了运行Windows的需求——显示器、鼠标键盘等交互设备全部需要自己添加。

在这一步需要准备的东西有三个:

QEMU的虚拟机设备需要通过命令行配置,这里给一个我的模板:

qemu-system-aarch64 ^
-M virt,virtualization=true ^
-accel tcg,thread=multi ^
-cpu cortex-a57 ^
-device VGA ^
-smp 4 ^
-m 4G ^
-drive if=pflash,file=QEMU_EFI.img,format=raw ^
-drive if=pflash,file=QEMU_VARS.img,format=raw ^
-device qemu-xhci ^
-device usb-kbd ^
-device usb-mouse ^
-device intel-hda ^
-device hda-duplex ^
-nic user,model=e1000 ^
-boot d ^
-device usb-storage,drive=install -drive if=none,id=install,format=raw,media=cdrom,readonly=on,file=<Windows镜像> ^
-device usb-storage,drive=drivers -drive if=none,id=drivers,format=raw,media=cdrom,readonly=on,file=<virtio驱动镜像> ^
%*

该模板从上到下依次配置了机器类型、硬件加速模式、处理器型号及数量、内存、显示设备、系统固件、外围硬件,以及系统盘和驱动盘。需要注意的是,机器类型最好开虚拟化参数(即virtualization=true),否则可能启动黑屏;系统安装盘和驱动盘要走USB设备而不能是virtio设备,否则会缺驱动,导致读不到数据,无法安装系统;最后的%*表示允许从命令行继续添加参数,比如加个系统盘,或者其他QEMU设置。在接下来的文字中,我会将这段命令行保存为run_win10.bat并直接使用。

如果仅仅是尝试是否能够正常启动的话,此时直接双击运行run_win10.bat就可以启动虚拟机做测试了。

三 安装系统

如果打算尝试体验,则需要创建并挂载一个虚拟硬盘,用于安装系统。

使用qemu-img工具创建虚拟磁盘:

qemu-img create -f raw system_10.img 20G

此时会在当前目录下创建一个大小为20G的img文件,但在ext或者NTFS这类支持文件空洞的文件系统上,实际占用空间为0,文件的实际大小会随着向内写入数据逐步扩大,直至充满声明的文件大小。

如果文件大小为0的话,表示虚拟硬盘创建并未成功,在虚拟机里显示的磁盘大小为0,此时可以通过qemu-img resize命令来补救:

qemu-img resize -f raw system_10.img 20G

此时应该正常显示文件大小为20G,而实际占用空间为0。经测试,安装系统并完成OOBE后空间占用大约在10G左右。

此时可以通过如下命令,启动一个可以安装系统的虚拟机:

run_win10.bat -drive if=virtio,format=raw,file=system_10.img

如上面所提到,这条命令在之前的基础配置上额外添加了刚创建的system_10.img作为系统盘,并启动虚拟机。该系统盘的硬件类型为virtio-blk,性能相对较好,但需要手动安装驱动。

启动虚拟机后,会发现在选择安装盘步骤找不到任何硬盘,此时则需要在左下角加载驱动程序,运气好的话系统会自动搜索光驱,并提供可供安装的驱动;否则则需要手动浏览文件夹,选取viostor\w10\ARM64目录,安装程序才能找到合适的驱动程序;Windows 11同理。

接下来就是常规的安装流程了,与x86电脑上的流程并无大异。不过在OOBE阶段,可能会出现OOBEKEYBOARDOOBELOCAL等错误信息,能跳过的直接跳过就行,如果不能跳过且一直重试失败的话,则可以用组合键Shift+F10调出cmd窗口,输入shutdown -r -t 0软重启后重新开始配置。

四 使用系统

刚进入系统的时候,巨硬会后台起一个索引程序,我给了四核的处理器直接拉满,网上说有办法停下来,有需要的可以自行搜索,在此不作赘述。

不过要吐槽的是右键菜单,在桌面右键想看看系统信息都能给我卡半天= =一开始以为是索引吃CPU导致卡顿,结果后来一看他COM用的竟然还是x86的,相当于x86经过QEMU转成arm64之后,巨硬又给转回x86指令了。。大哥啊这都系统基本组件了,重新写份原生的有那么难么。。。

另一个问题是显示分辨率问题,默认是800*600,看的那叫一个难受。系统里是不能调节的,我在网上找了半天,说是QEMU配个标准VGA设备能支持到1080p,然而倒腾了半天都没用= = 最后才发现系统的UEFI固件里有设置选项,可以调成1080p。

最后一个问题是网络,这个暂时就没研究了,大伙也说网络问题不少,之后有精力再来折腾吧。

有些人就是喜欢折腾

最近又心血来潮,打算把两年前的坑填上,整了两天,算是把部署OpenStack的坑踩得差不多了。部署方法和之前一样,还是采用的kolla-ansible,主要是neutron_external_interface的文档还是写的比较模糊,加上OpenVirtualSwitch一起,折腾了不少时间。

总结起来,这次折腾的主要结论是,能用,但没必要。由于OpenStack本来就是工业级的设计,开发者原本就是基于企业环境控制网络和外网分离的假设做的实现,因而把两个网络合并势必会受到操作系统等外部组件的设计阻碍,这次的坑基本上都是来自这方面。

首先一开始是打算虚拟一个接口给外网,然后用系统做流量转发给物理网口,但是因为技艺不精,一直失败,只好作罢。后来看到OpenStack的开发文档中提到,由于开发者电脑不一定像工业级服务器一样有两个网口,因而还是允许使用单网口机器部署的。只不过由于ovs要独占外网网口,对外网的访问要从原本的物理网口转移到虚拟网口,导致网络配置丢失,因而必须要使用非远程的方法进行配置(BMC除外)。

大致配置流程如下(假设网卡为eth0):

  1. 按照正常流程配置OpenStack安装,并将network_interfaceneutron_external_interface都设置为eth0
    安装到一半的时候,由于kolla-ansible配置了ovs,导致原有网络配置失效,无法访问外网,表现为某些docker pull失败,说无法连接到quay.io。
  2. 此时可以发现eth0被连接到了ovs-system,但是用ovs-vsctl查看,发现eth0又被分配给了br-ex。用nmcli手动进行网络地址的配置:
    nmcli connection modify br-ex connection.autoconnect yes
    nmcli connection modify br-ex ipv4.addresses xxx.xxx.xxx.xxx
    nmcli connection modify br-ex ipv4.gateway xxx.xxx.xxx.xxx
    nmcli connection modify br-ex ipv4.method manual
    nmcli connection modify br-ex ipv4.dns xxx.xxx.xxx.xxx

    其中xxx.xxx.xxx.xxx设置为网卡正常访问外网时的配置即可。需要注意这几条命令的顺序最好不要修改,因为nmcli会做参数检查,如果没设置好某些参数是设置不了另一些的。

  3. 执行nmcli device set br-ex managed yes,将br-ex的网络配置交给nmcli执行,此时可以用ping检查网络是否配置完成;
  4. 修改kolla-ansibleglobals.yml,将network_interface配置为br-ex,因为此时eth0已经无法正常用于访问网络;
  5. 重新执行kolla-ansibledeploy指令,等待部署完成即可。

由于nmtui似乎没法快捷方便地管理ovs的网卡配置,因而每次重启后需要手动将br-ex设置为managed模式,才能由NetworkManager进行配置,即手动执行第三步。

接下来如果有新坑的话,就是在Linux上配个子网,然后让OpenStack用本地虚拟子网作为外网了