一句废话 这次换一种写作风格,尝试一下轻松的行文方式。 起因 很久以前看见有群友讨论关于Docker部署Redroid,拿来挂机玩游戏一类的。当时听了感觉很有意思,后面粗浅地在zero2上部署了一下,容器虽然是跑起来了,但是scrcpy连接
这次换一种写作风格,尝试一下轻松的行文方式。
很久以前看见有群友讨论关于Docker部署Redroid,拿来挂机玩游戏一类的。当时听了感觉很有意思,后面粗浅地在zero2上部署了一下,容器虽然是跑起来了,但是scrcpy连接总是黑屏,后来我试着帮助一个群友部署,也部署失败了。最近又想起来这回事,所以决定再试一试。下面就说说我的尝试过程。
我使用的系统是官方的5.16内核的系统。4.9内核的系统是跑不起来的,这点需要注意一下。
这里我把编译好的内核和模块放上来,链接和使用方法如下:
123盘链接
下载之后:
unzip opi_zero2_kernel_redroid.zip sudo mv 5.16.17+ /lib/modulessudo mv uInitrd-5.16.17+ vmlinuz-5.16.17+ /bootcd bootsudo rm -rf Image uInitrdsudo ln -s vmlinuz-5.16.17+ Imagesudo ln -s uInitrd-5.16.17+ uInitrdreboot
重启完成后:
sudo apt install docker.iOSudo docker pull redroid/redroid:11.0.0-arm64sudo docker run -itd --privileged -v ~/data11:/data -p 5555:5555 --name redroid11 redroid/redroid:11.0.0-arm64 Androidboot.use_memfd=1 androidboot.redroid_gpu_mode=guest
这样就部署好了。连接方法见文末。
Redroid(remote android)
是一种aiC(Android in Cloud)
,能够便捷的部署很多个Android容器,非常适合于云游戏等应用…(以上废话,一个词总结:云手机)。
项目地址:GitHub
通过仔细研读这篇readme发现,这个小玩意,需要两个内核模块支持:ashmem(注:主线内核在5.18 drop了这个模块,官方的替代方案是memfd,而且redroid也提供了androidboot.use_memfd=1来启用memfd支持,所以理论上可以不编译这个模块,不过这里稳妥起见,还是编译进去了)
和binder
。虽然作者也提供了redroid_modules
库来进行树外模块的安装,但是我的内核版本太高了(5.16.17)
,编译过不了,于是只能通过自定义内核的方式了。
先去香橙派官方搞内核源码:GitHub
打开看了看,我选择了orange-pi-5.16-sunxi64
分支。
这个时候,我才想起来,手上没有服务器给我编译,只能在本机上进行编译,又想了想4颗a53孱弱的性能…只能忍忍了。
git clone -b orange-pi-5.16-sunxi64 https://GitHub.com/orangepi-xunlong/linux-orangepi
由于众所周知的原因,克隆过程又花了几十分钟,心里一万只羊驼奔腾而过…
随后,把系统本来就带的config搞过去:
cd linux-orangepicp /boot/config-5.16.17-sun50iw9 ./.config
搞好之后,打开内核配置界面:
make menuconfig
打开之后,Device Drivers -> Android -> Android Drivers
勾上,弹出来binder ipc driver
勾上,binderfs filesystem
也勾上,这样binder
模块就编译进去了。然后回到上一级,去Staging Drivers
里面,进入Android
,把Enable the Anonymous Shared Memory Subsystem
也勾上,这样ashmem
也搞定了。随后开始编译:
make -j8
随后开始漫长的等待…
大概5个小时之后,编译结束了,先把模块安装下,然后搓个initrd镜像出来:
sudo make modules_install -j8sudo mkinitramfs 5.16.17+ -o initrd.imgmkimage -A arm64 -T ramdisk -C none -n uInitrd -d initrd.img uInitrd
然后把内核和initrd镜像搞到/boot目录下面:
cd /bootsudo cp ~/linux-orangepi/uInitrd ./uInitrd-5.16.17+sudo cp ~/linux-orangepi/arch/arm64/boot/Image ./vmlinuz-5.16.17+
搞好之后,ln一下,让系统重启时使用新编译的内核:
sudo rm -rf Image uInitrdsudo ln -s vmlinuz-5.16.17+ Imagesudo ln -s uInitrd-5.16.17+ uInitrd
然后重启就行了。
答案是装一个:
sudo apt install docker.io
随后,搞个Android13的镜像试试水:
sudo docker pull redroid/redroid:13.0.0-arm64
接下来进入下一个环节:Debug(笑)。
对照官方文档,跑个容器试下水:
sudo docker run -itd --privileged -v ~/data13:/data -p 5555:5555 --name redroid13 redroid/redroid:13.0.0-arm64 androidboot.use_memfd=1docker ps -a
OK,容器确实run起来了,但是adb
连接提示offline。没辙,只能启动loGCat看看What’s happening:
sudo docker exec redroid13 logcat
不看不知道,一看吓一跳啊:
#假装这里有log,但是当时的log我怎么可能还留着嘛!#反正就是/vendor下面一个什么什么dri的so,报了segmentation fault。#dri是什么,是drm的东西,那就和GPU有关系了。#既然知道是GPU的毛病,那看文档就OK了。
根据以上log,可以知道,是GPU的问题(雾)。那怎么办呢,只能启用软件渲染咯:
sudo docker stop redroid13sudo docker rm redroid13sudo docker run -itd --pull always -v ~/data13:/data -p 5555:5555 --name redroid13 redroid/redroid:13.0.0-arm64 androidboot.use_memfd=1 androidboot.redroid_gpu_mode=guest
OK,重新搞起容器,连接还是报offline。麻麻的,还得看log:
sudo docker exec redroid13 dmesg#再次假装有log,大体就是lmkd的问题,可以看见#lmkd以每分钟30次的速度不断重启(大概每2秒一次)。
根据以上log(逃),可以得出是lmkd问题,去仓库issue搜一下,#293
tnnd,原来还要PSI
支持,为什么不早说!(抓狂)
这里怎么不写上PSI支持…麻了
General Setup -> CPU/Task time and stats accounting -> Pressure stall infORMation tracking
,勾上。然后又开始一次漫长的编译过程…
编译好之后,还是一样的步骤安装好内核。
搞定之后,还是一样启动容器,照样offline…掏出log仔细研读,也没研究出来个所以然,只能试试换个版本:
sudo docker pull redroid/redroid:11.0.0-arm64sudo docker run -itd --privileged -v ~/data11:/data -p 5555:5555 --name redroid11 redroid/redroid:11.0.0-arm64 androidboot.use_memfd=1 androidboot.redroid_gpu_mode=guest
run起来之后,adb连上,提示连接成功。哦豁,有搞头。
装个scrcpy:
sudo apt install scrcpyadb connect localhost:5555scrcpy
windows下scrcpy参考官方GitHub即可。
来源地址:https://blog.csdn.net/CNflysky/article/details/128751428
--结束END--
本文标题: 记一次在OrangePiZero2(香橙派zero 2)上部署Redroid(云手机)的过程
本文链接: https://lsjlt.com/news/372178.html(转载时请注明来源链接)
有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
2024-05-24
回答
回答
回答
回答
回答
回答
回答
回答
回答
回答
0