9102年了,还不知道Android为什么卡?

本文作者


作者:吃猫猫的鱼

链接:

https://juejin.im/post/5d4bdb23e51d453c2577b747

本文由作者授权发布。


0
导读


最近华为方舟编译器要开源了,笔者去看了下发布会PPT,发现作为一名Android开发者,PPT中所介绍的知识点我居然不能完全看懂???于是乎恶补了下PPT中的内容,整理成本文。


本文将用通俗的语言从底层介绍Android卡顿的历史原因和谷歌与之斗争的过程。


阅读完这篇文章后你将:


  1. 理解计算机是如何解读我们所写的程序并执行相应功能的

  2. 了解Android虚拟机的进化史

  3. 从底层了解造成Android卡顿的三大原因


1
基础概念


首先我们需要补习下一些基础概念,来理解计算机是如何解读我们所写的程序并执行相应功能的。


1.编译&解释


某些编程语言(如Java)的源代码通过编译-解释的流程可被计算机读懂


先上一段Java代码


public static void main(String[] args){
    print('Hello World')
}


这是所有程序员的第一课,只需要写完这段代码并执行,电脑或手机就会打印出Hello World。

那么问题来了,英文是人类世界的语言,计算机(CPU)是怎么理解英文的呢?


众所周知,0和1是计算机世界的语言,可以说计算机只认识0和1。那么我们只需要把上面那段英文代码只通过0和1表达给计算机,就可以让计算机读懂并执行。




结合上图,Java源代码通过编译变成字节码,然后字节码按照模版中的规则解释为机器码。


2.机器码&字节码


机器码


机器码就是能被CPU直接解读并执行的语言。


但是如果使用上图中生成的机器码跑在另外一台计算机中,很可能就会运行失败。


这是因为不同的计算机,能够解读的机器码可能不同。通俗而言就是能在A电脑上运行的机器码,放到B电脑上就可能就不好使了。


举个?,中国人A认识中文,英语;俄国人B认识俄语,英语。这时他两同时做一张中文试卷,B大概连写名字的地方都找不到。


所以这时候我们需要字节码。


字节码


中国人A看不懂俄文试卷,俄国人B看不懂中文试卷,但是大家都看得懂英文试卷。

字节码就是个中间码,Java能编译为字节码,同一份字节码能按照指定模版的规则解释为指定的机器码。


字节码的好处:


1.实现了跨平台,一份源代码只需要编译成一份字节码,然后根据不同的模版将字节码解释成当前计算机认识的机器码,这就是Java所说的“编译一次,到处运行”。


2.同一份源码被编译成的字节码大小远远小于机器码。


3.编译语言&解释语言


编译语言

我们熟知的C/C++语言,是编译语言,即程序员编译之后可以一步到位(编译成机器码),可以被CPU直接解读并执行。



可能有人会问,既然上文中说过字节码有种种好处,为什么不使用字节码呢?


这是因为每种编程语言设计的初衷不同,有些是为了跨平台而设计的,如Java,但有些是针对某个指定机器或某批指定型号的机器设计的。


举个?,苹果公司开发的OC语言和Swift语言,就是针对自家产品设计的,我才不管你其他人的产品呢。所以OC或Swift语言设计初衷之一就是快,可直接编译为机器码使iPhone或iPad解读并执行。这也是为什么苹果手机的应用比安卓手机应用大的主要原因。


这更是为什么苹果手机更流畅的原因之一!(没有中间商赚差价)


编译-解释语言


拿开发Android的语言Java为例,Java是编译-解释语言,即程序员编译之后不可以直接编译为机器码,而是会编译成字节码(在Java程序中为.class文件,在Android程序中为.dex文件)。然后我们需要将字节码再解释成机器码,使之能被CPU解读。


这第二次解释,即从字节码解释成机器码的过程,是程序安装或运行后,在Java虚拟机中实现的。


2
造成卡顿的三大因素


今年最新的Android版本已经是10了,其实在这两年关于Android手机卡顿的声音已经慢慢低了下去,取而代之的是流畅如iOS之类的声音。


但是诸如超过iOS的话,还比较少,其实是因为Android有卡顿有三大历史原因。起步就比iOS低。


1.虚拟机——解释过程慢


通过上文描述,我们可以知道,iOS之所以不卡是因为他一步到位,省略了中间解释的步骤,直接跟硬件层进行通信。而Android由于没有一步到位,每次执行都需要实时解释成机器码,所以性能较iOS明显低下。


我们已经明确知道了字节码(中间商)是造成卡顿的主要元凶之一,我们可否像iOS那样扔掉字节码,直接一步到位呢?


明显不能,因为iOS搞来搞去就那么几个机型。


反观Android方面,光手机就有无数种机型,无数种CPU架构/型号,更别提什么平板,车载等其他设备了。有那么多类型的硬件设备代表着就有非常多不同的硬件架构,每种架构都有自己对应的机器码解释规则。显然像iOS那样一步到位是不现实的。



那怎么办呢?既然扔不掉字节码这个中间商,那我们只能剥削他咯,让整个解释的过程快一点,再快一点。而解释所在的“工厂”在虚拟机内。


接下来就是伟大的Android虚拟机进化之路!


① Andorid 1.0 Dalvik(DVM)+解释器


DVM是Google开发的Android平台虚拟机,可读取.dex的字节码。上文中所说的从字节码解释成机器码的过程在Java虚拟机中,在Android平台中虚拟机指的就是这个DVM。


在Android1.0时期,程序一边运行,DVM中的解释器(翻译机)一边解释字节码。可想而知,这样效率绝对低下。一个字,卡。


② Android 2.2 DVM+JIT


其实解决DVM的问题思路很清楚,我们在程序某个功能运行前就解释就可以了。


在Android2.2时期,聪明的谷歌引入了JIT(Just In Time)机制,直译就是即时编译。

举个?,我经常去一家餐馆吃饭,老板已经知道我想吃什么菜了,在我到之前就把菜准备好了,这样我就省去了等菜的时间。


JIT就相当于这个聪明的老板,它会在手机打开APP时,将用户经常使用的功能记下来。当用户打开APP的时候立马将这些内容编译出来,这样当用户打开这些内容时,JIT已经将'菜'准备好了。这样就提高了整体效率。


虽然JIT挺聪明的,且总体思路清晰理想丰满,但现实是仍然卡的要死。


存在的问题:


  • 打开APP的时候会变慢

  • 每次打开APP都要重复劳动,不能一劳永逸。

  • 如果我突然点了一盘之前从来没点过的菜,那我只好等菜了,所以如果用户打开了JIT没有准备好的'菜',就只能等DVM中的解释器去边执行边解释了。


③ Android 5.0 ART+AOT


聪明的谷歌又想到个方法,既然我们能在打开APP的时候将字节码编译成机器码,那么我们何不在APP安装的时候就把字节码编译成机器码呢?这样每次打开APP也不用重复劳动了,一劳永逸。


这确实是个思路,于是谷歌推出了ART来替代DVM,ART全称Android Runtime,它在DVM的基础上做了一些优化,它在应用被安装的时候就将应用编译成机器码,这个过程称为AOT(Ahead-Of-Time),即预编译。


但是问题又来了,打开APP是不卡了,但是安装APP慢的要死,可能有人会说,一个APP又不是会频繁安装,可以牺牲下这点时间。但是不好意思,安卓手机每次OTA启动(即系统版本更新或刷机后)都会重新安装所有APP,无奈吧!绝望吧!对,还记得那两年,被安卓版本更新所支配的恐惧吗!


④ Android 7.0 混合编译


谷歌最终祭出了终极大招,DVM+JIT不好,ART+AOT又不好。行,我把他们都混合起来,那总可以了吧!


于是谷歌在Android7.0的时候,发布了混合编译。即安装时先不编译成机器码,在手机不被使用的时候,AOT偷偷的把能编译成机器码的那部分代码编译了(至于什么是能编译的部分,下文字节码的编译模板详述)。其实就是把之前APP安装时候干的活偷偷的在手机空的时候干了。


如果来不及编译的话,再把JIT和解释器这对难兄难弟叫起来,让他们去编译或实时解释。

不得不佩服谷歌这粗暴的解决问题的方式,这样一来确实Android手机从万年卡顿慢慢的坑中出来了。


⑤  Android 8.0 改进解释器


在Android8.0时期,谷歌又盯上了解释器,其实纵观上面的问题,根源就是这个解释器解释的太慢了!(什么JIT,AOT,老夫解释只有一个字,快)那我们何不让这个解释器解释的快一点呢?于是谷歌改进了解释器,解释模式执行效率大大提升。


⑥  Android 9.0 改进编译模板


这个点会在下文字节码的编译模板中详述。


这边简单而言就是,在Android9.0上提供了预先放置热点代码的方式,应用在安装的时候就能知道常用代码会被提前编译。(借用知乎@weishu大神的原话)


2.JNI——Java和C互相调用慢


JNI又称为 Java Native Interface,翻译过来就是Java原生接口,就是用来跟C/C++代码交互的。


如果不做Android开发的可能不知道,Android项目里的代码除了Java,很有可能还有部分C语言的代码。


这个时候有个严重的问题,首先上图 (图片参考方舟编译器原理PPT):



在开发阶段Java源代码在开发阶段打包成.dex文件,C语言直接就是.so库,因为C语言本身就是编译语言。


在用户手机中,APK中的.dex文件(字节码)会被解释为.oat文件(机器码)运行在ART虚拟机中,.so库则为计算机可以直接运行的二进制代码(机器码),两份机器码要互相调用肯定是有开销的。


下面就来阐述下为什么两份机器码会不同。


这边需要深入理解字节码->机器码的编译过程,在图上虽然都被编译成了机器码,都能被硬件直接调用,但是两份机器码的性能,效率,实现方式相差甚多,这主要是由以下两个点造成的:


编程语言不同导致编译出的字节码不同导致编译出的机器码不同。


举个?,针对同样是静态语言的C和Java,对int a + b 的运算


C语言可以直接加载内存,在寄存器中计算,这是由于C语言是静态语言,a和b是确定的int对象。


在Java中虽然定义对象我们也要明确的指出对象的类型,例如int a = 0,但是Java拥有动态性,Java拥有反射,代理,谁也不敢保证a在被调用时还是int类型,所以Java的编译需要考虑上下文关系,即具体情况具体编译。


所以连字节码已经不同了,编译出的机器码肯定不同。


运行环境不同导致编译出的机器码不同


图中明显看到由Java编译而来的机器码包裹在ART中,ART全称Android RunTime,即安卓运行环境,跟虚拟机差不多是一个意思。而C语言所在的运行环境不在ART中。


RunTime提供了基本的输入输出或是内存管理等支持,如果要在两个不同的RunTime中互相调用,则必然有额外开销。


举个?,由于Java有GC(垃圾回收机制),在Java中的一个对象地址不是固定的,有可能被GC挪动了。即在ART环境中跑的机器码中的对象的地址不固定。可是C语言哪管那么多幺蛾子,C就直接问Java要一个对象的地址,但万一这个对象地址被挪动了,那就完蛋了。解决方案有两个:


(此处参考知乎@张铎在华为公布的方舟编译器到底对安卓软件生态会有多大影响?中的回答)

https://www.zhihu.com/question/319688949


1. 把这个对象在C里再拷一份。很明显这造成了很大的开销。


2. 告诉ART,我要用这个对象了,GC这个对象的地址你不能动!你先一边呆着去。这样相对而言开销倒是小了,但如果这个地址如果一直不能被回收的话,可能造成OOM。


3. 字节码的编译模板——未针对具体APP进行优化


我们举个?来理解编译模版,“Hello world”可以被翻译为“你好,世界”,同样也可以被翻译为“世界,你好”,这个差别就是编译模版不同导致的,


①. 统一的编译模版(vm模版)


字节码可以通过不同的编译模版被编译为机器码,而编译模版的不同将直接导致编译完后的机器码性能大相径庭。


在安卓中,ART有一套规定的,统一的编译模版,暂且称为VM模版,这套模版虽算不上差劲,但也算不上优秀。


因为它是谷歌爸爸搞出来的,肯定算不上差劲,但由于没有针对每一个APP进行特定的优化,所以也算不上优秀。


②. vm模版存在的问题


问题就存在于没有针对每一个APP进行优化。


在上文谷歌对于Android2.2的虚拟机优化中已经讲到过,那时候谷歌使用JIT将用户常用的功能记下来(热点代码),当用户打开APP的时候立马将这些内容编译出来,即优先编译热点代码。


但是到了Android7.0的混合编译时代,由于AOT的存在,这个功能被弱化了,这时JIT记录下的热点代码并非是持久化的。AOT的编译优先级遵循于vm模版,AOT根据模板的内容将一些字节码优先编译为机器码。


那么这个时候就产生了一个问题。


先举个?,一家中餐馆的招牌菜是番茄炒蛋,那么番茄炒蛋的备菜肯定很足,但是顾客A特立独行,他偏偏不要吃番茄炒蛋,他每次都点一个冷门的牛排套餐,那这时候只能让顾客等着老板将牛排套餐做完。


如果一个APP的热点代码(如首页),刚好游离于VM模板之外,那么AOT就其实形同虚设了。(比如vm模版优先编译名称不大于15个字符的类和方法,但是首页的类名刚好高于15个字符。此处仅为举例并没有实际论证过)


下面用首页和设置页来举例:由于遵循vm模版,AOT因为某个原因没有优先编译首页部分代码,而转而去编译了不太重要的设置页代码:





上图的流程说明了在特殊情况下,AOT编译实则不起作用,完全是靠解释器和JIT在进行实时编译,整个编译方案退步到了Android2.2时期。


③. 聪明的ART


虽然这个问题存在,但并不是特别严重。因为ART并没有我说的那么笨。在之后应用使用过程中,ART会记录并学习用户的使用习惯(保存热点代码),然后更新针对当前APP的定制化vm模版,不断的补充热点代码,补充定制化模版。


这是不是听起来很熟悉?在手机发布大会上的宣传语“基于用户操作习惯进行学习,APP打开速度不断提高”的部分原理就是这个。


④. 最终大招,一劳永逸


其实要一劳永逸的解决这个问题思路也不难:我们只需要在吃饭前跟老板提前预定想吃啥就行,让老板先准备起来,这样等我们到了就不用等餐了。


在最新的Android9.0版本中,谷歌推出了这个类似提前预定的功能:编译系统支持在具有蓝图编译规则的原生 Android 模块上使用 Clang 的配置文件引导优化 (PGO)。


说人话:谷歌允许你在开发阶段添加一个配置文件,这个配置文件内可指定“热点代码”,当应用安装完后,ART在后台悄悄编译APP时,会优先编译配置文件中指定的“热点代码”。


虽然谷歌支持,但是这块技术对于APP开发人员而言国内资料过于缺乏,普及面不广。笔者先贴上官方链接,以及这篇博客,其中介绍的还是挺详细的。(隔壁Xcode针对PGO都有UI界面了)


3
解决思路


解决思路总结为四个字就是:华为方舟。


方舟的解决思路:


  1. 针对虚拟机问题,方舟说:我不要你这个烂虚拟机了,我们裸奔

  2. 针对JNI调用问题,方舟说:我们让Java在编译阶段跟C一样直接编译成机器码,干掉虚拟机,跟.so库直接调用,毫无JNI开销问题

  3. 针对编译模版问题,方舟说:我们支持针对不同APP进行不同的编译优化


总结一下:方舟支持在打包编译阶段针对不同APP进行不同的编译优化,然后直接打包成机器码.apk(很可能已经不叫apk了),然后直接运行。


这样看起来方舟确实解决掉了三大问题,但是,代价呢?


如果按照这个思路,方舟就肯定不止是一个编译器了,它应该还有一套自己的runtime。当然这些都是后话了。


关于方舟的实现只是大概讲了思路,但没有深入,因为一来方舟没开源,二来方舟发布会PPT营销层面更多,技术细节缺少,现在奇思妙想完全是纸上谈兵,一切还是静待开源吧。


参考资料


  1. 华为公布的方舟编译器到底对安卓软件生态会有多大影响?

  2. 华为新贵!方舟编译器的荣光和使命

  3. 一文看懂华为方舟编译器,安卓的一大进步

  4. What does a JVM have to do when calling a native method?

  5. 关于Dalvik、ART、DEX、ODEX、JIT、AOT、OAT



最后推荐一下我做的网站,玩Android: wanandroid.com ,包含详尽的知识体系、好用的工具,还有本公众号文章合集,欢迎体验和收藏!



推荐阅读

是时候让 Android Tools 属性拯救你了
2019.07 Android 面试真题集锦
Android 浮窗从未如此简单


扫一扫 关注我的公众号

如果你想要跟大家分享你的文章,欢迎投稿~


┏(^0^)┛明天见!