https://dblp.org/rec/conf/cluster/ParkS09

该论文属于实验报告类型,主要内容是对于科研程序这种磁盘读写密集型的系统在SSD上的实际性能进行了一个定量的测试。 论文的发表时间为2009年,也就是实验进行的时间理论上不会晚于2009年。在后来查其他几篇论文的时候,发现作者之一的Stan Park是HP实验室的。

在该文章中,作者使用了三种不同技术的存储介质(两种类型,机械硬盘和半导体闪存),分别是代表机械硬盘的西数鱼子酱WD Caviar SE,SLC的Mtron Pro 7500和MLC的Intel X25-M。MLC里的M指的是Multiple,即相对于(当时的)传统SLC来说,使用一个存储单元存储多位而不是一位二进制数据。(但是就当时(2009年)的科技水平而言,当时最多应该是两位了吧,尤其是这还是企业级的;到了2018/19年TLC才在消费领域普及)要不重新起个名叫BLC算了

然后作者使用了来自Los Alamos和Sandia两个美国国家实验室的I/O数据记录(然而地址都已经打不开了= =),在自己的平台上重放以进行性能对比。当然,除了存储介质不一样(还有存储控制器?),其他变量都是控制了的。结果表明,SSD的性能比机械硬盘提升并不大,西数HDD甚至还在某些场景下性能超过了Mtron的SLC。但是,I/O效率本应低于SLC的Intel MLC却在性能上远远超出了Mtron SLC。根据作者分析,原因如下:

  1. 根据当前NAND闪存芯片的组织方式和操作原理来看,读取和写入的规则是不一致的。虽然读取和写入都是按照文件系统的来进行的,但是对于NAND闪存芯片的写入必须按照的方式来进行。分别是从逻辑和物理的角度上定义的:页的大小由文件系统决定,作为从该逻辑分区中一次存取的元数据量大小(即逻辑I/O的最小单位);块的大小由闪存芯片的固件决定,作为一次物理上数据记录的元数据量大小。仔细思考会发现这两个参数对应的系统效能变化函数(假想)并不会是单调的:过小的页/块会显著地增大地址的数量,过长的地址编码不利于提升数据的有效传输率;过大的页/块则会因为物理传输速率的有限,增大读写时延,该缺陷会在大量的随机读写中明显地表现出来。至少就目前来看,可能是根据计算机行业的大量测试得出的较优结果,页的大小是略小于块的,该比例不会超过二进制的十个数量级。因而可见,最大达到2^10倍的数据量差异,时延差距会有多大。。

  2. SSD连接到计算机的方法是分层的:闪存芯片-Flash Translation Layer(FTL)-计算机外围I/O。因而,FTL在其中扮演了一个很关键的角色,上述提到的块操作就是由它来完成的。顾名思义,闪存翻译(映射)层负责提供计算机能够读取使用的逻辑存储结构,一方面负责操作闪存,一方面与计算机交换存储元信息和数据。作者认为,正是这样的分层结构,成为了闪存I/O优化的一个阻碍:FTL不知道自己被要求读写的数据的语义,只能机械地按照指令存取,同时进行固件中设定的垃圾回收策略;计算机不了解数据的真实存储布局,只能机械地按照程序流程将指令近乎顺序地(系统中可能有I/O调度方案,对I/O请求进行一定程度的重排)发送给FTL。有成语云“因地制宜”,我猜测作者在此同样认为,能够了解实际情况的话,能够使用某些算法对I/O性能有更进一步的提高。(此外私以为,在计算机和FTL尚无法直接沟通的当下,FTL(主控?)的I/O算法同样对性能有很大的影响。)文末提到了不使用文件系统日志来维护当前逻辑分区的文件列表,我就很好奇,不用日志咋办?查一个文件扫一次盘吗??

  3. 实验中的Intel MLC性能超过Mtron SLC的原因很简单,根据作者的解释,因为Mtron Pro 7500是四通道总线,Intel X25-M是十通道总线。看来这时候还不是很擅长挤牙膏啊

标签: none

添加新评论