一、几种常见RAID技术简介(论文文献综述)
张腾渊[1](2022)在《服务器存储技术研究》文中进行了进一步梳理随着网络技术的逐渐发展,对于服务器的储存技术需求越来越高,服务器的存储性能也逐渐提高。本文通过逻辑分析、查阅资料的方法,对目前的服务器存储技术进行研究。通过研究发现,目前最普遍的服务器储存技术是RAID技术,然而传统的RAID技术有较多缺点,于是出现了改进的智能化的RAID技术。智能化的RAID技术可以动态转移数据,具有建立高效的虚拟处理器、通过自动配置改变磁盘容量以及热备磁盘增加投资回报等优点。
王顺卓[2](2020)在《闪存错误时空特性感知的固态盘可靠性算法优化研究》文中指出固态盘(Solid State Drive)因具有高内部并行性、低随机访问延迟、低能耗以及小尺寸等优势,作为主流的存储设备被广泛用于个人电脑和数据中心。近年来,随着5G和大数据技术发展,对存储容量、性能和可靠性提出了更高需求。得益于半导体制程工艺技术、单元多比特技术以及三维堆叠技术的发展,闪存存储密度大幅提升。然而,存储密度的增长是以牺牲可靠性为代价,不可靠的存储介质会引起数据存储可靠性维护开销大和闪存空间利用率不足的问题。因此,如何设计具有高效能、可靠的闪存存储系统,成为了研究热点。为了保证数据存储的可靠性,现有的可靠性算法引发了高昂的存储性能开销。例如,固态盘利用纠错码(Error Correction Code,ECC)纠正数据错误和块级阵列编码(Redundant Arrays of Independent Disks,RAID)提供系统级容错保护。纠错过程中产生的解码延迟、块级阵列编码中繁重的校验冗余数据和数据重建操作,极大地影响了系统性能。而且,为了满足闪存存储密度扩展带来的高可靠性需求,固态盘利用过长纠错码(即纠错码校验数据大小超过系统配置的校验数据空间)提高系统的纠错能力。然而,基于过长ECC存储策略中引发的读放大,大幅降低了系统读性能。为了充分利用盘内多级并行性,控制器通常将不同并行单元间相同块编号的闪存块链接成超级块,并以超级块作为盘内闪存空间的管理粒度,在提高系统吞吐量的同时,均衡超级块内闪存块承受的编程/擦除次数。然而,由于闪存块间耐磨损力差异,超级块中弱块会过早损坏,加速了系统故障,致使固态盘失效时,大量闪存块未被充分利用,降低了固态盘内闪存空间利用率。针对上述问题,围绕闪存错误时空特性,展开如下可靠性算法优化研究:为了解决高解码延迟和过长ECC存储导致的读性能下降的问题,首先研究了闪存错误的时间特性(即闪存块的原始误码率随着编程/擦除次数的增加呈现指数型增长),然后探索了闪存生命期内需要的校验冗余数据与系统配置校验数据空间的关系,发现在闪存生命期早期(即闪存块承受的编程/擦除次数较小时),系统配置的校验数据空间没有被充分利用;在生命期末期(即闪存块承受的编程/擦除次数过大时),配置的校验数据空间无法满足系统可靠性需求。基于上述发现,提出了一种闪存错误时间特性感知的纠错码数据管理策略(LAE),根据闪存错误时间特性自适应调整纠错码数据管理策略。在生命期早期,充分利用配置的校验数据空间,利用短码长的纠错码降低解码延迟;在生命期末期,将过长ECC对应的校验数据作为用户数据的扩展,持久化到不同的并行单元中,充分利用盘内多级并行性,降低过长纠错码引发的读放大对读性能的影响。实验结果表明,与传统ECC编码策略相比,LAE可提升系统读性能最大达85.1%;与目前基于过长ECC的数据存储策略相比,LAE可提高系统读性能最大达30.0%。针对盘内RAID组织策略中存在的繁重校验数据和数据重建导致的高昂存储性能开销问题,首先研究了固态盘生命期内的可靠性需求,发现RAID提供的可靠性在生命期大部分时期未被充分利用。然后探索了闪存错误空间特性(即经历相同编程/擦除次数的闪存块具有不同的原始误码率),提出了闪存错误空间特性感知的RAID条带管理策略(WARD)。一方面,WARD根据闪存块的实时磨损动态组织RAID条带,在保证数据存储可靠性的前提下,减少校验数据对系统性能的影响;另一方面,提出预警转移机制,提前迁移坏块中的用户数据,避免数据重建过程带来的性能抖动问题。实验结果表明,与传统的RAID组织策略相比,WARD在生命期内提供高且稳定的可靠性,读性能和写性能最大提升分别为19.5%和25.6%。为了提高基于传统超级块组织策略的固态盘寿命,本文首先探索块级与页级的闪存错误空间特性,然后提出闪存错误时空特性感知的超级块组织策略(WAS)。WAS将页级闪存错误空间特性与闪存块磨损检测相结合,设计了一种高效准确的闪存块磨损实时检测策略。基于闪存块的实时磨损,WAS动态地组织超级块,让强块分担原本施加到弱块上的磨损,并且利用一种基于磨损的垃圾回收策略,进一步降低闪存块间的磨损差异,提高固态盘内空间利用率,延长系统的寿命。实验结果表明,WAS策略与传统超级块组织策略相比,以可以忽略的性能开销为代价,提高了30.78%闪存空间利用率,延长了51.3%固态盘寿命。
刘锋[3](2020)在《10Gbps物理随机数发生器及其采集存储系统的设计与实现》文中提出物理随机数发生器广泛应用于科学计算、模拟仿真、信息安全、身份认证等领域。由于输出的不确定性和非周期性,物理随机数发生器在保密通信领域中的作用尤为突出,通常被用于机密密钥产生、向量初始化和随机填充值等诸多方面。随着计算机技术以及通信技术的发展,通信数据的吞吐量已经达到Gbps甚至Tbps的水平。基于信息论鼻祖香农提出的“一次一密”理论,为保证如此高吞吐量数据的通信安全,需要实时生成速率不低于通信速率的高质量物理随机数来对传输的数据进行加密和解密。目前,生成实时物理随机数的方法有很多种,如利用电阻热噪声、相位抖动、光子集成和混沌激光的方法来产生物理随机数。基于上述方法实现的物理随机数发生器一些受限于较低熵源带宽无法实现高速,一些则受限于庞大的体积而难以适应当今社会器件小型化、芯片化的发展趋势。此外,还有一些物理随机数发生器由于不能实时监测熵源遭受的诸如温度、电压、电磁等的攻击或可能出现的故障,而输出性能较差的物理随机数。物理随机数发生器在投入使用前,需要对其输出的随机序列进行大量的离线统计测试。随着随机数输出速率的不断提高,针对随机数采集存储系统的设计也逐渐成为物理随机数发生器研发和设计中必不可少的一部分。本文在FPGA中设计了一款带在线监测模块的10Gbps物理随机数发生器,单路可稳定输出10Gbps的随机序列,随机性测试结果表明该物理随机数输出的随机序列具有良好的统计特性。此外,本文实现基于PCIE 2.0传输接口和RAID技术的随机数采集存储系统,能够连续、实时采集存储10Gbps物理随机数发生器的输出序列,极大缩短了高速物理随机数发生器数据采集所耗费的时间。本文围绕10Gbps物理随机数发生器及其采集存储系统,主要研究内容和工作如下:1.分析66节点自治布尔网络的输出特性,设计一种延迟异或后处理电路去除66节点自治布尔网络单个节点输出信号的偏置和相邻两个节点输出信号间的相关性,最终通过GTX收发器实现具有良好输出特性和统计特性的单路速率可达10Gbps的物理随机数发生器。2.对本文所实现的10Gbps物理随机数发生器设计针对熵源的健康测试电路和针对输出序列的在线统计测试模块,使能够对熵源故障和物理随机数发生器低质量的输出进行报警。3.为方便对10Gbps物理随机数发生器的进一步离线分析验证,设计基于PCIE 2.0高速传输接口和RAID技术的随机数采集存储系统,能够实时、连续采集存储高速物理随机数发生器所产生的速率为10Gbps的随机序列。
邓健[4](2020)在《基于FPGA的高速数据流存储控制系统设计》文中指出随着全球数字化进程的加速和大数据时代的到来,数据的存储显得尤为重要。纷繁复杂的应用向数据存储系统提出了各种不同层次的要求,这让数据存储系统面临着不小的挑战。目前,越来越多的中小企业大带宽存储应用提出了对大容量、高速存储、稳定可靠的数据存储需求。结合该市场需求,作者所在实习单位立项研发这类数据存储产品。作者负责该项目的前期研发工作,并在这方面展开了有益、深入研究。本文首先调研了存储系统的社会需求和和国内外研究现状,并分析了项目需求,对系统进行了方案设计,提出了一种实用高效的设计方案。基于该方案,提出了这样一个存储系统:一台由12块SCSI接口企业级机械硬盘组成的RAID 5存储阵列机架服务器,高性能存储服务光纤板卡作为高速数据流的控制及收发器件,利用x8 PCIe2.0接口与服务器进行数据通信,以Xilinx高性能Kintex-7系列FPGA作为主控制器,以及板载独立的64位DDR3 SDRAM作为大容量缓存,配置4通道10G光纤接口作为数据收发端口。存储系统采用软硬件相结合的方式、使用多队列乒乓操作的数据缓存,通过PCIe DMA Subsystem高效地将存储服务光纤板卡收到的高速数据存入服务器。接着,本文分析了存储介质、高速收发器GTX、Aurora 64B/66B等高速串行协议,详细地介绍了在Vivado2018.3集成开发环境下基于FPGA的高速数据流控制方案以及控制实现方法。然后,根据存储控制逻辑,在Visual Studio2017集成开发环境中完成了软件对底层硬件的控制,最终实现了对存储服务光纤板卡的上位机控制。最后,本文搭建起来一个完整的存储系统实验平台,对各功能模块和存储系统进行了联合调试。在该实验平台上,进行了相关测试实验。测试结果表明,本文设计出的上述高速数据流存储系统能够实现对高速数据流数据的实时高速存储,保证数据稳定可靠的同时可以实现存储回放等预定功能。
张晋荣[5](2019)在《基于双引擎的高效能存储系统的研究》文中提出随着云计算,5G时代的来临,越来越多的应用程序采用云存储的方式存储数据,而物联网的大力发展,Io T等平台的推广使得越来越多的数据存储在数据中心,数据已经成为智能社会发展的基石。这种发展势必对存储中心的容量、传输率、可靠性等性能提出了更高的要求。同时这些数据具有产生速率不均匀,写需求大,读需求少的特点,数据存储时负载的动态变化对存储架构有了新的需求。动态负载存储存在负载变化与应用场景有较大关联的特点,所以需要一种根据当前负载变化实时分配条带的存储系统。针对这一问题,本文在传统RAID布局的基础上提出了一种基于双引擎的高效能存储系统,该系统使用软硬件协同设计,这种方式在保证系统高响应,高传输速率的前提下节省了大量CPU计算资源,并减少了磁盘调度次数,本文的研究内容如下:首先,对课题研究背景和意义进行展述,对各个存储器件和数据备份技术进行简介。对常见的RAID技术进行原理分析,通过对RAID技术的分析引出不同应用场景需要不同的RAID技术。其次,对S-RAID5和DPPDL算法的原理,优缺点以及适用场景进行简介,进一步分析与时间无关的动态负载下已有存储算法的需要改进之处。最后,在负载与时间无关的动态负载存储背景下,提出基于双引擎的高效能存储系统,该系统采用动态负载的软硬件协同设计(DSH),在底层布局方面该系统使用冷热树结构对磁盘空间进行管理,根据当前开启的磁盘和磁盘过去使用的次数进行条带的分配。根据软件和硬件分别适用的不同应用场景,该算法采用软硬件协同处理架构,将条带分配、地址计算等功能使用软件实现,而将磁盘的异或校验算法通过PCIE传输到FPGA中用硬件实现,这种布局大大节省了CPU计算资源。通过实验分析可知,在20%到40%的连续写请求下,由5个磁盘组成的DSH算法的CPU使用率是DPPDL算法和S-RAID5算法的50%。在60%的连续写请求下,DSH算法的CPU使用率是DPPDL算法的25%,是S-RAID5算法的50%,并且随着负载的不断增加,DSH节省CPU资源的能力越发明显。在能耗方面,在相同负载变化的24小时内,DSH比DPPDL节省10%的磁盘能耗。从而证明DSH算法在动态负载存储的环境下对节约CPU计算资源和节省磁盘能耗有较大优势。
江培瑞[6](2019)在《RAID中数据可靠性和系统节能性能研究》文中提出伴随着通讯技术和网络科技的迅速发展,数字化信息呈指数爆炸式增长,数据存储技术也因此迎来了巨大的挑战。存储系统中数据的可靠性问题以及存储系统的能耗问题越来越被人们所关注。虽然传统的RAID(Redundant Arrays of Independent Drives,RAID)存储技术在一定程度上能有效的缓解存储数据的可靠性问题,但是随着当今信息时代的到来,所需存储的数据量不断增大,RAID存储系统中所需的磁盘数量也随之变多,磁盘损坏的概率也随之变大。所以,传统的RAID技术已经越来越难以保证磁盘中数据的可靠性,于此同时RAID存储系统中大量磁盘运行造成的能耗问题也是不可忽视的。本文把纠删码技术应用到RAID存储系统以提高数据的可靠性,同时又考虑了RAID存储系统中的能源消耗问题,通过优化数据布局降低存储系统的能耗。本文完成的主要工作如下:1.综述RAID存储技术的发展历程和原理。介绍了纠删码技术的基本原理和分类,同时介绍了磁盘阵列中的相关节能技术。提出将纠删码容错技术和节能技术相结合的研究思路,这样既能保证存储系统中数据的可靠性,又能降低系统的能耗。2.在已有的星形(STAR)纠删码的基础上,设计了一种在RAID存储系统中,可以容忍三个磁盘同时失效的阵列纠删码——CPC(Cross Parity Check,CPC)码。文中详细介绍了CPC码的编码方法,并根据故障磁盘在磁盘阵列中的不同位置,给出了四种不同情况下三磁盘同时损坏时的数据恢复算法。从编码复杂度、解码复杂度、更新复杂度三个方面分析了CPC纠删码的性能,将该方案与已有的三容错STAR码和EEOD(Extending EVENODD,EEOD)码的数据布局作比较,用详实的数据说明了该方案的优势。3.提出了一种节能型数据布局方案——EECPC(energy-efficient cross parity check,EECPC)数据布局。该方案是对CRUSH(Controlled Replication Under Scalable Hashing,CRUSH)数据布局算法的一种优化,同时能结合CPC纠删码,弥补了CRUSH算法的局限性,有效的降低了RAID存储系统的能耗,提高了系统的可靠性。通过仿真实验,将EECPC数据布局与STAR码的数据布局作比较,体现了EECPC数据布局方案在节能性方面的优势。
喻芳[7](2019)在《固态盘存储系统的性能优化和测试技术研究》文中提出传统磁盘因其本身机械旋转的限制,已经成为了大规模存储系统的主要性能瓶颈。基于闪存的固态盘因其优良的性能以及低功耗等特点,在个人电脑和企业级存储系统中被广泛地使用。但是由于固态盘具有不同于磁盘的设备特性,简单地将传统存储软件应用于固态盘上不能充分发挥固态盘的性能优势。例如,将现有的磁盘阵列技术直接应用于固态盘会加剧设备的垃圾回收操作带来的不利影响,降低固态盘的性能,缩短其使用寿命;将基于键值对的存储系统直接部署在固态盘上,无法进行软硬件协同优化以达到性能最优。因此,对基于固态盘的存储系统进行性能优化和测试技术研究,可以为开发和构建下一代存储系统打下良好的基础。首先,由于基于闪存的固态盘具有小写性能差和擦除次数有限等限制,不能简单地将磁盘阵列技术应用于固态盘中。本文提出一种固态盘阵列的混合数据布局策略(Hybrid-RAID)来提高固态盘存储系统的性能。Hybrid-RAID将固态盘阵列分为RAID5和RAID1两个区域,并根据RAID5和RAIDI对不同负载请求大小以及读写密集属性的偏好,对数据进行重新布局,降低了由于校验信息频繁更新而导致的固态盘存储介质损耗,从而提高了固态盘存储系统的性能。性能评估结果表明,相比于传统的磁盘阵列RAID5和RAID1,Hybrid-RAID方案平均响应时间分别减少了 41.5%和38.8%。其次,本文对新型的开放通道固态盘进行研究,在充分了解其基本架构和工作原理的基础上,提出并实现了综合型和应用型两种测试方案对基于开放通道固态盘的存储平台进行测试。通过测试验证了软硬件协同设计的有效性,详细分析了开放通道固态盘的基本操作时序以及内部的并行性特征,结果表明通道间的并行性大于逻辑单元号间的并行性。最后本文对两种测试方案进行比较,对固态盘的测试技术进行总结,为后期研发提供可参考的数据。综上,对固态盘的存储系统进行性能优化和测试技术研究,充分挖掘了固态盘的设备特性,提高固态盘存储系统的性能。
张天宇[8](2018)在《连续存储系统中二级存储结构研究》文中认为随着云计算普及和大数据时代的到来,使得数据信息量呈现爆炸式增长,新产生的数字信息以每年30%的速度递增,各大企业对于数据存储的需求越来越高。数据中心存储设备不断增多,不仅增加了数据中心的运营成本,还可能会影响数据的可靠性和系统的稳定性,高效节能存储系统具有很重要的研究价值。连续存储系统的数据操作通常是一次性操作,写入后就不会被改写,偶尔读,且对数据的传输速度要求不高。本文针对连续存储系统的数据存储特征,提出一种以SSD为二级缓存存储介质的节能数据布局SC-RAID(RAID System with SSD as Cache),具体研究内容如下:1)介绍了存储技术的相关知识,首先对机械硬盘和固态硬盘等存储介质做了介绍,随后重点技术对RAID技术和RAID0RAID6等几种代表性结构做了详细介绍和可靠性分析,最后对节能数据布局S-RAID进行了简单叙述。2)分析了传统硬盘的能耗问题和应用缓存的优势所在,提出并设计了SC-RAID5节能存储模型,将SSD作为存储系统二级缓存的存储介质来暂时存放系统写入的数据和计算获得的校验数据,计算校验信息的方式使用非常适合连续数据写入的数据增量校验算法,有效降低“读改写”产生的写惩罚,提升系统写性能。RAID中硬盘在没有数据写入时处于待机状态,当有数据写入时再将硬盘调度到运行状态,以此降低系统能耗。同时设定了适当的数据写回机制,待满足设定条件后再将SSD中的数据写回到RAID的硬盘阵列中,并对SSD中写回数据部分进行统一擦除处理,回收存储空间,这样可以延长SSD的使用寿命,提高系统的稳定性。3)根据Linux内核MD设备中的代码,设计实现了SC-RAID5的数据布局,通过实验模拟测试在连续负载下,对比eRAID、PARAID、和SRAID5等节能数据布局,SC-RAID5优化结构在写性能、响应时间以及系统的能耗都有明显优势。实验证明,SC-RAID5优化结构对以写数据为主的连续数据存储系统性能有很大提升,同样也可应用于RAID4和RAID6中。
刘榴[9](2018)在《分布式存储系统容错机制的研究与实现》文中指出随着人类社会数据爆炸性增长,分布式存储系统的规模也越来越大,节点数少则几千多则上万,磁盘或者节点出现故障的概率大大提高。因此,容错技术是分布式存储系统中不可或缺的重要研究内容。本文在实验室自主研发的分布式存储系统BOSS基础上,对分布式存储系统的容错关键技术进行研究。本文的主要工作如下:(1)针对数据布局算法进行研究,提出了一种基于层次结构的数据布局算法。该算法通过两次哈希选取数据布局位置,能够较好的兼顾数据可靠性与负载均衡性,并且以较小的代价支持集群的动态拓扑变化。(2)在BOSS系统上,实现了RS纠删码,比多副本技术提供更高的容错能力,并提升存储空间利用率。针对数据修复消耗网络带宽过大的问题,提出了一种基于Prime最小生成树的数据修复策略,可有效降低纠删码数据修复时的网络占用带宽。(3)提出了一种磁盘健康状态检测方法,该方法将磁盘空间均等分割为多个采样区,然后在每个采样区内随机取点,综合考虑IOPS性能和延迟,在保证准确率的同时,能够在较短时间内检测出故障磁盘,为及时识别和替换故障磁盘,保证数据可靠性发挥重要作用。
叶敏[10](2017)在《大数据时代之下Raid的过去与未来》文中研究指明传统的Raid技术解决了大容量存储和可靠性,但成本昂贵和扩容的不便利性,导致磁盘阵列应用受到很大的局限;在现代技术的变革中,由"软件"基础设施的崛起而驱动,分布式存储设备能够以高速自动化的方式分配与重新配置,不会受到非动态设置的硬件基础设施的限制,慢慢会成为新的存储技术的主流,本文阐述这方面技术的发展和演变。
二、几种常见RAID技术简介(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、几种常见RAID技术简介(论文提纲范文)
(1)服务器存储技术研究(论文提纲范文)
一、服务器的存储技术 |
(一)常见种类 |
1. DAS |
2. NAS |
3. SAN |
二、最普遍的存储方式 |
三、智能化的RAID |
三、动态数据转移充分利用存储介质 |
四、Auto RAID的优点 |
(一)建立高效的虚拟存储器 |
(二)自动配置轻松改变磁盘容量 |
(三)热备磁盘增加了投资回报 |
五、结语 |
(2)闪存错误时空特性感知的固态盘可靠性算法优化研究(论文提纲范文)
摘要 |
Abstract |
1.绪论 |
1.1 课题的背景和意义 |
1.2 基于NAND闪存的固态存储的基本原理 |
1.3 闪存错误特性 |
1.4 固态盘内可靠性算法研究现状 |
1.5 本文的研究内容 |
1.6 论文组织结构 |
2.固态盘内纠错码解码延迟和可靠性优化研究 |
2.1 引言 |
2.2 纠错码性能开销和可靠性不足问题与分析 |
2.3 闪存错误时间特性感知的ECC数据管理策略 |
2.4 分析与讨论 |
2.5 本章小结 |
3.固态盘内RAID条带组织管理策略优化研究 |
3.1 引言 |
3.2 RAID组织中存储性能开销和数据丢失风险研究 |
3.3 闪存错误空间特性感知的RAID条带管理策略 |
3.4 分析与讨论 |
3.5 本章小结 |
4.固态盘内超级块组织策略优化研究 |
4.1 引言 |
4.2 基于超级块的固态盘内空间浪费问题 |
4.3 闪存错误时空特性感知的超级块管理策略 |
4.4 分析与讨论 |
4.5 本章小结 |
5 全文总结与工作展望 |
5.1 本文工作总结 |
5.2 下一步工作展望 |
致谢 |
参考文献 |
附录1 攻读博士学位期间取得的学术成果 |
附录2 英文缩写对照表 |
(3)10Gbps物理随机数发生器及其采集存储系统的设计与实现(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 选题背景与研究意义 |
1.2 物理随机数的国内外研究现状 |
1.2.1 通用物理随机数发生器 |
1.2.2 带实时监测功能的物理随机数发生器 |
1.2.3 高速率物理随机数采集存储系统 |
1.3 本文主要研究内容 |
第二章 10Gbps高速物理随机数发生器的设计 |
2.1 实现装置 |
2.2 熵源输出特性 |
2.3 后处理电路 |
2.4 GTX高速收发器 |
2.4.1 GTXIP核配置 |
2.4.2 GTX时钟 |
2.4.3 GTX信号接口 |
2.5 输出特性和统计测试 |
2.6 本章小结 |
第三章 10Gbps物理随机数发生器在线监测模块 |
3.1 熵源健康测试 |
3.1.1 重复计数测试 |
3.1.2 自适应比例测试 |
3.1.3 熵源健康测试结果 |
3.2 在线随机性测试 |
3.2.1 频数测试 |
3.2.2 块内频数测试 |
3.2.3 游程测试 |
3.2.4 块内最长游程测试 |
3.3 本章小结 |
第四章 10Gbps物理随机数采集存储系统 |
4.1 PCIE协议简介 |
4.1.1 PCIE总线 |
4.1.2 PCIE协议层次 |
4.1.3 PCIE核接口 |
4.1.4 PCIE协议TLP格式 |
4.2 10Gbps物理随机数采集存储系统硬件设计 |
4.2.1 GTX收发器接收模块 |
4.2.2 PCIE用户顶层控制模块 |
4.2.3 BMD控制器模块 |
4.2.4 PCIE IP核 |
4.2.5 基于RAID技术的实时存储 |
4.3 采集存储系统实物 |
4.4 采集存储系统验证 |
4.5 本章小结 |
第五章 总结与展望 |
5.1 总结 |
5.2 展望 |
参考文献 |
攻读学位期间取得的科研成果 |
致谢 |
(4)基于FPGA的高速数据流存储控制系统设计(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 国外研究现状 |
1.2.2 国内研究现状 |
1.3 主要研究内容与结构安排 |
2 存储系统方案设计 |
2.1 存储介质选择 |
2.1.1 HDD简介 |
2.1.2 SSD简介 |
2.1.3 硬盘接口类型 |
2.1.4 硬盘参数 |
2.2 主控芯片选型 |
2.2.1 高速收发器介绍 |
2.3 高速串行通信协议选用 |
2.3.1 PCIe协议 |
2.3.2 SRIO协议 |
2.3.3 Aurora64B/66B协议 |
2.4 本章小结 |
3 高速数据流FPGA控制 |
3.1 高速数据流控制 |
3.1.1 数据位宽设计 |
3.1.2 PC2Card数据流设计 |
3.1.3 Card2PC数据流设计 |
3.2 数据流控制模块设计 |
3.2.1 PCIe模块 |
3.2.2 Register模块 |
3.2.3 Data_ctrl模块 |
3.2.4 Interconnect模块 |
3.2.5 DDR3缓存模块 |
3.2.6 Aurora模块 |
3.3 本章小结 |
4 存储设备与存储软件 |
4.1 存储设备 |
4.1.1 独立磁盘阵列 |
4.1.2 RAID等级划分 |
4.1.3 软件RAID |
4.1.4 硬件RAID |
4.1.5 服务器RAID方案选择 |
4.2 存储系统软件设计 |
4.2.1 硬件驱动抽象 |
4.2.2 应用控制软件 |
4.3 本章小结 |
5 实验 |
5.1 模块测试 |
5.1.1 Aurora64B/66B测试 |
5.1.2 DDR3测试 |
5.1.3 PCIe子系统测试 |
5.2 系统测试 |
5.3 本章小结 |
6 总结和展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
附录A 缩略语中英对照表 |
攻读硕士学位期间发表论文及科研成果 |
致谢 |
(5)基于双引擎的高效能存储系统的研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外研究现状 |
1.3 本文贡献 |
1.4 结构安排 |
第二章 动态负载存储算法简介 |
2.1 存储器件简介 |
2.2 数据备份技术 |
2.3 RAID技术 |
2.4 动态负载存储 |
2.4.1 S-RAID5概述 |
2.4.2 DPPDL概述 |
2.5 本章小结 |
第三章 FPGA技术概论 |
3.1 FPGA原理 |
3.2 FPGA开发流程 |
3.3 FPGA应用领域 |
3.4 本章小结 |
第四章 动态负载存储架构设计 |
4.1 软件算法实现 |
4.2 硬件算法实现 |
4.3 DSH通信框架 |
4.4 本章小结 |
第五章 实验结果分析 |
5.1 实验环境搭建及实验分析 |
5.2 性能测试 |
5.2.1 传输速率对比 |
5.2.2 CPU使用率对比 |
5.2.3 响应时间对比 |
5.2.4 系统能耗对比 |
5.3 本章小结 |
第六章 总结和展望 |
6.1 论文工作总结 |
6.2 进一步研究工作 |
参考文献 |
攻读学位期间所取得的相关研究成果 |
致谢 |
(6)RAID中数据可靠性和系统节能性能研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景 |
1.2 国内外研究现状 |
1.2.1 RAID中容错技术的研究现状 |
1.2.2 RAID中节能技术的研究现状 |
1.3 课题的主要工作 |
1.4 本文组织结构 |
第二章 RAID中的纠删码和节能技术 |
2.1 磁盘技术和RAID技术的发展 |
2.2 RAID中的纠删码技术 |
2.2.1 纠删码简介 |
2.2.2 纠删码分类 |
2.3 RAID中的节能技术 |
2.4 小结 |
第三章 RAID中的一种三容错纠删码——CPC码 |
3.1 CPC码的编码算法 |
3.2 CPC码的解码算法 |
3.2.1 三个源数据磁盘失效 |
3.2.2 两个源数据磁盘和一个冗余数据磁盘同时失效 |
3.2.3 一个源数据磁盘和两个冗余数据磁盘同时失效 |
3.2.4 三个冗余数据磁盘同时失效 |
3.3 相关证明 |
3.4 模拟验证 |
3.5 性能分析 |
3.5.1 编码复杂度分析 |
3.5.2 解码复杂度分析 |
3.5.3 更新复杂度分析 |
3.6 小结 |
第四章 基于CRUSH算法的节能型数据布局的实现 |
4.1 CRUSH算法相关介绍 |
4.1.1 算法简介 |
4.1.2 CRUSH算法的数据放置策略 |
4.1.3 CRUSH算法流程 |
4.2 RAID中基于CRUSH算法的节能优化 |
4.3 可靠性评估 |
4.4 节能性分析 |
4.5 小结 |
第五章 结论与展望 |
5.1 全文总结 |
5.2 课题展望 |
参考文献 |
致谢 |
作者简介 |
1 作者简历 |
2 攻读硕士学位期间发表的学术论文 |
3 参与的科研项目 |
4 发明专利 |
学位论文数据集 |
(7)固态盘存储系统的性能优化和测试技术研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 课题背景 |
1.2 国内外研究现状 |
1.2.1 固态盘阵列的数据布局技术 |
1.2.2 基于固态盘的性能测试技术 |
1.3 主要研究内容 |
1.4 章节安排 |
第二章 固态盘阵列的混合数据布局技术 |
2.1 问题分析 |
2.1.1 固态盘及固态盘阵列技术 |
2.1.2 研究动机 |
2.2 系统设计与实现 |
2.2.1 系统构架 |
2.2.2 负载识别模块 |
2.2.3 请求重定向模块 |
2.3 性能测试与分析 |
2.3.1 测试环境与方法 |
2.3.2 测试结果与分析 |
2.4 本章小结 |
第三章 基于开放通道SSD的KV存储系统性能测试 |
3.1 问题分析 |
3.1.1 开放通道SSD技术简介 |
3.1.2 传统键值数据库的架构 |
3.1.3 研究动机 |
3.2 测试系统概述 |
3.3 测试方法及环境 |
3.3.1 测试方法介绍 |
3.3.2 测试环境部署 |
3.4 测试结果与分析 |
3.4.1 综合型测试 |
3.4.2 应用型测试 |
3.4.3 两种测试比较 |
3.5 本章小结 |
第四章 总结与展望 |
参考文献 |
攻读硕士学位期间完成的论文与专利 |
致谢 |
(8)连续存储系统中二级存储结构研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题研究的背景及意义 |
1.2 国内外研究现状 |
1.3 论文主要研究内容 |
1.4 本文结构安排 |
第二章 存储技术 |
2.1 机械硬盘 |
2.2 固态硬盘 |
2.2.1 SSD简介 |
2.2.2 SSD相关技术 |
2.3 RAID技术简介 |
2.3.1 RAID简述 |
2.3.2 常见RAID结构简介 |
2.4 S-RAID节能数据布局 |
2.5 本章小结 |
第三章 二级存储结构 |
3.1 多级存储结构 |
3.1.1 硬盘能耗特征 |
3.1.2 缓存技术 |
3.2 SC-RAID存储结构 |
3.2.1 缓存SSD的构造与分配 |
3.2.2 校验数据的计算 |
3.2.3 SSD磨损均衡策略 |
3.3 本章小结 |
第四章 SC-RAID5 存储系统 |
4.1 SC-RAID设计实现 |
4.1.1 代码设计实现 |
4.1.2 SSD数据写入算法 |
4.1.3 SSD数据写回算法 |
4.2 实验测试 |
4.2.1 性能测试 |
4.2.2 能耗测试 |
4.3 本章小结 |
第五章 总结和展望 |
5.1 论文工作总结 |
5.2 进一步研究工作 |
参考文献 |
攻读学位期间所取得的相关研究成果 |
致谢 |
(9)分布式存储系统容错机制的研究与实现(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 存储系统可靠性技术 |
1.2.1 磁盘阵列技术 |
1.2.2 数据副本技术 |
1.2.3 纠删码技术 |
1.2.4 磁盘检测技术 |
1.3 本文的研究 |
第二章 碧海存储系统(BOSS) |
2.1 系统架构 |
2.2 系统关键概念 |
2.3 应用场景 |
2.4 本章小结 |
第三章 数据布局算法 |
3.1 数据布局算法相关技术研究 |
3.1.1 HDFS的数据布局算法 |
3.1.2 一致性哈希算法 |
3.1.3 CRUSH数据布局算法 |
3.1.4 Swift数据布局算法 |
3.2 基于层次结构的数据布局算法 |
3.2.1 布局机制 |
3.2.2 数据动态迁移 |
3.2.3 迁移策略优化 |
3.3 实验与结果 |
3.3.1 数据初始布局测试 |
3.3.2 添加删除磁盘测试 |
3.3.3 添加删除节点测试 |
3.4 本章小结 |
第四章 基于纠删码的数据容错方法 |
4.1 纠删码及其相关技术研究 |
4.1.1 纠删码原理 |
4.1.2 Reed-Solomon码 |
4.1.3 阵列型纠删码 |
4.1.4 网络编码型纠删码 |
4.1.5 分组结构型纠删码 |
4.2 BOSS系统纠删码的实现 |
4.2.1 客户端写 |
4.2.2 客户端读 |
4.3 基于BOSS系统纠删码的数据修复 |
4.3.1 网络带宽代价度量 |
4.3.2 星型数据修复技术 |
4.3.3 基于Prime树的数据修复算法 |
4.4 实验与结果 |
4.4.1 编码解码速度测试 |
4.4.2 网络代价测试 |
4.5 本章小结 |
第五章 磁盘健康状况检测及其算法 |
5.1 磁盘健康状况检测相关技术研究 |
5.1.1 整盘检测 |
5.1.2 基于SMART信息的磁盘健康检测 |
5.1.3 读取磁盘挂载目录 |
5.1.4 基于机器学习的磁盘健康检测 |
5.2 基于磁盘空间取点的磁盘检测方法 |
5.2.1 固定取点 |
5.2.2 随机取点 |
5.2.3 同步I/O和异步I/O |
5.2.4 磁盘I/O延迟 |
5.3 实验与结果 |
5.3.1 磁盘扇区故障测试 |
5.3.2 同步I/O和异步I/O测试 |
5.3.3 平均延迟及样本标准差测试 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 本文总结 |
6.2 工作展望 |
参考文献 |
致谢 |
攻读硕士学位期间已发表或录用的论文 |
(10)大数据时代之下Raid的过去与未来(论文提纲范文)
一、传统模式下的Raid |
二、大数据时代带来的新挑战 |
三、困境和反思 |
四、新一代的分布式文件系统 |
五、结束语 |
四、几种常见RAID技术简介(论文参考文献)
- [1]服务器存储技术研究[J]. 张腾渊. 产业创新研究, 2022(02)
- [2]闪存错误时空特性感知的固态盘可靠性算法优化研究[D]. 王顺卓. 华中科技大学, 2020(01)
- [3]10Gbps物理随机数发生器及其采集存储系统的设计与实现[D]. 刘锋. 太原理工大学, 2020
- [4]基于FPGA的高速数据流存储控制系统设计[D]. 邓健. 西华大学, 2020(01)
- [5]基于双引擎的高效能存储系统的研究[D]. 张晋荣. 河北工业大学, 2019(06)
- [6]RAID中数据可靠性和系统节能性能研究[D]. 江培瑞. 浙江工业大学, 2019(02)
- [7]固态盘存储系统的性能优化和测试技术研究[D]. 喻芳. 厦门大学, 2019(07)
- [8]连续存储系统中二级存储结构研究[D]. 张天宇. 河北工业大学, 2018(07)
- [9]分布式存储系统容错机制的研究与实现[D]. 刘榴. 上海交通大学, 2018(01)
- [10]大数据时代之下Raid的过去与未来[J]. 叶敏. 计算机与网络, 2017(10)