CN110322914A - 非易失性文件更新介质 - Google Patents
非易失性文件更新介质 Download PDFInfo
- Publication number
- CN110322914A CN110322914A CN201910148906.0A CN201910148906A CN110322914A CN 110322914 A CN110322914 A CN 110322914A CN 201910148906 A CN201910148906 A CN 201910148906A CN 110322914 A CN110322914 A CN 110322914A
- Authority
- CN
- China
- Prior art keywords
- volatile media
- logic
- instruction
- host
- volatile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C16/00—Erasable programmable read-only memories
- G11C16/02—Erasable programmable read-only memories electrically programmable
- G11C16/06—Auxiliary circuits, e.g. for writing into memory
- G11C16/08—Address circuits; Decoders; Word-line control circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/0223—User address space allocation, e.g. contiguous or non contiguous base addressing
- G06F12/023—Free address space management
- G06F12/0238—Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
- G06F12/0246—Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory in block erasable memory, e.g. flash memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0866—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
- G06F12/0871—Allocation or management of cache space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0888—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches using selective caching, e.g. bypass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/16—File or folder operations, e.g. details of user interfaces specifically adapted to file systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/18—File system types
- G06F16/182—Distributed file systems
- G06F16/184—Distributed file systems implemented as replicated file system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/18—File system types
- G06F16/1847—File system types specifically adapted to static storage, e.g. adapted to flash memory or SSD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0604—Improving or facilitating administration, e.g. storage management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0614—Improving the reliability of storage systems
- G06F3/0619—Improving the reliability of storage systems in relation to data integrity, e.g. data losses, bit errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/062—Securing storage systems
- G06F3/0622—Securing storage systems in relation to access
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/0647—Migration mechanisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
- G06F3/0659—Command handling arrangements, e.g. command buffers, queues, command scheduling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0673—Single storage device
- G06F3/0679—Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0683—Plurality of storage devices
- G06F3/0685—Hybrid storage combining heterogeneous device types, e.g. hierarchical storage, hybrid arrays
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C13/00—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C16/00—Erasable programmable read-only memories
- G11C16/02—Erasable programmable read-only memories electrically programmable
- G11C16/06—Auxiliary circuits, e.g. for writing into memory
- G11C16/10—Programming or data input circuits
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C16/00—Erasable programmable read-only memories
- G11C16/02—Erasable programmable read-only memories electrically programmable
- G11C16/06—Auxiliary circuits, e.g. for writing into memory
- G11C16/26—Sensing or reading circuits; Data output circuits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1032—Reliability improvement, data loss prevention, degraded operation etc
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/21—Employing a record carrier using a specific recording technology
- G06F2212/217—Hybrid disk, e.g. using both magnetic and solid state storage devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/22—Employing cache memory using specific memory technology
- G06F2212/222—Non-volatile memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/31—Providing disk cache in a specific location of a storage system
- G06F2212/313—In storage device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/72—Details relating to flash memory management
- G06F2212/7201—Logical to physical mapping or translation of blocks or pages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/72—Details relating to flash memory management
- G06F2212/7204—Capacity control, e.g. partitioning, end-of-life degradation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/72—Details relating to flash memory management
- G06F2212/7208—Multiple device management, e.g. distributing data over multiple flash devices
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11C—STATIC STORES
- G11C13/00—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00
- G11C13/0002—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements
- G11C13/0004—Digital stores characterised by the use of storage elements not covered by groups G11C11/00, G11C23/00, or G11C25/00 using resistive RAM [RRAM] elements comprising amorphous/crystalline phase transition cells
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Security & Cryptography (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Memory System (AREA)
Abstract
大容量存储装置的实施例可以包括第一非易失性介质、与第一非易失性介质相比提供相对较大的写粒度的第二非易失性介质,以及通信地耦合到第一和第二非易失性介质的逻辑,所述逻辑用于基于来自操作***的指示将访问请求指向第一非易失性介质和第二非易失性介质中的一个。主机计算装置的实施例可以包括处理器、通信地耦合到处理器的存储器,以及通信地耦合到处理器的逻辑,所述逻辑用于基于针对文件***相关的访问请求的粒度大小来向大容量存储设备提供针对文件***相关的访问请求的指示。公开并要求保护其他实施例。
Description
技术领域
实施例一般涉及存储***。更具体地,实施例涉及非易失性文件更新介质。
背景技术
计算***可以包括具有处理器、***存储器和各种***设备的主机。示例计算***可以包括诸如台式计算机、膝上型计算机、平板计算机等的个人计算机,以及诸如服务器的企业计算机。许多这样的计算***可以包括连接的大容量存储设备,例如硬盘驱动器(HDD)和/或固态驱动器(SSD)。
附图说明
通过阅读以下说明书和所附权利要求并参考以下附图,实施例的各种优点对于本领域技术人员而言将显而易见,其中:
图1是根据实施例的电子处理***的示例的框图;
图2是根据实施例的大容量存储装置的示例的框图;
图3是根据实施例的半导体装置的示例的框图;
图4是根据实施例的控制存储的方法的示例的流程图。
图5是根据实施例的主机计算装置的示例的框图;
图6是根据实施例的半导体装置的另一示例的框图;
图7是根据实施例的管理存储的方法的示例的流程图;以及
图8是根据实施例的电子处理***的另一示例的框图。
具体实施方式
本文描述的各种实施例可以包括存储器组件和/或到存储器组件的接口。这样的存储器组件可以包括易失性和/或非易失性存储器。非易失性存储器可以是不需要电力来维持由介质存储的数据状态的存储介质。在一个实施例中,存储器设备可以包括块可寻址存储器设备,诸如基于NAND或NOR技术的那些。存储器设备还可以包括下一代非易失性设备,诸如三维(3D)交叉点存储器设备、或其他字节可寻址的就地写非易失性存储器设备。在一个实施例中,存储器设备可以是或可以包括使用硫属化物玻璃的存储器设备、多阈值级别NAND闪存、NOR闪存、单级或多级相变存储器(PCM)、电阻存储器、纳米线存储器、铁电晶体管随机存取存储器(FeTRAM)、反铁电存储器、采用忆阻器技术的磁阻随机存取存储器(MRAM)存储器、包括金属氧化物基极、氧空位基极的电阻存储器和导电桥随机存取存储器(CB-RAM)、或自旋转移力矩(STT)-MRAM、基于自旋电子磁结存储器的器件、基于磁隧道结(MTJ)的器件、基于DW(畴壁)和SOT(自旋轨道转移)的器件、基于晶闸管的存储器设备、或任何上述的组合、或其他存储器。存储器设备可以指管芯本身和/或封装的存储器产品。在特定实施例中,具有非易失性存储器的存储器组件可符合联合电子设备工程委员会(JEDEC)颁布的一个或多个标准,例如JESD218、JESD219、JESD220-1、JESD223B、JESD223-1或其他合适的标准(此处引用的JEDEC标准可在jedec.org上获得)。
易失性存储器可以是需要电力以维持由介质存储的数据的状态的存储介质。易失性存储器的非限制性示例可以包括各种类型的RAM,诸如动态随机存取存储器(DRAM)或静态随机存取存储器(SRAM)。可以在存储器模块中使用的一种特定类型的DRAM是同步动态随机存取存储器(SDRAM)。在特定实施例中,存储器组件的DRAM可符合JEDEC颁布的标准,例如用于DDR SDRAM的JESD79F、用于DDR2SDRAM的JESD79-2F、用于DDR3SDRAM的JESD79-3F、用于DDR4SDRAM的JESD79-4A、用于低功率DDR(LPDDR)的JESD209、用于LPDDR2的JESD209-2、用于LPDDR3的JESD209-3和用于LPDDR4的JESD209-4(这些标准可在www.jedec.org上获得)。这些标准(和类似标准)可以被称为基于DDR的标准,并且实现这种标准的存储设备的通信接口可以被称为基于DDR的接口。
现在转向图1,电子处理***10的实施例可包括主机装置11,主机装置11包括主机处理器12、通信地耦合到主机处理器12的主机存储器13,以及通信地耦合到主机处理器12的主机逻辑14,以及通信地耦合到主机装置11的大容量存储设备和通信地耦合到第一和第二非易失性介质16、17的存储控制器逻辑18。例如,与第一非易失性介质16相比,第二非易失性介质17可以提供相对较大的写粒度。在一些实施例中,主机逻辑14可以被配置为基于针对文件***相关的访问请求的粒度大小来向大容量存储设备15提供针对文件***相关的访问请求的指示,并且存储控制器逻辑18可以被配置为基于来自主机逻辑14的指示将来自主机装置11的访问请求指向第一非易失性介质16和第二非易失性介质17中的一个。
在一些实施例中,主机逻辑14还可以被配置为将大容量存储设备15的第一非易失性介质16用作写回高速缓存。可替代地或另外地,主机逻辑14可以被配置为提供针对用于将相关联的写请求指向第一非易失性介质16的活动文件更新的指示。例如,主机逻辑14还可以被配置为提供针对用于将相关联的写请求指向第一非易失性介质16的活动文件更新相对应的元数据的指示。在一些实施例中,主机逻辑14还可以被配置为确定文件关闭事件是否对应于先前指向大容量存储设备15的第一非易失性介质的数据,并向大容量存储设备15提供用于将与关闭的文件相关联的数据从第一非易失性介质16移动到第二非易失性介质17的指示。在一些实施例中,主机逻辑14可以位于各种组件中,或者与各种组件共同定位,所述各种组件包括主机处理器12(例如,在同一管芯上)。
在一些实施例中,存储控制器逻辑18可以被配置为向主机装置11的操作***(OS)提供针对第一非易失性介质16的字节粒度输入/输出(IO)接口。存储控制器逻辑18可以附加地或替代地被配置为基于所请求的访问是指向第一非易失性介质16还是第二非易失性介质17来在逻辑到物理(L2P)转换表中提供指示。在一些实施例中,存储控制器逻辑18还可以被配置为基于来自主机装置11的OS的指示将数据从第一非易失性介质16移动到第二非易失性介质17,和/或基于功率转换的指示,将数据从第一非易失性介质16移动到第二非易失性介质17。例如,第一非易失性介质16可以包括电容器支持的DRAM、电容器支持的SRAM和PCM中的一个或多个。
上述主机装置11、主机处理器12、主机存储器13、主机逻辑14、大容量存储设备15、第一非易失性介质16、第二非易失性介质17、存储控制器逻辑18以及其他***组件中的每个的实施例可以用硬件、软件或其任何合适的组合来实现。例如,硬件实现可以包括可配置逻辑,例如可编程逻辑阵列(PLA)、现场可编程门阵列(FPGA)、复杂可编程逻辑器件(CPLD)或使用电路技术的固定功能逻辑硬件,例如,专用集成电路(ASIC)、互补金属氧化物半导体(CMOS)或晶体管-晶体管逻辑(TTL)技术,或其任何组合。
可替代地或另外地,这些组件的全部或部分可以在一个或多个模块中实现为存储在机器或计算机可读存储介质中的由处理器或计算设备执行的一组逻辑指令,所述机器或计算机可读存储介质诸如随机存取存储器(RAM)、只读存储器(ROM)、可编程ROM(PROM)、固件、闪存等。例如,用于执行组件的操作的计算机程序代码可以以一种或多种OS适用/适当的编程语言的任何组合来编写,包括诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#等的面向对象的编程语言,和传统的过程编程语言,例如“C”编程语言或类似的编程语言。例如,主机存储器13、永久存储介质或其他***存储器可以存储一组指令,所述一组指令当由主机处理器12执行时,使得***10实现***10的一个或多个组件、特征或方面(例如,主机逻辑14、基于针对文件***相关的访问请求的粒度大小,向大容量存储设备提供针对文件***相关的访问请求的指示,等等)。
现在转到图2,大容量存储装置20的实施例可以包括第一非易失性介质21、第二非易失性介质22,其中与第一非易失性介质21相比,第二非易失性介质22提供相对较大的写粒度,以及通信地耦合到第一和第二非易失性介质21、22的逻辑23,其用于基于来自OS的指示将访问请求指向第一非易失性介质21和第二非易失性介质22中的一个。在一些实施例中,逻辑23可以被配置为向OS提供针对第一非易失性介质21的字节粒度IO接口。另外或替代地,逻辑23可以被配置为基于所请求的访问是指向第一非易失性介质21还是第二非易失性介质22来在L2P转换表中提供指示。在一些实施例中,逻辑23还可以被配置为基于来自OS的另一指示和功率转换的指示中的一个或多个将数据从第一非易失性介质21移动到第二非易失性介质22。例如,第一非易失性介质21可以包括电容器支持的DRAM、电容器支持的SRAM和PCM中的一个或多个。
第一非易失性介质21、第二非易失性介质22、逻辑23以及大容量存储装置20的其他组件的实施例可以以硬件、软件或其任何组合来实现,包括以硬件形式的至少部分实现。例如,硬件实现可以包括可配置逻辑,例如,PLA、FPGA、CPLD或使用电路技术的固定功能逻辑硬件,例如ASIC、CMOS或TTL技术,或其任何组合。另外,可替代地或另外地,这些组件的全部或部分可以在一个或多个模块中实现为存储在机器或计算机可读存储介质中的由处理器或计算设备执行的一组逻辑指令,所述机器或计算机可读存储介质诸如RAM、ROM、PROM、固件、闪存等。例如,用于执行组件的操作的计算机程序代码可以以一种或多种OS适用/适当的编程语言的任何组合来编写,包括诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#等的面向对象的编程语言,和传统的过程编程语言,例如“C”编程语言或类似的编程语言。
现在转到图3,半导体装置30的实施例可包括一个或多个衬底31,以及耦合到一个或多个衬底31的逻辑32,其中逻辑32至少部分地在可配置逻辑和固定功能硬件中的一个或多个中实现。耦合到一个或多个衬底31的逻辑32可以被配置为基于来自OS的指示将访问请求指向第一非易失性介质和第二非易失性介质中的一个。在一些实施例中,逻辑32可以被配置为向OS提供针对第一非易失性介质的字节粒度IO接口。另外或替代地,逻辑32可以被配置为基于所请求的访问是指向第一非易失性介质还是第二非易失性介质来在L2P转换表中提供指示。在一些实施例中,逻辑32还可以被配置为基于来自OS的另一指示和功率转换的指示中的一个或多个将数据从第一非易失性介质移动到第二非易失性介质。例如,第一非易失性介质可以包括电容器支持的DRAM、电容器支持的SRAM和PCM中的一个或多个。在一些实施例中,耦合到一个或多个衬底31的逻辑32可以包括位于一个或多个衬底31内的晶体管沟道区域。
逻辑32和装置30的其他组件的实施例可以以硬件、软件或其任何组合来实现,包括以硬件形式的至少部分实现。例如,硬件实现可以包括可配置逻辑,例如,PLA、FPGA、CPLD或使用电路技术的固定功能逻辑硬件,例如ASIC、CMOS或TTL技术,或其任何组合。另外,这些组件的一部分可以在一个或多个模块中实现为存储在机器或计算机可读存储介质中的由处理器或计算设备执行的一组逻辑指令,所述机器或计算机可读存储介质诸如RAM、ROM、PROM、固件、闪存等。例如,用于执行组件的操作的计算机程序代码可以以一种或多种OS适用/适当的编程语言的任何组合来编写,包括诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#等的面向对象的编程语言,和传统的过程编程语言,例如“C”编程语言或类似的编程语言。
装置30可以实现方法40(图4)或本文所讨论的任何实施例的一个或多个方面。在一些实施例中,所示装置30可包括一个或多个衬底31(例如,硅、蓝宝石、砷化镓)和耦合到衬底31的逻辑32(例如,晶体管阵列和其他集成电路/IC组件)。逻辑32可以至少部分地在可配置逻辑或固定功能逻辑硬件中实现。在一个示例中,逻辑32可以包括定位(例如,嵌入)在衬底31内的晶体管沟道区。因此,逻辑32和衬底31之间的界面可以不是突变结。逻辑32还可以被认为包括在衬底31的初始晶片上生长的外延层。
现在转到图4,控制存储的方法40的实施例可以包括在框41处,基于来自OS的指示来确定访问请求是指向存储设备的第一非易失性介质还是存储设备的第二非易失性介质,并且在框42处,基于来自OS的指示,将访问请求指向第一非易失性介质和第二非易失性介质中的一个。方法40的一些实施例还可以包括在框43处向OS提供针对第一非易失性介质的字节粒度IO接口。方法40可以附加地或替代地包括在框44处基于所请求的访问是指向第一非易失性介质还是第二非易失性介质来在L2P转换表中提供指示。方法40的一些实施例还可以包括在框45处基于来自OS的另一指示以及功率转换的指示中的一个或多个将数据从第一非易失性介质移动到第二非易失性介质。例如,在框46处,第一非易失性介质可以包括电容器支持的DRAM、电容器支持的SRAM和PCM中的一个或多个。
方法40的实施例可以在***、装置、计算机、设备等中实现,例如,诸如本文描述的那些。更具体地,方法40的硬件实现可以包括可配置逻辑,例如,PLA、FPGA、CPLD或使用电路技术的固定功能逻辑硬件,例如ASIC、CMOS或TTL技术,或其任何组合。另外,这些组件的一部分可以在一个或多个模块中实现为存储在机器或计算机可读存储介质中的由处理器或计算设备执行的一组逻辑指令,所述机器或计算机可读存储介质诸如RAM、ROM、PROM、固件、闪存等。例如,用于执行组件的操作的计算机程序代码可以以一种或多种OS适用/适当的编程语言的任何组合来编写,包括诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#等的面向对象的编程语言,和传统的过程编程语言,例如“C”编程语言或类似的编程语言。
例如,方法40可以在结合下面的示例26至30描述的计算机可读介质上实现。方法40的实施例或部分可以在固件、应用程序(例如,通过应用程序编程接口(API))或在OS上运行的驱动程序软件中实现。
现在转到图5,主机计算装置50的实施例可包括处理器51、通信地耦合到处理器51的存储器52,以及通信地耦合到处理器51的逻辑53,其用于向基于针对文件***相关的访问请求的粒度大小来向大容量存储设备提供针对文件***相关的访问请求的指示。在一些实施例中,逻辑53可以被配置为利用大容量存储设备的第一非易失性介质作为写回高速缓存,并且针对其他访问请求利用大容量存储设备的第二非易失性介质,其中大容量存储设备的第二非易失性介质的写粒度可以大于大容量存储设备的第一非易失性介质的写粒度。可替代地或另外地,逻辑53可以被配置为提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新的指示(其中,大容量存储设备的第一非易失性介质的粒度可以小于大容量存储设备的第二非易失性介质的粒度)。例如,逻辑53还可以被配置为提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新相对应的元数据的指示。在一些实施例中,逻辑53还可以被配置为确定文件关闭事件是否对应于先前指向大容量存储设备的第一非易失性介质的数据,并向大容量存储设备提供用于将与关闭的文件相关联的数据从第一非易失性介质移动到第二非易失性介质的指示。
处理器51、存储器52、逻辑53和主机计算装置50的其他组件的实施例可以以硬件、软件或其任何组合来实现,包括以硬件形式的至少部分实现。例如,硬件实现可以包括可配置逻辑,例如,PLA、FPGA、CPLD或使用电路技术的固定功能逻辑硬件,例如ASIC、CMOS或TTL技术,或其任何组合。另外,可替代地或另外地,这些组件的全部或部分可以在一个或多个模块中实现为存储在机器或计算机可读存储介质中的由处理器或计算设备执行的一组逻辑指令,所述机器或计算机可读存储介质诸如RAM、ROM、PROM、固件、闪存等。例如,用于执行组件的操作的计算机程序代码可以以一种或多种OS适用/适当的编程语言的任何组合来编写,包括诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#等的面向对象的编程语言,和传统的过程编程语言,例如“C”编程语言或类似的编程语言。
现在转向图6,半导体装置60的实施例可包括一个或多个衬底61,以及耦合到一个或多个衬底61的逻辑62,其中逻辑62至少部分地实现在可配置逻辑和固定功能硬件逻辑中的一个或多个中。耦合到一个或多个衬底61的逻辑62可以被配置为基于针对文件***相关的访问请求的粒度大小来向大容量存储设备提供针对文件***相关的访问请求的指示。在一些实施例中,逻辑62可以被配置为利用大容量存储设备的第一非易失性介质作为写回高速缓存,并且针对其他访问请求利用大容量存储设备的第二非易失性介质,其中大容量存储设备的第二非易失性介质的写粒度可以大于大容量存储设备的第一非易失性介质的写粒度。可替代地或另外地,逻辑62可以被配置为提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新的指示(其中,大容量存储设备的第一非易失性介质的粒度可以小于大容量存储设备的第二非易失性介质的粒度)。例如,逻辑62还可以被配置为提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新相对应的元数据的指示。在一些实施例中,逻辑62还可以被配置为确定文件关闭事件是否对应于先前指向大容量存储设备的第一非易失性介质的数据,并向大容量存储设备提供用于将与关闭的文件相关联的数据从第一非易失性介质移动到第二非易失性介质的指示。在一些实施例中,耦合到一个或多个衬底61的逻辑62可以包括位于一个或多个衬底61内的晶体管沟道区域。
逻辑62和装置60的其他组件的实施例可以以硬件、软件或其任何组合来实现,包括以硬件形式的至少部分实现。例如,硬件实现可以包括可配置逻辑,例如,PLA、FPGA、CPLD或使用电路技术的固定功能逻辑硬件,例如ASIC、CMOS或TTL技术,或其任何组合。另外,可替代地或另外地,这些组件的全部或部分可以在一个或多个模块中实现为存储在机器或计算机可读存储介质中的由处理器或计算设备执行的一组逻辑指令,所述机器或计算机可读存储介质诸如RAM、ROM、PROM、固件、闪存等。例如,用于执行组件的操作的计算机程序代码可以以一种或多种OS适用/适当的编程语言的任何组合来编写,包括诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#等的面向对象的编程语言,和传统的过程编程语言,例如“C”编程语言或类似的编程语言。
装置60可以实现方法70(图7)或本文所讨论的任何实施例的一个或多个方面。在一些实施例中,所示装置60可包括一个或多个衬底61(例如,硅、蓝宝石、砷化镓)和耦合到衬底61的逻辑62(例如,晶体管阵列和其他集成电路/IC组件)。逻辑62可以至少部分地在可配置逻辑或固定功能逻辑硬件中实现。在一个示例中,逻辑62可以包括定位(例如,嵌入)在衬底61内的晶体管沟道区。因此,逻辑62和衬底61之间的界面可以不是突变结。逻辑62还可以被认为包括在衬底61的初始晶片上生长的外延层。
现在转到图7,管理存储的方法70的实施例可以包括在框71处,确定针对文件***相关的访问请求的粒度大小,并且在框72处基于针对文件***相关的访问请求的粒度大小来向大容量存储设备提供针对文件***相关的访问请求的指示。方法70的一些实施例还可以包括在框73处利用大容量存储设备的第一非易失性介质作为写回高速缓存,并且在框74处针对其他访问请求利用大容量存储设备的第二非易失性介质,其中大容量存储设备的第二非易失性介质的写入粒度可以大于大容量存储设备的第一非易失性介质的写入粒度。可替代地或另外地,方法70可以包括在框75处提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新的指示,其中,大容量存储设备的第一非易失性介质的粒度可以小于大容量存储设备的第二非易失性介质的粒度。例如,方法70可以包括在框76处提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新相对应的元数据的指示。方法70的一些实施例可以包括在框77处确定文件关闭事件是否对应于先前指向大容量存储设备的第一非易失性介质的数据,并在框78处向大容量存储设备提供用于将与关闭的文件相关联的数据从第一非易失性介质移动到第二非易失性介质的指示。
方法70的实施例可以在***、装置、计算机、设备等中实现,例如,诸如本文描述的那些。更具体地,方法70的硬件实现可以包括可配置逻辑,例如,PLA、FPGA、CPLD或使用电路技术的固定功能逻辑硬件,例如ASIC、CMOS或TTL技术,或其任何组合。另外,这些组件的一部分可以在一个或多个模块中实现为存储在机器或计算机可读存储介质中的由处理器或计算设备执行的一组逻辑指令,所述机器或计算机可读存储介质诸如RAM、ROM、PROM、固件、闪存等。例如,用于执行组件的操作的计算机程序代码可以以一种或多种OS适用/适当的编程语言的任何组合来编写,包括诸如PYTHON、PERL、JAVA、SMALLTALK、C++、C#等的面向对象的编程语言,和传统的过程编程语言,例如“C”编程语言或类似的编程语言。
例如,方法70可以在结合下面的示例51至55描述的计算机可读介质上实现。方法70的实施例或部分可以在固件、应用程序(例如,通过应用程序编程接口(API))或在OS上运行的驱动程序软件中实现。
一些实施例可以有利地提供高速、非易失性文件更新缓冲器。不限于操作理论,对于诸如文字处理器、电子表格、图像和音频操纵等的一些应用,用户可以经常保存增量变化。这些更新通常可以仅是相对较少的字节长度,但是对于主机计算设备可以附接到基于NAND的固态驱动器(SDD)的一些其他***,主机可以写整个逻辑块地址(LBA)/扇区,因为这是可以写到连接到主机的基于块的设备的最小粒度。文件***还可以将对应于用户数据写的元数据写到不同的LBA。在一些***中,块写也可以小于内部NAND间接粒度或页面大小。例如,在文字处理应用程序中打开的文件的200字节(200B)用户更新可能导致由文件***进行的两个不连续的五百十二字节(512B)写,一个用于用户数据,而另一个用于相关联的元数据。这两个单扇区写可能会变成SSD内部的8千字节(8KB)读-修改-写操作(例如,在此示例情况下,这可能是前景性能和耐久性开销的大约四十倍(40x),不对内部读进行计数)。当用户继续修改相同的文件,需要更新相同的LBA时,净耐久性惩罚可能会成倍增加。有利地,一些实施例可以提供用于解决前述问题的成本有效的技术。
一些其他存储***可以向SSD提供字节粒度IO。虽然这可以减少通过存储互连总线传输的数据量,但是字节粒度IO可能不会减少非易失性存储器(NVM)所需的IO量。一些其他存储***可以提供多个间接单元(IU)-粒度SSD和相关联的文件***。使用这些技术,可以向较小的IU区域发出小的文件***元数据写,并且可以向较大的IU区域发出较大的用户数据写。这样的***可以仅解决与元数据写有关的开销。一些其他存储***可以提供具有混合文件***的多介质SSD,其可以仅解决与元数据写相关联的开销,同时引起在SSD中包括PCM和NAND介质的一些额外成本。在存储***领域之外,一些OS/文件***可以利用易失性存储器来进行各种小粒度写缓冲/高速缓存任务(例如,在DRAM中)。但是,这可能会导致电源故障时数据损坏或数据丢失。
一些实施例可以有利地扩展存储设备以提供允许***将活动文件更新和对应的元数据写到SSD内的小粒度、就地可写、有效非易失性介质的操作。在一些实施例中,小粒度介质可以包括快速的、可字节寻址的非易失性存储器,例如PCM或3D交叉点(例如,包括INTEL 3DXPOINT存储器)。在一些实施例中,小粒度介质可以是易失性存储器,例如DRAM或SRAM,其通过提供合适的电源来维持小粒度介质的内容直到这些内容可以被传送到其他NVM(例如,SSD的基于NAND的介质)从而被有效地制成非易失性的。例如,适当大小的电容器可以提供足够的功率以在意外的功率损耗时适应传输。通过向小粒度介质写活动更新,一些实施例可以消除在每次更新时将这样的更新写到基于NAND的介质的需要,而这导致显著的延迟改进和写放大减少。对于小粒度介质包括易失性存储的实施例,当用户关闭文件时,或者在电源事件时,一些实施例可以将易失性存储的内容刷新到非易失性介质。
一些实施例可以有利地针对用户指定的文件提供小粒度、快速介质的益处。用户可能会在文件更新时遇到明显更低的延迟,并且驱动生命周期也可能会提高。一些实施例可以与文件***扩展一起在SSD设备中实现。例如,存储设备的实施例的硬件实现可以包括两个有效的非易失性介质,包括大粒度介质(LM)和小粒度介质(SM)。在一些实施例中,LM可以包括NAND存储器设备,并且还可以提供大的存储容量(例如,千兆字节(GB)、太字节(TB)等)。在一些实施例中,SM可以包括电容器支持的DRAM、电容器支持的SRAM或3D交叉点存储器,并且与LM相比通常可以提供更小的存储容量。LM可以在内部(例如,本地地)具有4KB或8KB的写粒度以及512B的暴露写粒度。SM可以具有一(1)字节的写粒度(例如,或诸如字、双字等的一些其他较小粒度)。
一些实施例可以针对OS提供文件***扩展以利用存储***的结构。例如,OS可以知道SSD中的两种不同类型的介质,并且OS和/或应用可以相应地利用两种不同类型的介质。例如,一些实施例可以利用示例API命令向主机提供字节粒度IO接口,例如:
Status<-WritePartial(LBA L,Offset X,Int N,Byte*pData);以及
Status<-ReadPartial(LBA L,Offset X,Int N,Byte*pData)
在一些实施例中,主机可以将SM用作小型写的写回高速缓存。例如,代替对LM的读-修改-写,一些实施例可以利用SM作为用于小型写的、以及用于与LM的本机粒度不对齐的大型写的部分的写回高速缓存。其他写可以发送到LM。用于写回高速缓存的任何合适的***/逐出高速缓存技术、策略和/或高速缓存行大小可以与SM一起使用。当SM用作写回高速缓存时,不需要将读从LM***到SM。写到LM必须检查SM中的重叠范围元素。如果找到重叠的范围元素,则LM可以将重叠的范围元素逐出/清除作为LM写的一部分。读必须检查SM中的重叠范围元素,并且如果需要,读可以执行来自LM和SM的数据的读合并,以向主机提供正确的数据。在一些实施例中,存储设备可以向主机提供提示能力(例如,在高速缓存中固定数据或在文件关闭时将其驱逐)。
在一些实施例中,可以在LM和SM之间划分数据。例如,一些实施例可以确保特定LBA可以在LM或SM区域中,但不在两者中。在一些实施例中,SM可以被视为LM中的数据层。例如,一些实施例可以包括L2P转换表中的信息,其可以指示LBA是在SM中还是在LM中。
一些实施例可以在每个L2P转换表条目中保持一位,其指示特定IU是被写到LM还是SM区域。例如,如果L2P条目的最高有效位是“1”,则剩余的位可以表示LM的NAND地址。否则,剩余的位可以表示SM的DRAM地址。Read或ReadPartial命令将从相对应的介质返回数据。小型写(例如包括使用WritePartial命令编写的那些)可以检查地址范围是否在SM中,如果是,则在SM中完成请求。否则,小型写可能需要从LM读,合并,然后写到SM,然后进行L2P转换表条目更新以指定数据现在在SM中(例如,以及LM中该数据的可选的修整)。如果SM中的地址范围没有重叠,则可以直接向LM发出大型写,否则可能需要从SM读,合并以及随后写到LM,然后进行L2P转换表条目更新以指定数据现在在LM中。
即使间接表L2P可以用于SM中的数据,也可以不需要垃圾收集或碎片整理,因为在一些实施例中,SM可以是就地写存储器。SM可以仅需要空间跟踪,在一些实施例中,可以使用单个链表实现空间跟踪以跟踪SM中的所有干净页面地址。如果IU被删除或从SM移动到LM,则SM中的相对应的页面可以添加到列表的尾部。如果将IU添加到SM,则存储设备可以从列表的头部分配新页面。在LM和SM之间划分数据的一些实施例可能比利用SM作为写回高速缓存更快,因为划分数据可能不需要对每个IO进行复杂的高速缓存命中/未命中检查,以及相对应的复杂***/逐出策略、高速缓存关联策略等。然而,在LM和SM之间划分数据的一些实施例可以提供SM空间的较低效使用(例如,因为有效***粒度可以是IU大小)。在一些实施例中,仍然可以向主机提供用于向存储设备提示关于SM的***和驱逐的能力(例如,因此存储设备可以在文件关闭时驱逐SM条目)。
代替使用L2P转换表条目中的位,一些实施例在数据的最新副本在SM中时用令牌替换L2P条目。例如,令牌可以是在LM的NAND上没有物理表示的数字范围,例如带0。有利地,令牌可以不影响现有的L2P技术(例如,优选地在物理表征的范围的底部或顶部)。通过利用L2P条目中的令牌,一些实施例可能仅需要单个额外比较而不是针对每个L2P查找的两个比较。令牌值可以映射到SM中的DRAM地址。一些实施例可以包括另一个表,其具有用于DRAM中的每个IU的位,用于指示哪个部分是脏的,并且是否已经从介质读了非脏部分的标记。
对于使用SM作为写回高速缓存的技术和在SM和LM之间划分数据的技术,可以提供主机软件(例如,文件***)的实施例以直接向存储设备发出小型写,而不是将小型写对齐到扇区,并且可选地但优选地在文件关闭时向存储设备发出逐出提示。鉴于本说明书和附图的益处,本领域技术人员将想到用于将SM和LM区域暴露给主机的其他粒度和技术。可以经由快速NVM(NVMe)或类似于上面的示例API命令的其他协议命令来公开命令。在一些实施例中,LM和SM可以在单独的设备上提供,其中合适的逻辑在与LM和/或SM相关联的硬件或软件控制器中。当LM和SM被提供在同一存储设备上时(例如,在一个外壳中),在一些实施例中,控制器逻辑也可以在存储设备的内部。替代地或另外地,在一些实施例中,控制器逻辑可以放置在外部(例如,在存储设备的外壳之外),其中LM和SM由存储设备暴露给外部控制器逻辑。对于外部控制器逻辑,存储设备还可以提供命令以更有效地在LM和SM之间移动数据。
现在转向图8,电子处理***80的实施例可包括通信地耦合到SSD 82的主机81。主机81可以运行OS 83,OS包括文件***和应用84。SSD 82可以包括SSD控制器85,其从主机81接收访问请求并将访问请求指向SM 86和LM 87。SSD 82还可以包括功率损耗即将到来(PLI)功率88技术(例如,在意外断电时用于向SSD提供功率的储能电容器)。在***80的一些实施例中,SSD 82可以将LM 87和SM 86都暴露给主机81。SSD 82可以向LM 87提供发现、读、写和修整接口。SSD 82可以向SM 86提供发现ReadPartial、WritePartial、trim和MoveSMtoLM接口。例如,两个介质可以以不同名称空间的形式或作为单独的设备公开(例如,使用多功能设备方法)。
主机81可以有利地将SM 86用于不仅仅是文件元数据。主机还可以利用SM 86以用于对包括文件内容的打开文件进行所有小型写操作。例如,当主机81正在处理高速文件时,主机81可以选择将LBA或与文件相关联的字节读/写到SM 86区域。目标为SM 86的所有更改和更新都可以快速完成,而无需更慢的非易失性介质完成。在主机81完成文件之后,相对应的数据可以明确地(例如,如下所述)或隐式地(例如,当SM 86中的数据老化时)移动到LM87。
对于显式场景,当文件被关闭时,在一些实施例中,主机81可以经由读和写将相对应的写从SM 86传送到LM 87。在一些实施例中,主机81可替代地利用SSD82向主机81提供的移动命令,诸如MoveSMtoLM(LBA srcLBA、offset srcOffset、LBA destLBA、offsetdestOffset、LengthInBytes N)。MoveSMtoLM命令可以将N个字节从SM 86写到LM 87,从指定的源地址(LBA和偏移组合)写到指定的目的地地址。在一些实施例中,SSD 82可以根据需要执行内部读-修改-写命令以处理来自主机81的MoveSMtoLM命令。
在***80的一些实施例中,可以直接向LM 87发出大型写,而可以首先将小型写写到SM 86,然后最终在后台被移动到LM 87。例如,取决于SM86的介质类型,SSD82可以被配置为在后台、以及在关机和停电等电源事件时,自动将数据从SM 86刷新到LM 87(例如,如果数据在SM 86和LM 87之间进行划分)。
附加说明和示例:
示例1可以包括一种电子处理***,包括主机装置,主机装置包括主机处理器、通信地耦合到主机处理器的主机存储器,以及通信地耦合到主机处理器的主机逻辑,以及通信地耦合到主机的大容量存储设备,该大容量存储设备包括第一非易失性介质、第二非易失性介质,以及通信地耦合到第一和第二非易失性介质的存储控制器逻辑,其中,与第一非易失性介质相比,第二非易失性介质提供相对较大的写粒度,其中主机逻辑用于基于针对文件***相关的访问请求的粒度大小向大容量存储设备提供针对文件***相关的访问请求的指示,并且其中存储控制器逻辑用于基于来自主机逻辑的将来自主机装置的访问请求指向第一非易失性介质和第二非易失性介质中的一个。
示例2可以包括示例1的***,其中主机逻辑还用于将大容量存储设备的第一非易失性介质用作写回高速缓存。
示例3可以包括示例1的***,其中主机逻辑还提供针对用于将相关联的写请求指向第一非易失性介质的活动文件更新的指示。
示例4可以包括示例3的***,其中主机逻辑还用于提供针对与用于将相关联的写请求指向第一非易失性介质的活动文件更新相对应的元数据的指示。
示例5可以包括示例3的***,其中主机逻辑还用于确定文件关闭事件是否与先前指向大容量存储设备的第一非易失性介质的数据相对应,并向该大容量存储设备提供用于将与关闭的文件相关联的数据从第一非易失性介质移动到第二非易失性介质的指示。
示例6可以包括示例1的***,其中存储控制器逻辑还用于向主机装置的操作***提供针对第一非易失性介质的字节粒度输入/输出接口。
示例7可以包括示例1的***,其中存储控制器逻辑还用于基于所请求的访问是指向第一非易失性介质还是第二非易失性介质,在逻辑到物理转换表中提供指示。
示例8可以包括示例1的***,其中存储控制器逻辑还用于基于来自主机装置的操作***的指示将数据从第一非易失性介质移动到第二非易失性介质。
示例9可以包括示例1的***,其中存储控制器逻辑还用于基于功率转换的指示将数据从第一非易失性介质移动到第二非易失性介质。
示例10可以包括示例1至9中任一个的***,其中第一非易失性介质包括以下中的一个或多个:电容器支持的动态随机存取存储器、电容器支持的静态随机存取存储器和相变存储器。
示例11可以包括一种大容量存储装置,包括第一非易失性介质、第二非易失性介质,其中与第一非易失性介质相比,第二非易失性介质提供相对更大的写粒度,以及通信地耦合到第一和第二非易失性介质的逻辑,其用于基于来自操作***的指示将访问请求指向第一非易失性介质和第二非易失性介质中的一个。
示例12可以包括示例11的装置,其中该逻辑还用于向操作***提供针对第一非易失性介质的字节粒度输入/输出接口。
示例13可以包括示例11的装置,其中该逻辑还用于基于所请求的访问是指向第一非易失性介质还是第二非易失性来在逻辑到物理转换表中提供指示。
示例14可以包括示例11的装置,其中该逻辑还用于基于来自操作***的另一指示和功率转换的指示中的一个或多个将数据从第一非易失性介质移动到第二非易失性介质。
示例15可以包括示例11至14中任一示例的装置,其中第一非易失性介质包括以下中的一个或多个:电容器支持的动态随机存取存储器、电容器支持的静态随机存取存储器和相变存储器。
示例16可以包括一种半导体装置,包括一个或多个衬底,以及耦合到所述一个或多个衬底的逻辑,其中所述逻辑至少部分地在可配置逻辑和固定功能硬件逻辑中的一个或多个中实现,逻辑耦合到一个或多个衬底,用于基于来自操作***的指示将访问请求指向第一非易失性介质和第二非易失性介质中的一个。
示例17可以包括示例16的装置,其中该逻辑还用于向操作***提供针对第一非易失性介质的字节粒度输入/输出接口。
示例18可以包括示例16的装置,其中该逻辑还用于基于所请求的访问是指向第一非易失性介质还是第二非易失性来在逻辑到物理转换表中提供指示。
示例19可以包括示例16的装置,其中该逻辑还用于基于来自操作***的指示和功率转换的指示中的一个或多个将数据从第一非易失性介质移动到第二非易失性介质。
示例20可包括示例16至19中任一示例的装置,其中耦合到一个或多个衬底的逻辑包括位于一个或多个衬底内的晶体管沟道区域。
示例21可以包括一种控制存储的方法,包括基于来自操作的指示来确定访问请求是指向存储设备的第一非易失性介质还是存储设备的第二非易失性介质,并基于来自操作***的指示将访问请求指向第一非易失性介质和第二非易失性介质中的一个。
示例22可以包括示例21的方法,还包括向操作***提供针对第一非易失性介质的字节粒度输入/输出接口。
示例23可以包括示例21的方法,还包括基于所请求的访问是指向第一非易失性介质还是第二非易失性介质,在逻辑到物理转换表中提供指示。
示例24可以包括示例21的方法,还包括基于来自操作***的另一指示以及功率转换的指示中的一个或多个将数据从第一非易失性介质移动到第二非易失性介质。
示例25可以包括示例21至24中任一个的方法,其中第一非易失性介质包括以下中的一个或多个:电容器支持的动态随机存取存储器、电容器支持的静态随机存取存储器和相变存储器。
示例26可以包括至少一个计算机可读介质,包括一组指令,所述指令当由计算设备执行时,使得计算设备用于基于来自操作***的指示确定访问请求是指向存储设备的第一非易失性介质还是存储设备第二非易失性介质,并基于来自操作***的指示将访问请求指向第一非易失性介质和第二非易失性介质中的一个。
示例27可以包括示例26的至少一个计算机可读介质,包括另一组指令,所述指令当由计算设备执行时,使得计算设备用于向操作***提供针对第一非易失性介质的字节粒度输入/输出接口。
示例28可以包括示例26的至少一个计算机可读介质,包括另一组指令,所述指令当由计算设备执行时,使得计算设备用于基于所请求的访问是指向第一非易失性介质还是第二非易失性介质,而在逻辑到物理转换表中提供指示。
示例29可以包括示例26的至少一个计算机可读介质,包括另一组指令,所述指令当由计算设备执行时,使得计算设备用于基于来自操作***的另一指示以及功率转换的指示中的一个或多个将数据从第一非易失性介质移动到第二非易失性介质。
示例30可包括示例26至29中任一示例的至少一个计算机可读介质,其中第一非易失性介质包括以下中的一个或多个:电容器支持的动态随机存取存储器、电容器支持的静态随机存取存储器和相变存储器。
示例31可以包括一种存储控制器装置,包括用于基于来自操作***的指示来确定访问请求是指向存储设备的第一非易失性介质还是存储设备的第二非易失性介质的单元,以及用于基于来自操作***的指示将访问请求指向第一非易失性介质和第二非易失性介质中的一个的单元。
示例32可以包括示例31的装置,还包括用于向操作***提供针对第一非易失性介质的字节粒度输入/输出接口的单元。
示例33可以包括示例31的装置,还包括用于基于所请求的访问是指向第一非易失性介质还是第二非易失性介质来在逻辑到物理转换表中提供指示的单元。
示例34可以包括示例31的装置,还包括用于基于来自操作***的另一指示以及功率转换的指示中的一个或多个来将数据从第一非易失性介质移动到第二非易失性介质的单元。
示例35可包括示例31至34中任一示例的装置,其中第一非易失性介质包括以下中的一个或多个:电容器支持的动态随机存取存储器、电容器支持的静态随机存取存储器和相变存储器。
示例36可以包括一种主机计算装置,包括处理器,通信地耦合到处理器的存储器,以及通信地耦合到处理器的逻辑,用于基于针对文件***相关的访问请求的粒度大小向大容量存储设备提供针对文件***相关的访问请求的指示。
示例37可以包括示例36的装置,其中该逻辑还用于将大容量存储设备的第一非易失性介质用作写回高速缓存,并且针对其他访问请求利用大容量存储的第二非易失性介质,其中,大容量存储设备的第二非易失性介质的写粒度大于大容量存储设备的第一非易失性介质的写粒度。
示例38可以包括示例36的装置,其中该逻辑还用于提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新的指示,其中大容量存储设备的第一非易失性介质的粒度小于大容量存储设备的第二非易失性介质的粒度。
示例39可以包括示例38的装置,其中该逻辑还用于提供与用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新相对应的元数据的指示。
示例40可以包括示例38的装置,其中该逻辑还用于确定文件关闭事件是否与先前指向大容量存储设备的第一非易失性介质的数据相对应,并向大容量存储设备提供用于将与关闭的文件相关联的数据从第一非易失性介质移动到第二非易失性介质的指示。
示例41可以包括一种半导体装置,包括一个或多个衬底,以及耦合到所述一个或多个衬底的逻辑,其中所述逻辑至少部分地在可配置逻辑和固定功能硬件逻辑中的一个或多个中实现,逻辑耦合到一个或多个衬底,以基于针对文件***相关的访问请求的粒度大小向大容量存储设备提供针对文件***相关的访问请求的指示。
示例42可以包括示例41的装置,其中,逻辑还用于将大容量存储设备的第一非易失性介质用作写回高速缓存,并且针对其他访问请求利用大容量存储的第二非易失性介质,其中,大容量存储设备的第二非易失性介质的写粒度大于大容量存储设备的第一非易失性介质的写粒度。
示例43可以包括示例41的装置,其中该逻辑还用于提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新的指示,其中大容量存储设备的第一非易失性介质的粒度小于大容量存储设备的第二非易失性介质的粒度。
示例44可以包括示例43的装置,其中该逻辑还用于提供针对与用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新相对应的元数据的指示。
示例45可以包括示例43的装置,其中该逻辑还用于确定文件关闭事件是否与先前指向大容量存储设备的第一非易失性介质的数据相对应,并向大容量存储设备提供用于将与关闭的文件相关联的数据从第一非易失性介质移动到第二非易失性介质的指示。
示例46可以包括一种管理存储的方法,包括确定针对文件***相关的访问请求的粒度大小,以及基于针对文件***相关的访问请求的所确定的粒度大小向大容量存储设备提供针对文件***相关的访问请求的指示。
示例47可以包括示例46的方法,还包括利用大容量存储设备的第一非易失性介质作为写回高速缓存,并且针对其他访问请求利用大容量存储设备的第二非易失性介质,其中大容量存储设备的第二非易失性介质的写粒度大于大容量存储设备的第一非易失性介质的写粒度。
示例48可以包括示例46的方法,还包括提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新的指示,其中大容量存储设备的第一非易失性介质的粒度小于大容量存储设备的第二非易失性介质的粒度。
示例49可以包括示例48的方法,还包括提供针对与用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新相对应的元数据的指示。
示例50可以包括示例48的方法,还包括确定文件关闭事件是否对应于先前指向大容量存储设备的第一非易失性介质的数据,并向大容量存储设备提供用于将与关闭的文件相关联的数据从第一非易失性介质移动到第二非易失性介质的指示。
示例51可以包括至少一个计算机可读介质,包括一组指令,所述指令当由计算设备执行时,使得计算设备用于确定针对文件***相关的访问请求的粒度大小,并且基于针对文件***相关的访问请求的确定的粒度大小来向大容量存储设备提供针对文件***相关的访问请求的指示。
示例52可以包括示例51的至少一个计算机可读介质,包括另一组指令,所述指令当由计算设备执行时,使得计算设备用于利用大容量存储设备的第一非易失性介质作为写回高速缓存,并且针对其他访问请求利用大容量存储设备的第二非易失性介质,其中大容量存储设备的第二非易失性介质的写粒度可以大于大容量存储设备的第一非易失性介质的写粒度。
示例53可以包括示例51的至少一个计算机可读介质,包括另一组指令,所述指令当由计算设备执行时,使得计算设备用于提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新的指示,其中,大容量存储设备的第一非易失性介质的粒度可以小于大容量存储设备的第二非易失性介质的粒度。
示例54可以包括示例53的至少一个计算机可读介质,包括另一组指令,所述指令当由计算设备执行时,使得计算设备用于提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新相对应的元数据的指示。
示例55可以包括示例53的至少一个计算机可读介质,包括另一组指令,所述指令当由计算设备执行时,使得计算设备用于确定文件关闭事件是否对应于先前指向大容量存储设备的第一非易失性介质的数据,并向大容量存储设备提供用于将与关闭的文件相关联的数据从第一非易失性介质移动到第二非易失性介质的指示。
示例56可以包括一种存储管理器装置,包括用于确定针对文件***相关的访问请求的粒度大小的单元,以及用于基于针对文件***相关的访问请求的粒度大小来向大容量存储设备提供针对文件***相关的访问请求的指示的单元。
示例57可以包括示例56的装置,还包括用于利用大容量存储设备的第一非易失性介质作为写回高速缓存的单元,以及用于针对其他访问请求利用大容量存储设备的第二非易失性介质的单元,其中大容量存储设备的第二非易失性介质的写粒度可以大于大容量存储设备的第一非易失性介质的写粒度。
示例58可以包括示例56的装置,还包括用于提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新的指示的单元,其中,大容量存储设备的第一非易失性介质的粒度可以小于大容量存储设备的第二非易失性介质的粒度。
示例59可以包括示例58的装置,还包括用于提供针对用于将相关联的写请求指向大容量存储设备的第一非易失性介质的活动文件更新相对应的元数据的指示的单元。
示例60可以包括示例58的装置,还包括用于确定文件关闭事件是否对应于先前指向大容量存储设备的第一非易失性介质的数据的单元,以及用于向大容量存储设备提供用于将与关闭的文件相关联的数据从第一非易失性介质移动到第二非易失性介质的指示的单元。
实施例适用于所有类型的半导体集成电路(“IC”)芯片。这些IC芯片的示例包括但不限于处理器、控制器、芯片组组件、可编程逻辑阵列(PLA)、存储器芯片、网络芯片、片上***(SoC)、SSD/NAND控制器ASIC等。另外,在一些附图中,信号导线用线表示。一些可以是不同的,以指示更多组成信号路径,具有数字标签,以指示多个组成信号路径,和/或在一端或多端具有箭头,以指示主要信息流方向。然而,这不应以限制方式解释。而是,可以结合一个或多个示例性实施例使用这种附加细节,以便于更容易地理解电路。任何表示的信号线,无论是否具有附加信息,实际上可以包括可以在多个方向上行进的一个或多个信号,并且可以用任何合适类型的信号方案来实现,例如,利用差分对、光纤线路和/或单端线路实现的数字或模拟线路。
可以给出示例尺寸/模型/值/范围,但是实施例不限于此。随着制造技术(例如,光刻)随着时间的推移而成熟,预期可以制造更小尺寸的器件。另外,为了简化说明和讨论,并且为了不使实施例的某些方面模糊,可以在图中示出或不示出与IC芯片和其他组件的公知的电源/接地连接。此外,可以以框图形式示出布置以避免模糊实施例,并且还考虑到关于这种框图布置的实现的细节高度依赖于实现该实施例的平台的事实,即,这些细节应该在本领域技术人员的知识范围内。在阐述具体细节(例如,电路)以便描述示例实施例的情况下,对于本领域技术人员来说显而易见的是,可以在没有或具有这些具体细节的变化的情况下实践实施例。因此,该描述被认为是说明性的而非限制性的。
术语“耦合”在本文中可用于指代所讨论的组件之间的任何类型的直接或间接关系,并且可以应用于电气、机械、流体、光学、电磁、机电或其他连接。另外,除非另有说明,否则这里可以使用术语“第一”、“第二”等仅仅是为了便于讨论,并且不带有特定的时间或时间顺序。
如在本申请和权利要求中所使用的,由术语“一个或多个”连接的项目列表可以表示所列术语的任何组合。例如,短语“A、B和C中的一个或多个”和短语“A、B或C中的一个或多个”都可以表示A;B;C;A和B;A和C;B和C;或A、B和C。
通过前面的描述,本领域技术人员将意识到,实施例的广泛技术可以以各种形式实现。因此,虽然已经结合其具体示例描述了实施例,但是实施例的真实范围不应受此限制,因为在研究了附图、说明书和所附权利要求之后,其他修改对于本领域技术人员将变得显而易见。
Claims (25)
1.一种电子处理***,包括:
主机装置,其包括主机处理器、通信地耦合到所述主机处理器的主机存储器,以及通信地耦合到所述主机处理器的主机逻辑;以及
通信地耦合到所述主机装置的大容量存储设备,所述大容量存储设备包括第一非易失性介质、第二非易失性介质,以及通信地耦合到所述第一非易失性介质和所述第二非易失性介质的存储控制器逻辑,其中,所述第二非易失性介质与所述第一非易失性介质相比提供相对较大的写粒度,
其中,所述主机逻辑用于基于针对文件***相关的访问请求的粒度大小来向所述大容量存储设备提供针对所述文件***相关的访问请求的指示,
并且其中,所述存储控制器逻辑用于基于来自所述主机逻辑的指示将来自所述主机装置的访问请求指向所述第一非易失性介质和所述第二非易失性介质中的一个。
2.如权利要求1所述的***,其中,所述主机逻辑还用于:
利用所述大容量存储设备的所述第一非易失性介质作为写回高速缓存。
3.如权利要求1所述的***,其中,所述主机逻辑还用于:
提供针对用于将相关联的写请求指向所述第一非易失性介质的活动文件更新的指示。
4.如权利要求3所述的***,其中,所述主机逻辑还用于:
提供针对与用于将相关联的写请求指向所述第一非易失性介质的活动文件更新相对应的元数据的指示。
5.如权利要求3所述的***,其中,所述主机逻辑还用于:
确定文件关闭事件是否对应于先前指向所述大容量存储设备的所述第一非易失性介质的数据,以及
向所述大容量存储设备提供用于将与关闭的文件相关联的数据从所述第一非易失性介质移动到所述第二非易失性介质的指示。
6.如权利要求1所述的***,其中,所述存储控制器逻辑还用于:
向所述主机装置的操作***提供针对所述第一非易失性介质的字节粒度输入/输出接口。
7.如权利要求1所述的***,其中,所述存储控制器逻辑还用于:
基于所请求的访问是指向所述第一非易失性介质还是所述第二非易失性介质,在逻辑到物理转换表中提供指示。
8.如权利要求1所述的***,其中,所述存储控制器逻辑还用于:
基于来自所述主机装置的操作***的指示,将数据从所述第一非易失性介质移动到所述第二非易失性介质。
9.如权利要求1所述的***,其中,所述存储控制器逻辑还用于:
基于功率转换的指示将数据从所述第一非易失性介质移动到所述第二非易失性介质。
10.如权利要求1至9中任一项所述的***,其中,所述第一非易失性介质包括以下中的一个或多个:电容器支持的动态随机存取存储器、电容器支持的静态随机存取存储器和相变存储器。
11.一种大容量存储装置,包括:
第一非易失性介质;
第二非易失性介质,其中,与所述第一非易失性介质相比,所述第二非易失性介质提供相对较大的写粒度;以及
通信地耦合到所述第一非易失性介质和所述第二非易失性介质的逻辑,其用于基于来自操作***的指示将访问请求指向所述第一非易失性介质和所述第二非易失性介质中的一个。
12.如权利要求11所述的装置,其中,所述逻辑还用于:
向所述操作***提供针对所述第一非易失性介质的字节粒度输入/输出接口。
13.如权利要求11所述的装置,其中,所述逻辑还用于:
基于所请求的访问是指向所述第一非易失性介质还是所述第二非易失性介质,在逻辑到物理转换表中提供指示。
14.如权利要求11所述的装置,其中,所述逻辑还用于:
基于来自所述操作***的另一指示和功率转换的指示中的一个或多个,将数据从所述第一非易失性介质移动到所述第二非易失性介质。
15.如权利要求11至14中任一项所述的装置,其中,所述第一非易失性介质包括以下中的一个或多个:电容器支持的动态随机存取存储器电容器支持的静态随机存取存储器和相变存储器。
16.一种半导体装置,包括:
一个或多个衬底;以及
耦合到所述一个或多个衬底的逻辑,其中,所述逻辑至少部分地实现在可配置逻辑和固定功能硬件逻辑中的一个或多个中,所述耦合到所述一个或多个衬底的逻辑用于:
基于来自操作***的指示,将访问请求指向第一非易失性介质和第二非易失性介质中的一个。
17.如权利要求16所述的装置,其中,所述逻辑还用于:
向所述操作***提供针对所述第一非易失性介质的字节粒度输入/输出接口。
18.如权利要求16所述的装置,其中,所述逻辑还用于:
基于所请求的访问是指向所述第一非易失性介质还是所述第二非易失性介质,在逻辑到物理转换表中提供指示。
19.如权利要求16所述的装置,其中,所述逻辑还用于:
基于来自所述操作***的指示和功率转换的指示中的一个或多个,将数据从所述第一非易失性介质移动到所述第二非易失性介质。
20.如权利要求16至19中任一项所述的装置,其中,所述耦合到所述一个或多个衬底的逻辑包括位于所述一个或多个衬底内的晶体管沟道区。
21.一种控制存储的方法,包括:
基于来自操作***的指示,确定访问请求是指向存储设备的第一非易失性介质还是所述存储设备的第二非易失性介质;以及
基于来自所述操作***的指示将所述访问请求指向所述第一非易失性介质和所述第二非易失性介质中的一个。
22.如权利要求21所述的方法,还包括:
向所述操作***提供针对所述第一非易失性介质的字节粒度输入/输出接口。
23.如权利要求21所述的方法,还包括:
基于所请求的访问是指向所述第一非易失性介质还是所述第二非易失性介质,在逻辑到物理转换表中提供指示。
24.如权利要求21所述的方法,还包括:
基于来自所述操作***的另一指示和功率转换的指示中的一个或多个,将数据从所述第一非易失性介质移动到所述第二非易失性介质。
25.如权利要求21至24中任一项所述的方法,其中,所述第一非易失性介质包括以下中的一个或多个:电容器支持的动态随机存取存储器、电容器支持的静态随机存取存储器和相变存储器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/939,398 | 2018-03-29 | ||
US15/939,398 US10884916B2 (en) | 2018-03-29 | 2018-03-29 | Non-volatile file update media |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110322914A true CN110322914A (zh) | 2019-10-11 |
Family
ID=67909746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910148906.0A Pending CN110322914A (zh) | 2018-03-29 | 2019-02-28 | 非易失性文件更新介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10884916B2 (zh) |
CN (1) | CN110322914A (zh) |
DE (1) | DE102019104871A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114077394A (zh) * | 2020-08-10 | 2022-02-22 | 美光科技公司 | 将存储器***数据传送到辅助阵列 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10860475B1 (en) | 2017-11-17 | 2020-12-08 | Pure Storage, Inc. | Hybrid flash translation layer |
KR20210039075A (ko) * | 2019-10-01 | 2021-04-09 | 삼성전자주식회사 | 비휘발성 메모리 장치의 초기화 제어 방법 및 비휘발성 메모리 장치를 포함하는 메모리 시스템 |
US11733927B2 (en) * | 2021-11-30 | 2023-08-22 | Microsoft Technology Licensing, Llc | Hybrid solid-state drive |
US11874771B2 (en) | 2022-05-16 | 2024-01-16 | Western Digital Technologies, Inc. | Multiple indirection sizes for logical-to-physical translation tables |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6324581B1 (en) * | 1999-03-03 | 2001-11-27 | Emc Corporation | File server system using file system storage, data movers, and an exchange of meta data among data movers for file locking and direct access to shared file systems |
US20050251617A1 (en) * | 2004-05-07 | 2005-11-10 | Sinclair Alan W | Hybrid non-volatile memory system |
FR2888032A1 (fr) * | 2005-06-30 | 2007-01-05 | Gemplus Sa | Procede de gestion de memoire non volatile dans une carte a puce |
US7409489B2 (en) * | 2005-08-03 | 2008-08-05 | Sandisk Corporation | Scheduling of reclaim operations in non-volatile memory |
US7546432B2 (en) * | 2006-05-09 | 2009-06-09 | Emc Corporation | Pass-through write policies of files in distributed storage management |
US7975109B2 (en) * | 2007-05-30 | 2011-07-05 | Schooner Information Technology, Inc. | System including a fine-grained memory and a less-fine-grained memory |
US8423592B2 (en) * | 2008-04-11 | 2013-04-16 | Sandisk Technologies Inc. | Method and system for accessing a storage system with multiple file systems |
US8315995B1 (en) * | 2008-09-09 | 2012-11-20 | Peer Fusion, Inc. | Hybrid storage system |
US9251058B2 (en) * | 2010-09-28 | 2016-02-02 | SanDisk Technologies, Inc. | Servicing non-block storage requests |
US9448922B2 (en) * | 2011-12-21 | 2016-09-20 | Intel Corporation | High-performance storage structures and systems featuring multiple non-volatile memories |
CN102609378B (zh) * | 2012-01-18 | 2016-03-30 | 中国科学院计算技术研究所 | 一种消息式内存访问装置及其访问方法 |
WO2015068233A1 (ja) * | 2013-11-07 | 2015-05-14 | 株式会社日立製作所 | ストレージシステム |
US9875195B2 (en) * | 2014-08-14 | 2018-01-23 | Advanced Micro Devices, Inc. | Data distribution among multiple managed memories |
US20170060436A1 (en) | 2015-09-02 | 2017-03-02 | Intel Corporation | Technologies for managing a reserved high-performance memory region of a solid state drive |
US20170147499A1 (en) * | 2015-11-25 | 2017-05-25 | Sandisk Technologies Llc | Multi-Level Logical to Physical Address Mapping Using Distributed Processors in Non-Volatile Storage Device |
US10503425B2 (en) * | 2017-08-18 | 2019-12-10 | Seagate Technology Llc | Dual granularity dynamic mapping with packetized storage |
US10831371B2 (en) * | 2018-01-02 | 2020-11-10 | International Business Machines Corporation | Quota controlled movement of data in a tiered storage system |
-
2018
- 2018-03-29 US US15/939,398 patent/US10884916B2/en active Active
-
2019
- 2019-02-26 DE DE102019104871.0A patent/DE102019104871A1/de active Pending
- 2019-02-28 CN CN201910148906.0A patent/CN110322914A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114077394A (zh) * | 2020-08-10 | 2022-02-22 | 美光科技公司 | 将存储器***数据传送到辅助阵列 |
CN114077394B (zh) * | 2020-08-10 | 2024-04-26 | 美光科技公司 | 将存储器***数据传送到辅助阵列 |
Also Published As
Publication number | Publication date |
---|---|
US10884916B2 (en) | 2021-01-05 |
US20190303284A1 (en) | 2019-10-03 |
DE102019104871A1 (de) | 2019-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108572796B (zh) | 具有异构nvm类型的ssd | |
US10379782B2 (en) | Host managed solid state drivecaching using dynamic write acceleration | |
CN110322914A (zh) | 非易失性文件更新介质 | |
US11580029B2 (en) | Memory system, computing system, and methods thereof for cache invalidation with dummy address space | |
US20180189182A1 (en) | Aggregated write back in a direct mapped two level memory | |
CN105900069B (zh) | 对被存储在闪存存储器中的数据的推测性预取 | |
US11016905B1 (en) | Storage class memory access | |
CN103946811A (zh) | 用于实现具有不同操作模式的多级存储器分级结构的设备和方法 | |
US11599304B2 (en) | Data aggregation in ZNS drive | |
US20170357462A1 (en) | Method and apparatus for improving performance of sequential logging in a storage device | |
US20210374003A1 (en) | ZNS Parity Swapping to DRAM | |
TWI718710B (zh) | 資料儲存裝置以及非揮發式記憶體控制方法 | |
US20200319815A1 (en) | Communication of data relocation information by storage device to host to improve system performance | |
US20210373804A1 (en) | Rate Limit On The Transitions Of Streams To Open | |
US11403011B1 (en) | Host memory buffer allocation management | |
US20170109277A1 (en) | Memory system | |
US10606488B2 (en) | Selective data flush in a storage device | |
US20170109072A1 (en) | Memory system | |
CN114341816A (zh) | 三层层次型存储器*** | |
US11847337B2 (en) | Data parking for ZNS devices | |
US11604735B1 (en) | Host memory buffer (HMB) random cache access | |
US20210333996A1 (en) | Data Parking for SSDs with Streams | |
US11138066B1 (en) | Parity swapping to DRAM | |
US20220188228A1 (en) | Cache evictions management in a two level memory controller mode | |
US11068175B2 (en) | Technology to manage capacity loss in storage drives |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |