问题:RT
最佳谜底:常用内存参数设置
--------------------------------------------------------------------------------
行地址节制器 (CAS)
行地址节制器(CAS)可能是最能决定内存模块对数据请求进行响应的因素之一了。通常我们把这
个叫做CAS延迟,一般来讲,在SDR SDRAM中,我们可以设定为2或者3(当然是根据自己内存的具体情况
而定)。对于DDR内存来讲,我们一般常用的设定为2或者2.5。
内存中最基本的存储单元就是柱面,而这些个柱面通过行和列的排列组成了1个矩阵。而每个行和列
的坐标集就代表了1个唯一的地址。所之内存在存取数据的时候是根据行和列的地址集来进行数据搜索
的。
寻址到可用(Trp)/CAS到RAS (CMD)
相对而言,Trp以及CMD时间并没有CAS时间那么重要,但是也是足以影响内存的性能的了。一般这
个地方设置的值为3(时钟循环),如果把这个这个值改小为2,就可以提升一点内存性能。
列地址节制器(RAS) /其他延迟
内存本身就是1个非常复杂的零部件,可以这么说,计算机内部工作过程最复杂的就是存储器了。
但是幸好这些个烦琐的工作对于我们这些个终极用户来讲是透明的,而我们平时用来判断内存性能、质量好
坏的这些个参数也只是其中的一些部分而已。有两个是不得不提到的,那就是RAS延迟和另外两个延迟。
RAS 一般是6个始终循环,但是实际上在超频中可以将它修改为5。
Command rate(指令比值)是另外1个比较普遍的延迟。允许进行的设置为1T或者是2T,而通常2T
是默认的设置,1T就要比2T稍微快一点点。另外1个需要注意之处就是Row Cycle Time (Trc,列循
环时间),这个参数通常是3或者2。
其他一些和内存紧密相关的参数
Bank 拿获时间
Bank 循环时间
已装载数据到充电前时间
已装载数据到拿获时间
Bank到Bank延迟
大部分数的这些个参数都是在内存出厂的时候由厂商根据内存的型号种类设定好了的,比如说PC2100
DDR, PC800 RAMBUS, PC133 SDR等等,她们不同的内存会给她们设置不同的参数。而我们不克不及够自己随
意的改动它。
校验内存暖和冲内存和以上我们先容的内存又有不一样之处。为了同步内存的时钟频率(这在一
些特殊的情况下要求特别严酷),数据在输出前是要首先被放到1个叫做“校验区”的存储模块中,这
样很多人都把这种内存叫做“校验内存”。这样就可以保证所有从内存中读出的数据都是“同步”的,
这样就可以制止很多的数据读写错误了。这样的1个校验过程将会消耗掉1个时钟循环,所以理论上
CAS 2的校验内存将会和CAS 3的非缓冲内存性能相当――不要嫌弃,这一切都是为了数据的稳定。
也许有一些伴侣会注意到,当她们把内存设置到CAS 2工作模式下的时候,反而体系的性能还没有
默认的CAS 2.5/3好了,这是什么原因呢?我的理解是这样的:内存执本就不克不及稳定的工作在那种模式
下,而用户强行的将内存设置为那种工作模式,这样的话就会在存取数据的时候不时的造成数据“丢失
”,这样数据不克不及取得,当然就只能重新读取,这样就浪费掉了很多的时间,当然体系效率就变低了哦
。
举个例子方便理解吧。内存试着去搜索所有的行和列,但是如果它在这个时钟循环中并没有能够完
成这次数据读取,那么就只有等待下1个循环,原来用1个时钟循环就能够解决的问题而现在需要用两
个时钟循环甚至3个去完成,这就较着的降低了体系效率。这个时候,越是高的频率越容易导致错误。
高速缓冲存储器Cache是位于CPU与内存之间的姑且存储器,它的容量比内存小但互换速度快。在Cache
中的数据是内存中的一小部分,但这一小部分是短期内CPU行将拜候的,当CPU调用大量数据时,就可
避开内存直接从Cache中调用,从而加快读取速度。由此可见,在CPU中加入Cache是一种高效的解决方
案,这样整个内存储器(Cache+内存)就变成了既有Cache的高速度,又有内存的大容量的存储体系了。
Cache对CPU的性能影响很大,首要是因为CPU的数据互换顺序和CPU与Cache间的带宽引起的。
高速缓存的工作原理
1.读取顺序
CPU要读取1个数据时,首先从Cache中查找,如果找到就立即读取并送给CPU处理;如果没有找到
,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据地点的数据块调入Cache中,可以使
得往后对整块数据的读取都从Cache中进行,没必要再调用内存。
正是这样的读取机制使CPU读取Cache的命中率非常高(大部分数CPU可达90%左右),也就是说CPU下一
次要读取的数据90%都在Cache中,只有大约10%需要从内存读取。这大大节省了CPU直接读取内存的时间
,也使CPU读取数据时基本无需等待。总的来讲,CPU读取数据的顺序是先Cache后内存。
2.缓存分类
前边是把Cache作为1个整体来思量的,现在要分类阐发了。Intel从Pentium开始将Cache分开,通
常分为一级高速缓存L1和二级高速缓存L2。
在以往的观念中,L1 Cache是集成在CPU中的,被称为片内Cache。在L1中还分数据Cache(I-Cache)
和指令Cache(D-Cache)。它们别离用来储存安放数据和执行这些个数据的指令,并且两个Cache可以同时被CPU
拜候,减少了争用Cache所造成的冲突,提高了处理器效能。
在P4处理器中使用了一种先进的一级指令Cache――动态跟踪缓存。它直接和执行单元及动态跟踪
引擎相连,通过动态跟踪引擎可以很快地找到所执行的指令,并且将指令的顺序存储在追踪缓存里,这
样就减少了主执行循环的解码周期,提高了处理器的运算效率。
以前的L2 Cache没集成在CPU中,而在主板上或与CPU集成在统一块电路板上,因此也被称为片外
Cache。但从PⅢ开始,由于工艺的提高L2 Cache被集成在CPU内核中,以相同于主频的速度工作,结束
了L2 Cache与CPU大差距分频的汗青,使L2 Cache与L1 Cache在性能上平等,得到更高的传输速度。
L2Cache只存储数据,因此不分数据Cache和指令Cache。在CPU核心不变化的情况下,增加L2 Cache的容
量能使性能提升,统一核心的CPU高低端之分往往也是在L2 Cache上做手脚,可见L2 Cache的重要性。
现在CPU的L1 Cache与L2 Cache惟一区别在于读取顺序。
3.读取命中率
CPU在Cache中找到有用的数据被称为命中,当Cache中没有CPU所需的数据时(这时候称为未命中),
CPU才拜候内存。从理论上讲,在一颗拥有2级Cache的CPU中,读取L1 Cache的命中率为80%。也就是说
CPU从L1 Cache中找到的有用数据占数据总量的80%,剩下的20%从L2 Cache读取。由于不克不及准确预测将
要执行的数据,读取L2的命中率也在80%左右(从L2读到有用的数据占总数据的16%)。那么还有的数据就
不得不从内存调用,但这已经是1个相当小的比例了。在一些高端领域的CPU(像Intel的Itanium)中,
我们常听到L3 Cache,它是为读取L2 Cache后未命中的数据预设的―种Cache,在拥有L3 Cache的CPU中
,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。
为了保证CPU拜候时有较高的命中率,Cache中的内容应该按一定的算法替代。一种较常用的算法是
“最近最少使用算法”(LRU算法),它是将最近一段时间内最少被拜候过的行淘汰出局。因此需要为每
行设置1个统计器,LRU算法是把命中行的统计器清零,其他各行统计器加1。当需要替代时淘汰行统计
器统计值最大的数据行出局。这是一种高效、科学的算法,其统计器清零过程可以把一些频繁调用后再
不需要的数据淘汰出Cache,提高Cache的利用率。
缓存技术的发展
总之,在传输速度有较大差异的装备间都可以利用Cache作为匹配来调治差距,或者说是这些个装备
的传输通道。在显示体系、硬盘和光驱,以及网络通讯中,都需要使用Cache技术。但Cache均由静态
RAM组成,结构复杂,成本不菲,使用现有工艺在有限的面积内不可能做得很大,不过,这也正是技术
前进的源动力,有需要才有进步!
内存在电脑中的重要性和地位仅次于CPU,其品质的优劣对电脑性能有至关重要的影响。为充分发挥内
存的潜能,必须在BIOS设置中对与内存有关的参数进行调整。下面针对稍老一点的支持Intel Pentium
Ⅲ、CeleronⅡ处理器的Intel 815E/815EP芯片组主板、VIA(威盛)694X芯片组主板和支持AMD Thunder
bird(雷鸟)、Duron(钻龙)处理器的VIA KT133/133A芯片组主板,先容如何在最常见的Award BIOS 6.0
中优化内存设置。对于使用较早芯片组的主板和低版本的Award BIOS,其内存设置项相对要少一些,但
本文所先容的设置方法同样是适用的。