手机版

决定电脑性能的关键硬件之显卡

发布时间:2024-11-10   来源:未知    
字号:

决定电脑性能的关键硬件之显卡

GPU(类似于主板的CPU)

GPU全称是Graphic Processing Unit,中文翻译为“图形处理器”。 GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时。GPU所采用的核心技术有硬件T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬件T&L技术可以说是GPU的标志。GPU的生产主要由nVidia与AMD两家厂商生产。 显存(类似于主板的内存)

芯片要处理的数据和处理完毕的数据。图形核心的性能愈强,需要的显存也就越多。市面上的显卡大部分采用的是GDDR3显存,现在最新的显卡则采用了性能更为出色的GDDR4或GDDR5显存。

显卡BIOS(类似于主板的BIOS) 显卡BIOS主要用于存放显示芯片与驱动程序之间的控制程序,另外还存有显示卡的型号、规格、生产厂家及出厂时间等信息。打开计算机时,通过显示BIOS 内的一段控制程序,将这些信息反馈到屏幕上。多数显示卡则采用了大容量的EPROM,即所谓的Flash BIOS,可以通过专用的程序进行改写或升级。

显卡PCB板(类似于主板的PCB板)

集成显卡的优点:是功耗低、发热量小、部分集成显卡的性能已经可以媲美入门级的独立显卡,所以不用花费额外的资金购买显卡。

集成显卡的缺点:性能相对略低,不能换新显卡,要说必须换,就只能和主板一次性的换。

2、独立显卡

独立显卡是指将显示芯片、显存及其相关电路单独做在一块电路板上,自成一体而作为一块独立的板卡存在,它需占用主板的扩展插槽(PCI、AGP或PCI-E)。

独立显卡的优点:单独安装有显存,一般不占用系统内存,在技术上也较集成显卡先进得多,比集成显卡能够得到更好的显示效果和性能,容易进行显卡的硬件升级。

独立显卡的缺点:系统功耗有所加大,发热量也较大,需额外花费购买显卡的资金,同时(特别是对笔记本电脑)占用更多空间。

当前最先进的独立显卡分别是英伟达的GTX680和AMD的HD7970

3、核芯显卡

核芯显卡是Intel、AMD新一代图形处理核心,和以往的显卡设计不同,Intel、AMD凭借其在处理器制程上的先进工艺以及新的架构设计,将图形核心与中央处理器核心整合在同一块基板上,构成一颗完整的处理器。智能处理器架构这种设计上的整合大大缩减了处理核心、图形核心、内存及内存控制器间的数据周转时间,有效提升处理效能并大幅降

需要注意的是,核芯显卡和传统意义上的集成显卡并不相同。目前笔记本平台采用的图形解决方案主要有“独立”和“集成”两种,前者拥有单独的图形核心和独立的显存,能够满足复杂庞大的图形处理需求,并提供高效的视频编码应用;集成显卡则将图形核心以单独芯片的方式集成在主板上,并且动态共享部分系统内存作为显存使用,因此能够提供简单的图形处理能力,以及较为流畅的编码应用。相对于前两者,核芯显卡则将图形核心整合在处理器当中,进一步加强了图形处理的效率,并把集成显卡中的“处理器+南桥+北桥(图形核心+内存控制+显示输出)”三芯片解决方案精简为“处理器(处理核心+图形核心+内存控制)+主板芯片(显示输出)”的双芯片模式,有效降低了核心组件的整体功耗,更利于延长笔记本的续航时间。

核芯显卡的优点:低功耗是核芯显卡的最主要优势,由于新的精简架构及整合设计,核芯显卡对整体能耗的控制更加优异,高效的处理性能大幅缩短了运算时间,进一步缩减了系统平台的能耗。高性能也是它的主要优势:核芯显卡拥有诸多优势技术,可以带来充足的图形处理能力,相较前一代产品其性能的进步十分明显。核芯显卡可支持DX10、SM4.0、OpenGL2.0、以及全高清Full HD MPEG2/H.264/VC-1格式解码等技术,即将加入的性能动态调节更可大幅提升核芯显卡的处理能力,令其完全满足于普

通用户的需求。

核心显卡的缺点:配置核芯显卡的CPU通常价格较高,同时其难以胜任大型游戏。

当前英特尔最新的核芯显卡型号是HD4000。 独立显卡接口

PCI接口

AGP接口

AGP(Accelerate Graphical Port,加速图像处理端口)接口是Intel公司开发的一个视频接口技术标准,是为了解决PCI总线的低带宽而开发的接口技术。它通过将图形卡与系统主内存连接起来,在CPU和图形处理器之间直接开辟了更快的总线。其发展经历了AGP1.0(AGP1X/2X)、

AGP2.0(AGP4X)、AGP3.0(AGP8X)。最新的AGP8X其理论带宽为2.1Gbit/秒。到2009年,已经被PCI-E接口基本取代(2006年大部分厂家已经停止生产)。

PCI Express接口

简介

又称图型处理器-GPU。

常见的生产显示芯片的厂商:Intel、AMD、nVidia、VIA(S3)、SIS、Matrox、3D Labs。

Intel、VIA(S3)、SIS 主要生产集成芯片

ATI、nVidia 以独立芯片为主,是市场上的主流。 Matrox、3D Labs 则主要面向专业图形市场。 版本级别

除了标准版本之外,还有些特殊版,特殊版一般会在标

准版的型号后面加个后缀,常见的有:

ATI:

SE(Simplify Edition 简化版)通常只有64bit内存界面,或者是像素流水线数量减少。

Pro(Professional Edition 专业版) 高频版,一般比标版在管线数量/顶点数量还有频率这些方面都要稍微高一点。 XT (eXTreme 高端版)是ATi系列中高端的,而nVIDIA用作低端型号。

XT PE (eXTreme Premium Edition XT白金版)高端的型号。

XL (eXTremeLimited 高端系列中的较低端型号)ATI最新推出的R430中的高频版

XTX (XT eXtreme 高端版)X1000系列发布之后的新的命名规则。

CE (Crossfire Edition 交叉火力版)交叉火力。

VIVO (VIDEO IN and VIDEO OUT)指显卡同时具备视频输入与视频捕捉两大功能。

HM (Hyper Memory)可以占用内存的显卡

nVIDIA:

GTX高端/性能级显卡GTX590 GTX580 GTX480 GTX295 GTX470 GTX285 GTX280 GTX460 GTX275 GTX260+ GTX260

GTS代表主流产品线GTS450 GTS250(9800GTX+ ) GT代表入门产品线GT120 GT130 GT140 GT200

GT220 GT240

G低端入门产品G100 G110 G210 G310(9300GS 9400GT )

核心频率 显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度上可以反映出显示核心的性能,但显卡的性能是由核心频率、流处理器单元、显存频率、显存位宽等等多方面的情况所决定的,因此在显示核心不同的情况下,核心频率高并不代表此显卡性能强劲。比如GTS250的核心频率达到了750MHz,要比GTX260+的576MHz高,但在性能上GTX260+绝对要强于GTS250。在同样级别的芯片中,核心频率高的则性能要强一些,提高核心频率就是显卡超频的方法之一。显示芯片主流的只有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商,在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心固定的频率上以达到更高的性能。

显存简介

类型

显卡上采用的显存类型主要有SDR、DDR SDRAM、DDR SGRAM、DDR2、GDDR2、DDR3、GDDR3、GDDR4、GDDR5、XDR2 DRAM。

目前的主流是GDDR3和GDDR5。

XDR2 DRAM:XDR2的系统架构源于XDR,而不像

XDR相对于RDRAM那样有着巨大的差异,这从它们之间的系统架构的比较中就可以体现出来。 XDR2与XDR系统整体在架构上的差别并不大,主要的不同体现在相关总线的速度设计上。首先,XDR2将系统时钟的频率从XDR的400MHz提高到500MHz;其次,在用于传输寻址与控制命令的RQ总线上,传输频率从800MHz提升至2GHz,即XDR2系统时钟的4倍;最后,数据传输频率由XDR的3.2GHz提高到8GHz,即

XDR2系统时钟频率的16倍,而XDR则为8倍,因此,Rambus将XDR2的数据传输技术称为16位数据速率(Hex Data Rate,HDR)。 Rambus表示,XDR2内存芯片的标准设计位宽为16bit(它可以像XDR那样动态调整位宽),按每个数据引脚的传输率为8GHz,即8Gbps计算,一枚XDR2芯片的数据带宽就将达到16GB/s,与之相比,目前速度最快的GDDR3-800的芯片位宽为32bit,数据传输率为1.6Gbps,单芯片传输带宽为6.4GB/s,只是XDR2的40%,差距十分明显。

带宽

=500MHz*128/8=8GB/s;而256位=500MHz*256/8=16GB/s,是128位的2倍。显卡的显存是由一块块的显存芯片构成的,显存总位宽同样也是由显存颗粒的位宽组成。显存位宽=显存颗粒位宽×显存颗粒数。显存颗粒上都带有相关厂家的内存编号,可以去网上查找其编号,就能了解其位宽,再乘以显存颗粒数,就能得到显卡的位宽。其他规格相同的显卡,位宽越大性能越好。 容量 其他参数相同的情况下容量越大越好,但比较显卡时不能只注意到显存(很多js会以低性能核心配大显存作为卖点)。比如说384M的9600GT就远强于512M的9600GSO,因为核心和显存带宽上有差距。选择显卡时显存容量只是参考之一,核心和带宽等因素更为重要,这些决定显卡的性能优先于显存容量。但必要容量的显存是必须的,因为在高分辨率高抗锯齿的情况下可能会出现显存不足的情况。目前市面显卡显存容量从256MB-4GB不等。

速度

显存速度一般以ns(纳秒)为单位。常见的显存速度有

1.2ns、1.0ns、0.8ns等,越小表示速度越快、越好。显存的理论工作频率计算公式是:等效工作频率(MHz)=1000×n/(显存速度)(n因显存类型不同而不同,如果是GDDR3显存则n=2;GDDR5显存则n=4)。

频率 显存频率一定程度上反应着该显存的速度,以MHz(兆赫兹)为单位。显存频率的高低和显存类型有非常大的关系: SDRAM显存一般都工作在较低的频率上,此种频率早已无法满足显卡的需求。

DDR SDRAM显存则能提供较高的显存频率,所以目前显卡基本都采用DDR SDRAM,其所能提供的显存频率也差异很大。目前已经发展到GDDR5,默认等效工作频率最高已经达到4800MHZ,而且提高的潜力还非常大。

显存频率与显存时钟周期是相关的,二者成倒数关系,也就是显存频率(MHz)=1/显存时钟周期(NS)X1000。如果是SDRAM显存,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz;而对于DDR SDRAM,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz,但要了解的是这是DDR SDRAM的实际频率,而不是平时所说的DDR显存频率。因为DDR在时钟上升期和下降期都进行数据传输,一个周期传输两次数据,相当于SDRAM频率的二倍。习惯上称呼的DDR频率是其等效频率,是在其实际工作频率上乘以2的等效频率。因此6ns的DDR显存,其显存频率为1/6ns*2=333 MHz。但要明白的是显卡制造时,厂商设定了显存实际工作频率,而实际工作频率不一定等于显存最大频率,此类情况较为常见。不过也有显存无法在标称的最大工作频率下稳定工作的情况。

流处理器单元 在DX10显卡出来以前,并没有“流处理器”这个说法。GPU内部由“管线”构成,分为像素管线和顶点管线,它们的数目是固定的。简单来说,顶点管线主要负责3D建模,像素管线负责3D渲染。由于它们的数量是固定的,这就出现了一个问题,当某个游戏场景需要大量的3D建模而不需要太多的像素处理,就会造成顶点管线资源紧张而像素管线大量闲置,当然也有截然相反的另一种情况。这都会造成某些资源的不够和另一些资源的闲置浪费。

在这样的情况下,人们在DX10时代首次提出了“统一渲染架构”,显卡取消了传统的“像素管线”和“顶点管线”,统一改为流处理器单元,它既可以进行顶点运算也可以进行像素运算,这样在不同的场景中,显卡就可以动态地分配进行顶点运算和像素运算的流处理器数量,达到资源的充分利用。 现在,流处理器的数量的多少已经成为了决定显卡性能高低的一个很重要的指标,Nvidia和AMD-ATI也在不断地增加显卡的流处理器数量使显卡的性能达到跳跃式增长,例如AMD-ATI的显卡HD3870拥有320个流处理器,HD4870达到800个,HD5870更是达到1600个!

值得一提的是,N卡和A卡GPU架构并不一样,对于流处理器数的分配也不一样。N卡每个流处理器单元只包含1个流处理器,而A卡相当于每个流处理器单元里面含有5个流处理器,例如HD4850虽然是800个流处理器,其实只

相当于160个流处理器单元,另外A卡流处理器频率与核心频率一致,这是为什么9800GTX+只有128个流处理器,性能却与HD4850相当(N卡流处理器频率约是核心频率的

2.16倍)。

3D API API是Application Programming Interface的缩写,是应用程序接口的意思,而3D API则是指显卡与应用程序直接的接口。

3D API能让编程人员所设计的3D软件只要调用其API内的程序,从而让API自动和硬件的驱动程序沟通,启动3D芯片内强大的3D图形处理功能,从而大幅度地提高了3D程序的设计效率。如果没有3D API,在开发程序时程序员必须要了解全部的显卡特性,才能编写出与显卡完全匹配的程序,发挥出全部的显卡性能。而有了3D API这个显卡与软件直接的接口,程序员只需要编写符合接口的程序代码,就可以充分发挥显卡的性能,不必再去了解硬件的具体性能和参数,这样就大大简化了程序开发的效率。同样,显示芯片厂商根据标准来设计自己的硬件产品,以达到在API调用硬件资源时最优化,获得更好的性能。有了3D API,便可实现不同厂家的硬件、软件最大范围兼容。比如在最能体现3D API的游戏方面,游戏设计人员设计时,不必去考虑具体某款显卡的特性,而只是按照3D API的接口标准来开发游戏,当游戏运行时则直接通过3D API来调用显卡的硬件资源。 个人电脑中主要应用的3D API有:DirectX和OpenGL。

RAMDAC频率和支持最大分辨率 RAMDAC是Random Access Memory Digital/Analog Convertor的缩写,即随机存取内存数字~模拟转换器。 RAMDAC作用是将显存中的数字信号转换为显示器能够显示出来的模拟信号,其转换速率以MHz表示。计算机中处理数据的过程其实就是将事物数字化的过程,所有的事物将被处理成0和1两个数,而后不断进行累加计算。图形加速卡也是靠这些0和1对每一个象素进行颜色、深度、亮度等各种处理。显卡生成的信号都是以数字来表示的,但是所有的CRT显示器都是以模拟方式进行工作的,数字信号无法被识别,这就必须有相应的设备将数字信号转换为模拟信号。而RAMDAC就是显卡中将数字信号转换为模拟信号的设备。RAMDAC的转换速率以MHz表示,它决定了刷新频率的高低(与显示器的“带宽”意义近似)。其工作速度越高,频带越宽,高分辨率时的画面质量越好。该数值决定了在足够的显存下,显卡最高支持的分辨率和刷新率。如果要在1024×768的分辨率下达到85Hz的刷新率,RAMDAC的速率至少是1024×768×85Hz×1.344(折算系数)≈90MHz。2009年主流的显卡RAMDAC都能达到350MHz和400MHz,已足以满足和超过大多数显示器所能提供的分辨率和刷新率。

散热设备

显卡所需要的电力与150瓦特灯具所需要的电力相同,由于运作集成电路(integrated circuits)需要相当多的电力,

因此内部电流所产生的温度也相对的提高,所以,假如这些温度不能适时的被降低,那么上述所提到的硬设备就很可能遭受损害,而冷却系统就是在确保这些设备能稳定、适时的运转,没有散热器或散热片,GPU或内存会过热,就会进而损害计算机或造成当机,或甚至完全不能使用。这些冷却设备由导热材质所制成,它们有些被视为被动组件,默默安静地进行散热的动作,有些则很难不发出噪音,如风扇。 散热片通常被视为被动散热,但不论所安装的区块是导热区,或是内部其它区块,散热片都能发挥它的效能,进而帮助其它装置降低温度。散热片通常与风扇一同被安装至GPU或内存上,有时小型风扇甚至会直接安装在显卡温度最高的地方。

散热片的表面积愈大,所进行之散热效能就愈大(通常必须与风扇一起运作),但有时却因空间的限制,大型散热片无法安装于需要散热的装置上;有时又因为装置的体积太小,以至于体积大的散热片无法与这些装置连结而进行散热。因此,热管就必须在这个时候将热能从散热处传送至散热片中进行散热。一般而言,GPU外壳由高热能的传导金属所制成,热管会直接连结至由金属制成的芯片上,如此一来,热能就能被轻松的传导至另一端的散热片。

市面上有许多处理器的冷却装置都附有热管,由此可知,许多热管已被研发成可灵活运用于显卡冷却系统中的设备了。

大部分的散热器只是由散热片跟风扇组合而成,在散热片的

决定电脑性能的关键硬件之显卡.doc 将本文的Word文档下载到电脑,方便复制、编辑、收藏和打印
    ×
    二维码
    × 游客快捷下载通道(下载后可以自由复制和排版)
    VIP包月下载
    特价:29 元/月 原价:99元
    低至 0.3 元/份 每月下载150
    全站内容免费自由复制
    VIP包月下载
    特价:29 元/月 原价:99元
    低至 0.3 元/份 每月下载150
    全站内容免费自由复制
    注:下载文档有可能出现无法下载或内容有问题,请联系客服协助您处理。
    × 常见问题(客服时间:周一到周五 9:30-18:00)