公文素材库 首页

服务器术语

时间:2019-07-08 17:25:53 网站:公文素材库

服务器术语

  1、 处理器的类型:CPU是计算机的“大脑”,是衡量服务器性能的首要指标。服务器具有大数据量吞吐能力、超强的稳定性、长时间运行等严格要求,因此对CPU的要求比较高。一般PC服务器的CPU都是32位的,如Intel Xeon, AMD Athlon。而更高档的服务器采用64位处理器,如Alpha 21264, Sun SPARC II, HP PA-8000等。

  2、 SCSI:SCSI硬盘最大的好处,是它具有管理自己的能力,所以不用对SCSI进行特殊的参数设定,且SCSI占用较少的cpu资源,可多任务运作,串联设备的传输速率互相独立,SCSI目前并非基本接口,因此必须以扩充适配卡的方式存在SCSI几经变革,传输率,支持设备等功能都有大幅度的改进,而这些世代变化都以近似的名词来表示,例如SCSI,Fast SCSI,Ultra SCSI,Ultra Wide SCSI等,期间的奥妙实非一般人所能明白.其实暂时撇开SCSI市场的混乱名词,回归到规格时你会发现:原来SCSI目前仅有"2.5"个世代,而且名词简单易懂.非常好记,分别是SCSI,SCSI-2,SCSI-3.其中SCSI是最早的SCSI标准,一切由此发端;SCSI-2则是目前较普遍,一般人口中所指的SCSI;而SCSI-3因属于制定中的规格,尚未完全定案,暂时仅能称为"0.5世代"。

  3、 DHCP:是可自动將IP位址指派給登入TCP/IP网络的用戶端的一种软件,(此种IP位址称为「动态IP位址」)。这种软件通常是在路由器及其他网络设备上执行的。依照预先设定,您的GateLock路由器設定为使用DHCP,因此就无須手动指派永久IP位址給网络上的每個设备。建议不要改变这个设置,这样您的个人电脑就可以被分辨为DHCP服务器。

  4、 DS:(Digital Signal,数字信号)是数字电路的一个分类。在技术上,DS指信号的速率和格式,而T指提供信号的设备。实际上,"DS"和"T"的用法是同义的,例如DS1和T1,DS3和T3。

  5、 ECC内存:全称Error Checkingand Correcting。它也是在原来的数据位上外加位来实现的。如8位数据,则需1位用于Parity检验,5位用于ECC,这额外的5位是用来重建错误的数据的。当数据的位数增加一倍,Parity也增加一倍,而ECC只需增加一位,当数据为64位时所用的ECC和Parity位数相同(都为8)。在那些Parity只能检测到错误的地方,ECC可以纠正绝大多数错误。若工作正常时,你不会发觉你的数据出过错,只有经过内存的纠错后,计算机的操作指令才可以继续执行。当然在纠错时系统的性能有着明显降低,不过这种纠错对服务器等应用而言是十分重要的,ECC内存的价格比普通内存要昂贵许多。

  6、 IA64构架:IA64处理器I-tanium(安腾)是Intel自推出32位微处理器以来,在高性能计算机领域的又一座里程碑。基于IA64处理器架构的服务器具有64位运算能力、64位寻址空间和64位数据通路,突破了传统IA32架构的许多限制,在数据的处理能力,系统的稳定性、安全性、可用性、可观理性等方面获得了突破性的提高。

  7、 IA构架服务器:通常将采用英特尔处理器的服务器称为IA(Intel Architec-ture)架构服务器,由于该架构服务器采用了开放式体系,并且实现了工业标准化技术和得到国内外大量软硬件供应商的支持,在大批量生产的基础上,以其极高的性能价格比而在全球范围内,尤其在我国得到广泛的应用。

  8、 PCI-X:是PCI总线的一种扩展架构,PCI-X的频率不像PCI那样固定的,而是可随设备的变化而变化。PCI-X可以支持66,100,133MHz这些频率,而在未来,可能将提供更多的频率支持。

  9、 Post---RISC:一种新型的处理器架构,它的内核是RISC,而外围是CISC,结合了两种架构的优点,拥有预测执行、处理器重命名等先进特性。

  10、 RAID:储存系统的失误容忍(fault tolerance)程度决定了其中的资料所受的保障程度,其中最有名的要算是冗余廉价磁盘机阵列(RAID),由美国加州Berkeley大学的三位教授所提出,由于硬盘的成本随着它的效率与容量呈非线性快速攀升,RAID的主旨即是在利用低成本、低容量、低效率的磁盘机阵列模拟高成本、高容量、高效率的昂贵的单一颗硬盘(SLED),除了磁盘机阵列的高容量之外,更重要的是,RAID也为磁盘机系统引进了更高的失误容忍能力。初提出的RAID分为1至5共5个层级,之后再经过业界、厂商的扩充,目前的RAID已分为0至7共8个层级,Windows NT内建支持其中的RAID 0、1、及5。一般可使用软体方式模拟磁盘机阵列,但某些RAID层级则须要特别的硬体支持,如RAID 2,另外,为获得较高效,也可使用专业设计的磁盘机阵列,这类储存设备通常内建有专门的CPU、快取记忆体、控制卡、防止停电的多重电源保护等设计,有些专门的磁盘机阵列尚允许使用者在不关机、不影响系统的资料存取的情况下抽换硬盘。

  11、 RISC:(Reduced Instruction Set Computing,精简指令集计算机)一种指令长度较短的计算机,其运行速度比CISC要快。

  12、 Ultra160/m:是不断发展的SCSI接口的最新成果,它以Ultra3 SCSI为基础,传输速率高达160MB/s。Ultra160/m利用了请求/回应信号的上升沿和下降沿来定时数据信号,这种双重转换定时技术把SCSI总线上的数据线时钟频率从Ultra2 SCSI(LVD)的40MHz提高到了80MHz,从而使得数据传输速率提高了一倍,在16位宽度下达到了160MB/s。为了在高速率下保证数据传输的正确性,Ultra160/m还加入CRC循环冗余纠错技术,此外,Ultra160/m引入Domain Validation(域确认)技术,硬盘可以自动侦测存储系统的硬件配置及工作状况,并根据需要调整传输模式,以提高传输过程中的可靠性。

  13、 串行存在探测:即,SPD(Serial Presence Detect)它是1个8针的SOIC封装(3mm*4mm)256字节的EEPROM(ElectricallyErasableProgrammableROM电可擦写可编程只读存储器)芯片。型号多为24LC01B,位置一般处在内存条正面的右侧,里面记录了诸如内存的速度、容量、电压与行、列地址带宽等参数信息。当开机时PC的BIOS将自动读取SPD中记录的信息,如果没有SPD,就容易出现死机或致命错误的现象。它是识别PC100内存的一个重要标志。现在个别厂商一方面为了降低生产成本,另一方面又要从表面上迎合PC100标准,就在PCB板上焊上一片空的SPD。这样就有可能导致在100MHz以上外频不能正常工作,还应该注意的是一些厂商出的主板(如INTEL原装板)一定要BIOS检测到SPD中的数据才能正常工作,而对于使用假SPD的内存来说,就会有不兼容或死机的现象出现。

  14、 代理服务器:即Proxy服务器,在互联网上的完成跑腿服务。当你在浏览器中设置了某个Proxy服务器之后,由你的浏览器所发出的任何要求,都会被送到Proxy服务器上去,由这台Proxy服务器代为处理。设置Proxy服务器的最大好处是可以加速网络的浏览速度。这是因为当许多人都把Proxy服务器指向同一台时,所有的需求都会经由这台Proxy服务器来代为处理,当有人在网址上看过某一个Web页面时,这些内容都会被记录在Proxy服务器的硬盘缓冲区(Cache)中。等到下一次你要浏览相同的网页时,这些文件直接由Proxy服务器送到你的电脑。设置Proxy服务器的另一个好处是:若你没有指定DNS(域名服务器)时,它也能解决IP地址的对应问题。

  15、 服务器机箱特点:一、材料散热性好 为了保证服务器稳定的工作,一般情况下服务器的工作环境要求干燥、凉爽。为了达到这个要求,服务器机箱的选料就马虎不得了。普通PC使用的机箱一般是采用钢板,而服务器机箱使用的材料一般有两种——全铝质和铝合金。也有用钢板、镁铝合金作为材料的机箱。 二、预留风扇位多 由于服务器发出的热量通常很大,因此空气很快变热。能否尽快有效地排出这些热空气将是服务器稳定工作的前提条件。一般的普通PC机箱中散热风扇口只有2~3个,分别在机箱的正面挡板的内部与背部挡板的内部。而服务器机箱需要更多的排风口,而且各个排风口针对系统不同的发热源进行散热。 三、通风系统良好 为了达到散热的效果,服务器机箱除了要安装多个风扇外,机箱内的散热系统也是非同寻常的。一般情况下在服务器机箱背面有两个风扇位,可以供我们安装两个风扇。当然这两个风扇不是都是吹风的,而是一吹一抽形成一个良好的散热循环系统将机箱内的热空气迅速抽出,以降低机箱内的温度。 四、具有冗余性 为了保证服务器不间断的工作,冗余技术使用于机箱内的绝大部分配件上,当然风扇也不例外。为了确保机箱内良好的散热系统不因为某一个或几个风扇坏了而被破坏,现在很多的服务器机箱都采用了自动切换的冗余风扇。系统工作正常时,主风扇工作,备用风扇不工作,当主风扇出现故障或转速低于规定转速时,自动启动备用风扇。备用风扇平时处于停转状态,从保证在工作风扇损坏时马上接替服务,不会造成由于系统风扇损坏而使系统内部温度升高产生工作不稳定或停机现象。

  16、 负载均衡服务器:是本系统的控制服务器,所有用户的请求都首先到此服务器,然后由此服务器根据各个实际处理服务器状态将请求具体分配到某个实际处理服务器中,对外公开的域名与IP地址都是这台服务器。负载均衡控制与管理软件安装在这台服务器上,这台服务器一般只做负载均衡任务分配,但不是实际对网络请求进行处理的服务器。

  17、 工作组服务器:支持特定的一组用户并为用户提供字处理和文件共享等功能的服务器。而这些服务只是某一人群所需要的。

  18、 局域网:就是一个通信系统,它在一定的地理区域内,可使多个相互独立在同一共享的介质上以一定的速率进行通信。

  19、 客户/服务器结构:这是网络软件运行的一种形式。通常,采用客户机/服务器结构的系统,有一台或多台服务器以及大量的客户机。服务器配备大容量存储器并安装数据库系统,用于数据的存放和数据检索;客户端安装专用的软件,负责数据的输入、运算和输出。

  20、 数据容错:数据是否能够安全地储存,是衡量服务器性能的又一大指标。对用户来说,数据是最重要的,它的价值远远比服务器硬件的价值高。硬盘容错有RAID0、1、5、0+1、0+5等几种方式。

  21、 热插拔:在电脑设备发生故障等情况时,在不段电的情况下安装或取下设备的技术。

  22、 网络体系结构:是指通信系统的整体设计,它为网络硬件、软件、协议、存取控制和拓扑提供标准。它广泛采用的是国际标准化组织(ISO)在1979年提出的开放系统互连(OSI-Open System Interconnection)的参考模型。OSI参考模型用物理层、数据链路层、网络层、传送层、对话层、表示层和应用层七个层次描述网络的结构,它的规范对所有的厂商是开放的,具有知道国际网络结构和开放系统走向的作用。它直接影响总线、接口和网络的性能。目前常见的网络体系结构有FDDI、以太网、令牌环网和快速以太网等。从网络互连的角度看,网络体系结构的关键要素是协议和拓扑。

  23、 协议:是对数据格式和计算机之间交换数据时必须遵守的规则的正式描述。简单的说了,网络中的计算机要能够互相顺利的通信,就必须讲同样的语言,语言就相当于协议,它分为Ethernet、NetBEUI、IPX/SPX以及TCP/IP协议。

  24、 虚拟主机: 指万维网上含有多个Web站点的服务器,每个站点有自己的域名。从Web协议第一版(HTTP v1.0)开始,必须给虚拟主机上的各Web站点分配唯一的IP地址。HTTP v1.1取消了这个要求。

  来源:网络整理 免责声明:本文仅限学习分享,如产生版权问题,请联系我们及时删除。


服务器术语
由互联网用户整理提供,转载分享请保留原作者信息,谢谢!
http://m.bsmz.net/gongwen/783632.html
相关阅读
最近更新
推荐专题