谁能告诉我什么是“服务器”。

谁能告诉我什么是“服务器”。,第1张

在谈到服务器之前,我们有必要先了解一下什么是计算机网络。从组成结构来讲,计算机网络就是通过外围的设备和连线,将分布在相同或不同地域的多台计算机连接在一起所形成的集合。从应用的角度讲,只要将具有独立功能的多台计算机连接在一起,能够实现各计算机间信息的互相交换,并可共享计算机资源的系统便可称为网络。随着人们在半导体技术(主要包括大规模集成电路LSI和超大规模集成电路VLSI技术)上不断取得更新更高的成就,计算机网络迅速地涉及到计算机和通信两个领域。一方面通过网络为计算机之间数据的传输和交换提供了必要的手段,另一方面数字信号技术的发展已渗透到通信技术中,又提高了通信网络的各项性能。计算机网络从诞生至今,一共经历了四个阶段的发展过程。
第一代计算机网络大约产生于1954年,当时它只是一种面向终端(用户端不具备数据的存储和处理能力)的计算机网络。 1946年,世界上第一台计算机(ENIAC)问世。此后的几年中,计算机与计算机之间还没有建立相互间的联系。当时,电子计算机因价格和数量等诸多因素的制约,很少有人会想到在计算机之间进行通信。1954年,随着一种叫做收发器(Transceiver)的终端研制成功,人们实现了将穿孔卡片上的数据通过电话线路发送到远地的计算机上的梦想。以后,电传打字机也作为远程终端和计算机实现了相连。
第二代计算机网络出现在1969年。刚才我们已经谈到了,早期的第一代计算机网络是面向终端的,是一种以单个主机为中心的星型网络,各终端通过通信线路共享主机的硬件和软件资源。而第二代计算机网络则强调了网络的整体性,用户不仅可以共享主机的资源,而且还可以共享其他用户的软、硬件资源。第二代计算机网络的工作方式一直延续到了现在。如今的计算机网络尤其是中小型局域网很注重和强调其整体性,以扩大系统资源的共享范围。
第三代计算机网络出现在70年代。从所周知,早期计算机之间的组网是有条件的,在同一网络中只能存在同一厂家生产的计算机,其他厂家生产的计算机无法接入。这种现象的出现,一方面与当时的环境有关,因为当时的计算机还远远没有现在这样普及,一个大单位能够用上一台计算机就算不错了,更谈不上实现计算机之间的互联;另一方面与未建立相关的标准有关,当时的计算机网络只是部分高等学府或笠研机构针对自己的工作特点所建立的,还未能在大范围内(如不同的单位之间)进行连接,并且也缺乏一个统一的标准。针对这种情况,第三代计算机网络开始实现将不同厂家生产的计算机互联成网。1977年前后,国际标准化组织成立了一个专门机构,提出了一个各种计算机能够在世界范围内互联成网的标准框架,即著名的开放系统互联基本参考模型OSI/RM。简称为OSI。OSI模型的提出,为计算机网络技术的发展开创了一个新纪元。现在的计算机网络便是以OSI为标准进行工作的。
第四代计算机网络是在进入20世纪90年代后,随着数字通信的出现而产生的,其特点是综合化和高速化。综合化是指采用交换的数据传送方式将多种业务综合到一个网络中完成。例如人们一直在用一种与计算机网络很不相同的电话网传送语音住处但是,现在已经可以将多种业务,如语音、数据、图像等住处以二进制代码的数字形式综合到一个网络中来传送。
诸位不要以为笔者写走题儿了,介绍计算机网络的组成不过是为了把何谓服务器讲得更浅显些做个铺垫,因为四代计算机网络都是由服务器、工作站、外围设备和通信协议组成。而本文要向读者诸君介绍的服务器(Server)也正是整个网络系统的核心,它的存在就是为网络用户提供服务并管理整个网络的设备。服务器从外型来看,和普通的PC并没有什么两样,但其内部结构却与普通的个人PC机有着本质的不同。
如主板结构。服务器的主板从整个板型看,规格上比普通的ATX等类型主板都要大一些,但是仍然符合ATX标准。主要是由于特殊部件比较多,所以在布局方面和普通主板不尽相同。由于服务器主板对稳定性的要求非常高,因此在电气结构上,服务器主板比普通PC主板要求技高一筹,从电流输入开始,服务器主板便大多采用了双电源设计,以防止意外发生。服务器主板的电源接口大都远离重要部件如CPU插槽和内存插槽。输出电路种大量采用了滤波电容和线圈,使得输出的电流尽量干净。而一般主板在电源接口上就没有这么讲究。电源接口和CPU插槽非常近,从电源接口的输入电流和对CPU供电电流进 行稳压和滤波的电容和线圈位置非常近,很难避免互相干扰。由于服务器数据处理量很大,所以大都采用多CPU并行处理结构,主板上有偶数个CPU插槽。值得一提的是,在服务器主板上,CPU插槽边上大都有很多电解电容,是做滤电流杂波用的。理想的滤波应该是多个不很大电容来进行,这样既可以保证杂波被过滤 掉,又不会降低电流。服务器的最大特点是数据总线和地址总线上的负载比较大,I/O流量也比 较服务器主板一般都有多个超级I/O芯片,分别控制不同设备,以及多个总线驱动芯片增强负载能力,提高信号质量。为了减缓I/O瓶颈压力,一般应用SCSI接口磁盘系统。另外,由于服务器对于图形和声音要求都不算太高,所以很多服务器主板上都集成了声卡和显示卡。但是为了进一步减少CPU占用率并提高稳定性能,在硬声卡和显卡方面大多采用ATI公司的显示芯片和新加坡CREATIVE(创新)公司的声卡芯片。与此同时,在服务器主板上还经常集成有网卡芯片(如INTEL公司的82559)和RAID卡槽等。
如性能指标。服务器的性能指标是以系统响应速度和作业吞吐量为代表的。响应速度是指用户从输入信息到服务器完成任务给出响应的时间。作业吞吐量是整个服务器在单位时间内完成的任务量。假定用户不间断地输入请求,则在系统资源充裕的情况下,单个用户的吞吐量与响应时间成反比,即响应时间越短,吞吐量越大。为了缩短某一用户或服务的响应时间,可以分配给它更多的资源。性能调整就是根据应用要求和服务器具体运行环境和状态,改变各个用户和服务程序所分配的系统资源,充分发挥系统能力,用尽量少的资源满足用户要求,达到为更多用户服务的目的。
如扩展性能。服务器的可扩展性能与普通个人PC的升级有着本质的不同,其具体表现在两个方面:一是留有富余的机箱可用空间,二是充裕的I/O带宽。随着处理器运算速度的提高和并行处理器数量的增加,服务器性能的瓶颈将会归结为PCI及其附属设备。高扩展性意义在于用户可以根据需要随时增加有关部件,在满足系统运行要求的同时,又保护投资。
如可用性。服务器的可用性是以设备处于正常运行状态的时间比例作为衡量指标,例如999%的可用性表示每年有8小时的时间设备不能正常运行,99999%的可用性表示每年有5分钟的时间设备不能正常运行。部件冗余是提高可用性的基本方法,通常是对发生故障给系统造成危害最大的那些部件(例如电源、硬盘、风扇和PCI卡)添加冗余配置,并设计方便的更换机构(如热插拔),从而保证这些设备即使发生故障也不会影响系统的正常运行,而且要使系统能及时恢复到正常的部件冗余程度。
如可管理性。可管理性旨在利用特定的技术和产品来提高系统的可靠性,降低系统的购买、使用、部署和支持费用,最显著的作用体现在减少维护人员的工时占用和避免系统停机带来的损失。服务器的管理性能直接影响服务器的易用性。可管理性是TCO各种费用之中所占比例最大的一项。有研究表明,系统的部署和支持费用远远超过了初次购买所花的费用,而付给管理和支持人员的报酬又是其中所占份额最高的。另外,工作效率的降低、商业机会的丧失和营业收入的下滑所带来的财务损失也不可忽视。因此,系统的可管理性既是IT部门的迫切要求,又对企业经营效益起着非常关键的作用。可管理性产品和工具可通过提供系统内部的有关信息而达到简化系统管理的目的。通过网络实现远程管理,技术支持人员在自己的桌面上即可解决问题,不必亲赴故障现场。系统部件可自动监视自己的工作状态,如果发现故障隐患可随时发出警告,提醒维护人员立即采取措施保护企业数据资产,故障部件更换的 *** 作也非常简单方便。
由上所述,网络时代为服务器的应用提供了越来越广阔的空间,在网络技术和应用快速发展的今天,作为网络核心的服务器其重要性日益突出,服务器也由此进入了技术、应用和市场互动并迅速发展的新阶段。Unix *** 作系统由于其功能强大、技术成熟、可靠性好、网络及数据库功能强等特点,在计算机技术特别是 *** 作系统技术的发展中具有重要的不可替代的地位和作用。尽管Unix系统受到了NT的严峻挑战,但它仍是目前唯一能在各个硬件平台上稳定运行的 *** 作系统,并且在技术成熟程度以及稳定性和可靠性等方面仍然领先于NT。但在WINDOWS的不断追击下,Unix系统转向IA-64体系也是大势所趋,这里我们不妨来进一步看一下其经历的历程。
1994年,HP和Intel公司联合开发基于IA-64的Merced芯片。
1997年12月,Sun宣布将其基于Unix的 *** 作系统Solaris向IA-64体系移植。
1998年1月,Compaq/Digital公司宣布与Sequent合作,将Digital Unix *** 作系统和Sequent的产品集成,向IA-64转移。
1998年4月,SGI宣布将其主流产品向IA-64转移。
1999年1月,IBM宣布开发支持下一代IA-64架构的Unix *** 作系统,将SCO的UnixWare以及Sequent的高端PTX *** 作系统纳入自己的AIX环境,形成一个专门针对IA-64或Merced的Unix,同年,IBM收购Sequent。
因此,Unix系统转向IA-64体系已成为业界的大趋势,最重要的是,诸多Unix厂商对它的支持将打破以往Unix和Wintel两大阵营的对立,将Unix所具备的开放性发挥到顶峰,真正实现应用系统的跨平台使用,为用户提供最大的灵活性。
与IA-32位处理器相比,IA-64位处理器除增加数据宽度外,还结合CISC和RISC技术,采用显式并行指令计算(EPIC)技术,通过专用并行指令编译器尽可能将原代码编译解析为可并行 *** 作的“并行机器码”,完全兼容IA-32应用,保证了用户的可持续使用性。

近日,全球著名增长咨询公司Frost& Sullivan在2021第十五届GIL增长、科创与领导力峰会上授予了中兴通讯“2021年度全球服务器产品创新奖”,充分认可了中兴通讯服务器在产品收入、市场增长、创新技术、品牌等方面取得的卓越表现,并再次引发了市场对中兴通讯新一代G4X服务器的关注。
今年4月中兴通讯推出了G4X服务器,其计算性能于6月份刷新了SPECCPU性能测试的世界记录,更在超10个行业进行了创新实践。
那么,中兴通讯G4X服务器是如何不断“打怪升级”,在国产x86服务器全面竞争的市场环境下建立强有力竞争力的呢?总结起来,中兴通讯实现了企业服务的“三重境”。
第一重:
内修于“心”,产品实力更上层楼
产品实力永远是第一竞争力。任何厂商想要获得用户的认可,必须以产品性能为基础,服务器也不例外。
“5G、人工智能、大数据等新应用的发展,推动服务器朝着多样性算力、分布式以及硬件智能加速等方向发展。基于此,中兴通讯推出的全新G4X系列服务器,相比上一代产品有了很大提升。”中兴通讯副总裁郭树波表示。
产品性能方面,G4X服务器的通用算力、存储能力和IO能力均大幅提高,性能指标全面升级:整型计算性能提升了50%,浮点计算性能提升了52%,工作负载运行速度全面提升;充分发挥CPU优势,内置16通道、32个内存插槽,且支持英特尔新一代傲腾持久内存,充分结合了内存容量与智能系统加速能力,使内存带宽提升47%,内存容量提升33%,能够有效支持大数据应用;同时,新PCIe40的加盟相比上一代拥有更多互联通道,为G4X服务器带来了PCIE带宽的大幅提升,PCIE带宽达到上一代产品的26倍。

异构计算支持方面,G4X服务器搭载了第三代英特尔至强可扩展处理器。作为一款数据中心级的CPU,新一代英特尔至强提供端到端的数据科学工具及庞大的智能解决方案生态,能够灵活高效的应对多种应用场景。
除此之外,G4X服务器面向大数据、云计算、人工智能、5G等多个应用场景的需求,全面支持多种异构算力平台,使AI性能提升200%,NFV负载性能提升60%。
以智能制造场景为例,基于中兴通讯G4X服务器提供的强大AI算力以及网络转发性能,轻松应对工业制造企业面临的复杂的多元计算、海量的数据处理、以及高并发实时处理的挑战,支持机器视觉、无人作业、云化AGV、数字孪生等创新应用。
安全性上,“随着数据安全问题被提到新的高度,中兴通讯G4X系列服务器主要从固件级、系统级和硬件级三个层面加强了安全设计。”郭树波说。G4X服务器使用了intel CPU原生的SGX、TME、TXT等安全特性,全面防御网络攻击,实现每进程/容器/VM粒度的加密内存域,增强系统安全和抗攻击能力;通过支持双BIOS分区、双BMC分区等功能,大幅降低版本升级可能带来的隐患;通过外置TPM/TCM模块,采用安全芯片作为可信计算技术的核心,实现了敏感数据加密存储、身份认证、数据加密传输等功能,确保用户数据安全。
能耗方面,G4X服务器能帮助用户在保证性能的前提下实现节能:通过供电方案优化、机箱布局优化、部件选型和设计优化、智能散热管理,将系统散热能力提升了30%以上。

第二重:
外修于“行”,更好满足用户需求
除了过硬的技术实力,及时响应用户需求和定制化的解决方案需要厂商深厚的行业理解和沉淀。
中兴通讯始终秉承着关注用户体验,更好服务客户的原则,“G4X服务器在产品设计上历经了2多年时间,人力投入高达12000+人/月,收集了20000+条用户需求,经历了10000+项测试验证。”郭树波说。通过构建多重软实力,中兴通讯不断提升向客户的交付能力,获得了广泛的认可。
中兴通讯自2012年就全面进入了服务器自研时代。通过在CT行业30余年的精耕细作与技术沉淀,中兴通讯着力服务器和存储的研发,目前已经申请了1200多项发明专利,是业内少数同时具有自主研发硬件设备、 *** 作系统、数据库、存储软件及虚拟化软件的国产服务器厂商。

也因此,中兴通讯G4X服务器可以覆盖所有行业各类人工智能、大数据、云计算和其他智慧计算场景。面对不同行业用户对服务器的差异化需求,中兴通讯结合多年深耕行业的沉淀,力求使服务器的性能更贴合用户需求。通过打造端到端的综合解决方案和适应具体行业需求的软件定制化开发和预测试认证,可以向金融、政务、电信、电力和交通等多个行业提供特异性的算力支持。
值得一提的是,中兴通讯G4X服务器内置的第三代英特尔至强可扩展处理器拥有平衡的架构和多种集成加速能力,不论云端还是边端,不论5G、AI、物联网还是高性能计算,均可以实现性能提升,为被G4X服务器的定制化能力打下了坚实的基础。
另外,中兴通讯还在深圳、河源、长沙、西安及南京地区拥有多个生产基地,生产能力达到4万台/月。同时,中兴通讯始终坚持用电信级标准对服务器研发制造全流程进行管控,确保服务器出厂“零缺陷”,力求实现向用户高质量、高速度的交付。
在中国移动信息化应用创新加速落地的趋势下,电信行业对PC服务器的需求逐步加强。2021年6月,中兴通讯以第一名中标标包1:X86平台,中标份额为60%,超过17000台服务器,这是继中国移动2019年至2020年PC服务器集中采购、中国移动2020年PC服务器集中采购两个项目后,再次获得中国移动通用服务器类项目的最大份额。中兴通讯服务器以在产品设计、功能、性能等方面优异的集采测试结果,完美契合了网络云场景,赢得了标准最严格的电信行业客户的认可,并建立起长期合作关系。

第三重:
兼容并包,构建开放生态
面对全球化的市场,“单打独斗”已经难以适应发展的需求。想要提升产品竞争力,就需要全面的卓越技术,而这对术业有专攻的厂商来说并不现实。与合作伙伴共同构建技术生态,以开放的视角提升产品影响力成为了大部分有前瞻性的厂商的共同选择。

除了致力于打磨自身技术实力外,中兴通讯始终秉承着合作共赢的原则,联合产业链上优秀的合作伙伴,集中力量提升产品竞争力,共同实现跨越发展。
基于与业界顶尖供应商的多年合作,中兴通讯服务器与业界领先的硬盘、内存等供应商均保持着良好的合作关系,部件与器件始终保持了较高的行业水准,全面支持服务器整体的高性能。
不止于硬件上完善、高质量的产业链生态,中兴通讯还与 *** 作系统、数据库、中间件等软件厂商进行了兼容性测试和认证,相互协作互相促进,帮助客户降低了系统的风险,带来了更大的价值。
正是这样兼容并包的态度,使得中兴通讯联手英特尔等众多合作伙伴,不断实现技术创新,以更高的产品品质、更强的技术能力、更佳的用户体验,帮助客户更好实现数字化转型。升级与突破,中兴通讯一直在路上。

随着互联网技术的不断发展,我们在进行服务器开发方面也掌握了很多的开发部署技术。今天,昌平镇IT培训就给大家简单来介绍一下,都有哪些服务器开发部署方法是值得我们使用的。



停机部署

停机部署其实是简单粗暴的方式,就是简单地把现有版本的服务停机,然后部署新的版本。在一些时候,我们必需使用这样的方式来部署或升级多个服务。比如,新版本中的服务使用到了和老版本完全不兼容的数据表的设计。这个时候,我们对生产有两个变更,一个是数据库,另一个是服务,而且新老版本互不兼容,所以只能使用停机部署的方式。

这种方式的优势是,在部署过程中不会出现新老版本同时在线的情况,所有状态完全一致。停机部署主要是为了新版本的一致性问题。

这种方式不好的问题就是会停机,对用户的影响会很大。所以,一般来说,这种部署方式需要事前挂公告,选择一个用户访问少的时间段来做。

蓝绿部署

蓝绿部署与停机部署大的不同是,其在生产线上部署相同数量的新的服务,然后当新的服务测试确认OK后,把流量切到新的服务这边来。蓝绿部署比停机部署好的地方是,它无需停机。

我们可以看到这种部署方式,就是我们说的预发环境。在我以前的金融公司里,也经常用这种方式,生产线上有两套相同的集群,一套是Prod是真实服务的,另一套是Stage是预发环境,发布发Stage,然后把流量切到Stage这边,于是Stage就成了Prod,而之前的Prod则成了Stage。有点像换页似的。

这种方式的优点是没有停机,实时发布和升级,也避免有新旧版本同时在线的问题。但这种部署的问题就是有点浪费,因为需要使用双倍的资源(不过,这只是在物理机时代,在云计算时代没事,因为虚拟机部署完就可以释放了)。

另外,如果我们的服务中有状态,比如一些缓存什么的,停机部署和蓝绿部署都会有问题。

滚动部署

滚动部署策略是指通过逐个替换应用的所有实例,来缓慢发布应用的一个新版本。通常过程如下:在负载调度后有个版本A的应用实例池,一个版本B的实例部署成功,可以响应请求时,该实例被加入到池中。然后,版本A的一个实例从池中删除并下线。

这种部署方式直接对现有的服务进行升级,虽然便于 *** 作,而且在缓慢地更新的过程中,对于有状态的服务也是比较友好的,状态可以在更新中慢慢重建起来。但是,这种部署的问题也是比较多的。

在发布过程中,会出现新老两个版本同时在线的情况,同一用户的请求可能在新老版中切换而导致问题。

在笔者看来,相对于企业而言,尤其是中小企业来说,机架式服务器可能会更适合一些,究其原因,机架式和服务器在空间的节省、高密度部署优势、优秀的散热功能以及低功耗等多项优势,在现在的企业中已经逐渐取代了原来用的最多的传统塔式服务器了,那么机架式服务器到底优越在哪里?本期我们就来说说。

在当前大数据爆发的时代,随着国家信息化进程的进一步加快,在企业的IT基础架构层面服务器已经逐渐成为了底层最不可或缺的组成部分之一,我们都知道服务器设备在帮助企业管理数据和信息方面能够发挥很重要的作用,然而对于企业来说,在日常采购服务器的时候也许我们会纠结于机架式、刀片式还有塔式服务器这几类服务器,不知道究竟哪款服务器真正适合企业所需。

从外观和应用说起机架式服务器你了解吗

在笔者看来,相对于企业而言,尤其是中小企业来说,机架式服务器可能会更适合一些,究其原因,机架式和服务器在空间的节省、高密度部署优势、优秀的散热功能以及低功耗等多项优势,在现在的企业中已经逐渐取代了原来用的最多的传统塔式服务器了,那么机架式服务器到底优越在哪里?本期我们就来说说。

外观设计上的优势

机架式服务器在外观设计方面通常都是采用工业标准化的服务器生产模式,在设备的外观方面有统一的标准,而且机架式服务器外观是严格根据机柜的尺寸和型号进行精密设计和生产的,通常有1U、2U、3U、4U、5U和7U几种标准。通常企业都会选用机械尺寸符合19英寸工业标准的机架式服务器。

机架式服务器内部做了多种结构优化,其设计宗旨主要是为了尽可能减少空间占用,而减少空间的直接好处就是在机房托管的时候价格会便宜很多。

机架服务器统一的生产与外形标准,使得它们与更多的IT设备(交换机和路由器等)一样,可以统一放到机架上,便于统一管理。因此,机架式服务器一方面可以占用最小的空间,另一方面也便于与其他网络设备连接与管理。

应用场景上的优势

例如1U的服务器大都只有1-2个PCI扩充槽。此外,机架式服务器的散热性能也是一个需要注意的问题,放置时需要搭配机柜等设备。因此机架服务器多用于服务器数量较多的大中型企业使用,目前也有不少企业将服务器托管于服务商。

对于企业而言,尤其是中小型企业,如果在机房建设的空间节省方面有较高要求以及在设备高密度部署方面有需求的话,那么机架式服务器可能会是这种企业的首选,当然,塔式服务器和刀片式服务器同样也有着自身不可比拟的特点和优势,这就需要不同行业、不同规模的企业根据自身需求来进行服务器设备的选择了。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zz/10731801.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-10
下一篇2023-05-10

发表评论

登录后才能评论

评论列表(0条)

    保存