该架构相对于单体架构来说,这种架构提供了负载均衡的能力,大大提高了系统负载能力,解决了网站高并发的需求。另外还有以下特点:
降低了耦合度:把模块拆分,使用接口通信,降低模块之间的耦合度。
责任清晰:把项目拆分成若干个子项目,不同的团队负责不同的子项目。
扩展方便:增加功能时只需要再增加一个子项目,调用其他系统的接口就可以。
部署方便:可以灵活的进行分布式部署。
提高代码的复用性:比如service层,如果不采用分布式rest服务方式架构就会在手机wap商城,微信商城,pc,android,ios每个端都要写一个service层逻辑,开发量大,难以维护一起升级,这时候就可以采用分布式rest服务方式,公用一个service层。
缺点 :系统之间的交互要使用远程通信,接口开发增大工作量,但是利大于弊。
三、微服务架构
微服务架构,主要是中间层分解,将系统拆分成很多小应用(微服务),微服务可以部署在不同的服务器上,也可以部署在相同的服务器不同的容器上。当应用的故障不会影响到其他应用,单应用的负载也不会影响到其他应用,其代表框架有Spring cloud、Dubbo等。 其架构图如下所示:
HPC的诞生与发展
超级计算机是与高性能计算机相对应的概念。一般将信息处理能力比个人计算机快至少一到两个数量级的计算机,归类为高性能计算(High Performance Computing)。超级计算机发展源于大型科学工程对于超高密集计算、海量数据处理应用需求。
说到世界第一台计算机,都知道是1946年诞生于美国宾夕法尼亚大学"ENIAC",但很少人知道,ENIAC是美国军方为满足美国奥伯丁试验场计算弹道需要而研制的。在那个中国还大量使用“算盘”的时代,"ENIAC"堪称当时的超级计算机。
从"ENIAC"诞生算起,到上世纪50年代中后期,以美苏争霸为背景,计算机被广泛应用于导弹、核武器的计算研究,这一时期的计算机特点是体积大、功耗高、可靠性差。直到1958年晶体管的出现,计算机体积开始大幅缩小,运算速度提升至最高可达300万次,这些可以算作是超级计算机发展的前身,但仅限用于国家主导的军事科研工程。
超级计算机真正迎来大发展,是从1964年集成电路被大规模应用开始的。我国超级计算机研制就起步于这一时期。到目前为止,大体经历了三个阶段:第一阶段,自60年代末到70年代末,主要从事大型机的并行处理技术研究;第二阶段,自70年代末至80年代末,主要从事向量机及并行处理系统的研制;第三阶段,自80年代末至今,主要从事MPP系统及工作站集群系统的研制。
1983年12月22日,中国第一台每秒钟运算一亿次以上的“银河一号”巨型计算机的研究成功,才真正跨入超算竞争的行列。时至今日,中国神威·太湖之光、天河二号不仅成为全球超级计算机TOP500的“常客”,也曾成为榜单的实力担当。如今,这些浮点计算能力达每秒万亿亿次的超级计算机,其应用范围也不再局限于军事科研项目,在CAE仿真、动漫渲染、物理化学、石油勘探、生命科学、气象环境都有着广泛应用。
HPC逐渐走向平民化
在大型机时代,高性能计算基本上是IBM最擅长的阵地。从上世纪60年代到本世纪初,在全球超级计算机排行榜上,基本都是以IBM POWER处理器为内核,通过大规模并行级联打造的平台。
近二十年,随着PC及服务器需求的迅猛增长,庞大的市场需求支撑了X86处理器性能的快速提升,在不断提升的性价比优势,以及全新高速互连技术架构Omni-Path的合击下,以X86处理器为核心的高性能计算产品越来越成熟,在GPU计算加速卡的加持下,正推动着HPC向更多领域普及。同时,针对典型行业HPC的蓝图参考架构、高性能生态联盟、高性能应用框架,降低了HPC架构部署管理难度和应用开发强度,使HPC的技术门槛进一步降低。
除此之外,不断深化的企业数字化转型和智能化升级需求,也成为HPC走向普及的的一个重要的推动力量。随着企业数据量的快速增长,以及大数据、人工智能以及深度学习等技术快速融入,企业依赖更高性能的算力提供业务创新和数据分析决策。特别是近两年备受关注的自动驾驶汽车、人脸识别、医疗诊断、工业智能以及商业决策,其核心是大数据支持,HPC成为人工智能模型训练的重要支撑平台。

(编辑:淮南站长网)
【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!
|