网络拓扑处理器
贡献者:不爱吃窝瓜 浏览:797次 创建时间:2015-11-04
-
1 简介
2 InfiniBand接口
简介
该网络拓扑架构[1] ,用于主处理器单元(MPU)互连网络中,包括多个处理节点;该拓扑架构为一种K维(K∈Z+)互连网络系统,其中的每个节点,均位于2K个相邻节点所组成的K维立方体的体心,并同时与上述2K个相邻节点互连。采用上述网络拓扑架构,每个处理节点可直接或者间接连接到网络中其他处理节点的子集上,使所有的节点整合成为一台高耦合的、自洽的、高扩展并能灵活调整的并行计算系统。一个MPU系统既可视为一台高性能高可扩展的并行计算系统;又可视为一个高性能高耦合的超级节点,借助一定的外联扩展网络系统,可以组建成一个整合的规模更大的超级并行计算系统。
InfiniBand接口
是旨在满足新兴的微处理器通信要求新协议中的一种。尽管目前最流行的互连结构仍是做为现业界标准的外围设备互连(PCI)总线标准,但PCI无法满足不断增长的设备I/O需要。根据目前标准,其66MHz的最大速度(对PCI-X则为133MHz)是相当慢的。而其共享总线架构也带来了瓶颈限制。虽然可以通过桥接额外的段来隔离活动连接,但其回报也是非常有限的。现在,语音和数据业务的爆炸性增长以及诸如集群服务器、对称式多处理和远程存储等专用拓扑技术的出现需要更先进的互连方法。 InfiniBand建立在现有交换式网络拓扑中所采用的概念之上,并将这些概念应用于处理器互连,从而创造出一种系统区域网络(system area network,SAN)。它采用了一种交换构造拓扑结构,利用通道适配器、交换器(switch)和路由器在系统中的结点间提供大带宽的点到点连接。InfiniBand在设计开始就考虑到了可扩展性。尽管InfiniBand标准1.0版本规定的信号速率为2.5 Gbps,但在连接初始化和训练过程中仍然需要进行连接速度协商。连接初始化过程的另一部分功能是进行连接带宽协商。InfiniBand接口可通过2、8或24个信号对的全双工、自定时差分接口工作于1X、4X和12X(2.5、10或30 Gbps)速度下。采用的连接编码方案是8B/10B编码,这种编码方法提供了有限的游程长度,支持时钟恢复和综合、字节同步、控制字符传输和DC平衡等特性。
开放分类
参考资料
百度百科
贡献者
本词条在以下词条中被提及:
关于本词条的评论共:(0条)