一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

一种高密度GPU服务器的制作方法

2021-12-03 23:31:00 来源:中国专利 TAG:

一种高密度gpu服务器
技术领域
1.本发明属于高密度服务器设计技术领域,具体涉及一种高密度gpu服务器。


背景技术:

2.随着人工智能、大数据、云计算等新兴技术的产生,业界对于服务器的需求与日俱增,大规模的ai服务部署需求也越来越多,对于gpu的算力要求和密度要求也是逐渐提高,gpu的核数和算力随着需求的剧增也是逐渐增强。而在gpu类型相同的情况下,一台服务器能提供多少算力就取决于gpu的密度,如何在现有尺寸下设计出更高密度的gpu服务器产品是当前面临的一个挑战。
3.目在当前的服务器产品中,大致可以分为两种形态的ai服务器产品,一种是通过使用板载式的gpu板进行系统设计,该形式的通用配置是一个板载式gpu板能够搭载8颗gpu,一个4u高度的服务器可以搭配8张gpu卡;另一种形式的是通过业界标准的pcie gpu卡进行设计,一个4u服务器内可以搭配8张gpu卡。当前主流配置的服务器在4u空间内对于双宽gpu卡最大支持8张,gpu的密度不够高,而且对于标卡,产品不支持gpu直接存储功能和gpu直接rdma功能,拓扑设计上不能充分发挥gpu的性能。
4.此为现有技术的不足,因此,针对现有技术中的上述缺陷,提供一种高密度gpu服务器,是非常有必要的。


技术实现要素:

5.针对现有技术的上述现有ai服务器中gpu密度不够高,且gpu的拓扑不能充分发挥gpu优势的缺陷,本发明提供一种高密度gpu服务器,以解决上述技术问题。
6.第一方面,本发明提供一种高密度gpu服务器,包括服务器机箱外壳,服务器机箱外壳内自前侧面至后侧面依次设置有散热模块、gpu模块、中背板以及存储网络模块;
7.gpu模块包括gpu板,gpu板横向设置,gpu板上设置有若干pcie switch芯片,每个pcie switch芯片连接有第一高密连接器和若干gpu接口,每个gpu接口连接有一个gpu卡;
8.中背板竖向设置,且板面与服务器机箱外壳前侧面平行;中背板正面设置有第二高密连接器,中背板背面设置有第三高密连接器,第二高密连接器与第三高密连接器连通,pcie switch芯片通过第一高密连接器与第二高密连接器插接;
9.存储网络模块与第三高密连接器插接。
10.进一步地,gpu卡包括长侧边、短侧边和厚度边;
11.短侧边与厚度边形成的侧面处设置有金手指,金手指与gpu接口插接;
12.长侧边与厚度边形成的侧面处设置有通风散热孔。gpu卡采用双宽半长gpu卡,即新gpu卡宽度设计为传统gpu卡宽度的两倍,新gpu卡长度设计为传统gpu卡长度的一半。gpu卡和gpu板通过金手指互联,金手指位置相对于传统板卡从底部调整到了侧边,相对于传统的金手指设计,当前的设计可以满足gpu的额外供电需求,gpu卡不需要其他的供电线缆连接,还提高了gpu板上gpu的部署密度;gpu卡的通风散热孔从一侧移到了侧边,这样有利于
增大开孔面积,散热更优。
13.进一步地,gpu板包括第一侧边、第二侧边、第三侧边以及第四侧边;
14.gpu板上设置有十个pcie switch芯片,十个pcie switch芯片成两行分布,两行pcie switch芯片沿着第四侧边至第二侧边的方向分布;
15.每一行的五个pcie switch芯片沿着第一侧边至第三侧边的方向分布;
16.每个pcie switch芯片连接有两个gpu接口,每个pcie switch芯片连接有一个第一高密连接器;
17.靠近第二侧边的一行pcie switch芯片连接的两个gpu接口设置在第一侧边处;
18.靠近第四侧边的一行pcie switch芯片连接的两个gpu接口设置在两行pcie switch芯片之间;
19.十个第一高密连接器设置在第四侧边的边缘。每个pcie switch芯片通过两根pcie x16信号线路分别连接一个gpu接口。本发明支持gpu、ib卡、ssd1:1:1配比的拓扑设计。
20.进一步地,gpu卡6上还设置有nvlink接口,相邻gpu卡6的nvlink接口通过互联gpu卡连接。nvlink接口实现gpu板上相邻gpu卡的高速互联,所谓相邻gpu卡为连接到同一个pcie switch芯片的gpu卡。
21.进一步地,gpu板上还设置有两个板卡供电口,两个板卡供电口分别设置在第一高密连接器的两侧;
22.中背板背面的两侧设置有两组psu连接器,存储网络模块两侧分别设置一个有psu模块;
23.板卡供电口通过对应一组psu连接器与psu模块连接。中背板不但将系统中的高速信号进行互联,还将各设备之间的电源供应连通。
24.进一步地,中背板上每组psu连接器包括竖向设置的两个psu连接器;
25.中背板上还设置有散热开口。每个psu连接器连接54v的psu模块。
26.进一步地,散热模块包括呈行列设置的散热风扇。散热风扇数量为十个,散热风扇呈两行分布,每行五个。散热风扇采用8086型号的散热风扇,保证系统的散热需求,上下两层风扇可以兼顾上下两层设备的散热需求。
27.进一步地,存储网络模块包括存储单元和网卡单元,存储单元设置在网卡单元上部,网卡单元下部设置有主板,主板上设置有cpu;
28.存储单元、网卡单元、cpu与第三高密连接器插接。
29.进一步地,存储单元包括存储背板和若干ssd,ssd插接在存储背板上,且纵向排布生成ssd存储列;
30.网络单元包括网络背板和若干ib卡;ib卡插接在网络背板上,且纵向排布生成ib卡存储列;
31.存储背板、网络背板及主板通过第三高密连接器插接在中背板背面,且存储背板、网络背板及主板平行,并与中背板垂直;
32.ib卡存储列设置在ssd存储列上部,ocp网卡及cpu设置在ib卡下部。ssd采用e1.l型的ssd。存储背板及网络背板使用pcie riser卡。每个pcie switch芯片通过两根pcie x16信号线经第一高密连接器、第二高密连接器以及第三高密连接器与两个ib卡连接;每个
switch芯片;sw5

第五pcie switch芯片;sw6

第六pcie switch芯片;sw7

第七pcie switch芯片;sw8

第八pcie switch芯片;sw9

第九pcie switch芯片;sw10

第十pcie switch芯片;g1

第一gpu接口;g2

第二gpu接口;g3

第三gpu接口;g4

第四gpu接口;g5

第五gpu接口;g6

第六gpu接口;g7

第七gpu接口;g8

第八gpu接口;g9

第九gpu接口;g10

第十gpu接口;g11

十一gpu接口;g12

第十二gpu接口;g13

第十三gpu接口;g14

第十四gpu接口;g15

第十五gpu接口;g16

第十六gpu接口;g17

第十七gpu接口;g18

第十八gpu接口;g19

第十九gpu接口;g20

第二十gpu接口。
具体实施方式
51.为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
52.rdma,是remote direct memory access的简称,远程直接数据存取,就是为了解决网络传输中服务器端数据处理的延迟而产生的。
53.pcie,是pci

express的简称,peripheral component interconnect express,是一种高速串行计算机扩展总线标准的简称。
54.pcie switch,是pcie开关或pcie网桥的简称。
55.nvlink,是nvidia开发并推出的一种总线及其通信协议。nvlink采用点对点结构、串列传输,用于cpu与gpu之间的连接,也可用于多个gpu之间的相互连接。
56.ib卡,是infiniband网卡的简称,无线带宽网卡。
57.ssd,是solid state disk的简称,固态硬盘。
58.e1.l,intel推出的行业标准edsff的全新形态的ssd,edsff主要分为长短两种规格,长的叫做edsff 1u long,简称e1.l;短的叫做edsff 1u short,简称e1.s,用于替代m.2。
59.实施例1:
60.如图1所示,本发明提供一种高密度gpu服务器,包括服务器机箱外壳1,服务器机箱外壳1内自前侧面1.1至后侧面1.2依次设置有散热模块2、gpu模块3、中背板4以及存储网络模块5;
61.gpu模块3包括gpu板6,gpu板6横向设置,gpu板6上设置有若干pcie switch芯片,每个pcie switch芯片连接有第一高密连接器7和若干gpu接口,每个gpu接口连接有一个gpu卡9;
62.中背板4竖向设置,且板面与服务器机箱外壳1前侧面1.1平行;中背板4正面设置有第二高密连接器,中背板4背面设置有第三高密连接器8,第二高密连接器与第三高密连接器8连通,pcie switch芯片通过第一高密连接器7与第二高密连接器插接,存储网络模块5与第三高密连接器8插接。
63.实施例2:
64.如图1和图2所示,本发明提供一种高密度gpu服务器,包括服务器机箱外壳1,服务
器机箱外壳1内自前侧面1.1至后侧面1.2依次设置有散热模块2、gpu模块3、中背板4以及存储网络模块5;
65.gpu模块3包括gpu板6,gpu板6横向设置,gpu板6上设置有若干pcie switch芯片,每个pcie switch芯片连接有第一高密连接器7和若干gpu接口,每个gpu接口连接有一个gpu卡9;
66.中背板4竖向设置,且板面与服务器机箱外壳1前侧面1.1平行;中背板4正面设置有第二高密连接器,中背板4背面设置有第三高密连接器8,第二高密连接器与第三高密连接器8连通,pcie switch芯片通过第一高密连接器7与第二高密连接器插接,存储网络模块5与第三高密连接器8插接;
67.如图3、图4和图5所示,gpu卡9包括长侧边9.1、短侧边9.2和厚度边9.3;
68.短侧边9.2与厚度边9.3形成的侧面处设置有金手指10,金手指10与gpu接口插接;
69.长侧边9.1与厚度边9.3形成的侧面处设置有通风散热孔11;
70.gpu卡9采用双宽半长gpu卡,即新gpu卡宽度设计为传统gpu卡宽度的两倍,新gpu卡长度设计为传统gpu卡长度的一半。gpu卡9和gpu板6通过金手指10互联,金手指10位置相对于传统板卡从底部调整到了侧边,相对于传统的金手指设计,当前的设计可以满足gpu的额外供电需求,gpu卡9不需要其他的供电线缆连接,还提高了gpu板上gpu的部署密度;gpu卡的通风散热孔11从一侧移到了侧边,这样有利于增大开孔面积,散热更优。
71.实施例3:
72.如图3所示,本发明提供一种高密度gpu服务器,包括服务器机箱外壳1,服务器机箱外壳1内自前侧面1.1至后侧面1.2依次设置有散热模块2、gpu模块3、中背板4以及存储网络模块5;
73.gpu模块3包括gpu板6,gpu板6横向设置,gpu板6上设置有若干pcie switch芯片,每个pcie switch芯片连接有第一高密连接器7和若干gpu接口,每个gpu接口连接有一个gpu卡9;
74.中背板4竖向设置,且板面与服务器机箱外壳1前侧面1.1平行;中背板4正面设置有第二高密连接器,中背板4背面设置有第三高密连接器8,第二高密连接器与第三高密连接器8连通,pcie switch芯片通过第一高密连接器7与第二高密连接器插接,存储网络模块5与第三高密连接器8插接;
75.gpu卡6上还设置有nvlink接口,相邻gpu卡6的nvlink接口通过互联gpu卡连接;接口互连,nvlink接口实现gpu板上相邻gpu卡6的高速互联;
76.gpu板6上还设置有两个板卡供电口12,两个板卡供电口12分别设置在第一高密连接器7的两侧;
77.如图6所示,中背板4背面的两侧设置有两组psu连接器,存储网络模块5两侧分别设置一个有psu模块14;
78.板卡供电口12通过对应一组psu连接器13与psu模块14连接;中背板不但将系统中的高速信号进行互联,还将各设备之间的电源供应连通;
79.中背板4上每组psu连接器包括竖向设置的两个psu连接器13;
80.中背板4上还设置有散热开口;每个psu连接器连接54v的psu模块14。
81.实施例4:
82.如图3所示,本发明提供一种高密度gpu服务器,包括服务器机箱外壳1,服务器机箱外壳1内自前侧面1.1至后侧面1.2依次设置有散热模块2、gpu模块3、中背板4以及存储网络模块5;
83.gpu模块3包括gpu板6,gpu板6横向设置,gpu板6上设置有若干pcie switch芯片,每个pcie switch芯片连接有第一高密连接器7和若干gpu接口,每个gpu接口连接有一个gpu卡9;
84.中背板4竖向设置,且板面与服务器机箱外壳1前侧面1.1平行;中背板4正面设置有第二高密连接器,中背板4背面设置有第三高密连接器8,第二高密连接器与第三高密连接器8连通,pcie switch芯片通过第一高密连接器7与第二高密连接器插接,存储网络模块5与第三高密连接器8插接;
85.如图3、图4和图5所示,gpu卡9包括长侧边9.1、短侧边9.2和厚度边9.3;
86.短侧边9.2与厚度边9.3形成的侧面处设置有金手指10,金手指10与gpu接口插接;
87.长侧边9.1与厚度边9.3形成的侧面处设置有通风散热孔11;
88.gpu板6包括第一侧边6.1、第二侧边6.2、第三侧边6.3以及第四侧边6.4;
89.gpu板6上设置有十个pcie switch芯片,第一pcie switch芯片sw1、第二pcie switch芯片sw2、第三pcie switch芯片sw3、第四pcie switch芯片sw4、第五pcie switch芯片sw5、第六pcie switch芯片sw6、第七pcie switch芯片sw7、第八pcie switch芯片sw8、第九pcie switch芯片sw9以及第十pcie switch芯片sw10,十个pcie switch芯片成两行分布,两行pcie switch芯片沿着第四侧边6.4至第二侧边6.2的方向分布;第一pcie switch芯片sw1、第二pcie switch芯片sw2、第三pcie switch芯片sw3、第四pcie switch芯片sw4以及第五pcie switch芯片sw5为一行设置在第四侧边6.4处,第六pcie switch芯片sw6、第七pcie switch芯片sw7、第八pcie switch芯片sw8、第九pcie switch芯片sw9以及第十pcie switch芯片sw10为一行设置在第二侧边6.2处;
90.每一行的五个pcie switch芯片沿着第一侧边6.1至第三侧边6.3的方向分布;第一pcie switch芯片sw1、第二pcie switch芯片sw2、第一pcie switch芯片sw1、第四pcie switch芯片sw4以及第五pcie switch芯片sw5依次自第一侧边6.1至第三侧边6.3分布,第六pcie switch芯片sw6、第七pcie switch芯片sw7、第八pcie switch芯片sw8、第九pcie switch芯片sw9以及第十pcie switch芯片sw10依次自第一侧边6.1至第三侧边6.3分布;
91.每个pcie switch芯片连接有两个gpu接口,每个pcie switch芯片连接有一个第一高密连接器7;第一pcie switch芯片sw1连接有第一gpu接口g1和第二gpu接口g2,第二pcie switch芯片sw2连接有第三gpu接口g3和第四gpu接口g4,第三pcie switch芯片sw3连接有第五gpu接口g5和第六gpu接口g6,第四pcie switch芯片sw4连接有第七gpu接口g7和第八gpu接口g8,第五pcie switch芯片sw5连接有第九gpu接口g9和第十gpu接口g10,第六pcie switch芯片sw6连接有第十一gpu接口g11和第十二gpu接口g12,第七pcie switch芯片sw7连接有第十三gpu接口g13和第十四gpu接口g14,第八pcie switch芯片sw8连接有第十五gpu接口g15和第十六gpu接口g16,第九pcie switch芯片sw9连接有第十七gpu接口g17和第十八gpu接口g18,第十pcie switch芯片sw10连接有第十九gpu接口g19和第二十gpu接口g20;
92.靠近第二侧边6.2的一行pcie switch芯片连接的两个gpu接口设置在第一侧边
6.1处;第十一gpu接口g11、第十二gpu接口g12、第十三gpu接口g13、第十四gpu接口g14、第十五gpu接口g15、第十六gpu接口g16、第十七gpu接口g17、第十八gpu接口g18、第十九gpu接口g19以及第二十gpu接口g20设置在第一侧边6.1处;
93.靠近第四侧边6.4的一行pcie switch芯片连接的两个gpu接口设置在两行pcie switch芯片之间;第一gpu接口g1、第二gpu接口g2、第三gpu接口g3、第四gpu接口g4、第五gpu接口g5、第六gpu接口g6、第七gpu接口g7、第八gpu接口g8、第九gpu接口g9以及第十gpu接口g10设置在两行pcie switch芯片之间;
94.十个第一高密连接器7设置在第四侧边6.4的边缘;每个pcie switch芯片通过两根pcie x16信号线路分别连接一个gpu接口。
95.实施例5:
96.如图3所示,本发明提供一种高密度gpu服务器,包括服务器机箱外壳1,服务器机箱外壳1内自前侧面1.1至后侧面1.2依次设置有散热模块2、gpu模块3、中背板4以及存储网络模块5;
97.gpu模块3包括gpu板6,gpu板6横向设置,gpu板6上设置有若干pcie switch芯片,每个pcie switch芯片连接有第一高密连接器7和若干gpu接口,每个gpu接口连接有一个gpu卡9;
98.中背板4竖向设置,且板面与服务器机箱外壳1前侧面1.1平行;中背板4正面设置有第二高密连接器,中背板4背面设置有第三高密连接器8,第二高密连接器与第三高密连接器8连通,pcie switch芯片通过第一高密连接器7与第二高密连接器插接,存储网络模块5与第三高密连接器8插接;
99.gpu卡6上还设置有nvlink接口,相邻gpu卡6的nvlink接口通过互联gpu卡连接,nvlink接口实现gpu板上相邻gpu卡的高速互联;
100.gpu板6上还设置有两个板卡供电口12,两个板卡供电口12分别设置在第一高密连接器7的两侧;
101.如图6所示,中背板4背面的两侧设置有两组psu连接器,存储网络模块5两侧分别设置一个有psu模块14;
102.板卡供电口12通过对应一组psu连接器13与psu模块14连接;中背板不但将系统中的高速信号进行互联,还将各设备之间的电源供应连通;
103.中背板4上每组psu连接器包括竖向设置的两个psu连接器13;
104.中背板4上还设置有散热开口;每个psu连接器连接54v的psu模块14;
105.如图7所示,散热模块2包括呈行列设置的散热风扇15;散热风扇数量为十个,十个散热风扇15呈两行分布,每行五个;散热风扇采用8086型号的散热风扇,保证系统的散热需求,上下两层风扇可以兼顾上下两层设备的散热需求;
106.存储网络模块5包括存储单元和网卡单元,存储单元设置在网卡单元上部,网卡单元下部设置有主板16,主板16上设置有cpu 17;
107.存储单元、网卡单元、cpu 17与第三高密连接器8插接;
108.存储单元包括存储背板和若干ssd 18,ssd 18插接在存储背板上,且纵向排布生成ssd存储列;
109.网络单元包括网络背板和若干ib卡19;ib卡19插接在网络背板上,且纵向排布生
成ib卡存储列;
110.存储背板、网络背板及主板16通过第三高密连接器8插接在中背板4背面,且存储背板、网络背板及主板16平行,并与中背板4垂直;
111.如图8所示,ib卡存储列设置在ssd存储列上部,cpu 17设置在ib卡19下部;ssd 18采用e1.l型的ssd。存储背板及网络背板使用pcie riser卡;每个pcie switch芯片通过两根pcie x16信号线经第一高密连接器7、第二高密连接器以及第三高密连接器8与两个ib卡19连接;每个pcie switch芯片通过一根pcie x16信号线经第一高密连接器7、第二高密连接器以及第三高密连接器8与cpu 17连接;每个pcie switch芯片通过一根pcie x8信号线经第一高密连接器7、第二高密连接器以及第三高密连接器8与两个ssd 18连接;ib卡19支持200g速率搭配e1.l型的ssd使得本发明支持gpu直接存储和gpu远程直接读取;e1.l型的ssd有效提升存储密度;e1.l型ssd代替传统的nvme硬盘设计,节省设计空间,提升设计密度;本发明支持gpu、ib卡、ssd 1:1:1配比的拓扑设计。
112.实施例6:
113.如图3所示,本发明提供一种高密度gpu服务器,包括服务器机箱外壳1,服务器机箱外壳1内自前侧面1.1至后侧面1.2依次设置有散热模块2、gpu模块3、中背板4以及存储网络模块5;服务器机箱外壳1为4u高度;
114.gpu模块3包括gpu板6,gpu板6横向设置,gpu板6上设置有若干pcie switch芯片,每个pcie switch芯片连接有第一高密连接器7和若干gpu接口,每个gpu接口连接有一个gpu卡9;
115.中背板4竖向设置,且板面与服务器机箱外壳1前侧面1.1平行;中背板4正面设置有第二高密连接器,中背板4背面设置有第三高密连接器8,第二高密连接器与第三高密连接器8连通,pcie switch芯片通过第一高密连接器7与第二高密连接器插接,存储网络模块5与第三高密连接器8插接;
116.gpu卡6上还设置有nvlink接口,相邻gpu卡6的nvlink接口通过互联gpu卡连接,nvlink接口实现gpu板上相邻gpu卡的高速互联;
117.gpu板6上还设置有两个板卡供电口12,两个板卡供电口12分别设置在第一高密连接器7的两侧;
118.如图6所示,中背板4背面的两侧设置有两组psu连接器,存储网络模块5两侧分别设置一个有psu模块14;
119.板卡供电口12通过对应一组psu连接器13与psu模块14连接;中背板不但将系统中的高速信号进行互联,还将各设备之间的电源供应连通;
120.中背板4上每组psu连接器包括竖向设置的两个psu连接器13;
121.中背板4上还设置有散热开口;每个psu连接器连接54v的psu模块14;
122.如图7所示,散热模块2包括呈行列设置的散热风扇15;散热风扇数量为十个,十个散热风扇15呈两行分布,每行五个;散热风扇采用8086型号的散热风扇,保证系统的散热需求,上下两层风扇可以兼顾上下两层设备的散热需求;
123.存储网络模块5包括存储单元和网卡单元,存储单元设置在网卡单元上部,网卡单元下部设置有主板16,主板16上设置有cpu 17;
124.存储单元、网卡单元、cpu 17与第三高密连接器8插接;
125.存储单元包括存储背板和二十个ssd 18,二十个ssd 18插接在存储背板上,且纵向排布生成ssd存储列;
126.网络单元包括网络背板和二十个ib卡19;二十个ib卡19插接在网络背板上,且纵向排布生成ib卡存储列;
127.存储背板、网络背板及主板16通过第三高密连接器8插接在中背板4背面,且存储背板、网络背板及主板16平行,并与中背板4垂直;
128.如图8所示,ib卡存储列设置在ssd存储列上部,cpu 17设置在ib卡19下部;ssd 18采用e1.l型的ssd;存储背板及网络背板使用pcie riser卡;
129.如图9所示,每个pcie switch芯片通过两根pcie x16信号线经第一高密连接器7、第二高密连接器以及第三高密连接器8与两个ib卡19连接;每个pcie switch芯片通过一根pcie x16信号线经第一高密连接器7、第二高密连接器以及第三高密连接器8与cpu 17连接;每个pcie switch芯片通过一根pcie x8信号线经第一高密连接器7、第二高密连接器以及第三高密连接器8与两个ssd 18连接;ib卡19支持200g速率搭配e1.l型的ssd使得本发明支持gpu直接存储和gpu远程直接读取;e1.l型的ssd有效提升存储密度;e1.l型ssd代替传统的nvme硬盘设计,节省设计空间,提升设计密度;
130.cpu 17的数量为两个,包括第一cpu 17.1和第二cpu 17.2,主板上还设置有ocp网卡20,两个cpu 17通过ocp网卡20连接;第一cpu 17.1与第一pcie switch芯片sw1、第二pcie switch芯片sw2、第三pcie switch芯片sw3、第四pcie switch芯片sw4以及第五pcie switch芯片sw5连接,第二cpu 17.2与第六pcie switch芯片sw6、第七pcie switch芯片sw7、第八pcie switch芯片sw8、第九pcie switch芯片sw9以及第十pcie switch芯片sw10连接;第一cpu 17.1和第二cpu 17.2与ocp网卡20均连接;
131.本发明支持gpu卡、ib卡、ssd 1:1:1配比的拓扑设计;规格为4u的ai服务器可以最大支持到20张全高半长双宽gpu卡且gpu卡之间可以通过nvlink接口进行高速互联。
132.尽管通过参考附图并结合优选实施例的方式对本发明进行了详细描述,但本发明并不限于此。在不脱离本发明的精神和实质的前提下,本领域普通技术人员可以对本发明的实施例进行各种等效的修改或替换,而这些修改或替换都应在本发明的涵盖范围内/任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
再多了解一些

本文用于企业家、创业者技术爱好者查询,结果仅供参考。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献