AI 服务器是专门为人工智能任务设计的服务器,具有以下特点:

强大的计算能力:

AI 服务器通常配备多个高性能的中央处理器(CPU),如英特尔至强可扩展处理器,以处理复杂的任务调度和数据预处理。同时,它还会搭载大量图形处理器(GPU),如 NVIDIA 的 A100、H100 等,这些 GPU 具有强大的并行计算能力,能够快速处理 AI 训练和推理中的大量数据,大幅缩短训练时间。

高内存带宽和大容量存储:

AI 任务,尤其是深度学习训练,需要处理海量的数据,这就要求 AI 服务器具备高内存带宽和大容量存储。服务器通常配置大容量的高速内存,如 DDR5 内存,以满足数据快速读写的需求。同时,配备高速的存储设备,如 NVMe 固态硬盘,可提供高达数 GB 每秒的读写速度,确保数据能够快速传输到计算单元,提高训练和推理效率。

专业的 AI 加速芯片:

除了 CPU 和 GPU,一些 AI 服务器还会集成专用的 AI 加速芯片,如张量处理单元(TPU)、现场可编程门阵列(FPGA)等。TPU 针对张量运算进行了优化,能高效处理深度学习中的矩阵乘法等操作;FPGA 具有可编程的特性,用户可以根据自己的 AI 算法需求定制硬件逻辑,实现灵活高效的 AI 加速。

高速网络互联:

AI 训练往往需要处理大量的数据,并且可能涉及多台服务器之间的协同工作,因此 AI 服务器需要具备高速的网络互联能力。通常配备 10Gbps、25Gbps 甚至更高带宽的以太网接口,或者采用 InfiniBand 高速网络技术,以实现服务器之间的数据快速传输,减少数据通信延迟,提高分布式 AI 训练的效率。

高效的散热系统:

由于 AI 服务器中集成了大量高性能的计算芯片,这些芯片在工作时会产生大量的热量,因此需要高效的散热系统来保证服务器的稳定运行。常见的散热方式包括风冷和液冷,风冷系统通常采用大尺寸的散热风扇和高效的散热片,以增强空气流动带走热量;液冷系统则通过循环冷却液来吸收芯片产生的热量,散热效果更好,能有效降低服务器的运行温度,提高系统的可靠性和稳定性。

支持 AI 框架和软件:

AI 服务器通常预装了多种主流的人工智能框架,如 TensorFlow、PyTorch、Keras 等,以方便开发人员进行 AI 模型的开发和训练。同时,还会提供一系列的工具和软件,用于模型的管理、监控和优化,帮助用户更高效地进行 AI 项目的开发和部署。


产品型号:TR-ADC02

针对互联网、IDC(Internet DataCenter)、云计算、企业市场以及电信业务应用等需求,推出的具有广泛用途的新一代 2U 双路机架式服务器; 适用于IT核心业务、云计算虚拟化、高性能计算、分布式存储、大数据处理、企业或电信业务应用及其它复杂工作负载。该服务器具有低能耗、扩展能力强、高可靠、易管理、易部署等优点。

优异性能

支持两颗英特尔®至强®可扩展系列处理器; 单个 CPU 支持16根DDR4 DIMM。

丰富拓展

可支持11个PCIe 扩展插槽,可用于扩展 GPU 卡,网卡,retimer 卡等; 支持8块3.5寸硬盘机框。

先进架构

2U空间内可支持4张 PCIe 形态外插卡,支持 NVIDIA Tesla专业卡; 支持全新100Gb网络卡,提高数据传输效率。

开箱即用

可预装ubuntu 操作系统、深度学习SDK; 深度学习框架包括 TensorFlow、PyTorch等; 以容器形式交付,缩短耗费数天的软件部署周期、现实开箱即用,提升工作效率。