智算云

智算云

产品规格

产品优势

功能特性

应用场景

客户案例

产品动态

GPU高性能算力池

基于超算架构构建,采用高性能RDMA网络(IB),将多个物理服务器进行全线速互联,提供高带宽、低延迟的通信能力,极大提升计算任务效率,同时配置高性能存储,可满足大规模预训练、微调和高精度科学计算中对计算 、存储 、网络等环节的多样性需求。

产品规格

Tesla A100 SXM4

适用1~8块AI训练和HPC计算

GPU类型

Nvidia Tesla A100-40G*8

vCPU

164核

内存

948GB

包月

支持1、2、4、8卡

CentOS/Ubuntn/Windows

OS

RTX 3090

适用小规模AI训练和HPC计算

GPU类型

Nvidia RTX 3090-24G*8

vCPU

240核

内存

480GB

按时长和包月

支持1、2、4、8卡

OS

CentOS/Ubuntn

RTX 4090

适用在线推理、模型优化和HPC计算

GPU类型

Nvidia RTX 4090-24G *8

vCPU

88核

内存

432GB

按时长和包月

支持1、2、4、8卡

OS

CentOS/Ubuntn

性能强劲

产品优势

弹性调度

弹性调度

资源动态分配

支持多种应用场景

灵活应对工作负载

故障容错与迁移

高效业务响应

灵活计费

灵活计费

按用量计费

包节点(包年/月)计费

极致性能

极致性能

强大的计算能力

高效的并行编程

高速的数据传输

低延迟响应

优化的软件架构

功能特性

高性能存储

高性能存储

高速读写性能

低延迟访问

大容量存储

数据一致性和可靠性

并行存储架构

作业调度

作业调度

资源感知与分配

优先级管理

作业排队与等待

资源预留

负载均衡

高速互联

高速互联

高带宽

低延迟

高效的并行通信

拓扑优化

容错能力

应用运行特征

应用运行特征

内存带宽瓶颈

显存容量瓶颈

显存带宽利用率

TensorCore利用率

八项基础性能指标

应用场景

大模型训练

AI训练使用GPU高性能算力池提供的高性能GPU、高速网络和并行文件存储,支持大规模、高并发的任务创建和规模,满足算法工程对各类算力的诉求;深度学习定制存储、网络、计算以及任务调度器,配合丰富辅助的调试、可视化工具,带来高效、开发者友好的深度学习训练体验

在线推理

基因测序对大量生物基因组进行测序等处理,从而获取基因组信息和数据分析结果,来解决生物和医学领域的难题。新药研发使用高性能算力池能帮助研发人员实现大量小分子库的快速并发处理

客户案例

AIGC领军企业

AIGC领军企业

合作背景: 

客户自主研发了跨多模态深度学习算法,将数字人和多模态大模型技术结合起来,利用大模型强大的内容理解和生成能力来推动更好的用户交互。在高端GPU供不应求的情况下,我们与该企业合作,通过并行科技的智算云服务来调度全国范围的算力资源,为客户提供超过百张A100 40GB的高性能算力资源,并协助用户完成程序的移植,以确保核心业务的有序开展。 

 

合作收益:

通过我们提供的高效算力资源,帮助客户完成百亿级参数的算法迭代,提供百卡以上规模的算力资源,提高多任务场景下的并发执行效率。 协助客户解决了Loss过大、GPU OOM(显存不足)、数据切片不合理、代码通信异常等问题,对于需要频繁使用算力资源的场景,我们持续降低训练的算力消耗,帮助客户提升训练需求,并持续降低训练成本。 

某人工智能大模型企业

某人工智能大模型企业

大模型训练

合作背景: 

该企业专注于自然语言处理领域的大模型训练研究,为了确保程序的稳定运行,需要大量的基于超算架构的资源算力来提高计算效率,并针对运行过程中的性能进行不断优化。 

 

合作收益:

通过与我们合作,客户可以利用基于超算架构的大模型算力资源来满足自然语言处理场景的算力需求。我们不仅提供程序性能优化和环境安装的支持,还帮助客户避免在计算过程中出现计算中断、显存溢出、内存溢出、运行报错等问题。稳定的运行环境同时将180B参数量的模型计算性能提升了40%,从而提高了计算效率。 

某领先的中文认知大模型企业

某领先的中文认知大模型企业

千亿级超大规模预训练模型

合作背景: 

在大模型进入“可用阶段”、生成式AI产品使得AI能够进行自然语言交互的时候,认知智能模型已经成为许多行业的关键需求。为了满足这一需求,某领先的中文认知大模型企业正在寻找可靠的训练资源,同时解决大模型场景下的高吞吐与带宽等问题,并降低大模型训练的综合成本。 

 

合作收益:

为此,北京超算提供了高性价比的训练资源,包括千卡规模的A800 GPU算力以及节点间的高速互联带宽,满足大模型支持多机多卡并行的需求,确保长时间、稳定的计算诉求。同时,北京超算还提供大模型训练服务保障,以支持客户百卡、千卡规模的训练任务。 基于客户的研发成果和北京超算的技术服务能力,我们共同推出了Model as a Service(MaaS)解决方案,该方案内置了客户的大模型算法,旨在推广认知大模型平台和数字人产品。 

某人工智能新型研发机构

某人工智能新型研发机构

千亿级预训练模型

合作背景: 

某知名人工智能新型研发机构致力于AI大模型研究,急需大量通用GPU算力资源进行模型训练,尤为关注训练时间和执行效率。   

 

合作概要: 

为满足该研发机构的需求,我们并行科技结合大模型应用特点,提供了近300 百张基于A100 GPU的训练资源,确保训练业务高效、稳定运行。术服务,为 客户提供高效、稳定的智算云算力底座。

 

合作收益:

 我们提供基于并行科技算力服务能力,迅速提供基于“超算架构”的A100算力 资源,并提供环境构建、模型部署、应用性能分析和7*24小时技术支持等服务。 通过结合算力、大模型和技术服务,为客户提供高效、稳定的智算云算力底座。

产品动态

2024-06-30

上线任务可观测大盘

2023-03-28

上线通信测试工具,训练任务特征分析

2023-12-26

上线9大类200多项监控预警指标

2023-10-30

提供任务级别的checkpoint容错和恢复机制

2023-08-25

新增任务监控、日志等功能

2023-06-30

支持用户创建高性能AI算力池并提交训练任务

算力服务 就选并行

海量计算资源

减少排队

按需付费

7x24小时服务

销售/客服热线:

400-092-0593

客服/销售邮箱:

sales@paratera.com

* 为必填

确认
%{tishi_zhanwei}%

算力服务 就选并行

海量计算资源

减少排队

按需付费

7x24小时服务

* 为必填

确认
%{tishi_zhanwei}%