幸福梧桐湖

查看: 91|回复: 0

[热点] DeepSeekR1满血版发布 部署门槛降低

[复制链接]

223

主题

224

帖子

555

积分

超级版主

Rank: 8Rank: 8

积分
555
发表于 2025-2-26 17:52:46 | 显示全部楼层 |阅读模式
在DeepSeek App上线一个月之际,联想正式宣布,旗下大模型训推一体AI算力平台联想问天 WA7780 G3、大模型推理AI算力平台联想问天 WA7785a G3全新升级,单机即可部署DeepSeek-R1满血版大模型(具备671B参数)。此次升级将大幅降低客户部署难度和成本,同时提升模型训练和推理性能,为DeepSeek等最新AI应用的落地和规模化发展提供强有力的支持。

据悉,联想正与DeepSeek在个人智能与企业智能两大领域,开展更全面、深入的合作。其中,聚焦企业智能,联想中国基础设施业务与DeepSeek的深度融合,正快速实现从训练到推理的全链条产品适配。

据了解,DeepSeek大模型凭借高性能、低成本和开源三大特点,助力各行业加速应用大模型技术推动业务升级转型。DeepSeek-R1满血版大模型基于6710亿参数,具备卓越的复杂推理和深度交互能力,众多企业积极探索并部署DeepSeek-R1满血版大模型以期提升业务效能与竞争力。然而,在实际应用中,用户在本地接入时不可避免遇到算力基础设施匮乏、训练推理服务性能难以达标等一系列难题。

面对用户实际应用问题,联想问天 WA7780 G3、联想问天 WA7785a G3与DeepSeek-R1满血版大模型特点进行了深度适配调优,单机即可部署DeepSeek-R1满血版大模型,助力企业高效完成本地化部署,一站式构建AI生产力,加速智能化升级。

值得一提的是,联想问天 WA7780 G3大模型训推一体服务器是为打破AI算力供给困境而来,能够为训练推理提供强劲的算力支撑。

作为领先的AI算力平台,这款服务器内嵌Transfomer Engine, 支持FP8优化,可以帮助DeepSeek-R1满血版大模型获得更好的模型训练和推理性能。

在显存方面,提供超1T HBM3e,充分满足DeepSeek-R1满血版大模型FP8精度下不低于800GB显存容量的需求。显存带宽高达4.9TB/s,可以在推理解码阶段实现极致加速。

在高速互联方面,GPU P2P通信带宽达900GB/s,同时单机提供3.2TB/s的高带宽低延迟网络扩展,能够为DeepSeek-R1满血版大模型提供极低的通信延迟。

联想问天 WA7785a G3服务器则聚焦于AI算力优化,该大模型推理AI算力平台原生支持FP8,提供超1.5T HBM3e,为DeepSeek-R1满血版大模型插上性能腾飞的翅膀。

此外,显存带宽达5.3TB/s的高速显存可以减少数据传输的瓶颈,从而加速训练过程,提高模型训练效率。GPU聚合带宽达896GB/s,同时单机提供3.2TB/s的高带宽低延迟网络扩展,充分满足了DeepSeek-R1满血版大模型并行计算时跨节点的通信需求,使其成为用户首选大模型推理服务器。

此外,联想正在加速推进DeepSeek 671B-R1和V3模型及一系列蒸馏模型与其AI服务器的适配。未来,联想将持续创新为企业提供全面、高效、可靠的IT基础设施,加速推动AI创新与应用落地,为千行万业积极拥抱AI注入强大动力。来源:证券日报

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2022-2025 joywth.com All Rights Reserved 鄂ICP备2023010813号-4

统计:今日: |昨日: |帖子: |会员: |最新回复

快速回复 返回顶部 返回列表