NVIDIA Home NVIDIA Home Menu Menu icon Menu Menu icon Close Close icon Close Close icon Close Close icon Caret down icon Accordion is closed, click to open. Caret down icon Accordion is closed, click to open. Caret up icon Accordion is open, click to close. Caret right icon Click to expand Caret right icon Click to expand Caret right icon Click to expand menu. Caret left icon Click to collapse menu. Caret left icon Click to collapse menu. Caret left icon Click to collapse menu. Shopping Cart Click to see cart items Search icon Click to search

Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.

Continue
Skip to main content
NVIDIA 引领人工智能计算
  • 解决方案
    加速计算

    借助数据中心解决方案加速企业 IT 和 AI 工作负载

    面向企业的 AI 数据平台

    利用全栈数据平台统一并加速企业 AI 工作负载

    AI 工厂

    借助全栈工厂解决方案加速和部署大规模 AI

    云计算

    借助可扩展的加速云解决方案,释放企业 AI 和 HPC 潜力

    边缘计算

    利用可扩展的边缘计算,加速 AI、机器人和物联网

    高性能计算

    通过高能效的高性能计算推进发现

    可持续计算

    通过可持续、高效的计算节省能源并降低成本

    MLOps

    通过企业 MLOps 工具、自动化和软件扩展 AI 解决方案

    网络

    面向高性能、可扩展且安全的 AI 数据中心网络

    DGX Cloud

    云端 AI 工厂,专为加速各层级 AI 成果而构建

  • 产品
    概览

    通过先进的数据中心平台加速 AI、机器学习和 HPC

  • 软件
    AI Enterprise 套件

    用于数据中心部署的企业级 AI 软件套件

    BASE COMMAND MANAGER

    用于管理和监控数据中心 AI 工作负载的集中式平台

    CUDA-X

    面向 AI、HPC 和数据处理的 GPU 加速库和工具

    虚拟化

    用于加速和管理虚拟化环境的 GPU 虚拟化软件

    加速应用目录

    浏览 DPU 和 GPU 加速的应用、工具和服务

    Mission Control

    为从开发者工作负载到基础设施的 AI 工厂运营提供支持

    NVIDIA Run:ai

    AI 工作负载和 GPU 编排

  • 架构
    Rubin 平台

    用于可扩展 AI 推理的基础设施

    Blackwell 架构

    为 AI 推理时代的 AI 工厂提供支持的 GPU 架构

    Hopper 架构

    为每个数据中心增强 AI 和 HPC 工作负载

    Ada Lovelace 架构

    面向高级设计和可视化的实时光线追踪和 AI

    MGX 参考架构

    用于构建加速数据中心服务器的模块化参考架构

  • 技术
    NVLink 和 NVLink 交换机

    适用于多 GPU 通信和大型 AI 模型的高速互连

    NVLink Fusion

    具备业界验证的 AI 扩展性能的半定制 AI 基础设施

    Tensor Core

    用于加速 AI 和 HPC 数学工作负载的专用 GPU 核心

    多实例 GPU

    安全地在多个工作负载之间共享一个 GPU 的 GPU 分区技术

    机密计算

    保护使用中的数据和 AI 模型

  • 资源
    资源中心

    构建和优化 AI 就绪的数据中心和工厂的资源

    数据中心 GPU 系列产品

    AI 工作负载的数据中心 GPU 和网络选择指南

    数据中心 GPU 资源中心

    NVIDIA 数据中心 GPU 产品的文档和指南

    MLPerf 基准测试

    NVIDIA AI 平台的 MLPerf 训练和推理结果

    NVIDIA 认证系统

    加速合作伙伴系统,提供经过认证的性能和规模

    认证系统目录

    使用 NVIDIA 数据中心 GPU 构建的认证服务器目录

  • 登录 LogOut
Skip to main content
  • NVIDIA 引领人工智能计算
  • 0
  • Login LogOut
NVIDIA NVIDIA logo
加速计算

借助数据中心解决方案加速企业 IT 和 AI 工作负载

面向企业的 AI 数据平台

利用全栈数据平台统一并加速企业 AI 工作负载

AI 工厂

借助全栈工厂解决方案加速和部署大规模 AI

云计算

借助可扩展的加速云解决方案,释放企业 AI 和 HPC 潜力

边缘计算

利用可扩展的边缘计算,加速 AI、机器人和物联网

高性能计算

通过高能效的高性能计算推进发现

可持续计算

通过可持续、高效的计算节省能源并降低成本

MLOps

通过企业 MLOps 工具、自动化和软件扩展 AI 解决方案

网络

面向高性能、可扩展且安全的 AI 数据中心网络

DGX Cloud

云端 AI 工厂,专为加速各层级 AI 成果而构建

概览

通过先进的数据中心平台加速 AI、机器学习和 HPC

AI Enterprise 套件

用于数据中心部署的企业级 AI 软件套件

BASE COMMAND MANAGER

用于管理和监控数据中心 AI 工作负载的集中式平台

CUDA-X

面向 AI、HPC 和数据处理的 GPU 加速库和工具

虚拟化

用于加速和管理虚拟化环境的 GPU 虚拟化软件

加速应用目录

浏览 DPU 和 GPU 加速的应用、工具和服务

Mission Control

为从开发者工作负载到基础设施的 AI 工厂运营提供支持

NVIDIA Run:ai

AI 工作负载和 GPU 编排

Rubin 平台

用于可扩展 AI 推理的基础设施

Blackwell 架构

为 AI 推理时代的 AI 工厂提供支持的 GPU 架构

Hopper 架构

为每个数据中心增强 AI 和 HPC 工作负载

Ada Lovelace 架构

面向高级设计和可视化的实时光线追踪和 AI

MGX 参考架构

用于构建加速数据中心服务器的模块化参考架构

NVLink 和 NVLink 交换机

适用于多 GPU 通信和大型 AI 模型的高速互连

NVLink Fusion

具备业界验证的 AI 扩展性能的半定制 AI 基础设施

Tensor Core

用于加速 AI 和 HPC 数学工作负载的专用 GPU 核心

多实例 GPU

安全地在多个工作负载之间共享一个 GPU 的 GPU 分区技术

机密计算

保护使用中的数据和 AI 模型

资源中心

构建和优化 AI 就绪的数据中心和工厂的资源

数据中心 GPU 系列产品

AI 工作负载的数据中心 GPU 和网络选择指南

数据中心 GPU 资源中心

NVIDIA 数据中心 GPU 产品的文档和指南

MLPerf 基准测试

NVIDIA AI 平台的 MLPerf 训练和推理结果

NVIDIA 认证系统

加速合作伙伴系统,提供经过认证的性能和规模

认证系统目录

使用 NVIDIA 数据中心 GPU 构建的认证服务器目录

  • NVIDIA DGX Cloud

    您的云端 AI 工厂。

    开始使用

    解决方案概览 | 面向开发者 | 文档

    • 概览
    • 工作负载
    • 优势
    • 启动选项
    • 基于 DGX Cloud 的 NVIDIA
    • 客户案例
    • 生态系统
    • 新闻和博客
    • 后续步骤
      • 概览
      • 工作负载
      • 优势
      • 启动选项
      • 基于 DGX Cloud 的 NVIDIA
      • 客户案例
      • 生态系统
      • 新闻和博客
      • 后续步骤
      • 概览
      • 工作负载
      • 优势
      • 启动选项
      • 基于 DGX Cloud 的 NVIDIA
      • 客户案例
      • 生态系统
      • 新闻和博客
      • 后续步骤
      开始使用

      概览

      出色的云端 NVIDIA AI 平台

      更快地构建和部署任务关键型 AI。NVIDIA DGX™ Cloud 的每一层均由 NVIDIA 优化和管理,确保云端 NVIDIA AI 实现最高性能。作为整合了全托管平台与服务的统一平台,DGX Cloud 赋予每个组织随时随地构建 AI 工厂的能力,在代理式 AI 和物理 AI 的时代,将 AI 工作负载从开发推进至部署。

      深入了解 NVIDIA DGX Cloud

      利用全托管 AI 平台的强大功能,创建和部署尖端 AI,并对每一层都进行了优化。

      阅读解决方案概览

      在 DGX Cloud 上体验 NVIDIA NIM API

      体验用于构建由 NVIDIA DGX Cloud 加速的企业级生成式 AI 应用的领先模型。

      立即探索

      什么是 NVIDIA DGX Cloud?

      NVIDIA DGX Cloud 是一个基于领先云的统一 AI 平台,可利用软件、服务和 AI 专业知识优化性能,以应对不断变化的工作负载。

      Omniverse Cloud

      现已推出 NVIDIA Omniverse on DGX Cloud

      NVIDIA Omniverse on DGX Cloud 是一个完全托管的平台,支持以简单且可扩展的方式部署流式工业数字化和物理 AI 仿真应用。

      访问 Azure Marketplace

      工作负载

      体验适用于各种 AI 工作负载的 NVIDIA DGX Cloud

      Accelerate your AI factory with the best of NVIDIA AI technologies in the cloud.

      NVIDIA DGX Cloud 上的 NeMo Curator

      利用 DGX Cloud 上的 NVIDIA NeMo™ Curator 加速规模化的视频管理,并高效定制世界基础模型。

      了解详情
      NVIDIA DGX Cloud Create

      通过全托管 AI 训练平台构建基础模型,或对主流 AI 模型进行调优。

      了解详情
      NVIDIA DGX Cloud 无服务器推理

      利用高性能的无服务器 AI 推理,支持自动扩展、高成本效率的 GPU 利用率和多云灵活性。

      了解详情
      NVIDIA DGX Cloud Lepton

      在自选区域发现可用 GPU,并将算力轻松连接至工作负载,用于实验、调优和可扩展部署 — 无需受限于单一云平台。

      了解详情
      NVIDIA DGX Cloud 基准测试

      根据不断发展性能优化和工作负载特定方案,尽可能充分地发挥 AI 基础设施的作用。

      了解详情
      NVIDIA Omniverse on DGX Cloud

      部署和扩展流式传输应用,解锁工业数字化和物理 AI 仿真。

      了解详情

      优势

      NVIDIA DGX Cloud 提供哪些功能?

      即刻体验 AI 的生产力

      在云端部署全托管平台首日即刻体验高效生产力,加速价值实现。

      在任意 AI 基础架构上优化 NVIDIA AI

      借助 NVIDIA DGX Cloud 基准测试方法和每一层的优化,更大限度地提高云端 AI 工作负载的性能。

      依托 NVIDIA 的创新技术,保持 AI 前沿优势

      借助一套软件和托管服务来加速 AI 开发和部署,帮助您始终走在 AI 的前沿。

      获得与 AI 创新领域的领导者直接沟通的渠道

      利用 NVIDIA AI 专家网络提高效率、提升性能并降低 TCO。

      启动选项

      开始使用 NVIDIA DGX Cloud

      立即体验 NVIDIA DGX Cloud

      访问 www.nvidia.cn/ai 了解 NVIDIA NIM™ 推理微服务。这是一个免费 API 目录,适用于通过全托管加速端点和 NVIDIA Blueprint(由 DGX Cloud 加速)进行的生成式 AI 应用测试、原型设计和开发。

      立即体验

      探索 NVIDIA DGX Cloud Create

      了解如何利用 NVIDIA DGX Cloud Create,在任意主流云平台上使用加速计算集群进行模型训练和定制。

      了解详情

      使用 NVIDIA DGX Cloud 无服务器推理

      在针对 NVIDIA GPU 优化的容器中轻松打包和部署推理工作流或数据预处理工作流,而无需担心底层基础设施。

      注册

      访问 NVIDIA DGX Cloud Lepton

      利用全球 GPU 算力,跨多个云平台发现、获取、开发、定制和部署 AI 应用。

      立即试用

      获取 NVIDIA Omniverse on DGX Cloud

      访问完全托管的平台,实现流式工业数字化和物理 AI 仿真应用的简单、可扩展部署。

      了解详情

      获取有关 NVIDIA DGX Cloud 中 GB200 的通知

      NVIDIA GB200 采用强大的 NVIDIA Blackwell 架构、高带宽 NVIDIA NVLink™ 和第二代 Transformer 引擎,强效助力 AI 开发并加快模型预训练,为 NVIDIA DGX™ Cloud 上的新一代 AI 突破提供助力。

      注册

      基于 DGX Cloud 的 NVIDIA

      NVIDIA AI 由 DGX Cloud 提供技术支持

      任务关键型研究和新一代模型基于 DGX Cloud 而构建。

      Project Ceiba

      AWS 和 NVIDIA 致力于在云端构建最大的 AI 超级计算机,从而突破人工智能的极限。Project Ceiba 是 AWS 通过 DGX Cloud 托管的尖端超级计算机,将为 NVIDIA 在 AI 领域的研发工作提供支持。

      详细了解 Project Ceiba

      利用 NVIDIA BioNeMo 实现突破性药物研发

      NVIDIA BioNeMo 由 DGX Cloud 提供支持,是一个用于药物研发的生成式 AI 平台,可帮助简化并加速使用自有数据进行的模型训练,以及用于药物研发应用的大规模模型部署。

       

      详细了解 NVIDIA BioNeMo

      借助 NVIDIA AI Foundry 定制生成式 AI 模型

      NVIDIA AI Foundry 是利用企业数据和特定领域知识构建自定义生成式 AI 模型的平台和服务。使用 NVIDIA AI Foundry,企业组织能够开发由 DGX Cloud 提供支持的自有 AI 模型。

      详细了解 NVIDIA AI Foundry

      加速物理 AI 开发

      NVIDIA CosmosTM 平台汇集了最先进的生成式基础世界模型、高级分词器、Guardrails,以及经加速的数据处理和管理工作流,可加速开发物理 AI 系统,如自动驾驶汽车 (AV) 和机器人。

      NVIDIA Cosmos 入门

      客户案例

      客户如何利用 NVIDIA DGX Cloud 推动创新

      Deloitte

      在德勤的 Atlas AI 解决方案中,在 Oracle Cloud Infrastructure (OCI) 上运行、搭载 NVIDIA BioNeMo 的 DGX Cloud 加速了药物研发。他们将应用 LLM 驱动式知识图谱、科学工作流和自定义模型,同时训练化学语言模型和蛋白质语言模型,然后利用 NVIDIA NIM 推理微服务进行无缝部署。

      阅读德勤成功案例

      Cerence

      Cerence 正借助在 Microsoft Azure 上运行的 DGX Cloud 来训练他们的汽车专用大语言模型。该模型将为 Cerence 在 NVIDIA DRIVE® 上运行的新一代车载计算平台奠定基础。

      阅读 Cerence 博客

      Amgen

      Amgen 正在使用 NVIDIA BioNeMo 和 DGX Cloud 开发 AI 模型,这些模型可以提出和评估候选药物的设计,从而加速生物制剂的研发。借助 NVIDIA DGX Cloud ,Amgen 在不到一个月的时间内完成了从入门到首次预训练蛋白质 LLM 的过程。

      阅读 Amgen 的成功案例

      生态系统

      我们的合作伙伴

      新闻和博客

      查看 NVIDIA DGX cloud 的最新进展

      后续步骤

      准备好开始了吗?

      探索利用 NVIDIA DGX Cloud 实现 NVIDIA AI 最佳性能的云优先方式。

      开始使用

      还有关于 NVIDIA DGX Cloud 的问题?

      与 NVIDIA AI 专家交流,讨论您的生成式 AI 计划。

      与我们联系

      浏览 NVIDIA DGX Cloud 文档

      访问有关 NVIDIA DGX Cloud 的技术文档。

      获取文档

      Partners

      Who We’re Partnering With

      Experience DGX Cloud with our ecosystem partners.

      1. Providers
      2. Partners

      Use Cases

      AI Across Enterprises With DGX Cloud

      1. Amgen
      2. Cerence
      3. Deloitte
      4. ServiceNow

      Speeding Biologics Drug Discovery

      Amgen is using NVIDIA® BioNeMo™ and DGX Cloud to develop AI models that can propose and evaluate designs for candidate drugs, accelerating biologics discovery. Using DGX Cloud, it took Amgen less than a month to go from onboarding to their first pretrained protein large language model (LLM).

      Read Amgen’s Success Story

      Generative AI Transforms the In-Car Experience

      Cerence is training their automotive-specific large language model with DGX Cloud on Microsoft Azure. The model will serve as the foundation of Cerence's next-gen in-car computing platform, running on NVIDIA DRIVE®.

      Read Cerence’s Blog

      Building Drug Discovery Pipelines With Generative AI in a Few Clicks

      DGX Cloud on Oracle Cloud Infrastructure (OCI) with NVIDIA BioNeMo accelerates drug discovery in Deloitte’s Atlas AI solution. They’re using LLM-powered knowledge graphs, scientific pipelines, and custom models and training chemistry language models and protein language models before seamlessly deploying with NVIDIA NIM inference microservices.

      Read Deloitte's Success Story

      Bringing Intelligent Workflow Automation to Enterprises

      ServiceNow is leveraging generative AI, including intelligent virtual assistants and customer service agents, powered by their custom LLM trained on DGX Cloud and NVIDIA AI Enterprise software.

      Learn More

      DGX Cloud News and Blogs

      Next Steps

      Ready to try NVIDIA DGX Cloud?

      Talk to an NVIDIA AI expert about your generative AI initiatives.

      Talk to Us

      For Developers

      Evaluate and optimize AI workload performance for specific environments with NVIDIA DGX Cloud Benchmarking Recipes.

      Get The Recipes

      Document Hub

      Find documentation for administrators, developers, and users of NVIDIA DGX Cloud.

      Learn More

      Contact Us To Learn More About DGX 

      Welcome back. Not you? 登出
      Welcome back. Not you? Clear form
      1. Section
      • Section