推論のための AI インフラストラクチャ POD

データ シート

ダウンロード オプション

  • PDF
    (596.2 KB)
    Adobe Reader を使ってさまざまなデバイスで表示
Updated: 2024 年 11 月 14 日

偏向のない言語

この製品のドキュメントセットは、偏向のない言語を使用するように配慮されています。このドキュメントセットでの偏向のない言語とは、年齢、障害、性別、人種的アイデンティティ、民族的アイデンティティ、性的指向、社会経済的地位、およびインターセクショナリティに基づく差別を意味しない言語として定義されています。製品ソフトウェアのユーザインターフェイスにハードコードされている言語、RFP のドキュメントに基づいて使用されている言語、または参照されているサードパーティ製品で使用されている言語によりドキュメントに例外が存在する場合があります。シスコのインクルーシブ ランゲージの取り組みの詳細は、こちらをご覧ください。

翻訳について

このドキュメントは、米国シスコ発行ドキュメントの参考和訳です。リンク情報につきましては、日本語版掲載時点で、英語版にアップデートがあり、リンク先のページが移動/変更されている場合がありますことをご了承ください。あくまでも参考和訳となりますので、正式な内容については米国サイトのドキュメントを参照ください。

ダウンロード オプション

  • PDF
    (596.2 KB)
    Adobe Reader を使ってさまざまなデバイスで表示
Updated: 2024 年 11 月 14 日
 

 

Cisco AI 対応インフラストラクチャ スタックは、コスト効率の高い開発や低負荷タスクから高度な AI およびエンタープライズ アプリケーションまで、実績と拡張性に合わせて調整されたポッドを提供し、最適な生産性と成長を保証します。

つまり、Cisco はあらゆるニーズに対応するスケーラブルで効率的な AI ポッドを提供します。

製品概要

Cisco AI 対応インフラストラクチャ スタックは、さまざまな AI および ML のユースケースに合わせた包括的なソリューションスイートを提供します。これらの検証済みの設計により、AI インフラストラクチャが簡素化および自動化されるため、エッジ推論から大規模なデータセンターまで、さまざまな環境に AI モデルを効率的に展開できます。Cisco のインフラストラクチャ スタックは、次のようなさまざまな要件に対応します。

      Red Hat OpenShift AI を使用した MLOps により、機械学習の運用とモデルの展開を合理化します。

      Intel Gaudi 2 プロセッサと Nexus 9000 を使用した Gen AI モデリングは、高性能 AI タスク用に最適化されています。

      Cisco の堅牢なネットワーキングおよびコンピューティング機能を搭載したデータ モデリング プラットフォーム。

      NVIDIA AI Enterprise および統合データシステムでサポートされる Digital Twin フレームワーク。

各ソリューションは、Cisco の検証済み設計に基づいて構築されており、AI アプリケーションのシームレスな統合と信頼性の高い実績を保証します。組織は、FlashStack FlexPod などのコンバージド インフラストラクチャを選択することも、Nutanix などのハイパーコンバージド ソリューションで展開を拡張することもできます。

小規模企業から大企業まで、さまざまなセグメントのお客様が Cisco AI インフラストラクチャに大きな価値を見出します。小規模企業は開発および基本的なワークロードにコスト効率の高いポッドを利用できますが、大企業は高度なポッドを利用して集中的な AI およびデータ処理タスクを実行できます。主なビジネス上の利点には、生産性の向上、コストの削減、拡張性の向上が含まれますが、主な技術的価値は、既存のネットワーク インフラストラクチャ内でのシームレスな統合と運用を保証するポッドの高い実績と信頼性にあります。

機能と利点

表 1                 機能と利点

機能

利点

オンデマンドの拡張性

展開サイズに合わせて構成可能なコンピューティング、メモリ、アクセラレータを使用して、進化する AI/ML ワークロードに合わせてリソースを動的に拡張します。

将来を見据えた

次世代のプロセッサ、GPU、およびストレージ ソリューションをサポートする将来性のあるモジュラ型システムで、長期的な投資保護を実現します。

カスタマイズ

特定の AI モデルとワークロードに合わせて構成を調整し、エッジ、中規模、大規模、スケールアウトの展開全体で最適な実績と効率を実現します。

包括的なプラットフォーム

Cisco Intersight および Nexus Dashboard と統合された AI POD は、一元化されたプロビジョニング、リアルタイムの可視性、および自動スケーリングにより、インフラストラクチャ管理を簡素化します。

シンプルな管理

Cisco Intersight で管理を合理化し、Cisco UCS サーバーと GPU の一元化されたプロビジョニング、リアルタイムの可視性、自動化を提供し、運用の複雑さを軽減します。

柔軟な構成

小規模なエッジ推論セットアップから大規模なマルチモデル展開まで、複数の AI POD サイズから選択して、特定のワークロード要件に対応します。

優れた機能

Cisco のフル スタック ソリューションによる AI アーキテクチャ設計の変革

このソリューションは、ハードウェアとソフトウェアの優れたテクノロジーを組み合わせて、さまざまなニーズに合わせた、堅牢でスケーラブルで効率的な AI 対応インフラストラクチャを作成します。

1.     NVIDIA AI Enterprise および NVIDIA Infrastructure Management SuiteNIMS): これらのコンポーネントは、AI ワークロードを管理するための強力な基盤を提供します。実績が最適化され、運用が合理化され、高度な管理機能が提供されるため、ユーザーは基盤となるインフラストラクチャの複雑さを気にすることなく、AI モデルの開発と展開に集中できます。

2.     OpenShift by Red Hat この Kubernetes ベースのコンテナプラットフォームは、コンテナ化された AI アプリケーションのオーケストレーションと展開を簡素化します。柔軟性と拡張性を提供するため、ユーザーは AI プロジェクトの成長に合わせて簡単に管理および拡張できます。

3.     Cisco Unified Computing SystemUCS): Cisco UCS はハードウェアのバックボーンとして機能し、複数のサーバー構成で高い実績と信頼性を提供します。これにより、要求の厳しい AI ワークロードに必要なコンピューティング能力をすぐに利用でき、スケーラブルになります。

4.     コンバージド インフラストラクチャ ソリューション:

    FlashStackPure Storage を搭載した Cisco UCS サーバー)と FlexPodNetApp ストレージを搭載した Cisco UCS サーバー)はどちらも、大規模な AI および機械学習タスクの処理に不可欠な高性能ストレージとコンピューティング機能を提供します。これらのソリューションは、展開と管理を簡素化し、運用効率を向上させ、市場投入までの時間を短縮する、統合された事前検証済みの構成を提供します。

Cisco のフルスタックソリューションを活用することで、お客様は次のようなメリットを得られます。

      購入しやすい

    Cisco AI POD は、すぐに注文できる事前設定済みの検証済みバンドルとして提供されるため、お客様は特定の AI ニーズに適したセットアップを迅速に選択できます。これにより、個々のコンポーネントを選択する複雑さが解消され、意思決定にかかる時間が短縮されます。

    今四半期に発注可能なバンドルを提供することで、Cisco はお客様の価値実現までの時間を短縮し、不要な遅延なく AI イニシアチブを加速できるようにします。

      展開と統合が容易:

    Cisco AI POD はプラグアンドプレイ展開向けに設計されており、最小限の労力で既存のデータ センターまたはクラウド環境に迅速に統合できます。このシームレスな展開機能は、Cisco Intersight および Nexus Dashboard によってサポートされており、一元管理、リアルタイムの可視性、および自動化を提供して、運用の複雑さを軽減します。

    事前設定されたバンドルは事前にテストおよび検証されており、すべてのコンポーネントが箱から出してすぐに調和して動作することが保証されます。これにより、展開の問題のリスクが軽減され、AI ワークロードの実稼働までの時間が短縮されます。

    Cisco AI POD は、FlashStack FlexPod などのコンバージド インフラストラクチャ セットアップに展開する場合でも、Nutanix などのハイパーコンバージド環境に展開する場合でも、柔軟性と拡張性を提供します。これにより、幅広い既存のインフラストラクチャ設定に簡単に統合でき、組織のニーズに合わせて拡張できる将来に対応したソリューションが提供されます。

      管理が容易:

    ソリューションの事前統合および事前テストの性質により、AI インフラストラクチャの設計の複雑さが軽減されます。最適な実績を実現するための明確で複製可能な公式を提供し、当て推量を排除します。

    このソリューションは、小規模なエッジ推論セットアップから大規模で高性能な環境まで、さまざまな展開規模をサポートします。この拡張性により、組織のニーズに合わせてインフラストラクチャを拡張できます。

    NVIDIA Red Hat の統合管理ツールにより、AI インフラストラクチャの日常的な運用が簡素化され、IT チームによる AI プロジェクトのサポートが容易になります。

アイデアの段階にある個人や組織にとって、Cisco のフルスタック ソリューションは、堅牢な AI アーキテクチャを開発するための明確で構造化されたパスを提供します。最新の AI 管理、コンテナ オーケストレーション、および高性能ハードウェアを組み合わせたもので、AI 機能の構築と拡張を検討しているすべての人にとって理想的な選択肢です。

オンデマンドの拡張性

要件は頻繁に変更されます。また、別のリソースが必要になったときに、リソースのセットに制限されないシステムが必要です。Cisco AI 対応インフラストラクチャ スタックは、Cisco UCS X シリーズのモジュール型の性質により、本質的に成長に対応しており、生成 AI 推論のニーズに合わせてシームレスに拡張できます。Cisco Intersight®を使用して、モデルの進化やワークロードの拡大に合わせて、サーバーの追加または削除、メモリ容量の調整、リソースの設定を自動化するだけで簡単に実行できます。さらに、特定のユースケースに応じて、CPU GPU の比率を変更したり、単一のシャーシ内で Intel Xeon Scalable または AMD EPYC プロセッサを選択したりすることもできます。

      動的リソース割り当て: コンピューティング リソースとストレージ リソースを簡単に追加または削減します。

      柔軟な CPU/GPU 比率: コンピューティング能力のバランスをカスタマイズします。

      自動スケーリング: ワークロードの増加に応じてリソースを自動的に調整します。

将来を見据えた

Cisco AI 対応インフラストラクチャ スタックは、将来に備えて構築されており、新しいテクノロジーで進化し、新たなビジネス目標に適応します。UCS X シリーズ モジュラ システムは、将来の世代のプロセッサ、ストレージ、不揮発性メモリ、アクセラレータ、および相互接続をサポートするように設計されました。個別の管理モジュールやサーバを購入、設定、保守、電力供給、冷却する必要がなく、部分ごとに選択的にアップグレードできる。Intersight Software-as-a-Service モデルによって新しい機能が頻繁に提供されても、自動的にクラウドベースの管理は最新の状態に保たれます。その結果、ハードウェアのライフサイクルが延長され、時間の経過とともに継続的なコストが削減されます。

      モジュール設計: 大規模なオーバーホールなしでコンポーネントを簡単にアップグレードできます。

      寿命: 次のハードウェア世代のサポート。

      投資の保護: 上位互換性のあるインフラストラクチャにより、テクノロジーへの投資を保護します。

カスタマイゼーション

Cisco のカスタマイズ可能な構成により、選択したモデルをホストし、構成を編集し、さまざまなデータソースやサービスに接続できます。この柔軟性により、特定のニーズと展開規模に合わせて、AI ワークロードに対する最適な実績と制御が保証されます。

      モデルの柔軟性: お客様固有の要件に合わせて任意の AI モデルをホストできます。

      構成可能なセットアップ: 必要に応じてハードウェアのセットアップを変更します。

      包括的な制御: 展開環境を完全に管理および制御します。

包括的なプラットフォーム

AI の運用化は、すべての企業にとって困難な作業です。AI/ML の取り組みが概念実証から実稼働に移行できない最大の理由の 1 つは、実稼働対応モデルを提供するデータと機械学習の合理化と管理に関連する複雑さにあります。AI/ML の取り組みごとに技術的負債を追加するアドホックな ML の取り組みではなく、モデルを迅速かつ正確に提供および維持できるプロセス、ツール、ベストプラクティスを採用することが重要です。Cisco AI 対応インフラストラクチャ スタックは、複雑さを軽減することで AI/ML の取り組みを促進する、専用のフルスタック ソリューションを提供します。この設計では、Cisco UCS X シリーズ モジュラ プラットフォームと最新の Cisco UCS M7 サーバ、NVIDIA GPU を搭載した Cisco UCS X440p PCIe ノードを使用します。これらはすべて、Cisco Intersight を使用してクラウドから一元管理されます。この高速化された高性能インフラストラクチャに基づいて構築された Red Hat OpenShift AI は、AI を一貫して効率的に加速し、運用するために不可欠なツールとテクノロジーを統合することでソリューションを強化します。NVIDIA AI Enterprise ソフトウェアはソリューションをさらに補完し、仮想 GPUGPU オペレータ、AI 用に最適化されたツールとフレームワークの包括的なライブラリなどの主要な機能を提供します。これらの機能により、AI ソリューションの展開とスケーリングが簡素化され、企業が AI テクノロジーを簡単に運用できるようになります。

      エンドツーエンドのソリューション: インフラストラクチャから AI フレームワークまで。

      生成 AI サポート: 大規模な AI モデルの展開に最適化されています。

      エンタープライズグレード: 大規模な企業の要求を満たすのに十分な堅牢性を備えています。

シンプルな管理

Cisco Intersight でよりインフラストラクチャ管理を最適化します。Cisco のプラットフォームは、一元化されたプロビジョニング、リアルタイムの可視性、および自動化を提供し、UCS サーバと GPU の管理を簡素化します。これにより、運用が合理化され、手動による介入が減少し、効率が向上し、複雑さが軽減されます。

      一元管理: 単一のインターフェイスからすべてのリソースを管理します。

      リアルタイムの可視性: 実績とステータスをリアルタイムでモニターします。

      自動化: 自動化された管理プロセスにより、手動による介入を削減します。

製品仕様

Cisco AI Data Center and Edge Inference Pod は、エッジ推論アプリケーション向けに専門的に設計されており、データソースに近いネットワークエッジのユーザーのすぐ近くで計算を促進します。この戦略的な設計は、一元化されたクラウドやデータセンターに依存するのではなく、データをローカルで処理することで、遅延を最小限に抑え、効率を最大化します。Llama 2-7BGPT-2B、その他の小規模言語モデル(SLM)などの高度なモデルをサポートするデータセンターおよびエッジ推論ポッドは、非常に用途が広く、機能が豊富です。シャーシ内に統合された X シリーズ ダイレクト ファブリック インターコネクトが含まれているため、追加のハードウェアが不要になるため、複雑さが軽減され、運用が合理化されます。

表 2                 Cisco AI データ センターおよびエッジ推論ポッドの仕様

項目

仕様

コンピューティングノード

1 Cisco UCS X210c M7 コンピューティング ノード

プロセッサ

各コンピューティングノードにデュアル Intel 5 世代 6548Y+ プロセッサ

メモリ

4800 MT/秒の 64 GB DDR5 X 8(コンピューティングノードあたり合計 512 GB のメモリ、または合計 512 GB

の内蔵ストレージ)

コンピューティング ノードあたり 2 X 1.6 TB Non-Volatile Memory ExpressNVMe2.5 インチ ドライブ

mLOM

Cisco UCS VIC 15230 X 1 100G mLOM X 2

PCIe ノード

コンピューティングノードあたり Cisco UCS X440p PCIe ノード X 1

GPU

コンピューティングノードあたり Nvidia L40s GPU(デュアルスロット)X 1

管理

  Cisco Intersight ソフトウェア(SaaS 、仮想アプライアンス、およびプライベート仮想アプライアンス)
  Cisco UCS Manager UCSM v4.3(2) 以降

Cisco AI RAG 拡張推論ポッドは、要求の厳しい AI ワークロード専用に設計されており、Llama 2-13B OPT 13B などの大規模モデルをサポートします。強化された GPU とノード容量を搭載し、複雑なタスクを効率的に管理し、計算能力と効率を向上させます。この高度なポッドは、知識ソースを活用してクエリ サービス中にコンテキストに基づく関連性を提供するRAGRetrieval-Augmented Generation)のような最適化に対応し、幻覚を大幅に減らし、応答精度を向上させることができます。そのため、Cisco RAG 拡張推論ポッドは、堅牢な AI 機能と優れた実績を必要とする高度なアプリケーションに最適です。

表 3                 Cisco AI RAG 拡張推論ポッドの仕様

項目

仕様

コンピューティングノード

2 X Cisco UCS X210c M7 コンピューティング ノード

プロセッサ

コンピューティングノードごとにデュアル Intel 5 世代 6548Y+ プロセッサ、または合計 4 個の CPU

メモリ

4800 MT/秒 の 64 GB DDR5 X 16CPU あたり 4 DIMM)、コンピューティングノードあたり合計 512 GB のメモリ、または合計 1 TB

内蔵ストレージ

コンピューティング ノードあたり 2X 1.6 TB Non-Volatile Memory ExpressNVMe2.5 インチ ドライブ

mLOM

コンピューティング ノードあたり 1X Cisco UCS VIC 15230 2X 100G mLOM

PCIe ノード

コンピューティングノードあたり 1X Cisco UCS X440p PCIe ノード

GPU

コンピューティング ノードあたり 2X Nvidia L40S GPU(デュアルスロット)、または合計 4 個の GPU

管理

  Cisco Intersight ソフトウェア(SaaS 、仮想アプライアンス、およびプライベート仮想アプライアンス)
  Cisco UCS Manager UCSM v4.3(2) 以降

Cisco AI Scale Up Inference Pod for High Performance は、CodeLlama 34B Falcon 40B などの大規模モデルをサポートするように細心の注意を払って最適化されています。十分な GPU とノード容量を備えたこのポッドは、最も複雑な AI タスクに対して優れた実績を提供するように設計されています。大規模なベクトルデータベースをサポートし、高度なアルゴリズムによってベクトル検索の精度を向上させることで、取得拡張生成(RAG)機能を大幅に強化します。

表 4                 Cisco AI Scale Up Inference Pod for High Performance の仕様

項目

仕様

コンピューティングノード

2 X Cisco UCS X210c M7 コンピューティング ノード

プロセッサ

コンピューティングノードごとにデュアル Intel 5 世代 6548Y+ プロセッサ、または合計 4 つの CPU

メモリ

4800 MT/秒 の 16 X 64 GB DDR5CPU あたり 4 DIMM)、コンピューティングノードあたり合計 512 GB のメモリ、または合計 1 TB

内蔵ストレージ

コンピューティング ノードあたり 2 X 1.6 TB Non-Volatile Memory ExpressNVMe2.5 インチ ドライブ

mLOM

コンピューティング ノードあたり 1X Cisco UCS VIC 15230 2X 100G mLOM

PCIe ノード

コンピューティングノードあたり 1 X Cisco UCS X440p PCIe ノード

GPU

コンピューティングノードあたり 2X Nvidia H100 GPU(デュアルスロット)、または合計 4 個の GPU

管理

  Cisco Intersight ソフトウェア(SaaS 、仮想アプライアンス、およびプライベート仮想アプライアンス)
  Cisco UCS Manager UCSM v4.3(2) 以降

大規模展開向け Cisco AI スケールアウト推論ポッドは、比類のない柔軟性を提供するように設計されており、単一のシャーシ内で複数のモデルを同時に実行できます。堅牢なライフサイクル管理やモデルの高可用性を必要とする組織に最適です。このポッドは、特定のタスクごとに最適なモデルを選択できるようにすることで精度を高め、複数のユーザーをサポートするために簡単にスケールアウトします。これにより、ポッドは、多様で要求の厳しい AI ワークロードを処理するために、スケーラブルで効率的で信頼性の高い AI インフラストラクチャを求める組織にとって、優れた選択肢となります。

表 5                 大規模展開向け Cisco AI スケールアウト推論ポッドの仕様

項目

仕様

コンピューティングノード

4X Cisco UCS X210c M7 コンピューティング ノード

プロセッサ

コンピューティングノードごとにデュアル Intel 5 世代 6548Y+ プロセッサ、または合計 8 個の CPU

メモリ

4800 MT/秒の 64 X 64 GB DDR5CPU あたり 8 DIMM)、コンピューティングノードあたり合計 1 TB、または合計 4 TB のメモリ

内蔵ストレージ

コンピューティング ノードあたり 2X 1.6 TB Non-Volatile Memory ExpressNVMe2.5 インチ ドライブ

mLOM

コンピューティング ノードあたり 1X Cisco UCS VIC 15230 2X 100G mLOM

PCIe ノード

コンピューティングノードあたり 1X Cisco UCS X440p PCIe ノード

GPU

コンピューティングノードあたり 2X Nvidia L40S GPU(デュアルスロット)、または合計 8 個の GPU

管理

  Cisco Intersight ソフトウェア(SaaS 、仮想アプライアンス、およびプライベート仮想アプライアンス)
  Cisco UCS Manager UCSM v4.3(2) 以降

システム要件

表 6                 システム要件

特長

説明

ディスク領域

AI モデルのストレージと運用のためのコンピューティングノードあたり最小 1 TB SSD

ハードウェア

  1X X210C コンピューティングノード、1X X440p PCIe 、データセンターおよびエッジ推論ポッド用 1X Nvidia L40
  2X X210C コンピューティングノード、2X X440p PCIe 4X RAG 拡張推論ポッド用 Nvidia L40
  2X X210C コンピューティングノード、2X X440p PCIe 4X スケールアップ推論ポッド用 Nvidia H100
  4X X210C コンピューティングノード、4X X440p PCIe 、スケールアウト推論ポッド用 Nvidia L40 X 8

メモリ

コンピューティングノードあたり最小 128 GB RAM(ワークロード要件に基づいて拡張可能)

ソフトウェア

一元管理用 Cisco Intersight

ネットワーク

ノードとストレージ間のデータ転送用の高速ネットワーク接続(最小 10GbE

電源および冷却装置

高性能コンピューティングノードと GPU をサポートするための適切な電源と冷却システム

オペレーティング システム

Red Hat OpenShift AI for MLOps および AI/ML ワークロードとの互換性

GPU のサポート

最適な実績と管理を実現する Nvidia GPU ドライバとソフトウェア(NVIDIA AI Enterprise

セキュリティ

データ保護のためのセキュアブート、暗号化、およびアクセス制御

統合

既存のデータセンター インフラストラクチャおよびクラウド サービスとのシームレスな統合

シャーシ

Cisco UCS X9508 サーバ シャーシ

ファブリック インターコネクト

Cisco UCS 645464108 および  6536 ファブリック

Cisco Intersight

Intersight Managed Mode(サーバーごとに Essentials ライセンス以上)

発注情報

表 7                 Cisco AI データ センターおよびエッジ推論ポッドの発注ガイド

項目

製品番号

コンピューティングノード

UCSX-210C-M7

シャーシ

UCSX-9508-ND-U

プロセッサ

UCSX-CPU-I6548Y+

メモリ

UCSX-MRX64G2RE1

仮想インターフェイス カード(VIC

UCSX-MLV5D200GV2D

mLOM

UCSX-S9108-100G

PCIe ノード

UCSX-RIS-A-440P-D

GPU

UCSX-GPU-L40S

ファブリック インターコネクト

 

XFM 2.0

UCSX-F-9416

M.2 ドライブ

UCSX-NVME4-1600-D

表 8                 Cisco AI RAG 拡張推論ポッドの発注ガイド

項目

製品番号

コンピューティングノード

UCSX-210C-M7

シャーシ

UCSX-9508-ND-U

プロセッサ

UCSX-CPU-I6548Y+

メモリ

UCSX-MRX64G2RE1

仮想インターフェイス カード(VIC

UCSX-MLV5D200GV2D

mLOM

UCSX-I9108-100GND

PCIe ノード

UCSX-RIS-A-440P-D

GPU

UCSX-GPU-L40S

ファブリック インターコネクト

UCSX-FI-6536-ND-U

XFM 2.0

UCSX-F-9416

M.2 ドライブ

UCSX-NVME4-1600-D

表 9                 Cisco AI Scale Up Inference Pod for High Performance 発注ガイド

項目

製品番号

コンピューティングノード

UCSX-210C-M7

シャーシ

UCSX-9508-ND-U

プロセッサ

UCSX-CPU-I6548Y+

メモリ

UCSX-MRX64G2RE1

仮想インターフェイス カード(VIC

UCSX-MLV5D200GV2D

mLOM

UCSX-I9108-100GND

PCIe ノード

UCSX-RIS-A-440P-D

GPU

UCSX-GPU-H100-80

ファブリック インターコネクト

UCSX-FI-6536-ND-U

XFM 2.0

UCSX-F-9416

M.2 ドライブ

UCSX-NVME4-1600-D

表 10              大規模展開向け Cisco AI スケールアウト推論ポッドの発注ガイド

項目

製品番号

コンピューティングノード

UCSX-210C-M7

シャーシ

UCSX-9508-ND-U

プロセッサ

UCSX-CPU-I6548Y+

メモリ

UCSX-MRX64G2RE1

仮想インターフェイス カード(VIC

UCSX-MLV5D200GV2D

mLOM

UCSX-I9108-100GND

PCIe ノード

UCSX-RIS-A-440P-D

GPU

UCSX-GPU-L40S

ファブリック インターコネクト

UCSX-FI-6536-ND-U

XFM 2.0

UCSX-F-9416

M.2 ドライブ

UCSX-NVME4-1600-D

保証情報

Cisco UCS X210c コンピューティング ノードには、3 年後の翌営業日(NBD)のハードウェア保証と 90 日間のソフトウェア保証があります。

Cisco Smart Net Total Care® および Cisco  ソリューション サポート サービスは、Cisco のテクニカル サービス ポートフォリオの一環として、Cisco Unified Computing SystemCisco UCS)保証を補強しています。Cisco Smart Net Total Care には、受賞歴のある、業界をリードする Cisco の基本的なテクニカルサービスが含まれています。また、Cisco Smart Net Total Care ポータルのスマート機能を通じて、実用的かつ高度なビジネスインテリジェンスも提供されます。詳細については、https://www.cisco.com/c/ja_jp/support/services/smart-net-total-care/index.html を参照してください。

Cisco ソリューション サポートには、Cisco®製品サポートとソリューションのサポートの両方が含まれており、製品サポート単体の場合よりも平均 43% 迅速にマルチベンダー環境の複雑な問題を解決します。Cisco Solution Support は、データセンター管理の重要な要素であり、実績、信頼性、投資回収率を維持しながら、発生した問題の迅速な解決を支援します。

このサービスは、エコシステムに展開された Cisco 製品とソリューション パートナー製品の両方に対応するため、マルチベンダーの Cisco 環境全体でのサポートが一元化されます。Cisco 製品またはソリューション パートナーの製品のどちらに問題がある場合でも、Cisco にご連絡ください。Cisco のエキスパートが主な連絡窓口となり、最初のお電話から問題の解決までお客様をサポートします。詳細については、https://www.cisco.com/c/ja_jp/support/services/solutions-support/index.html を参照してください。

製品持続性

Cisco  の環境、社会、ガバナンス(ESG)イニシアチブおよび実績に関する情報は、Cisco CSR および持続可能性レポートで提供されます。

表 11              Cisco の環境保全に関する情報

持続性に関するトピック

参照先

全般

製品の材料に関する法律および規制に関する情報

材料

製品、バッテリ、パッケージを含む電子廃棄物法規制に関する情報

WEEE 適合性

製品の回収および再利用プログラムに関する情報

Cisco 回収および再利用プログラム

持続性に関するお問い合わせ

問い合わせ先:csr_inquiries@cisco.com

材料

製品パッケージの重量と材料

問い合わせ先:environment@cisco.com

Cisco およびパートナーの提供サービス

AI 対応インフラストラクチャ向けのCisco とパートナーのサービス

Cisco と認定パートナーは、AI インフラストラクチャをサポートする包括的なサービスを提供し、シームレスな統合と最適な実績を実現します。計画サービスと設計サービスにより、技術とビジネス目標との整合性を図り、展開の効率性を向上させることができます。テクニカル サービスは、運用効率を高め、コストを削減し、リスクを軽減します。最適化サービスは、パフォーマンスを継続的に改善し、新しい技術を使いこなすのに役立ちます。詳細については、Cisco AI サービスのページを参照してください。

Cisco Capital

目的達成に役立つ柔軟な支払いソリューション

Cisco Capital により、目標を達成するための適切なテクノロジーを簡単に取得し、ビジネス変革を実現し、競争力を維持できます。総所有コスト(TCO)の削減、資金の節約、成長の促進に役立ちます。Cisco の柔軟な支払いソリューションは 100 か国以上で利用可能であり、ハードウェア、ソフトウェア、サービス、およびサードパーティ製の補完的な機器を、利用しやすい計画的な支払方法で購入できます。  詳細はこちらをご覧ください。

詳細情報

Cisco AI ポッドで AI の未来を切り開く

Cisco AI 対応インフラストラクチャがビジネスにどのように変革をもたらすかをご確認ください。デモをリクエストするか、無料のアセスメントにサインアップするか、仮想営業担当者に連絡して、カスタマイズされたソリューションを確認してください。詳細については、Cisco AI ソリューションの概要ページにアクセスし、ホワイトペーパー、ケーススタディなどを参照してください。生産性と成長を最適化するように設計された最先端のテクノロジーで、ビジネスをリードします。

 

 

 

Learn more