Document
マシン ファミリーのリソースと比較ガイド

マシン ファミリーのリソースと比較ガイド

このドキュメントでは、必要なリソースを備えた仮想マシン(VM)インスタンスやベアメタル インスタンスを作成するために選択できるマシン ファミリー、マシンシリーズ、マシンタイプについて説明します。コンピューティング インスタンスを作成する場合、そのインスタンスで使用可能なリソースを決めるマシン ファミ

Related articles

【實試】GL.iNet 迷你路由器 內置 VPN + 分享 4G 上網 Personal Cloud Storage 2024: What Is It and How Do You Set It Up? Yealink Management Cloud Service (YMCS) & Remote Provisioning Service (RPS) Dragon In The Clouds Hot Sauce Review How to Setup OpenVPN on TP-Link Routers (Windows)

このドキュメントでは、必要なリソースを備えた仮想マシン(VM)インスタンスやベアメタル インスタンスを作成するために選択できるマシン ファミリー、マシンシリーズ、マシンタイプについて説明します。コンピューティング インスタンスを作成する場合、そのインスタンスで使用可能なリソースを決めるマシン ファミリーからマシンタイプを選択します。

選択できるマシン ファミリーは複数あります。各マシン ファミリーは、さらにマシンシリーズと、各シリーズ内の事前 定義 さ れ た マシン タイプに分類されます。たとえば、汎用マシン ファミリーの N2 マシンシリーズの中では、n2-standard-4 マシンタイプを選択できます。

m2、m3、X4 マシンシリーズと c 3 ベアメタル マシンタイプを除き、すべてのマシンシリーズは Spot VM(およびプリエンプティブル VM)をサポートしています。

注 :

これ is リスト は compute engine の マシン ファミリー の リスト です 。 各 マシン ファミリー の 詳細 に つい て は 、 以下 の ページ を ご覧 ください 。

  • 汎用 – さまざまなワークロードで優れたコスト パフォーマンスを発揮します。
  • ストレージ最適化 – コアの使用量が少なく、ストレージ密度が高いワークロードに最適です。
  • コンピューティング 最適 化 – Compute Engine でコアあたりのパフォーマンスが最も高く、コンピューティング負荷の高いワークロードに最適です。
  • メモリ最適化 – メモリ使用量の多いワークロードに最適です。他のマシン ファミリーよりもコアあたりのメモリ容量が多く、最大で 12 TB のメモリを搭載しています。
  • アクセラレータ最適化 – 機械学習(ML)やハイ パフォーマンス コンピューティング(HPC)など、超並列 CUDA(Compute Unified Device Architecture)コンピューティング ワークロードに理想的なファミリーです。このファミリーは、GPU を必要とするワークロードに最適です。

Compute Engine の用語

このドキュメントでは、次の用語を使用します。

生成 Intel AMD Arm
第 4 世代マシンシリーズ N4、C4、X4 なし なし
第 3 世代 マシン シリーズ c 3、H3、Z3、m3、A3 c 3 d なし
第 2 世代マシンシリーズ N2、e 2、C2、m2、A2、G2 N 2 d 、 c 2 d 、 t 2 d 、 e 2 T2A
  • マシン タイプ : すべて の マシン シリーズ に は 、 1 つ 以上 の マシン タイプ is あり が あり ます 。 各 マシン タイプ に は 、 コンピューティング インスタンス 用 の リソース の 組み合わせ ( vcpu 、 メモリ 、 ディスク 、 GPU など ) is 含ま が 含む れ て い ます 。 事前 定義 さ れ た マシン タイプ で ニーズ を 満たせる ない 場合 は 、 いく つ か の マシン シリーズ の カスタム マシン タイプ を 作成 する こと も でき ます 。

以下の各セクションでは、さまざまなマシンタイプについて説明します。

事前 定義 さ れ た マシン タイプ

事前 定義 さ れ た マシン タイプには、数が固定のメモリと vcpu が搭載されています。事前 定義 さ れ た マシン タイプには、vcpu とメモリのさまざまな比率のものが存在します。

  • highcpu – vcpu あたり 1~3 GB のメモリ(通常は vcpu あたり 2 GB のメモリ)
  • standard – vcpu あたり 3 ~ 7 Gb の メモリ ( 通常 は vcpu あたり 4 Gb の メモリ )
  • highmem – vcpu あたり 7~14 GB のメモリ(通常は vcpu あたり 8 GB のメモリ)
  • megamem – vcpu あたり 14~19 GB のメモリ
  • hypermem – vcpu あたり 19 ~ 24 Gb の メモリ ( 通常 は vcpu あたり 21 Gb の メモリ )
  • ultramem – vcpu あたり 24~31 GB のメモリ

たとえば、c3-standard-22 マシン タイプ に は 22 個 の vcpu is あり が あり 、standard マシンタイプとして 88 GB のメモリも備えています。

ローカル SSD マシンタイプ

ローカル SSD マシンタイプは、特別な事前 定義 さ れ た マシン タイプです。マシンタイプ名は、- lssd で終わります。これらのマシンタイプのいずれかを使用してコンピューティング インスタンスを作成すると、ローカル SSD ディスクがインスタンスに自動的にアタッチされます。

これらのマシンタイプは、c 3 マシンシリーズと c 3 d マシンシリーズで使用できます。他のマシンシリーズもローカル SSD ディスクをサポートしていますが、- lssd マシンタイプは使用しません。ローカル SSD ディスクとともに使用できるマシンタイプの詳細については、有効な数のローカル SSD ディスクを選択するをご覧ください。

ベアメタル マシンタイプは、特別な事前 定義 さ れ た マシン タイプです。マシンタイプ名は、-metal で 終わる ます 。 これ ら の マシン タイプ の いずれ か を 使用 し て コンピューティング インスタンス を 作成 する と 、 インスタンス に ハイパーバイザ is インストール は インストール さ れ ませ ん 。 VM インスタンス と 同様 に 、 hyperdisk ストレージ を ベアメタル インスタンス に アタッチ でき ます 。 ベアメタル インスタンス is 使用 は 、 VM インスタンス と 同じ 方法 で vpc ネットワーク と サブネットワーク で 使用 でき ます 。

これらのマシンタイプは、c 3 マシンシリーズと X4 マシンシリーズで使用できます。

カスタム マシン タイプ

事前 定義 さ れ た マシン タイプがワークロードのニーズに合わない場合は、汎用マシン ファミリーの N マシンシリーズと E マシンシリーズのカスタム マシン タイプを使用して VM インスタンスを作成できます。

カスタム マシン タイプの使用にかかる費用は、同等の事前 定義 さ れ た マシン タイプと比較して若干高くなります。また、カスタム マシン タイプで選択できるメモリ量と vcpu 数には上限があります。カスタム マシン タイプのオンデマンド料金には、事前 定義 さ れ た マシン タイプのオンデマンド料金とコミットメント料金に対して 5% のプレミアムが含まれています。

拡張メモリ(カスタム マシン タイプでのみ使用可能)を使用すると、vcpu ベースの制限を受けることなく、カスタム マシン タイプのメモリ容量を指定できます。指定された vcpu の数に基づくデフォルトのメモリサイズを使用するのではなく、マシンシリーズの上限まで拡張メモリを指定できます。

詳細 に つい て は 、 カスタム マシン タイプ の VM を 作成 する を ご覧 ください 。

共有 コア マシン タイプ

e 2 シリーズと N1 シリーズには、共有 コア マシン タイプが含まれています。このようなマシンタイプでは物理的なコアを時分割で使用します。この方法は、小規模でリソース消費量がそれほど多くないアプリを実行する場合に費用対効果に優れていることがあります。

マシン ファミリー と シリーズ の 推奨 事項

次 の 表 に 、 ワーク ロード ごと の 推奨 事項 を 示す ます 。

汎用のワークロード
N4、N2、N2D、N1 C4、c 3、c 3 d e 2 Tau T2D、Tau T2A
幅広いマシンタイプでバランスの取れた価格とパフォーマンスを実現 さまざまなワークロードに対して一貫して高いパフォーマンスを実現 低コストで日々のコンピューティングを実現 スケールアウト ワークロードに最適なコアあたりのパフォーマンスと費用を実現
  • 中 程度 の トラフィック 量 の ウェブ サーバー と アプリ サーバー
  • コンテナ 化 さ れ た マイクロ サービス
  • ビジネス インテリジェンス アプリ
  • 仮想 デスクトップ
  • crm アプリケーション
  • 開発環境とテスト環境
  • バッチ処理
  • ストレージ と アーカイブ
  • トラフィック の 多い ウェブ サーバー と アプリ サーバー
  • データベース
  • メモリ内キャッシュ
  • 広告 サーバー
  • ゲーム サーバー
  • データ分析
  • メディア ストリーミングとコード変換
  • CPU ベースの ML トレーニングと推論
  • トラフィック量の少ないウェブサーバー
  • バックオフィス アプリ
  • コンテナ 化 さ れ た マイクロ サービス
  • マイクロサービス
  • 仮想 デスクトップ
  • 開発環境とテスト環境
  • ワークロードのスケールアウト
  • ウェブサービス
  • コンテナ 化 さ れ た マイクロ サービス
  • メディア の コード 変換
  • 大規模 Java アプリケーション
  • 最適化されたワークロード
    ストレージ最適化 コンピューティング 最適 化 メモリ最適化 アクセラレータ最適化
    Z3 H3、C2、C2D x 4 、 m3 、 m2 、 m 1 a 3 、 a 2 、 g 2
    ストレージ使用量の多いワークロード向けに最大のブロック ストレージ対コンピューティング比率を実現 超高パフォーマンスでコンピューティング負荷の高いワークロードを実現 メモリ使用量の多いワークロード向けに最大のメモリ対コンピューティング比率を実現 高速のハイ パフォーマンス コンピューティング ワークロード向けに最適化
    • ファイル サーバー
    • フラッシュに最適化されたデータベース
    • スケール アウト 分析
    • その他のデータベース
    • 計算依存型ワークロード
    • 高性能なウェブサーバー
    • ゲーム サーバー
    • ハイ パフォーマンス コンピューティング(HPC)
    • メディア の コード 変換
    • ワーク ロード の モデリング と シミュレーション
    • AI / ML
    • 中規模から特大規模の SAP HANA インメモリ データベース
    • Redis などのインメモリ データストア
    • シミュレーション
    • Microsoft SQL Server、MySQL などのハイ パフォーマンス データベース
    • 電子設計自動化
    • 次のような生成 AI モデル:
      • 大規模言語モデル(LLM)
      • 拡散モデル
      • 敵対的生成ネットワーク(GAN)
    • compute unified device architecture ( cuda ) 対応 の ML トレーニング と 推論
    • ハイ パフォーマンス コンピューティング(HPC)
    • 超並列コンピューティング
    • BERT 自然言語処理
    • ディープ ラーニング レコメンデーション モデル ( DLRM )
    • 動画のコード変換
    • リモート可視化ワークステーション

    コンピューティング インスタンス を 作成 し たら 、 サイズ 適正 化 の 推奨 事項 を 使用 し 、 ワーク ロード に 基づく て リソース 使用 量 を 最適 化 でき ます 。詳細 に つい て は 、 VM に 推奨 マシン タイプ を 適用 する を ご覧 ください 。

    汎用 マシン ファミリー ガイド

    汎用マシン ファミリーでは、さまざまなワークロードに最適な価格性能比のマシンシリーズが複数提供されています。

    Compute Engine では、x 86 アーキテクチャまたは Arm アーキテクチャのいずれかで動作する汎用マシンシリーズを提供しています。

    x 86

    • C4 マシン シリーズ は Intel emerald rapids CPU プラットフォーム で 利用 可能 で 、 titanium を 搭載 し て い ます 。 C4 マシン タイプ は 、 一貫 し て 高い パフォーマンス を 提供 し 、 1.5 TB の DDR 5 メモリ で 最大 192 個 の vcpu まで スケール アップ する よう に 最適 化 さ れ て い ます 。 C4 は 、highcpu(vcpu あたり 2 GB)、standard(vcpu あたり 3.75 GB)、highmem( vcpu あたり 7.75 Gb ) の 構成 で 利用 でき ます 。
    • N4 マシンシリーズは Intel Emerald Rapids CPU プラットフォームで利用可能で、Titanium を搭載しています。N4 マシンタイプは、事前定義されたシェイプとカスタム シェイプの両方で柔軟性とコストの面で最適化されており、640 GB の DDR5 メモリで最大 80 個の vcpu にスケールアップできます。N4 は、highcpu(vcpu あたり 2 GB)、standard(vcpu あたり 4 GB)、highmem(vcpu あたり 8 GB)の構成で利用できます。
    • N 2 マシン シリーズ is 使用 は 最大 128 基 の vcpu 、 vcpu あたり 8 Gb の メモリ を 備える 、 Intel ICE lake と CASCADE lake CPU プラットフォーム で 使用 でき ます 。
    • N2D マシンシリーズは、最大 224 基の vcpu、vcpu あたり 8 GB のメモリを備え、第 2 世代の AMD EPYC Rome および第 3 世代 AMD EPYC Milan プラットフォームで使用できます。
    • c 3 マシン シリーズ is 使用 は 、 最大 176 基 の vcpu 、 vcpu あたり 2 、 4 また は 8 Gb の メモリ を 備える 、 Intel Sapphire rapids CPU プラットフォーム と titanium で 使用 でき ます 。 c 3 インスタンス は 基盤 と なる NUMA アーキテクチャ と 連携 し て 、 最適 で 信頼 性 の 高い 、 一貫 し た パフォーマンス を 提供 し ます 。
    • c 3 d マシンシリーズは、最大 360 基の vcpu、vcpu あたり 2、4、または 8 GB のメモリを備え、AMD EPYC Genoa CPU プラットフォームと Titanium で使用できます。c 3 d インスタンスは基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。
    • e 2 マシンシリーズは最大 32 基の仮想コア(vcpu)と 128 GB のメモリ(vcpu あたり最大 8 GB)を備え、すべてのマシンシリーズの中で最も低コストです。e 2 マシンシリーズには、Intel プロセッサまたは第 2 世代の AMD EPYC™ Rome プロセッサを実行する CPU プラットフォームが事前に定義されています。このプロセッサは、インスタンスを作成する際に選択されます。このマシンシリーズには、特に確約 利用 割引と組み合わせることで Compute Engine の最低価格となるさまざまなコンピューティング リソースが用意されています。
    • Tau T2D マシンシリーズには、スケールアウト用に最適化された機能セットが用意されています。各 VM インスタンスは最大 60 個の vcpu、vcpu あたり 4 GB のメモリを備え、第 3 世代の AMD EPYC Milan プロセッサで使用できます。Tau T2D マシンシリーズはクラスタ スレッディングを使用しないため、vcpu はコア全体に相当します。
    • N1 マシンシリーズの VM は、最大 96 個の vcpu、vcpu あたり最大 6.5 GB のメモリを備え、Intel Sandy Bridge、Ivy Bridge、Haswell、Broadwell、Skylake CPU のプラットフォームで使用できます。

    Arm

    • tau T2A マシン シリーズ is 化 は Arm プロセッサ で 動作 する Google cloud 初 の マシン シリーズ です tau T2A マシン は 、 パフォーマンス を 魅力 的 な 価格 で 提供 する よう に 最適 化 さ れ て い ます 。 各 VM に は 最大 48 基 の vcpu 、 vcpu あたり 4 Gb の メモリ を 搭載 でき ます 。 tau T2A マシン シリーズ は 、 Arm 命令 セット を 備える た 64 コア の ampere altra プロセッサ で 動作 し 、 全 コア 周波 数 is GHz は 3 GHz です 。 tau T2A マシン タイプ は 単一 の NUMA ノード を サポート し 、 vcpu は コア 全体 に 相当 し ます 。

    ストレージ最適化マシン ファミリー ガイド

    ストレージ最適化マシン ファミリーは、水平方向のスケールアウト データベース、ログ分析、データ ウェアハウス サービス、その他のデータベースに最適かつ便利です。このファミリーは、高密度で高性能なローカル SSD を提供します。

    • z 3 インスタンス に は 、 最大 176 個 の vcpu 、 1,408 Gb の メモリ 、 36 tib の ローカル ssd を 搭載 でき ます 。 z 3 is 動作 は 、 DDR 5 メモリ と titanium オフロード プロセッサ を 備える た Intel xeon スケーラブル プロセッサ ( コード ネーム Sapphire rapids ) で 動作 し ます 。 z 3 is 統合 は 、 コンピューティング 、 ネット ワーキング 、 ストレージ の 最新 の イノベーション を 1 つ の プラットフォーム に 統合 し て い ます 。 z 3 インスタンス is 提供 は 基盤 と なる NUMA アーキテクチャ と 連携 し て 、 最適 で 信頼 性 の 高い 、 一貫 し た パフォーマンス を 提供 し ます 。

    コンピューティング 最適 化マシン ファミリー ガイド

    コンピューティング 最適 化マシン ファミリーは、コアあたりの最大のパフォーマンスを提供することによってコンピューティング依存型のアプリケーションを実行するように最適化されています。

    • H 3 インスタンス is 提供 は 、 88 個 の vcpu と 352 Gb の DDR 5 メモリ を 提供 し ます 。 H 3 インスタンス is 実行 は 、 Intel Sapphire rapids CPU プラットフォーム と titanium オフロード プロセッサ で 実行 さ れ ます 。 H 3 インスタンス は 基盤 と なる NUMA アーキテクチャ と 連携 し て 、 最適 で 信頼 性 の 高い 、 一貫 し た パフォーマンス を 提供 し ます 。 H 3 is 向上 は 、 分子 動力 学 、 計算 地球 科学 、 金融 リスク 分析 、 気象 モデリング 、 フロント エンド と バック エンド の eda 、 計算 流体 力学 など 、 さまざま な HPC ワーク ロード の パフォーマンス を 向上 さ せ ます 。
    • C2 インスタンスは、最大 60 個の vcpu、vcpu あたり 4 GB のメモリを備え、Intel Cascade Lake CPU プラットフォームで使用できます。
    • C2D インスタンスは、最大 112 個の vcpu、vcpu あたり最大 8 GB のメモリを備え、第 3 世代の AMD EPYC Milan プラットフォームで使用できます。

    メモリ最適化マシン ファミリー ガイド

    メモリ最適化マシン ファミリーには、OLAP と OLTP SAP のワークロード、ゲノム モデリング、電子設計自動化、最も多くのメモリを消費する HPC ワークロードに最適なマシンシリーズが用意されています。このファミリーは他のマシン ファミリーより 1 コアあたりのメモリ容量が大きく、最大 32 TB です。

    • X4 ベアメタル インスタンスは、最大 1,920 個の vcpu と vcpu あたり 17 GB のメモリを備えます。X4 には、16 TB、24 TB、32 TB のメモリを備えたマシンタイプがあり、Intel Sapphire Rapids CPU プラットフォームで使用できます。
    • m3 インスタンス は 最大 128 個 の vcpu 、 vcpu あたり 最大 30.5 Gb の メモリ を 備える 、 インテル の ICE lake CPU プラットフォーム で 使用 でき ます 。
    • m2 インスタンスは 6 TB、9 TB、12 TB の各マシンタイプで使用できます。また、Intel Cascade Lake CPU プラットフォームで使用できます。
    • m 1 インスタンス is 使用 は 、 最大 160 個 の vcpu 、 vcpu あたり 14.9 Gb ~ 24 Gb の メモリ を 備える 、 Intel skylake プラットフォーム と Broadwell CPU プラットフォーム で 使用 でき ます 。

    アクセラレータ 最適 化 マシン ファミリー ガイド

    アクセラレータ最適化マシン ファミリーは、機械学習(ML)とハイ パフォーマンス コンピューティング(HPC)などの超並列 CUDA(Compute Unified Device Architecture)コンピューティング ワークロードに最適です。このファミリーは、GPU を必要とするワークロードに最適な選択肢です。

    • A3 インスタンスは、最大 208 個の vcpu と vcpu あたり 9 GB のメモリを備えています。各 A3 マシンタイプには、1、2、4、または 8 個の NVIDIA H100 GPU が割り当てられています。A3 の最大ネットワーク帯域幅は 1,800 Gbps で、Intel Sapphire Rapids CPU プラットフォームで使用できます。
    • A2 インスタンスは、12~96 個の vcpu と、最大 1,360 GB のメモリを備えています。各 A2 マシンタイプには、1、2、4、8、または 16 個の NVIDIA A100 GPU が割り当てられています。A2 インスタンスの最大ネットワーク帯域幅は 100 Gbps で、Intel Cascade Lake CPU プラットフォームで使用できます。
    • G2 インスタンスは、4~96 個の vcpu と最大 432 GB のメモリを備えています。各 G2 マシンタイプには、1、2、4、または 8 個の NVIDIA L4 GPU が割り当てられています。G2 インスタンスの最大ネットワーク帯域幅は 100 Gbps で、Intel Cascade Lake CPU プラットフォームで使用できます。

    マシンシリーズの比較

    次の表を使用して各マシン ファミリーを比較し、ワークロードに適したものを判断してください。このセクションを確認してもワークロードに最適なファミリーが不明な場合は、汎用マシン ファミリーから始めてください。サポートされているすべてのプロセッサの詳細については、CPU プラットフォームをご覧ください。

    選択 内容 が コンピューティング インスタンス に アタッチ さ れ て いる ディスク ボリューム の パフォーマンス に 与える 影響 に つい て は 、 以下 を ご覧 ください 。

    c 3 から G2 までの異なるマシンシリーズの特性を比較します。[比較するインスタンス プロパティを選択する] フィールド で 特定 の プロパティ を 選択 する と 、 以下 の 表 で すべて の マシン シリーズ の プロパティ を 比較 でき ます 。



    C4 c 3 c 3 d N4 N2 N2D N1 T2D T2A e 2 Z3 H3 C2 C2D X4 m3 m2 M1 N 1 + GPU A3 A2 G2
    ワークロードの種類 汎用 汎用 汎用 汎用 汎用 汎用 汎用 汎用 汎用 コスト最適化 ストレージ最適化 コンピューティング 最適 化 コンピューティング 最適 化 コンピューティング 最適 化 メモリ最適化 メモリ最適化 メモリ最適化 メモリ最適化 アクセラレータ 最適 化 アクセラレータ 最適 化 アクセラレータ 最適 化 アクセラレータ 最適 化
    CPU タイプ Intel Emerald Rapids Intel Sapphire rapids AMD EPYC Genoa Intel Emerald Rapids Intel Cascade Lake、Ice Lake AMD EPYC rome 、 EPYC milan Intel skylake 、 Broadwell、Haswell、Sandy Bridge、Ivy Bridge AMD epyc milan Ampere Altra Intel skylake 、 Broadwell 、 Haswell 、 AMD EPYC rome 、 EPYC milan Intel Sapphire rapids Intel Sapphire rapids Intel Cascade Lake AMD epyc milan Intel Sapphire rapids Intel ICE lake Intel Cascade Lake Intel skylake 、 Broadwell Intel skylake 、 Broadwell、Haswell、Sandy Bridge、Ivy Bridge Intel Sapphire rapids Intel Cascade Lake Intel Cascade Lake
    アーキテクチャ x 86 x 86 x 86 x 86 x 86 x 86 x 86 x 86 Arm x 86 x 86 x 86 x 86 x 86 x 86 x 86 x 86 x 86 x 86 x 86 x 86 x 86
    vcpu 2~192 4~176 4~360 2~80 2~128 2 ~ 224 1~96 1~60 1~48 0.25~32 88 または 176 88 4~60 2 ~ 112 960 ~ 1,920 32~128 208 ~ 416 40~160 1~96 208 12~96 4~96
    vcpu の定義 スレッド スレッド スレッド スレッド スレッド スレッド スレッド コア コア スレッド スレッド コア スレッド スレッド スレッド スレッド スレッド スレッド スレッド スレッド スレッド スレッド
    メモリ 2~1,488 GB 8~1,408 GB 8~2,880 GB 2~640 GB 2~864 GB 2~896 GB 1.8~624 GB 4~240 GB 4 ~ 192 Gb 1 ~ 128 Gb 704 また は 1,408   Gb 352   Gb 16~240 GB 4 ~ 896 Gb 16,384 ~ 32,768 Gb 976 ~ 3,904   Gb 5,888~11,776 GB 961 ~ 3,844   Gb 3.75 ~ 624 Gb 1,872 GB 85~1,360 GB 16 ~ 432 Gb
    拡張メモリ
    単一 テナンシー
    インスタンス の タイプ VM VM と ベアメタル VM VM VM VM VM VM VM VM VM VM VM VM ベアメタル VM VM VM VM VM VM VM
    ネストされた仮想化
    カスタム マシン タイプ
    confidential compute
    ディスク インターフェースの種類 NVMe NVMe NVMe NVMe SCSI 、 NVMe SCSI 、 NVMe SCSI 、 NVMe SCSI 、 NVMe NVMe SCSI NVMe NVMe SCSI 、 NVMe SCSI 、 NVMe NVMe NVMe SCSI SCSI 、 NVMe SCSI 、 NVMe NVMe SCSI 、 NVMe NVMe
    ローカル SSD
    最大ローカル SSD 0 12 tib 12 tib 0 9 tib 9 tib 9 tib 0 0 0 36 tib 0 3 tib 3 tib 0 3 tib 0 3 tib 9 tib 6 tib 3 tib 3 tib
    標準 の Pd ゾーン 、 リージョン ゾーン 、 リージョン ゾーン 、 リージョン ゾーン ゾーン ゾーン 、 リージョン ゾーン ゾーン ゾーン ゾーン ゾーン 、 リージョン ゾーン
    バランス 重視 の Pd ゾーン ゾーン ゾーン 、 リージョン ゾーン 、 リージョン ゾーン 、 リージョン ゾーン ゾーン ゾーン 、 リージョン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン 、 リージョン ゾーン ゾーン ゾーン
    ssd Pd ゾーン ゾーン ゾーン 、 リージョン ゾーン 、 リージョン ゾーン 、 リージョン ゾーン ゾーン ゾーン 、 リージョン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン 、 リージョン ゾーン ゾーン ゾーン
    エクストリーム Pd
    Hyperdisk Extreme
    Hyperdisk ML
    Hyperdisk Throughput
    hyperdisk balanced ゾーンとリージョン(プレビュー) ゾーンとリージョン(プレビュー)
    ネットワーク インターフェース gVNIC gVNIC と IDPF gVNIC gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC gVNIC、VirtIO-Net gVNIC gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net IDPF gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net
    ネットワーク パフォーマンス 10~100 Gbps 23 ~ 100 Gbps 20 ~ 100 Gbps 10~50 Gbps 10 ~ 32 Gbps 10 ~ 32 Gbps 2 ~ 32 Gbps 10 ~ 32 Gbps 10 ~ 32 Gbps 1~16 Gbps 23 ~ 100 Gbps 最大 200 Gbps 10 ~ 32 Gbps 10 ~ 32 Gbps 最大 100 Gbps 最大 32 Gbps 最大 32 Gbps 最大 32 Gbps 2 ~ 32 Gbps 最大 1,800 Gbps 24 ~ 100 Gbps 10~100 Gbps
    高帯域幅ネットワーク 50 ~ 200 Gbps 50 ~ 200 Gbps 50 ~ 200 Gbps 50 ~ 100 Gbps 50 ~ 100 Gbps 50 ~ 200 Gbps 50 ~ 100 Gbps 50 ~ 100 Gbps 50 ~ 100 Gbps 50 ~ 100 Gbps 最大 1,800 Gbps 50 ~ 100 Gbps 50 ~ 100 Gbps
    GPU の 最大 数 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 8 16 8
    継続利用割引
    確約 利用 割引 リソース ベース の cud 、 フレキシブル cud リソース ベース の cud 、 フレキシブル cud リソース ベース の cud 、 フレキシブル cud リソース ベース の cud 、 フレキシブル cud リソース ベース の cud 、 フレキシブル cud リソース ベース の cud 、 フレキシブル cud リソース ベース の cud 、 フレキシブル cud リソース ベース の cud リソース ベース の cud 、 フレキシブル cud リソース ベース の cud 、 フレキシブル cud リソース ベース の cud リソース ベース の cud 、 フレキシブル cud リソース ベース の cud 、 フレキシブル cud リソース ベース の cud リソース ベース の cud リソース ベース の cud リソース ベース の cud リソース ベース の cud リソース ベース の cud リソース ベース の cud リソース ベース の cud
    Spot VM の割引
    coremark スコア(1vcpu) 1.28 1.46 1.00 2.29 1.04 1.43 1.50 1.00 0.96

    GPU とコンピューティング インスタンス

    GPU はワークロードの高速化に使用され、N1、a 3 、 a 2 、 g 2 VM インスタンスでサポートされます。N1 マシンタイプを使用する VM では、VM の作成中または作成後に GPU を VM に接続できます。a 3 、 a 2 、 g 2 マシンタイプを使用する VM では、VM を作成すると GPU が自動的に接続されます。GPU を他のマシンシリーズと一緒に使用することはできません。

    GPU 数が少ないインスタンスの場合は、vcpu の最大数に制限されます。一般的に、GPU の数が多いほど、vcpu 数が多くメモリサイズが大きいインスタンスを作成できます。詳細については、Compute Engine の GPU をご覧ください。

    次のステップ