24/9/4水10:58[145.43]BLK880.98$ BX136.98$ 外国株計評価us110034.71$ 外国株計評価1600.2万
いつも東洋経済オンラインをご愛読いただきましてありがとうございます。
また、この度は試写会『Cloud クラウド』へのご応募ありがとうございました。
厳正なる抽選の結果、お客様の当選が決定しました。おめでとうございます!
本試写会は、東京・中央区の「京橋テアトル試写室」で開催<開催日時>
2024年9月17日(火)18:00開場/18:30開映(上映時間123分)
<開催会場>京橋テアトル試写室〒104-0031東京都中央区京橋1-6-13 Vort京橋ⅡB1{どうするか、、行く行かない
VMware日本の新社長山内氏に直撃、顧客の現状と今後のアプローチとは:鈴木恭子様記事抜粋<
米Broadcom傘下のVMwareが開催した年次カンファレンス「VMware Explore 2024」(8月26日から8月29日:ネバダ州ラスベガス)には、日本から約150名のパートナーや顧客が参加した。
これまでVMwareが有していた8,964種類のSKU(Stock Keeping Unit)と168種類の製品・バンドル・エディションを大幅に見直し、「VMware Cloud Foundation(VCF)」と「vSphere Foundation」に集約。さらにライセンスモデルを永久ライセンスからサブスクリプションモデルにした。
Broadcom CEOのHock Tan(ホック・タン)氏はプライベートクラウドに注力する姿勢を鮮明に打ち出した(関連記事 https://news.mynavi.jp/techplus/article/20240829-3014188/ )。買収から約8カ月間で実施されたこれらの変更を、日本の既存顧客に対してどのようにアプローチしていくのか。
VMware Explore 2024の会場で、Broadcom アジア太平洋地域および日本担当上級副社長兼ゼネラルマネージャーのSylvain Cazard(シルヴァン・カザール)氏とヴイエムウェア(※)代表取締役社長の山内光氏は日本メディアのインタビューに応じ、顧客の現状と今後のアプローチについて語った
どうなる、パートナーエコシステムの変化と継続
買収に伴うさまざまな変更について、顧客からはどのような声が寄せられているのか。
山内氏は「VMware Explore 2024に参加いただいているお客様は、買収に伴うライセンスモデルや製品体系の変更を非常にポジティブに捉えていただいています。8,964種類以上あった製品をVCFとvSphere Foundationに集約し、同時に買収後はプライベートクラウドにフォーカスすることを明確にしたことで『わかりやすくなった』との評価をいただいています」と強調する。
カザール氏も「私たちは日本において、多くのクライアントと共に、長年にわたってVCFによるITインフラのモダナイズに取り組んできました。ですから、今回発表したVCF 9は多くのクライアントの(IT戦略に)一致していると確信しています」と語る。
パートナーエコシステムプログラムの変更については、数カ月前からパートナーに対して個別に説明を重ねてきたという。山内氏は「日本では日立、富士通、NECが『Value Added OEM Services(付加価値OEM)』に参画いただいています。また、NTT、IIJ、ソフトバンク、KDDIにもクラウドサービスのパートナーとして協力をいただきます。日本においては長年、パートナーを通じたビジネスモデルでした。このモデルはブロードコム傘下での体制でも継続して推進します」と説明した。
カザール氏は「日本におけるVMwareの基盤は非常に強固です。日本では大規模なITインフラのモダナイゼーションが進んでおり、レガシーシステムを最新インフラに更新する動きがあります。また、大規模企業ではデータプライバシーやセキュリティの懸念から、データをすべて(パブリック)クラウド上で扱うことはないでしょう。日本企業が高品質で非常に耐障害性の高いプラットフォームを重視することを考えれば、VCFは理想的なポジションにあり、プライベートクラウドがITインフラの主軸になると考えます」と力説する。
顧客離れの懸念と継続利用への自信
とはいえ、大幅な変更で、VMwareからの乗り換えを検討している企業もある。特に個別製品を利用していた中堅小規模企業では、VCFやvSphere Foundationの導入は予算的に厳しいという声も少なくない。そうした企業に対するフォローアップは行う計画があるのか。
カザール氏は「VCFやvSphere Foundationに製品を集約したからといって、大幅な顧客離れは予想していません」と断言する。
その理由は、集約した2製品はこれまでの中核技術を集約したものであり、以前から顧客が使用してきたものであること。そして、今後は顧客と密にコミュニケーションすることで、単一プラットフォームというプライベートクラウドがもたらすメリットを十分に理解してもらえると確信しているからだという。
「日本のお客様やパートナーは、長年にわたってVMwareの技術に投資してきました。新しい製品体系でも、コアとなる技術の根幹は不変です。VMwareから別の選択肢に移行するのは、技術者の教育を含めて簡単なことではありません。われわれは、これまで培ってきた技術を基盤に、VCFに包含されている新技術を取り入れることで、大規模企業のビジネス成果を向上させられると考えています」(カザール氏)
VMwareはグローバルなパートナーエコシステムを「OEM」「クラウドサービスプロバイダー」「リセラー」、そしてAWSやMicrosoft Azure、Google Cloudといった「ハイパースケーラー」の4カテゴリーに整理した。
カザール氏は新しいアプローチについて、「この再編により、顧客は必要なSKUだけを効率的に選択・購入できるようになりました。以前のような異なるコンポーネントを組み合わせる複雑な方法を避け、プライベートクラウドの利点をより迅速に実現できます。単一プラットフォームでフルクラウドの運用モデルを採用することで、顧客により大きな価値を提供できると考えています。市場のリーダーとしての我々の役割は、単に顧客が望むものを売るだけでなく、将来を見据えて最善の選択肢を提案していくことです」と説明した。
サブスク移行は業界標準
また、今回の買収で最も注目されたのが、永久ライセンスからサブスクリプションモデルへの変更だ。これについてカザール氏は「VMwareは最近まで永続ライセンスを提供していた数少ない企業の一つでしたが、過去3年間でサブスクリプションと永続ライセンスの併用を進めてきました。今回のBroadcomによる買収を機に、完全なサブスクリプションモデルへの移行を決定しました。サブスクは一般的なビジネスモデルであり、逆にVMwareが(移行に)遅れていました」との見解を示す。
日本では2013年にVMwareのパブリッククラウドサービスである「vCloud Air」を、従量課金型サービス「vCloud Air VPC OnDemand」として提供を開始していたが、サブスクリプションモデルへの移行戦略を明言したのは2021年だ。ただし、その際にも「永久ライセンスからサブスク併用」だった。
その点について、山内氏は「VCFやvSphere Foundationはサブスクと親和性が高いです。特に技術の更新という観点から、サブスクリプション制のほうがより効果的な提供方法だと考えています」と説明した。
VMwareのプライベートAIにBroadcomの技術がもたらす影響とは:鈴木恭子様記事抜粋<Broadcom傘下のVMwareがプライベートAI(人工知能)を推している。VMware Explore 2024(関連記事)ではプライベートクラウドに特化した統合プラットフォーム「VMware Cloud Foundation(以下、VCF) 9」を発表した。同社CEOのHock Tan(ホック タン)氏は「企業が本当に必要なのは「『プライベートクラウド』『プライベートデータ』『プライベートAI』」と訴えた。
VMwareはBroadcomに買収される前から、プライベートAIの開発に注力している。8月28日に実施したメディア向けセッションでは、同社のVCF部門プライベートAIグローバル責任者のChris Wolf(クリス・ウルフ)氏と、同社バイスプレジデントでコアスイッチング部門ゼネラルマネージャーのRam Velega(ラム・ヴェレガ)氏が登壇。
両氏は「企業のプライベートAI活用」をテーマに、プライベートAIの導入やワークフローの管理、将来的にネットワーキングが果たす役割について、その戦略を語った。
VMwareがプライベートAIを開発する理由
冒頭、ウルフ氏はプライベートAIという概念が誕生した背景と、VMwareが提供するプライベートAI技術の優位性について説明
「VMwareがAIの独自開発に着手したのは、AI支援によるコード生成などが主な目的でした」と語ったウルフ氏。同社はすでに顧客サービスとサポートにAIを組み込む作業を行っており、これらの機能を包含した形でVCFのポートフォリオを構想していたという。
「AI開発の過程における顧客のニーズを分析すると、企業が切望しているのは『アーキテクチャの将来性確保と柔軟性の維持』『データ管理とプライバシーの維持』『コンプライアンス観点でのAI関連の決定リスクを軽減』でした。つまり企業は、競合他社に利益をもたらす可能性のある(パブリックな)AIモデル利用のリスクを避け、データを自社の管理下に置くことを望んでいたのです。AIを取り巻く状況が急速に変化していることを考えると、統合化されたプラットフォームアプローチでインフラストラクチャを集約する必要があると考えました」(ウルフ氏)
このような背景から、VMwareは独自のアプローチを採用している。VMwareは単一のAIサービスやモデルに依存せず、多様なAIモデルやサービスを柔軟に導入できるプラットフォームアプローチを採用している。例えば、Hugging Faceでは新たなAIモデルが毎日のように登場しているが、こうした状況では最新モデルを容易に採用できる柔軟性が重要だ。
ウルフ氏は「単一のAIサービスに依存するのではなく、複数のオプションを持つことで、技術の陳腐化や特定のサービスの問題によるリスクを軽減できます。VCF 9のようにインフラストラクチャを集約した環境であれば、より優れたモデルが登場した場合でも容易に実装することが可能です」と説明した。
プライベートAIの実用例:コード生成からコンタクトセンターまで
プライベートAIはすでにAI支援によるコード生成や高度な情報検索、コンタクトセンターといった現場で活用されている。特に外部共有できない内部文書や関連する膨大な非公開データを所有し、複雑な検索を瞬時に実行する必要があるコンタクトセンターでは、プライベートAIが必須
「われわれのプライベートAIは、長年のソフトウェア開発で培った信頼性と顧客データのプライバシー保護を重視しています。分散リソーススケジューラを用いたAIサービス向けのリソースオーケストレーションとインテリジェントなスケジューリングが特徴で、パブリックAIサービスと比較して最大3分の1から5分の1のコストで導入可能です。これらの要素が、従来ベアメタルでAIサービスを運用していた顧客にも評価され、VCFの導入につながっています」(ウルフ氏)
具体的には、企業が自社のデータセンター内でAIワークロードを実行できるようにし、データのプライバシーとセキュリティを確保している。また、AIインフラストラクチャの簡素化の観点からはAIモデルの開発やトレーニング、デプロイメントを簡素化する統合環境を提供
なお、VMwareは2024年5月よりVMwareとNVIDIAが共同で開発した企業向けプライベートAIソリューション「VMware Private AI Foundation with NVIDIA」を提供している。これは生成AI向けに最適化されたNVIDIAのLLM(大規模言語モデル)開発用プラットフォーム「NVIDIA NeMo」と生成AIを、VCF上に統合したソリューションだ。ウルフ氏は「インフラストラクチャパートナーはNVIDIAにとどまらず、IntelやAMDとも協業し、オープンなエコシステムを構築していきます」と述べた
LLMの要求するネットワーキングとは
続いて登壇したヴェレガ氏は、プライベートAIワークロードの展開とネットワークが果たす役割について説明
冒頭、ヴェレガ氏はBroadcomが半導体製造メーカーであることを強調したうえで、「1000億個以上のトランジスタを持つ半導体を製造する複雑な世界で、Broadcomも品質管理にAIを活用しています。自社のプライベートAIが半導体製造を下支えしていることを誇りに思います」と語った。
ヴェレガ氏は、LLMやAIの活用ではクラウドコンピューティング以上にネットワーキングが重要になると力説した。
「クラウドコンピューティングでは、1つのCPUで複数のアプリケーションを実行することで効率を上げます。一方、AIやML(機械学習)では1つのGPUでは処理が足りず、多数のGPUを接続する必要があり、LLMの場合は数十万のGPUを接続します。ですから、ネットワーキングの重要性が増すのです」(ヴェレガ氏)
現在の半導体製造プロセスでは、単一のシリコンウェハー上に作成できる最大のチップのサイズは約800平方ミリメートル(約28mm×28mm)が限界だ。リソグラフィー(露光)工程の制限や欠陥率の増加、熱管理の問題などでこれ以上は大きくできない
つまり、それ以上の処理能力が必要な場合は、複数のチップを接続する必要がある。ヴェレガ氏は「LLMはこれらのチップを何百個も接続する必要があります。そのため、接続したコンピュータを1つの大きなスーパーコンピュータとして機能させるには、すぐれたネットワーキングが不可欠なのです」と語る
AIインフラ構築の転換点、InfiniBandからEthernetへ
では、技術的な観点から、AIインフラストラクチャ構築の最適なソリューションとは何か。以前は、大規模なLLMクラスタを効率的に運用するには、InfiniBandのような高性能ネットワーク技術が不可欠だと言われていた。InfiniBandは、高速で直接的なメモリアクセス(Remote Direct Memory Access:RDMA)を可能にし、理論上は理想的な選択肢だと捉えられていた。
しかしヴェレガ氏のチームが検証した結果、AIシステムでは、InfiniBandが想定するような「データ損失のない完璧な通信環境」の維持は難しかったという。こうした状況で注目されているのが、意外にもEthernetだ。
実際、Alibaba、Amazon、Google、MetaなどがEthernetを採用しており、例えば、Amazonは60,000以上、Oracleは30,000以上のGPUをEthernetで接続している。ヴェレガ氏はEthernetがAIインフラの主流となっている理由について以下のように解説
「Ethernetの強みは、その現実的な設計思想です。完璧な通信環境を前提とせず、現実世界の不完全さを考慮に入れています。これにより、大規模システムでよく起こる問題にも柔軟に対応できます。さらに、問題発生を想定した耐障害性を備えています。これはインターネットの設計思想と同じで、障害が起きても全体のシステムが機能し続けるよう設計されています。もちろん、その広範な採用と高い互換性に多様な機器やシステムとの連携が可能という側面もあります。これらの特性が大規模AIシステムの実用的かつ効率的な構築と運用を可能にしているのです」(ヴェレガ氏)
Ethernetは機密データの安全な管理を可能にしつつ、計算処理、データ保存、データ転送、GPU処理といったAIインフラの全要素を単一のネットワーク基盤で統合できるというのがVMwareのスタンスだ。ウルフ氏も「理想的なプライベートAIインフラ構築という観点からもEthernet最適な通信規格だと言えるでしょう」とコメントしている。
プライベートAIネットワークにEthernetを採用する理由。可用性や信頼性、コスト、問題発生を想定した耐障害性などがある