「社内でAIを使いたい」プライベートAIについて調べてみた!

2025/12/13

Advent Calendar AI Japan VMUG NVIDIA VMware

t f B! P L
 本記事は、「vExperts Advent Calendar 2025」の13日目です。

毎年のことですが、みなさんの内容が立派すぎて激しくプレッシャーです。
例によって例のごとく、私のターンは箸休め的にご覧いただければと思います。
毎年同じようなことを言ってる気がしますが(昨年も同じこと言っています!)

AIブームの裏で、企業が直面する「現実」

生成AIは、もはや単なる技術トレンドではありません。企業の競争力を左右する、ビジネスに不可欠なツールとなりつつあります。AIといっても、クラウドサービスやプライベートAIなど、種類も増えてきました。今回は、自社の機密データや独自ノウハウを活用する「プライベートAI」の導入についてフォーカスしていきます。プライベートAIは、外部のクラウドサービスにデータを預けることなく、自社の管理下で安全にAIを活用するというアプローチです。
しかし、その導入はクラウドサービスのようにクレジットカード一枚で手軽に始められるものではありません。今回は、プライベートAI導入の初期段階で企業が直面しがちな「現実」を考えてみようと思います。

なぜ今「プライベートAI」なのか?

プライベートAIの導入は、企業によっては戦略的な選択肢となり得ます。なぜなら、企業の最も重要な資産を扱う上で、パブリッククラウドでは解決が難しいとされる、根本的な課題が存在するからです。

  • 企業によっては、機密情報などの知的財産を社外に出すことなくAIで活用し、業務を効率化する必要があります。そのため、オンプレミス環境でAIを動かすプライベートAIが選択肢となります。データはその場所にとどまろうとする性質(データグラビティ)を持ち、最も価値あるデータほど移動させるリスクは高まります。
  • VMware自身が「ESXiのカーネルコードは決して我々のデータセンターから出さない」と語るように、企業には絶対に外部に出せない「聖域」のようなデータが存在します。それは、企業の競争力の源泉そのものです。このような最高機密レベルのデータを、たとえ安全だと言われていても、パブリッククラウドにアップロードすることは、リスクが伴うと考えられています。
  • AIの学習や推論には、膨大なデータが必要になります。大量のデータをクラウドに転送するだけでも、莫大な時間とコストが発生します。データが生成される現場(オンプレミス)でAIを処理する方が、経済的にも合理的であるケースがあります。
これらの理由から、企業によってはプライベートAIの導入を検討しているのではないでしょうか。しかし、その道は平坦ではありません。導入プロジェクトの内部には、特有の課題が待ち受けているのです。

開発者 vs. IT管理者〜社内に潜む「AI導入」の壁

プライベートAI導入プロジェクトが初期段階でつまずく最大の原因の一つは、社内に存在する「開発者」と「IT管理者」の深刻な視点のズレです。両者の期待値と現実認識のギャップが、プロジェクト全体を混乱させる火種となります。
少し大げさに表現してみました。
観点
開発者の視点
IT管理者の視点
リソース認識 
クレジットカードの上限が唯一の制限」と考え、リソースは無限にあると捉える。
無限の資源ではない」と理解しており、有限なリソースを管理する必要がある。
スピード感
今すぐ欲しい」。アイデアを即座に試し、迅速に開発を進めたい。
10分以内のビルドタイムをサポートしたいが、そのためにはプラットフォームが必要。
コスト意識
APIを「サービスとして消費する」感覚。インフラ全体のコストには無頓着。
設備投資が重い」ことを知っており、コスト効率と投資対効果を常に意識する。
主要な関心事
最高の性能を持つ最新のモデルを使いたい。
予算内で「有限なGPU」をいかに効率的に配分し、運用するか。 

この対立構造は、AIプロジェクトで深刻な問題を引き起こします。開発者は、最高の精度を求めて巨大なAIモデルを何の気なしに選択しますが、その選択がインフラにどれほどの負荷をかけるかを理解していません。一方でIT管理者は、その要求が物理的なサーバー、電力、冷却、そして莫大なコストを伴うことを知っています。
このコミュニケーション不足は、致命的なズレを生じさせていきます。
最も、AIプロジェクトのみならず通常のプロジェクトにおいても、コミュニケーション不足は致命的なズレを生む主要因なのですが・・・

コミュニケーション不足が招いた”悪夢の見積もり”

ここで紹介するのは、Exploreで発表された内容から抜粋しています。
AIモデルの選定という、一つの純粋な技術的判断が、いかにビジネス全体に壊滅的なインパクトを与えるかという参考例です。
  1. 背景:AIによる業務効率化への期待
    この企業は、膨大なデータから回答を抽出する作業をAIで効率化することを目指していました。過去の膨大な回答データをAIに学習させ、類似内容を瞬時に見つけ出し、回答作成を自動化するという壮大な計画です。
  2. 開発者の選択:巨大モデル「Llama for Maverick
    プロジェクトを担当したAI開発会社は、「Llama for Maverick」を選択しました。
    これは「Mixture of Experts」アーキテクチャを採用した当時最大級のモデルで、そのパラメータ数は4050億という途方もないものでした。開発者にとって、モデルのサイズは性能の高さを示す指標であり、最高の成果を出すための合理的な選択に見えました。
  3. 衝撃の事実:モデルサイズが意味するもの
    ここで、ITインフラに詳しくない方にも分かるように「パラメータ」の影響を解説します。パラメータとは、AIモデルの知識や能力の大きさを測る指標のようなものです。そして、重要なルールがあります。
    ・1パラメータあたり、約2バイトのGPUメモリを消費する
    ・これは、モデルをGPUメモリに読み込む(ロードする)だけで消費される
    「静的メモリ」であり、AIが何もしていなくても常に占有され続けます。
  4. このルールを当てはめると、例えば700億パラメータのモデル(Maverickよりずっと小さい)をロードするだけで、140GBものGPUメモリが常に占有される計算になります。一般的な高性能GPUでも、このサイズのモデル一つを動かすのは非常に困難です。
  5. 悪夢の見積もり:現実離れしたインフラ要件
    開発者が選んだ4050億パラメータのモデルを動かすためにIT部門が算出した見積もりは、経営陣を震撼させるものでした。
  6. この物理的なインフラを揃えるための初期投資と、データセンターの電力・冷却設備の大規模な増強コストは、天文学的な数字に膨れ上がりました。
  7. 対比:クラウドAPIとの絶望的な乖離
    さらに衝撃的だったのは、この見積もりと、開発会社がPoC段階でパブリッククラウドのAPIを利用していた際の費用との差です。彼らが支払っていたのは、月額わずか約3,000ドルでした。数千ドルの月額費用が、数百万ドル規模の設備投資へと化けてしまったのです。
この事例が示す教訓は明確です。AIの力を借りる際、ただ巨大で強力なモデルに頼る「力任せのアプローチ」は破綻を招きます。求められるのは、ビジネス要件とインフラの制約を理解した上で、最適なモデルとアーキテクチャを選択する「賢いアプローチ」なのです。

「巨大なモデル」より「賢いプラットフォーム」

前章で提示した深刻な課題のように、力任せのアプローチではなく、より洗練された技術とプラットフォームを用いることで、現実に即したプライベートAIを導入・実現できるはずです。
まず、先の例が最終的にどう問題を解決したかを見てみましょう。彼らは、巨大なモデルに全ての知識を依存させることをやめ、アプリケーション側で工夫を凝らすことで、はるかに小さなモデルを採用することに成功しました。これにより、インフラコストを現実的な範囲に収め、プロジェクトを軌道に乗せることができたのです。
この「賢いアプローチ」を支える中核技術が「RAG(Retrieval-Augmented Generation)」です。RAGについてかなりざっくりと表現すると、「生成AIに『カンニングペーパー(参考資料)』を持たせて、正確な回答を作らせる技術」となります。(詳細はWebで!)
VMware Private AI Foundation with NVIDIAは、リランキングモデルを用いた RAG の実装していることが特徴です。
  1. 質問の入力: ユーザーが質問をします。
  2. 社内データの検索: 社内の独自データが格納された「ベクトルデータベース」から、質問に意味的に関連する情報を検索します。このとき、質問とデータの意味を数値(ベクトル)に変換する「埋め込みモデル」が重要な役割を果たします。
  3. 情報と質問の連携: 見つけ出した関連情報と、元の質問をセットにしてLLM(大規模言語モデル)に渡します。
  4. 正確な回答の生成: LLMは、与えられた情報に基づいて正確な回答を生成します。

RAGのような仕組みを企業が自前で一から構築するのは非常に複雑です。そこで価値を発揮するのが、「VMware Private AI Foundation」のような統合プラットフォームです。このプラットフォームは、複雑なAIアプリケーションの構築と運用をサービスとして提供し、企業が本来注力すべきAIの活用に集中できる環境を整えます。

AI導入は「スモールスタート」から始められる

プライベートAIの導入と聞くと、巨大な初期投資や高度に専門化されたAIチームが必要だと考え、圧倒されてしまうかもしれません。しかし、現実はもっと身近なところから始められます。
実際、わずか2枚のGPUからスタートすることも可能なのです。(VCFがある前提ですが)
  • スモールスタート:最初から巨大なインフラを目指さず、2枚のGPUからスタートするなどス、モールスタートを検討することが可能です。
  • 共有プラットフォーム化:個別のプロジェクトごとにAI基盤を構築するのではなく、共同で利用できるマルチテナント型の共有サービスとして設計します。これにより、初期投資の負担を分散させることが可能になります。
  • スケーラビリティ:一度強固な基盤を構築してしまえば、あとは必要に応じてGPUを追加していくだけで、サービスを柔軟に拡張することが可能となります。
あるいは、今はNVIDIA DGX Sparkというお手頃な?お弁当箱の様は魔法の箱もあります。こちらは小さな初期投資で、AIスパコンのような環境をお手軽に手に入れることが可能です。本番利用というよりは、開発環境や検証環境、あるいはお試しで使ってみたいというケースには非常にマッチすると思います。

パブリッククラウドのAIサービスは、多くが「トークン」と呼ばれる利用量に応じた従量課金制です。利用が活発になればなるほど、予測不能な高額請求が発生するリスクが常に付きまといます。対して、VMware Private AI Foundationを基盤に構築されたマルチテナント環境は、「トークン数を気にせず、自由にAIを使える環境」という利点を提供することが可能なのです。(NVIDIA DGX Sparkも使い放題です!)


成功の鍵は、闇雲に巨大で高性能なモデルを導入することにはありません。本当に解決したい課題を見極め、それに合った適切な規模のAIを、チーム間のオープンな「対話」を通じて賢く構築し、運用していくこと。これこそが、プライベートAIという強力な武器を真に使いこなすための道なのです。(他のシステムでも同じことが言えるので、すべからくですね)
もはや問われているのは、自社データをAIで活用するかどうか(if)ではありません。いかにして活用するか(how)なのです。

それでも初期投資なしで試してみたい・・・

そうです、そうは言ってもという話なのです。誤自宅環境にVCFはハードルが高い、DGX Sparkもお手頃とはいえ購入するには家庭内稟議の敷居がちょっと高い。。。
そんな皆様に朗報です。昨年も紹介しましたが、HOLがあるのです。今年は新作が一つ追加されていました。相変わらず紙芝居ベースでしたが(しっかりとは触れておらず、ぱっと進めた感想ですが)、それでも導入のイメージトレーニングにはなると思います。やはり、まずはここから触ってみることをおすすめします。
そんな私は、相変わらずChatRTXが中心でして、ゲーミングPCに搭載されているGeForce RTXを利用して、もっとできるようになってほしいなぁと淡い期待をしているのでした。
あれ、おかしいですね、社内でAIというタイトルにしていたのですが、気がつけば誤自宅でAIに変わっているというオチでした(合掌)

今回は実機画面のないアドカレになってしまいましたが、いずれDGX Sparkネタとかやりたいなと思っています。(VMware関連じゃないのがアレですけども・・・)

Translate Blog

自己紹介

自分の写真
ITインフラエンジニア。のはずだけど最近は実機をいじれていないので錆びついてる疑惑。営業、コンサル(エセコンw)、プリセールスあたりの色が強い今日このごろです、はい。 vEXPERT 2019-2024 Omnissa Tech Insider

このブログを検索

ブログ アーカイブ



本サイトについて

ITインフラ系エンジニア(のはず)による、気の向くままに書きたいことをつぶやく場所です。もしかしたら備忘録的な側面もあるかも。 ブログに記載する内容はあくまでも個人的見解です。参考情報としてお取り扱いください。

QooQ