オンプレミスAI:知っておくべきこと
by Canonical on 12 March 2024
組織ではデジタル戦略の再構築が進行し、AIを中心に据えた多くのプロジェクトがいつでも実稼働できる状態にあります。企業は多くの場合、ハードウェアの負担を最小限に抑えるためにAIプロジェクトをパブリッククラウド上で開始します。しかし、規模の拡大につれて、コスト、デジタル主権、コンプライアンス要件などの理由から、ワークロードをオンプレミスに移行しようとすることがよくあります。自社のインフラストラクチャでのAI運用には明らかにメリットがあるものの、インフラストラクチャとMLOpsの担当者はいくつかの課題を検討する必要があります。
MLOpsは、AIのワークロードを反復可能かつ再現可能な形で実行する上で重要です。Charmed KubeflowなどのMLOpsプラットフォームは、Kubernetes上で動作するクラウドネイティブアプリケーションです。このようなアーキテクチャをオンプレミスで構築すれば、組織はAIアプリケーションを容易にデプロイ、管理、拡張できます。
オンプレミスAIの長所
AI戦略を構築する際には、費用対効果、管理能力、セキュリティとコンプライアンス、パフォーマンスなどの要素を考慮する必要があります。AIプロジェクトをオンプレミスで実行すれば、このような優先課題にどう役立つのかを検討しましょう。
既存インフラストラクチャ上のAI
AIプロジェクト用にまったく新しいデータセンターを建設するのは時間のかかる膨大な作業ですが、必ずしも必要というわけではありません。十分に活用していない既存のインフラストラクチャがすでにある場合は、それを使える可能性があります。オンプレミスの既存のインフラストラクチャでAIを運用することは、新しいプロジェクトや実験を速やかに開始し、さまざまな用途の投資効果を評価し、既存のハードウェアからさらなる価値を引き出す絶好の方法です。
オンプレミスでMLワークロードを保護
多くの組織ではすでに内部ポリシーが明確に定義されており、新しいAIプロジェクトもそれに従う必要があります。オンプレミスのインフラストラクチャを使用すれば、こうしたポリシーを遵守しやすくなる上、コンプライアンスのあるセキュアなMLOpsプラットフォームの基盤の上に、反復可能で再現可能なMLパイプラインを構築できます。特に規制の厳しい業界では、AIをオンプレミスで運用すればコンプライアンスとセキュリティの点検が短時間で済み、セキュリティ問題よりモデルの構築に集中できます。
費用対効果に優れたソリューション
最近のパブリッククラウドは機械学習ワークロードに対応する各種のインスタンスを提供していますが、自社のインフラストラクチャからすべてのデータを移動するには多大なコストがかかります。データをすでに保存している場所でAIプロジェクトを実行すれば、この課題は生じません。これは、組織がAIワークロードをオンプレミスで構築することを選ぶ理由の1つです。
オンプレミスAIの短所
AIプロジェクトの構築と拡張には処理能力が必要です。大きな処理能力を必要とする組織には、すでにプロジェクト開始前から大きな投資が必要です。オンプレミスのインフラストラクチャには、多額の初期費用に加え、デプロイ後のインフラストラクチャの運用コストもかかります。オンプレミスの場合、企業が利用できるトレーニング済みのモデルや既製のサービスも多くありません。
対照的に、パブリッククラウドは容易に導入可能で、多額の投資を必要としません。パブリッククラウドにはAmazon BedRockのようなトレーニング済みモデルの大きなライブラリがあるため、組織は時間を大幅に節約できます。とはいえパブリッククラウドは多くの場合、長期的にはそれほど費用対効果に優れていません。
AIプロジェクトなど、新しい戦略的取り組みには新しい課題が伴います。AIプロジェクトをオンプレミスで実行するかどうかを決める際には、多くの要因を検討し、それが自社にとって適切かどうかを判断してください。
AIをオンプレミスで運用する必要があるのはどのような場合か
- 処理性能:AIプロジェクトに多大な処理能力が必要であることは事実であり、しかもそのレベルは上がるばかりです。処理ニーズを満たすだけのリソースを有し、拡張の余地もある場合のみ、オンプレミスAI戦略を選ぶべきでしょう。
- 業界規制:自社ハードウェア上でデータを完全に管理できれば、業界規制への準拠が容易になります。医療や金融サービスなど規制の厳しい業界の場合は、オンプレミスAIが適している可能性が高くなります。
- プライバシー:これは、あらゆるAIプロジェクトにおいて重要な役割を果たすデータプライバシー全般にも当てはまります。オンプレミスのインフラストラクチャは、データとMLモデルを最大限に管理したい組織にとって魅力的な選択肢です。
- 初期投資:最適なインフラストラクチャの選択肢は、初期投資の予算に大きく依存します。ハードウェアの初期費用を出すのが難しい場合は(オンプレミスで使用されていない既存のインフラストラクチャを利用できる場合を除く)、パブリッククラウドの方が適切かもしれません。
- カスタマイズ可能なソリューション:既製のソリューション、それとも自社の要件に合わせてAIのデプロイをカスタマイズできるプラットフォームのどちらをご希望ですか?柔軟性を重視するならオンプレミスを選ぶべきです。
オンプレミスAI向けのオープンソースソリューション
オープンソースはAI革命の主役です。機械学習の分野で幅広く採用されるオープンソースソリューションが増加しています。次に挙げる主要ツールのいくつかを使用すれば、完全にオープンソースのMLOpsプラットフォームをオンプレミスで構築できます。
- OpenStack:GPUなどの主要なパフォーマンスアクセラレーションデバイスとの円滑な統合を実現する、機能を完備したクラウドプラットフォームです。
- Kubernetes:コンテナオーケストレーションツールとして使用できます。
- Kubeflow:機械学習モデルを開発し、デプロイするためのMLOpsプラットフォームです。
- MLflow:モデルレジストリ用の機械学習プラットフォームです。
オープンソースツールには数多くの利点がありますが、適切なバージョンを選択することが重要です。ツールのセキュリティを確保し、シームレスに統合するには、Canonicalが提供しているような企業環境向けの正式なディストリビューションが必要です。
オープンソースによるハイブリッド戦略
Ciscoの2022年ハイブリッドクラウドグローバルトレンドレポートによると、IT部門の意思決定者の82%がハイブリッド型のIT戦略を採用しています。近年、組織がどれだけAI戦略に注力しているかを考えれば、新しいプロジェクトの多くがハイブリッドクラウド環境で実行されることは容易に予想できます。Canonicalがサポートし、エンドツーエンドソリューションに組み込んでいるようなオープンソースツール(上記のツールなど)では、組織が選択したクラウド上でAIプロジェクトを構築し、拡張することが可能です。ユーザーは、パブリッククラウド上で開始してハードウェアの負担を最小限に抑えた上で、ハイブリッドクラウド戦略を策定し、時間対効果とコスト効率を確保することができます。
参考資料
ニュースレターのサインアップ
関連記事
HPE Discover More AI 東京 2025に出展します
Canonicalは、1月28日にザ・プリンスパークタワー東京で開催される日本最大級のITイベント「HPE Discover More AI 東京 2025」に参加します。今回のテーマは「Ubuntu Pro & MicroCloud LTSで安心の長期運用」です。現地にて、展示テーマやソリューションについて専門家にご相談いただけます。 イベント情報 出展テーマ・ソリューション Ubuntu Pro Ubuntu Proは、ビジネスにおけるセキュリティー支援とコンプライアンスのニーズを満たすエンタープライズサービスです。Python、OpenJDK、MySQL、PostgreSQL、OpenSSLを含む25,000以上のパッケージに、最長で10年間の脆弱性対応を提供し、開 […]
Canonical、Azure IoT運用を革新
Canonical、Microsoft Azure IoT Operationsに最適なプラットフォームを提供 CanonicalはMicrosoftの早期導入パートナーとして、Ubuntu CoreとKubernetes上でMicrosoft Azure IoT Operationsのテストを行ってきました。この協力が実を結び、本日Microsoftは、ノードデータのキャプチャ、エッジベースのテレメトリ処理、クラウドイングレスを大幅に改良した統合データプレーン、Azure IoT Operationsをリリースしました。Azure IoT OperationsはAzureのアダプティブクラウドに必須の要素であり、ハイブリッド、マルチクラウド、エッジ、IoTの環境を統合し […]
SBI BITSとCanonical:OpenStack 導入と6年間の進化の物語
SBI BITSとCanonicalのパートナーシップは、SBIグループのITインフラを進化させ、事業継続性を確保しながら顧客満足度を向上させる成功事例として注目されています。本記事では、2018年のOpenStack/Ceph導入から6年にわたる協力の軌跡をたどります。 第1フェーズ:OpenStackの採用と初期導入 (2018年) 2018年、SBI BITSは従来の仮想化技術からOpenStack/Cephへの移行を決定しました。SBIグループ全体にITインフラを提供するSBI BITSは、リソースを迅速かつ効率的に配分する能力が求められていました。その解決策として選ばれたのが、CanonicalのOpenStack/Cephです。 この選択の理由は、以下の点にあ […]