UbuntuとNVIDIA AI WorkbenchでAI開発を加速

by Canonical on 30 April 2024

図1:NVIDIA AI Workbench

CanonicalはNVIDIA AI Workbenchを通じてNVIDIAとのコラボレーションを拡大します。NVIDIA AI Workbenchはワークステーション、データセンター、クラウドデプロイメントすべてでサポートされます。

NVIDIA AI Workbenchという使いやすいツールキットにより、開発者は各自のPCまたはワークステーションでAIや機械学習のモデルを作成、テスト、カスタマイズした後、データセンターやパブリッククラウドに展開できます。インタラクティブな開発ワークフローが簡素化され、初心者にも専門家にも厄介な技術的作業が自動化されます。AIとMLの共同開発が、あらゆるプラットフォームでスキルレベルを問わず可能になりました。

データサイエンス、人工知能、機械学習向けの人気の高いOSとして、UbuntuとCanonicalはAI Workbenchに重要な役割を果たしています。

  • Windowsの場合、WSL2を介してUbuntuでAI Workbenchを使用できます。
  • クラウドでは、リモートマシン向けにサポートされている唯一のターゲットOSとして、Ubuntu 22.04 LTSによるAI Workbenchのクラウドデプロイメントが可能です。
  • データセンターからクラウド、エッジへのAIアプリケーションのデプロイでは、UbuntuベースのコンテナがAI Workbenchの重要な要素です。

CanonicalとNVIDIAの協力によって、このようなシームレスなエンドユーザー体験が可能になります。

AIの導入を計画、ローカルで開始、グローバルに拡張

生成AIやデータサイエンスのプロジェクトの作成、共同作業、再現は簡単です。開発して実行するだけです。残りの処理はNVIDIA AI Workbenchが行います。

  • セットアップの合理化:GPUアクセラレーテッドハードウェア向けのコンテナ化された開発環境を簡単にインストールおよび構成。
  • ノートPCからクラウドへ:RTX搭載PCやワークステーションのローカル環境で開始し、データセンターやクラウドに数クリックで拡張。
  • ワークフロー管理の自動化:プロジェクトリソースの管理、バージョン管理、依存関係の追跡が容易に。
図2:AI Workbenchデスクトップアプリの「Environment(環境)」ウィンドウ

UbuntuとNVIDIA AI Workbenchがクライアントマシンでの生成AIワークロードのエンドユーザー体験を向上

データサイエンス向けの認知されたOSとして、Ubuntuは現在AI/MLの開発とデプロイの目的において広く一般に利用されています。生成AI(GenAI)ワークロードの開発、処理、イテレーションがこの目的に含まれます。小型デバイスとGPUの両方で使用されるGenAIは、エッジAIアプリケーションやデバイスの成長につれて重要性を増しています。スマートシティなどのアプリケーションでは、カメラやセンサーなどのエッジデバイスがさらに必要となるため、より多くのデータをエッジで処理する必要があります。エンドユーザーがカスタマイズ性の高いワークロードを簡単にデプロイできるようにするため、多くの場合、ベアメタルのデプロイで使いやすいUbuntuコンテナが好まれます。NVIDIA AI Workbenchは、GenAIの用途に対応した最適なUbuntuコンテナオプションを提供します。

図3:AI Workbenchの開発ワークフロー

Ubuntu LTSの安心感

Canonicalは、セキュリティ更新とパッチを5年間提供する長期サポート(LTS)リリースにおいて20年の実績を誇ります。Ubuntu Proでは、サポートとセキュリティメンテナンス保証が10年間に延長され、企業は自社でセキュリティとコンプライアンスを管理する負担がなくなるため、質の高いモデルの構築に集中できます。CanonicalとUbuntuは協力してあらゆるAIイノベーターに対して最適化された安全な環境を提供します。

使い始めるのは簡単(そして無料)。

CanonicalのオープンソースAIソリューションを使い始める

ニュースレターのサインアップ

Ubuntuニュースレターの配信登録

お客様が購読登録を行われる場合、以下の条件に同意されたことになります。Canonicalのプライバシーに関するお知らせ個人情報保護ポリシー

関連記事

マネージドAIインフラストラクチャに関するガイド

AIの導入を促進し、セキュリティを高めるマネージドAIインフラストラクチャについて、最新のエグゼクティブガイドでご紹介します。 企業にとってビジネスプロセスにAIを組み込むことはもはや不可欠です。しかし予測不能なコスト、業界における人材不足、製品の膨大な選択肢によって導入の意味が薄れ、最悪の場合は損失にもなりかねません。 どんなプロジェクトでもAIの導入における最大の困難は、モデルやアプリケーションを支える基礎的なスタック、つまりAIインフラストラクチャの運用です。機械学習ツールは、通常のクラウドインフラストラクチャと似ていますが、専門的な運用によって信頼性と拡張性を維持する必要があります。そしてそのスキルを持つ人材は少なく、人件費も高価です。適切な作業を怠れば、企業、モ […]

Canonical、Landscape 24.04 LTSを公開

12年間のサポートに対応するLandscape 24.04 LTSでは、新しいシステム管理ウェブポータル/APIにsnapおよびリポジトリ管理機能を追加しました。 Canonicalは本日、Landscapeの最初のLTSリリースを発表しました。Landscape 24.04 LTSにはバージョン管理されたAPI、アクセシビリティとパフォーマンスに配慮した新しいウェブポータル、直感的なソフトウェア配信管理機能が搭載されています。Landscape 24.04 LTSは、Landscape ServerとLandscape Clientで構成されます。モダナイズされたバックエンドとウェブポータルが搭載されているため、エンジニアリングチームは効率的に作業を行い、パッチや新機能 […]

リアルタイムLinuxに関するCTO向けガイド

リアルタイムシステムおよびそのユースケースと仕組みを理解する 最近の予測によると、2025年には世界のデータの30%近くがリアルタイム処理を必要とします。制御システム、産業用エッジサーバー、PLC、ロボット、ドローンなどを駆動する産業用PCとリアルタイム機能への需要は高まる一方です。ワークロードによって必要なリアルタイムパフォーマンスやサイクルタイムは異なりますが、リアルタイムコンピューティングは今後もますます普及するというのがアナリストの見解です。 また、ソフトウェアがハードウェアデバイスや周辺機器を綿密にサポートすることで、Linuxカーネルを介したリアルタイムコンピューティングが活躍しています。カーネルにリアルタイム機能を持たせる多くのアプローチの中で、PREEMP […]