Canonical、Charmed Kubeflow 1.6を公開

by Canonical on 5 October 2022

包括的なMLOpsプラットフォームの最新版は高度なAI/MLトレーニングに対応

Ubuntuの提供元であるCanonicalは、エンドツーエンドのMLOpsプラットフォームに最適化済みの複雑なモデルトレーニング機能を加えたCharmed Kubeflow 1.6をリリースしました。Charmed Kubeflowは、Kubernetesで使用するオープンソースの機械学習ツールキットであるKubeflowの企業向けディストリビューションです。

Charmed Kubeflow 1.6は、Kubeflowのアップストリームプロジェクトと同じスケジュールでリリースされます。この最新バージョンはKubeflowのロードマップに従ってパフォーマンスが改善され、高度なモデルトレーニング機能を備えています。

デジタル改革をスピードアップ:モデルのコンセプトから本番導入まで

データサイエンスチームはCharmed Kubeflowによってタスクを自動化して生産性を向上し、企業のコスト削減に貢献できます。このプラットフォームのコンポーネントはcharm、つまりKubernetesで保守やセキュリティの処理を自動化するオペレーターを使用します。データサイエンティストはcharmでワークロードを速やかに展開し、モデルを効率的に市場化できます。

2022年のIBM Index AIレポートによれば、AI/MLを導入した企業は昨年35%に達しました。利点は明白です。たとえば、MLを使用して推奨利益を算出した銀行は、売上の10%増加、資本投資の20%削減、現金回収の20%増加、チャーンの20%減少を実現しました。データサイエンスのワークフローを自動化するツールの選定は、AI/MLプロジェクトへの投資を短期間で回収するために不可欠となりました。

MLOpsによるデータ処理と追跡機能の改善

Charmed Kubeflow 1.6は、展開を高速化するだけでなく、データ処理をさらにシームレスにします。Kubeflowの2022年の調査では、企業にとってデータの処理と変換が最も困難で時間を要することが明らかとなりました。さらに、データは各種のソースから送られ、それぞのソースには独自の処理と依存関係が存在します。

Charmed Kubeflow 1.6では追跡機能が改善されています。  AI/MLモデルを効果的に測定でき、進化とデバッグも簡単になります。このソリューションはデータのドリフトを検出し、モデルが迅速に適合できるようにします。Charmed Kubeflow 1.6ではトライアルログの追跡機能も改良され、データソースに障害がある場合も効率的にデバッグできます。

AIのトレーニングとモデリングの最適化

AI/MLのモデルを本番環境に導入するには最大で15回の反復が必要ですが、そこに達するのは半分程度です。Charmed Kubeflow 1.6は集団ベースのトレーニング(PBT)をサポートし、モデルの反復を加速して、モデルが実運用に耐えられる状態に到達する可能性を改善します。MPIオペレーターにより、大量のデータを効率的にトレーニングできます。PyTorch弾力的トレーニング拡張機能により、モデルのトレーニングがより効果的になり、MLエンジニアはすぐに作業を開始できるようになります。

Charmed Kubeflow 1.6の技術的な詳細

Canonicalは2022年9月8日に、Charmed Kubeflow 1.6について詳しく語るライブストリームを主催します。ここでは、アップストリームのKubeflowや、Canonicalのロードマップに含まれているいくつかのトピックの技術的な詳細についても解説します。このライブストリームでは次の内容について触れます。

  • 新規リリース
  • オープンソースコミュニティへの参加の重要性
  • オープンソース製品の開発に伴う課題
  • アップストリームリリースとCanonicalのCharmed Kubeflowとの相違点

今後のウェブキャストでは、ベータ版についてライブストリームで紹介した機能をさらに詳しく説明します。当初のライブストリームはYouTubeでご覧ください。イベントをFacebookLinkedInに保存していただければ、Canonicalの今後のイベントもお知らせします。

ニュースレターのサインアップ

Ubuntuニュースレターの配信登録

お客様が購読登録を行われる場合、以下の条件に同意されたことになります。Canonicalのプライバシーに関するお知らせ個人情報保護ポリシー

関連記事

エッジAI

オープンソースで何を、なぜ、どのように実現するか エッジAIがデバイスとデータセンターの関係を大きく変える中、組織には常に最新のイノベーションの導入が求められます。AI搭載のヘルスケア機器から自動運転車まで、エッジデバイス上のAI(人工知能)はさまざまな分野で活躍します。これを踏まえて今回のブログ記事では、エッジAIプロジェクトを開始する際の検討事項、利点、課題、オープンソースの役割について考察します。 エッジAIとは エッジにおけるAI、またはエッジAIとは、人工知能とエッジコンピューティングの組み合わせを指します。エッジAIの目的は、接続されたエッジデバイス上で機械学習モデルを実行することです。これにより、デバイスは常にクラウドに接続してデータを処理しなくても、スマー […]

PostgreSQLをAIに活用

AIを扱うことはデータを扱うこと。数値データから動画や画像まで、業界や用途を問わず、AIプロジェクトは何らかの形でデータに依存します。問題は、そのデータをどうやって効率的に保管し、モデルを構築する際に使用するかです。解決策の1つは、実績があり、愛好者の多いデータベースであるPostgreSQLです。近年の開発により、AIをサポートする有力な選択肢になっています。 PostgreSQLを選ぶべき理由 PostgreSQLはオープンソースで高機能のデータベースシステムです。外部キー、サブクエリ、トリガーのほか、さまざまなユーザー定義型や関数をサポートしています。近年はデータベース分野で人気を高め、2023年には年間最優秀データベース管理システム(DBMS)に選出されました。 […]

AI対応のCephストレージ

オープンソースのCephストレージでAIビジョンを強化 今やあらゆる企業がAIの活用に関心を持っています。既存のデータから業務の分析情報や利益を引き出し、コストを削減できることから、AI技術は変化に消極的な企業にさえ驚くほどの速度で広がっています。 しかしこのような情報、節約、利益をもたらすAIシステムは大量のデータへのアクセスに依存します。性能と信頼性の高いストレージシステムがなければ、たとえ最先端のAIソリューションでも速やかに結果は出せません。しかも新しいAI関連のワークロードが既存のビジネスアプリケーションに影響を与えてはなりません。どちらも協調して動作する必要があります。 このブログ記事では、AIソリューションが必要とするストレージシステムおよび使用するデータの […]


© 2024 Canonical Ltd. Ubuntu および Canonical は、Canonical Ltd の登録商標です。