皆様のITインフラは本番環境においてAIワークフローに対応していますか?

 2018.04.18  2022.01.26

現在、どの企業も、企業データから得られる分析情報の質を高め、新しいサービスを導入していく手段として人工知能AI)のテクノロジを活用しようと躍起になっています。

しかし、社内のデータ サイエンス チームの多くは、コンセプト実証(PoC)の段階を終えてディープ ラーニングの運用準備に取りかかるとき、データ管理の問題に直面します。

必要とされるパフォーマンスの実現に向けて苦労があるのも事実ですが、データを移動、コピーする作業や、拡大し続ける大規模なデータセット用のストレージを最適化する作業が困難であることに気づくという場合もあります。

AIプロジェクトの成功に不可欠なデータ フローはデータセンターだけに隔離されたものではありません。IoTとAIのテクノロジを導入するとき、エッジからコアへ、コアからクラウドへのデータの移動という課題に直面するのは、どの業種の企業も同じです。

Iot/AIにおけるデータ課題

たとえば、ネットアップとパートナー関係にあるいくつかの自動車企業では、増え続ける自動車からデータを収集しています。こうしたデータは、自動運転に必要なAIアルゴリズムのトレーニングに使用されます。そのプロセスにおいて、自動車企業はITテクノロジを文字どおり制限速度いっぱいまで加速しています。

[SMART_CONTENT]

また、小売業の企業は、世界中に展開された数百もの店舗のPOSデバイスから集めたデータに基づいて、推論モデルを構築しています。ほとんどの店舗にとって11月下旬から新年までが年間で最も忙しい時期なので、年末のデータ量の急上昇は容易に想像がつきます。

「AIで直面するデータの課題は、パフォーマンスの実現に関するものだけだ」とお客様に納得してもらおうとするAIソリューション ベンダーも中にはいます。しかしそうした主張は、そのベンダーの提供するソリューションが役割を果たすAIパイプラインの中核だけに当てはまる話です。

ネットアップ データ ファブリックの各種テクノロジは相互に連携して、取り込みからアーカイブまでのデータ フロー全体を網羅するので、データ運用を成功に導くと同時に、各フェーズで最適なパフォーマンス、効率、コストを実現します。

当記事では、AIインフラの課題について、そしてディープ ラーニングを可能にするデータ パイプラインの構築にネットアップがどのように役立つかについてお話ししたいと思います。

ディープ ラーニングは計算処理とI/Oの両方の観点から見て最も要求の厳しいAIワークフローなので、ディープ ラーニング用に設計されたデータ パイプラインは他のAIワークフローやビッグ データ ワークフローにも対応できます。

人工知能のメリットとデメリット」について調べてみよう!

ビッグデータとAI・ディープラーニング

ディープ ラーニング パイプラインのデータ フロー

では、次の図に示したディープ ラーニング パイプラインに必要なワークフローについて考えてみましょう。

ディープラーニングの流れ

  • データの取り込み:データの取り込みは一般的に、自動車やPOSデバイスからストリーミングされるデータをキャプチャするときのように、エッジで実行されます。ユースケースに応じて、取り込みポイントまたはその周辺にITインフラが必要になる場合もあります。たとえば小売企業では、複数のデバイスから集めたデータを統合するための小型のインフラが各店舗で必要になるかもしれません。
  • データの前処理:トレーニング前のデータを正規化するには前処理が必要です。前処理はデータ レイクで行われます。S3階層形式のクラウドや、オンプレミスのファイル ストレージまたはオブジェクト ストレージなどが考えられます。
  • トレーニング:ディープ ラーニングの重要なトレーニング フェーズでは、データはデータ レイクからトレーニング クラスタに一定の間隔でコピーされるのが一般的です。このフェーズで使用されるサーバは、GPUで処理を並列化することで大量のデータに備えます。ここでは物理I/O帯域幅が非常に重要です。
  • 導入:トレーニングを終えたモデルは続いてテストに送られ、その後本番環境に移されます。また、ユースケースによっては、エッジでの処理に戻される場合もあります。本番環境から得られる結果は監視され、新しいデータ フローの形で、もしくは繰り返し処理が必要となる新しく入ってくるデータと一緒に、元のデータ レイクにフィードバックされます。
  • アーカイブ:繰り返し処理を終えたコールド データは無期限に保存することもできます。企業のAIチームの多くは、プライベート クラウドまたはパブリック クラウドのオブジェクト ストレージにコールド データをアーカイブしたいと思っています。

これまでにネットアップの多くのお客様が、クラウドまたはオンプレミスでコモディティ ハードウェアを使い、データ管理の手法を無理に当てはめてこのディープ ラーニング パイプラインを構築しようとしてきました。

クラウドの外にデータを移動するには法外なコストがかかるので、いったんデータをクラウドに保管したら、パイプラインの残りのフェーズも結局はクラウドで実行することになるでしょう。データの保管先がクラウドの中であれ外であれ、本番稼働が進み、データ量が増えるにつれて、ボトルネックは必然的に生じます。

最大のボトルネックが発生するのはトレーニング フェーズです。このフェーズでは、ディープ ラーニング トレーニング クラスタで処理するデータをフィードするのに、膨大なI/O帯域幅と極度のI/O並列処理能力が必要になります。トレーニング フェーズで生成された推論モデルは多くの場合、超低レイテンシ アクセスのメリットがあるDevOps型のリポジトリに格納されます。

取り込みフェーズから始まるパイプライン全体でデータのフローがスムーズにいかない場合、そのディープ ラーニング パイプラインが完全な生産性を達成することはありません。さらには、パイプラインを管理するための作業時間を増やし続けることを覚悟しなくてはならないでしょう。

[RELATED_POSTS]

DX/AI/クラウドに関するユーザー調査
自動車業界のAI

ネットアップとディープ ラーニング パイプライン

エッジからコアへ、コアからクラウドへと、ディープ ラーニング パイプライン全体のニーズを満たすのに必要なデータ管理テクノロジを提供できる製品はネットアップ データ ファブリックだけです。

クラウド プロバイダはエッジには対応できませんし、必要とされるI/Oパフォーマンスの達成も容易にはいかないでしょう。他のストレージ ベンダーはトレーニング時の帯域幅の問題を解決しようとしているものの、超低レイテンシを実現することはできませんし、ワークフロー全体をカバーするのに必要なテクノロジも持ち合わせていません。このような、他社にはできない独自の優位性を持っているのがネットアップ データ ファブリックです。

まずエッジ部分にはONTAP® Selectを配置します。この製品はコモディティ ハードウェア上で動作して、データ集約と高度なデータ管理を可能にします。また、新しく発表されるPlexistorテクノロジは、極めて高速なデータ取り込みが要求される場面に対応できます。

データ レイクとトレーニング クラスタの両方のニーズに対処できるのが、ネットアップのAll Flash FAS(AFF)ストレージです。この製品は、パフォーマンスとキャパシティの面で優れた結果を出すと同時に、時間のかかるデータ コピーの必要性を軽減します。

ネットアップはAFFの機能をさらに拡張するため、NVMe over Fabrics(NVMe-oF)とPlexistorの改良に取り組んでいます。NetApp Private Storage(NPS)は、クラウドでディープ ラーニング パイプラインを構築する場合と同じメリットを多数提供します。

コールド データをアーカイブする役割は、定義済みのポリシーに基づいてオブジェクト ストレージにデータを自動的に移行するNetApp FabricPoolテクノロジが果たします。

NetAppのAI(人工知能)

今後もAIやディープ ラーニングにまつわるテクノロジを取り上げていく予定ですので、楽しみにしていただければと思います。

DX/AI/クラウドに関するユーザー調査

RECENT POST「トレンド」の最新記事


トレンド

ゼロトラストとは?注目されている理由と実現させるポイントを解説

トレンド

アプリケーション開発に求められるマイクロサービスとは?

トレンド

ランサムウェアの脅威とは 感染経路や対策方法など基礎まとめ

トレンド

ランサムウェア防災訓練@京都府舞鶴市 Non-Tech編

皆様のITインフラは本番環境においてAIワークフローに対応していますか?
クラウドへの移行の計画と実行
ブログ購読のお申込み

RECENT POST 最新記事

RANKING人気記事ランキング