Azure Machine Learning service – Visual interfaceを試す

LINEで送る
Pocket

はじめに

Microsoft Build 2019にてAzure Machine Learning service (ML service)の新機能「Visual interface」が発表されました。
これまでコーディングが必要だったML serviceにおいてMachine Learning Studio (ML Studio)のようなDrag & DropのGUI操作が可能になるというもので、ML serviceがより使いやすくなることが期待できます。
今回はML serviceに追加された「Visual interface」を試してみます。

ワークスペースの作成

「+リソースの作成」で「Machine Learning service workspace」を検索し、ワークスペースの作成を開始します。

必要な内容を入力して作成を実行します。

Visual interfaceの利用

作成したワークスペースのリソースに移動し、メニューの「Studioワークスペースを起動」で「ワークスペースを起動」をクリックするとVisual interfaceが開きます。(タイトルが「Machine Learning Studio」なので少し戸惑います。)

Visual interfaceのUIは、ただのスタイル違いといっていいほどML StudioのUIと同じつくりになっています。

試しに、サンプルの実験「Sample 1 – Regression: Automobile Price Prediction (Basic)」で実験を作成してみます。
実験の新規作成、モジュールの操作はML Studioと同じで、ML Studioを使い慣れたユーザーであれば特に追加知識なく使うことができそうです。
ただし、プレビュー段階のためか、ML Studioと比較すると使用できるモジュールの種類は少ないため、まだ完全にML Studioを置き換えられるものではない印象です。


Visual interface とML Studioで異なるのは、実験の実行に「Compute Target」を指定する点です。
実験の内容によってスペックを変更できるのはML Studioにはなかったものです。

実験を実行してみます。今回は試しなので、Visual interfaceから作成できるスペック(Standard D2 v2 / 0~2ノード)でCompute Targetを作成して実行します。
プリセット以外のスペックを使用する場合は、あらかじめAzureポータルでCompute Targetを作成しておく必要があります。

Compute Targetの作成が入るため、初回の学習は約13分がかかりました。

Evaluate Modelで精度を見るとML Studioより若干精度は低いものの、概ね同等の精度となっていることがわかります。

実行結果に関しては、Azure ポータルでも確認できるようになっています。
今のところEvaluate Modelの内容は反映されず、試行ごとの精度を横並びで比較することまではできないようです。

Web Serviceのデプロイ

作成したモデルをWeb Serviceとしてデプロイします。
モデルのデプロイも「Compute Target」を指定する以外はML Studioと大きく変わりません。
実行が完了した実験のメニューから「Create Predictive Experiment」をクリックします。

ML Studioと同様に作成されたモデルが1つのモジュールに変化し、「Predictive Experiment」が新たに作成されます。
これを再度実行して、実験を完了させます。

この段階で、Azure ポータル側の「モデル」を確認しても学習済みモデルは表示されませんでした。

実験が完了するとグレーアウトしていた「Deploy Web Service」がクリックできるようになります。

「Deploy Web Service」をクリックするとCompute Targetの選択ウィンドウが表示されます。
まだWeb Service用Compute Targetがないため、「Create New」を選択するとCompute Targetの作成手順が表示されます。
Azureポータルで作成する必要があるようなので、一度Azureポータルに戻って作成を行います。

ワークスペースの「コンピューティング」で「+コンピューティングの追加」をクリックします。

作成手順に沿って「Kubernetes Service」のCompute Targetを作成します。
Kubernetes ServiceのCompute Target は12 コア以上でないと作成できないため、「インスタンスのコア数×ノード数」が12以上となるように設定して作成を行います。
12 コアの環境はちょっとした検証にはなかなかヘビーなので、Azure Container Instancesで簡単に検証できるオプションも欲しいところです。

作成に成功するとVisual interfaceのCompute Targetの選択ウィンドウでもリソースが表示され、デプロイできるようになります。

デプロイを行うと、Visual interface上の学習済みモデルからイメージが作成され、Web Serviceが作成されます。

この段階でAzure ポータル側の「モデル」を確認すると、学習済みモデルが登録されていることが確認できました。

Web Serviceのエンドポイント、APIリファレンスもVisual interfaceから確認できます。

テスト画面で予測を実行してみます。
実価格$13495の自動車について価格を予測してみると「Scored Label」が13903.18とそれらしい値が出てきており、Web Serviceが正常に稼働していることがわかりました。

まとめ

思っていた以上にML StudioそのままのUIで、ML Studioは使ってきた身としては何不自由なく扱うことができました。
コーディングが必要でML serviceに手を出し辛かったユーザーにとっては、ML serviceに手を出す良いきっかけになりそうです。
まだプレビューが公開されたばかりで、モジュールが少なかったり、Web Serviceのデプロイが少し面倒だったりと洗練されていない部分はありますが、ML serviceに最適化された機能が追加され、使いやすくなっていくことに期待したいです。

LINEで送る
Pocket